Search (6575 results, page 1 of 329)

  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008) 0.29
    0.28950384 = product of:
      0.83232355 = sum of:
        0.049909383 = product of:
          0.14972815 = sum of:
            0.14972815 = weight(_text_:3a in 140) [ClassicSimilarity], result of:
              0.14972815 = score(doc=140,freq=2.0), product of:
                0.19980873 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.023567878 = queryNorm
                0.7493574 = fieldWeight in 140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=140)
          0.33333334 = coord(1/3)
        0.14972815 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.14972815 = score(doc=140,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.010232903 = weight(_text_:und in 140) [ClassicSimilarity], result of:
          0.010232903 = score(doc=140,freq=2.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.19590102 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.14972815 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.14972815 = score(doc=140,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.14972815 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.14972815 = score(doc=140,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.14972815 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.14972815 = score(doc=140,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.023540542 = weight(_text_:im in 140) [ClassicSimilarity], result of:
          0.023540542 = score(doc=140,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.35334828 = fieldWeight in 140, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.14972815 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.14972815 = score(doc=140,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
      0.3478261 = coord(8/23)
    
    Content
    Vgl. auch: https://studylibde.com/doc/13053640/richard-schrodt. Vgl. auch: http%3A%2F%2Fwww.univie.ac.at%2FGermanistik%2Fschrodt%2Fvorlesung%2Fwissenschaftssprache.doc&usg=AOvVaw1lDLDR6NFf1W0-oC9mEUJf.
    Source
    Wissenschaft, helldunkler Ort. Sprache im Dienst des Verstehens. Hrsg.: Maria Nicolini
  2. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.24
    0.24411577 = product of:
      0.6238514 = sum of:
        0.037432037 = product of:
          0.11229611 = sum of:
            0.11229611 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.11229611 = score(doc=562,freq=2.0), product of:
                0.19980873 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.023567878 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.11229611 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11229611 = score(doc=562,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.11229611 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11229611 = score(doc=562,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.11229611 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11229611 = score(doc=562,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.11229611 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11229611 = score(doc=562,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.0066664745 = product of:
          0.013332949 = sum of:
            0.013332949 = weight(_text_:1 in 562) [ClassicSimilarity], result of:
              0.013332949 = score(doc=562,freq=4.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.23029712 = fieldWeight in 562, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
        0.11229611 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.11229611 = score(doc=562,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.008692958 = product of:
          0.017385917 = sum of:
            0.017385917 = weight(_text_:international in 562) [ClassicSimilarity], result of:
              0.017385917 = score(doc=562,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.22113968 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
        0.009579366 = product of:
          0.019158732 = sum of:
            0.019158732 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.019158732 = score(doc=562,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.39130434 = coord(9/23)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
    Source
    Proceedings of the 4th IEEE International Conference on Data Mining (ICDM 2004), 1-4 November 2004, Brighton, UK
  3. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.22
    0.22134471 = product of:
      0.636366 = sum of:
        0.037432037 = product of:
          0.11229611 = sum of:
            0.11229611 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
              0.11229611 = score(doc=2918,freq=2.0), product of:
                0.19980873 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.023567878 = queryNorm
                0.56201804 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.33333334 = coord(1/3)
        0.11229611 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.11229611 = score(doc=2918,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.11229611 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.11229611 = score(doc=2918,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.11229611 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.11229611 = score(doc=2918,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.11229611 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.11229611 = score(doc=2918,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.028760463 = sum of:
          0.0094278185 = weight(_text_:1 in 2918) [ClassicSimilarity], result of:
            0.0094278185 = score(doc=2918,freq=2.0), product of:
              0.057894554 = queryWeight, product of:
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.023567878 = queryNorm
              0.16284466 = fieldWeight in 2918, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.046875 = fieldNorm(doc=2918)
          0.019332644 = weight(_text_:29 in 2918) [ClassicSimilarity], result of:
            0.019332644 = score(doc=2918,freq=2.0), product of:
              0.08290443 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.023567878 = queryNorm
              0.23319192 = fieldWeight in 2918, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.046875 = fieldNorm(doc=2918)
        0.11229611 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.11229611 = score(doc=2918,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.008692958 = product of:
          0.017385917 = sum of:
            0.017385917 = weight(_text_:international in 2918) [ClassicSimilarity], result of:
              0.017385917 = score(doc=2918,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.22113968 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.5 = coord(1/2)
      0.3478261 = coord(8/23)
    
    Date
    29. 8.2009 21:15:48
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
    Pages
    S.1-10
    Source
    System Sciences, 2009. HICSS '09. 42nd Hawaii International Conference
  4. Donsbach, W.: Wahrheit in den Medien : über den Sinn eines methodischen Objektivitätsbegriffes (2001) 0.21
    0.21089216 = product of:
      0.5389466 = sum of:
        0.031193366 = product of:
          0.0935801 = sum of:
            0.0935801 = weight(_text_:3a in 5895) [ClassicSimilarity], result of:
              0.0935801 = score(doc=5895,freq=2.0), product of:
                0.19980873 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.023567878 = queryNorm
                0.46834838 = fieldWeight in 5895, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5895)
          0.33333334 = coord(1/3)
        0.0935801 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.0935801 = score(doc=5895,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.021211687 = weight(_text_:und in 5895) [ClassicSimilarity], result of:
          0.021211687 = score(doc=5895,freq=22.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.40608138 = fieldWeight in 5895, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.0935801 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.0935801 = score(doc=5895,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.0935801 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.0935801 = score(doc=5895,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.0935801 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.0935801 = score(doc=5895,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.014712838 = weight(_text_:im in 5895) [ClassicSimilarity], result of:
          0.014712838 = score(doc=5895,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.22084267 = fieldWeight in 5895, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.0039282576 = product of:
          0.007856515 = sum of:
            0.007856515 = weight(_text_:1 in 5895) [ClassicSimilarity], result of:
              0.007856515 = score(doc=5895,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.13570388 = fieldWeight in 5895, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5895)
          0.5 = coord(1/2)
        0.0935801 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.0935801 = score(doc=5895,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
      0.39130434 = coord(9/23)
    
    Abstract
    Das Problem der Wahrnehmung und Darstellung von Wahrheit durch die Medien führt zu vier zentralen Fragen: Wie viel Wahrheit gibt es in der Welt, über die Journalisten berichten müssen? Wie ermittelt oder recherchiert man diese Wahrheit? Wie trennt man die Spreu vom Weizen? Und wie geht man als Journalist mit dem um, was man als Wahrheit erkannt hat oder erkannt zu haben glaubt? Hier gibt es ganz offensichtlich eine Parallele zwischen Journalisten und Wissenschaftlern. Journalisten und Wissenschaftler brauchen erstens Hypothesen, zweitens geeignete Hypothesentests, drittens ein gutes Abgrenzungs-Kriterium und viertens Verfahren, um die erkannten Sachverhalte auf angemessene Weise für eine Kommunikation mit anderen zu repräsentieren, das heißt sie darzustellen. Es gibt zwei große Unterschiede zwischen Journalisten und Wissenschaftlern: Journalisten sind in der Regel auf raum-zeitlich begrenzte Aussagen aus, Wissenschaftler in der Regel auf raumzeitlich unbegrenzte Gesetze. Aber diese Unterschiede sind fließend, weil Wissenschaftler raum-zeitlich begrenzte Aussagen brauchen, um ihre All-Aussagen zu überprüfen, und Journalisten sich immer häufiger auf das Feld der allgemeinen Gesetzes-Aussagen wagen oder doch zumindest Kausalinterpretationen für soziale Phänomene anbieten. Der zweite Unterschied besteht darin, dass die Wissenschaft weitgehend professionalisiert ist (zumindest gilt dies uneingeschränkt für die Naturwissenschaften und die Medizin), was ihr relativ klare Abgrenzungs- und Güte-Kriterien beschert hat. Diese fehlen weitgehend im Journalismus.
    Content
    Der Beitrag basiert auf einem Vortrag beim 9. Ethiktag "Wissenschaft und Medien" am Zentrum für Ethik und Recht in der Medizin des Universitätsklinikums Freiburg im Februar 2001.
    Source
    Politische Meinung. 381(2001) Nr.1, S.65-74 [https%3A%2F%2Fwww.dgfe.de%2Ffileadmin%2FOrdnerRedakteure%2FSektionen%2FSek02_AEW%2FKWF%2FPublikationen_Reihe_1989-2003%2FBand_17%2FBd_17_1994_355-406_A.pdf&usg=AOvVaw2KcbRsHy5UQ9QRIUyuOLNi]
  5. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.18
    0.18227775 = product of:
      0.6987314 = sum of:
        0.043670714 = product of:
          0.13101214 = sum of:
            0.13101214 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.13101214 = score(doc=306,freq=2.0), product of:
                0.19980873 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.023567878 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.13101214 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.13101214 = score(doc=306,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.13101214 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.13101214 = score(doc=306,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.13101214 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.13101214 = score(doc=306,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.13101214 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.13101214 = score(doc=306,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.13101214 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.13101214 = score(doc=306,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.26086956 = coord(6/23)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  6. Gödert, W.; Hubrich, J.; Boteram, F.: Thematische Recherche und Interoperabilität : Wege zur Optimierung des Zugriffs auf heterogen erschlossene Dokumente (2009) 0.10
    0.10011689 = product of:
      0.32895553 = sum of:
        0.018089388 = weight(_text_:und in 193) [ClassicSimilarity], result of:
          0.018089388 = score(doc=193,freq=16.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.34630734 = fieldWeight in 193, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.073119946 = product of:
          0.14623989 = sum of:
            0.14623989 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.14623989 = score(doc=193,freq=2.0), product of:
                0.24977885 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.023567878 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.073119946 = product of:
          0.14623989 = sum of:
            0.14623989 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.14623989 = score(doc=193,freq=2.0), product of:
                0.24977885 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.023567878 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.073119946 = product of:
          0.14623989 = sum of:
            0.14623989 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.14623989 = score(doc=193,freq=2.0), product of:
                0.24977885 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.023567878 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.010403548 = weight(_text_:im in 193) [ClassicSimilarity], result of:
          0.010403548 = score(doc=193,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.15615936 = fieldWeight in 193, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.073119946 = product of:
          0.14623989 = sum of:
            0.14623989 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.14623989 = score(doc=193,freq=2.0), product of:
                0.24977885 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.023567878 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.007982805 = product of:
          0.01596561 = sum of:
            0.01596561 = weight(_text_:22 in 193) [ClassicSimilarity], result of:
              0.01596561 = score(doc=193,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.19345059 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
      0.3043478 = coord(7/23)
    
    Abstract
    Die Verwendung von Erschließungsinstrumenten zur Beschreibung von Informationsressourcen kann Effizienz und Effektivität thematischer Recherchen wesentlich steigern: standardisierte Begriffe unterstützen Recall und Precision begrifflicher Suchen; Ausweisung von Relationen bietet die Grundlage für explorative Suchprozesse. Eine zusätzliche Steigerung der Funktionalitäten des Retrievals kann mittels einer Ausdifferenzierung und Spezifizierung der in Normdaten enthaltenen semantischen Informationen erreicht werden, die über die in Thesauri und Klassifikationen verbreiteten grundlegenden Relationstypen (äquivalent, hierarchisch, assoziativ) hinausgehen. In modernen Informationsräumen, in denen Daten verschiedener Institutionen über eine Plattform zeit- und ortsunabhängig zugänglich gemacht werden, können einzelne Wissenssysteme indes nur unzureichend das Information Retrieval unterstützen. Zu unterschiedlich sind die für thematische Suchanfragen relevanten Indexierungsdaten. Eine Verbesserung kann mittels Herstellung von Interoperabilität zwischen den verschiedenen Dokumentationssprachen erreicht werden. Im Vortrag wird dargelegt, in welcher Art und Weise die in Wissenssystemen enthaltenen semantischen Informationen zur Unterstützung thematischer Recherchen optimiert werden können und inwiefern Interoperabilität zwischen Systemen geschaffen werden kann, die gleichwertige Funktionalitäten in heterogenen Informationsräumen gewährleisten. In diesem Zusammenhang wird auch auf aktuelle Mappingprojekte wie das DFG-Projekt CrissCross oder das RESEDA-Projekt, welches sich mit den Möglichkeiten der semantischen Anreicherung bestehender Dokumentationssprachen befasst, eingegangen.
    Source
    https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/searchtype/authorsearch/author/%22Hubrich%2C+Jessica%22/docId/703/start/0/rows/20
  7. Hilberer, T.: Aufwand vs. Nutzen : Wie sollen deutsche wissenschaftliche Bibliotheken künftig katalogisieren? (2003) 0.09
    0.09453554 = product of:
      0.18119311 = sum of:
        0.022515094 = weight(_text_:buch in 1733) [ClassicSimilarity], result of:
          0.022515094 = score(doc=1733,freq=8.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.20547508 = fieldWeight in 1733, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.015625 = fieldNorm(doc=1733)
        0.01556108 = weight(_text_:und in 1733) [ClassicSimilarity], result of:
          0.01556108 = score(doc=1733,freq=74.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.29790485 = fieldWeight in 1733, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1733)
        0.0051741824 = product of:
          0.010348365 = sum of:
            0.010348365 = weight(_text_:bibliothekswesen in 1733) [ClassicSimilarity], result of:
              0.010348365 = score(doc=1733,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.09850156 = fieldWeight in 1733, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1733)
          0.5 = coord(1/2)
        0.010348365 = weight(_text_:bibliothekswesen in 1733) [ClassicSimilarity], result of:
          0.010348365 = score(doc=1733,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.09850156 = fieldWeight in 1733, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.015625 = fieldNorm(doc=1733)
        0.008559256 = product of:
          0.017118512 = sum of:
            0.017118512 = weight(_text_:kataloge in 1733) [ClassicSimilarity], result of:
              0.017118512 = score(doc=1733,freq=2.0), product of:
                0.1351219 = queryWeight, product of:
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.023567878 = queryNorm
                0.1266894 = fieldWeight in 1733, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1733)
          0.5 = coord(1/2)
        0.03820971 = weight(_text_:katalogisierung in 1733) [ClassicSimilarity], result of:
          0.03820971 = score(doc=1733,freq=10.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.28303272 = fieldWeight in 1733, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.015625 = fieldNorm(doc=1733)
        0.024077127 = product of:
          0.048154254 = sum of:
            0.048154254 = weight(_text_:titelaufnahme in 1733) [ClassicSimilarity], result of:
              0.048154254 = score(doc=1733,freq=4.0), product of:
                0.19056913 = queryWeight, product of:
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.023567878 = queryNorm
                0.25268653 = fieldWeight in 1733, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1733)
          0.5 = coord(1/2)
        0.03820971 = weight(_text_:katalogisierung in 1733) [ClassicSimilarity], result of:
          0.03820971 = score(doc=1733,freq=10.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.28303272 = fieldWeight in 1733, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.015625 = fieldNorm(doc=1733)
        0.009305216 = weight(_text_:im in 1733) [ClassicSimilarity], result of:
          0.009305216 = score(doc=1733,freq=10.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.13967317 = fieldWeight in 1733, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.015625 = fieldNorm(doc=1733)
        0.0031426062 = product of:
          0.0062852125 = sum of:
            0.0062852125 = weight(_text_:1 in 1733) [ClassicSimilarity], result of:
              0.0062852125 = score(doc=1733,freq=8.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.1085631 = fieldWeight in 1733, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1733)
          0.5 = coord(1/2)
        0.0028976528 = product of:
          0.0057953056 = sum of:
            0.0057953056 = weight(_text_:international in 1733) [ClassicSimilarity], result of:
              0.0057953056 = score(doc=1733,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.07371323 = fieldWeight in 1733, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1733)
          0.5 = coord(1/2)
        0.003193122 = product of:
          0.006386244 = sum of:
            0.006386244 = weight(_text_:22 in 1733) [ClassicSimilarity], result of:
              0.006386244 = score(doc=1733,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.07738023 = fieldWeight in 1733, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1733)
          0.5 = coord(1/2)
      0.5217391 = coord(12/23)
    
    Content
    "Die folgenden Thesen versuchen den Stand der Fachdiskussion so auf den Punkt zu bringen, dass sie auch für Außenstehende verständlich wird. Da sich auch Bibliothekarinnen und Bibliothekare außerhalb der Katalogabteilungen öfter als Laien auf dem Gebiet der Katalogisierung fühlen, scheint eine Veröffentlichung in der wichtigsten deutschen bibliothekarischen Zeitschrift nicht verfehlt zu sein. Die Frage, wie Bücher, Zeitschriften und andere Medien in den Computerkatalogen zu verzeichnen sind, hört sich ziemlich bibliothekarisch - sprich: esoterisch - an. Tatsächlich hat ihre Beantwortung bedeutende Folgen für Hochschulen und Wissenschaft, denn die Bibliotheken geben bislang den weitaus größten Teil ihres Etats nicht für Literatur aus, sondern für ihr Personal. Die Kosten für die Katalogisierung müssen deshalb eingeschränkt werden, bzw. die Mittel sollten nur für solche Erschließungsangebote verwendet werden, die die Wissenschaftler und Studierenden wirklich brauchen. Die Erschließung der Bestände stellt eine der wesentlichen Aufgaben der Bibliotheken dar. Nur das im Katalog verzeichnete Buch kann gefunden und somit gelesen werden. Diese Verzeichnung erfolgt keinesfalls, wie man vielleicht glauben könnte, durch einfaches Abschreiben der Titelblätter, vielmehr folgt die bibliothekarische Beschreibung einem komplizierten und umfangreichen Regelwerk. Dadurch soll sichergestellt werden, dass jedes Buch eindeutig und unverwechselbar erfasst wird. Solche Perfektion ist bei historischen Beständen unverzichtbar, wo es gilt, jedes Objekt in seiner Individualität voll ständig zu beschreiben. Für das Massengeschäft der aktuellen Literatur wäre weitaus weniger Aufwand vonnöten. Derzeit katalogisieren deutsche wissenschaftliche Bibliotheken ausnahmslos nach den Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken, abgekürzt RAK-WB. Auf knapp 600 großformatigen Seiten wird in 823 Paragraphen (allerdings mit springender Zählung) festgelegt, was wie zu erfassen und auf Titelkarten zu schreiben ist. Hinzu kommen meist mehrere Ordner umfassende Auslegungs- und Anwendungsregeln der verschiedenen regionalen Katalogisierungsverbünde. Ganz zu schweigen von den Protokollen der ebenfalls auf Verbundebene tätigen Katalog-AGs. Die Unterrichtung in diesem Regelwerk stellt einen wesentlichen Teil der Ausbildung zum Diplom-Bibliothekar dar (Laufbahn des gehobenen Dienstes), der folglich seine berufliche Identität nicht zuletzt aus der Qualität der Titelaufnahmen herleitet. Die Erschließungskosten sind daher hoch; nach jüngsten Erhebungen der Universitätsbibliothek Mannheim belaufen sie sich durchschnittlich auf ca. 20 Euro pro Buch. Dieser hohe Aufwand wird von Seiten der Nutzer weder wahrgenommen noch nachgefragt. Ihnen geht es nicht um die Beschreibung, sondern um das Auffinden von Büchern und Informationen. Zudem haben die verschiedenen Auslegungsregeln zur Folge, dass die bibliographische Beschreibung ein und desselben Buchs von Verbund zu Verbund verschieden ausfällt. Die durch das ausführliche Regelwerk angestrebte Eindeutigkeit wird also trotz des betriebenen Aufwands nicht erreicht. Die RAK-WB wurden für Zettelkataloge entwickelt und entsprechen nicht den Bedingungen von Datenbanken und Online-Katalogen. Sie beinhalten z. B. ausführliche Vorschriften für die Frage, unter welchem Element des Titels die "Haupteintragung" zu leisten sei, also wo die "Haupttitelkarte" in den Zettelkasten einzuordnen und von welchen anderen Elementen wie darauf zu verweisen ist. Das spielt im elektronischen Katalog überhaupt keine Rolle mehr, wo jedes Element der bibliographischen Beschreibung als Sucheinstieg gewählt werden kann. Sind, um noch ein Beispiel aufzuführen, mehr als drei Verfasser an einem Werk beteiligt, so wird nur der erste berücksichtigt, um die Zahl der Zettel klein zu halten. Der Online-Katalog hingegen sollte alle beteiligten Personen aufführen, um möglichst viele Informationen zu bieten.
    Die deutschen wissenschaftlichen Bibliotheken, so lässt sich zusammenfassen, katalogisieren mit hohem Aufwand und ohne entsprechenden Nutzen nach einem hypertrophen und veralteten Regelwerk - das überdies kaum geeignet ist, multimediale Objekte zu verzeichnen. Aus dieser Situation heraus ist, vor allem von Seiten der Deutschen Bibliothek, der Vorschlag gemacht worden, das deutsche Regelwerk durch die international weit verbreiteten Anglo-American Cataloguing Rules in der zweiten Ausgabe (sog. AACR2) zu ersetzen. Dies - so wird vorgebracht - würde es erlauben, Titelaufnahmen aus großen anglo-amerikanischen Datenbanken einfach zu übernehmen und so die Kosten für die Katalogisierung zu senken. Diese Lösung scheint auf den ersten Blick sehr verlockend zu sein, tatsächlich stellt sie keinen gangbaren Weg dar, und zwar aus mehreren Gründen: 1. Auch die AACR2 sind für Zettelkataloge verfasst und mithin genau so veraltet wie die RAK. 2. Die AACR2 sind nicht weniger kompliziert und umfangreich als die RAK, und sie kennen wie diese von Bibliotheksverbund zu Bibliotheksverbund unterschiedliche Auslegungsregeln. 3. Aus dieser exegetischen Vielfalt folgt eine Uneinheitlichkeit der bibliographischen Beschreibung. Einfache Übernahme von Titelaufnahmen ohne Nachbearbeitung wäre also nicht möglich. 4. Die AACR2 sind spezifisch für das amerikanische Bibliothekswesen entwickelt, das sich vom deutschen markant unterscheidet (z. B. Freihandbibliotheken statt Magazinbibliotheken). Schon deswegen könnte man das Regelwerk nicht 1:1 übernehmen, sondern müsste zahlreiche Anpassungen vornehmen, wie dies auch in der Schweiz geschehen ist. Auch dadurch wären einfache Übernahmen ausgeschlossen. 5. Eine solche einfache Übernahme würde weiterhin dadurch verhindert werden, dass die Ansetzung von Namen nach AACR2 in der Landessprache erfolgen müsste: Wo in einer amerikanischen Titelaufnahme z.B. Florence steht, müsste bei uns Florenz stehen (bisher nach RAK originalsprachlich Firenze). Der Umarbeitungsaufwand wäre besonders erheblich bei der Ansetzung von Namen aus Sprachen mit nicht-lateinischer Schrift, die man im Englischen ganz anders transkribiert als bei uns. Letzteres wiegt besonders schwer, denn alle Wissenschaften, die solche Sprachen zum Gegenstand haben oder mit ihnen arbeiten, könnten mit den neuen Ansetzungen nichts mehr anfangen. Sie würden diese Umstellung vermutlich nicht mitmachen und Sonderkataloge einfordern. 6. Sehr große Unterschiede bestehen außerdem bei der Katalogisierung von Zeitschriften. Während die RAK sich beispielsweise immer an den neuesten Titel einer Zeitschrift halten, stehen Zeitschriften in Amerika immer un ter dem ältesten. Eine Umarbeitung der Zeitschriftendatenbank wäre ungemein aufwendig, ohne dass der Nutzer etwas davon hätte. 7. Schon seit längerem übernehmen deutsche Bibliotheken angloamerikanische Titelaufnahmen, und passen sie an. Unterschiedliche Regelwerke verhindern Übernahmen also nicht. Umgekehrt gilt leider auch, dass Titelaufnahmen, die zwar nach demselben deutschen Regelwerk (RAK) erstellt worden sind, aber in einem anderen Verbund, folglich nach anderen Anwendungsregeln, nicht ohne Nachbearbeitung übernommen werden können: in Göttingen wird das Buch anders beschrieben als in Freiburg, trotz gleichen Regelwerks. Zunächst müsste also der einfache Austausch von Katalogisaten zwischen den deutschen Bibliotheksverbünden ermöglicht werden.
    8. Wollte man nicht mit enormem Aufwand alle vorhandenen Titelaufnahmen ändern, dann wäre ein Katalogbruch die Folge. Die Nutzer hätten also für ältere Werke den RAK-, und für neuere den AACR2-Katalog zu konsultie ren, und in vielen Bibliotheken noch einen oder gar mehrere Zettelkataloge für die ältesten Teile des Bestandes. 9. Der Aufwand, besonders an Schulungen, aber auch an technischen Umstellungen wäre immens und schlechterdings nicht zu leisten; die durchschnittlichen Kosten pro Titelaufnahme würden sich dadurch gewaltig er höhen. Bearbeitungsrückstände würden sich bilden, der ohnehin meist zu langwierige Geschäftsgang würde weiter gedehnt. (Die Kosten eines Umstiegs werden derzeit durch eine von der DFG geförderte Studie der Deutschen Bibliothek untersucht. Da sich letztere bisher mit geradezu verbissener Heftigkeit für einen Umstieg ausgesprochen hat, wird das Ergebnis außerordentlich kritisch betrachtet werden müssen.) 10. Aus den aufgeführten Gründen würden zahlreiche Bibliotheken mit Recht einen Umstieg nicht mitmachen, so dass der Datentausch für deutsche Bibliotheken insgesamt noch schwieriger, sprich: kostspieliger, werden würde. Fazit: Ein Umstieg auf die AACR2 würde bedeuten, dass man mit hohem Aufwand und ohne wirklichen Nutzen ein überkompliziertes und veraltetes Regelwerk durch ein anderes ersetzen würde, das ebenso schwerfällig und nicht mehr zeitgemäß ist. Dass dies unsinnig ist, liegt auf der Hand; die Entwicklung müsste vielmehr in eine andere Richtung gehen: 1. Die Zahl der Katalogisierungsverbünde in Deutschland müsste vermindert werden, zumindest müssten die größeren Verbünde eine gemeinsame Datenbank anlegen. Dies würde den Katalogisierungsaufwand sofort be trächtlich reduzieren, da eine Vielzahl von Bibliotheken dieselbe Aufnahme nutzen könnte. 2. Das Regelwerk RAK muss modernisiert und verschlankt werden. Vorschriften, die nur für Kartenkataloge sinnvoll sind, müssen gestrichen werden - andere, die zur Beschreibung multimedialer Objekte erforderlich sind, sind neu einzufügen. Da das bisherige Regelwerk die Grundlage bildet, besteht Kompatibilität, d.h. es findet kein Katalogbruch statt. 3. Anzustreben wäre selbstverständlich auch eine Anpassung an verbreitete internationale Standards, um den Austausch zu vereinfachen. 4. Dieses weiterentwickelte Regelwerk könnte RAK-L(ight) oder RAK-online heißen, und es sollte mehrstufig angelegt werden. Ein minimaler und auch von nicht-professionellen Kräften handhabbarer Mindest-Standard müss te ermöglicht werden. Die Erfassung könnte dann zu einem Gutteil durch angelernte Schreib- bzw. wissenschaftliche Hilfskräfte erfolgen, was eine enorme Kostenersparnis bedeuten und die hochqualifizierten Diplom-Bibliothekare für andere Aufgaben (z.B. im Bereich des elektronischen Publizierens) freisetzen würde. Solche Minimal-Katalogisate könnten bei Bedarf durch weitere Elemente ergänzt werden bis hin zu einer umfassenden, professionellen bibliographischen Beschreibung, wie sie historische Bestände erfordern. 5. Der durch die Vereinfachung ersparte Aufwand könnte sinnvoll für eine elektronische Erfassung sämtlicher noch vorhandener Zettelkataloge genutzt werden. Alle Erfassungsarbeiten würden beschleunigt werden. Denkbar wäre dann auch, die Kataloge durch Verzeichnung von Aufsätzen, Inhaltsverzeichnissen, Abstracts, Rezensionen etc. mit Informationen anzureichern.
    An einer Weiterentwicklung der RAK in diesem Sinne einer Vereinfachung, Modernisierung und besseren internationalen Kompatibilität wurde unter dem Arbeitstitel RAK2 bereits einige Jahre gearbeitet. Diese Arbeit ist de facto schon im Jahr 2000 von der Deutschen Bibliothek gestoppt worden. Seither führen die Bibliothekare eine unfruchtbare Umstellungsdiskussion, anstatt ein sinnvolles Regelwerk zu erarbeiten. Die erzwungene Pause gibt Gelegenheit, die Zielrichtung neu zu fassen und stärker als bisher geplant auf eine Vereinfachung abzuzielen. Oberster Grundsatz sollte dabei sein, nur das zu leisten, was wirklich vom Nutzer (und nicht nur vom Bibliothekar) gebraucht wird. Mit anderen Worten: die immer spärlicher fließenden Mittel müssen so effektiv wie möglich eingesetzt werden. Da aber die zuständigen bibliothekarischen Institutionen, allen voran die derzeit in Vielem merkwürdig rückwärts gewandte Deutsche Bibliothek, genau diese Weiterentwicklung zu bremsen versuchen, müssen die Impulse von anderer Seite kommen. Es bleibt zu hoffen, dass die Kanzler der Hochschulen und die Aufsicht führenden Ministerien die Bibliotheken doch noch zwingen, ihre Katalogisierungsregeln den Erfordernissen der Nutzer anzupassen, für die sie da sind."
    Date
    22. 6.2003 12:13:13
  8. Henze, G.: First IFLA Meeting of Experts an an International Cataloguing Code (2003) 0.09
    0.085407354 = product of:
      0.24554615 = sum of:
        0.042381 = weight(_text_:allgemeines in 1960) [ClassicSimilarity], result of:
          0.042381 = score(doc=1960,freq=2.0), product of:
            0.13446471 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.023567878 = queryNorm
            0.31518307 = fieldWeight in 1960, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1960)
        0.023059536 = weight(_text_:und in 1960) [ClassicSimilarity], result of:
          0.023059536 = score(doc=1960,freq=26.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.441457 = fieldWeight in 1960, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1960)
        0.04271975 = weight(_text_:katalogisierung in 1960) [ClassicSimilarity], result of:
          0.04271975 = score(doc=1960,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.3164402 = fieldWeight in 1960, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1960)
        0.04271975 = weight(_text_:katalogisierung in 1960) [ClassicSimilarity], result of:
          0.04271975 = score(doc=1960,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.3164402 = fieldWeight in 1960, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1960)
        0.018019475 = weight(_text_:im in 1960) [ClassicSimilarity], result of:
          0.018019475 = score(doc=1960,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.27047595 = fieldWeight in 1960, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1960)
        0.008055268 = product of:
          0.016110536 = sum of:
            0.016110536 = weight(_text_:29 in 1960) [ClassicSimilarity], result of:
              0.016110536 = score(doc=1960,freq=2.0), product of:
                0.08290443 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.023567878 = queryNorm
                0.19432661 = fieldWeight in 1960, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1960)
          0.5 = coord(1/2)
        0.0102447495 = product of:
          0.020489499 = sum of:
            0.020489499 = weight(_text_:international in 1960) [ClassicSimilarity], result of:
              0.020489499 = score(doc=1960,freq=4.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.26061562 = fieldWeight in 1960, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1960)
          0.5 = coord(1/2)
        0.05834661 = sum of:
          0.042381 = weight(_text_:allgemeines in 1960) [ClassicSimilarity], result of:
            0.042381 = score(doc=1960,freq=2.0), product of:
              0.13446471 = queryWeight, product of:
                5.705423 = idf(docFreq=399, maxDocs=44218)
                0.023567878 = queryNorm
              0.31518307 = fieldWeight in 1960, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.705423 = idf(docFreq=399, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1960)
          0.01596561 = weight(_text_:22 in 1960) [ClassicSimilarity], result of:
            0.01596561 = score(doc=1960,freq=2.0), product of:
              0.08253069 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.023567878 = queryNorm
              0.19345059 = fieldWeight in 1960, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1960)
      0.3478261 = coord(8/23)
    
    Abstract
    Vom 28. bis 30. Juli 2003 trafen sich in der Deutschen Bibliothek Frankfurt am Main auf Einladung der Sektion Katalogisierung der IFLA Regelwerksexperten aus Europa, Amerika und Australien zum »First IFLA Meeting of Experts an an International Cataloguing Code«. Die europäischen Regelwerksgremien entsandten verantwortliche Regelwerksexperten. Dieser Auftaktveranstaltung, die die Erschließung in Europa zum Schwerpunkt hatte, sollen weitere Veranstaltungen im Vorfeld der IFLA-Konferenzen 2004 in Buenos Aires und 2006 in Seoul folgen. 52 Teilnehmerinnen und Teilnehmer aus insgesamt 29 Ländern und drei Kontinenten nutzten die Gelegenheit zu einem intensiven Informations- und Meinungsaustausch auf der Frankfurter Konferenz, nachdem bereits im Vorfeld Hintergrundpapiere auf der Konferenz-Website" bereitgestellt worden waren. Diskussionsbeiträge wurden ebenfalls bereits vor dem Treffen über eine E-MailListe ausgetauscht, die nicht nur den Teilnehmerinnen und Teilnehmern, sondern auch weiteren Interessierten offen stand und besonders in den Wochen und Tagen vor der Konferenz rege genutzt wurde. Arbeitssprache der Konferenz war englisch. Das Ziel der Konferenz, die Möglichkeiten eines weltweiten Datenaustausches über gemeinsame Standards zu den Inhalten von bibliografischen Datensätzen und Normdatensätzen zu verbessern, stieß auf allgemeines Interesse. Für eine vergleichende Untersuchung zu grundlegenden Gemeinsamkeiten und Unterschieden in den derzeit in Europa verwendeten Regelwerken erstellten die Regelwerksgremien unter Verwendung eines einheitlichen Fragenkataloges »Steckbriefe«, um Möglichkeiten einer Harmonisierung auszuloten und vielleicht sogar in naher Zukunft ein internationales Regelwerk zu entwickeln. Angesichts der Vielzahl der in Europa verwendeten Regelwerke konnten diese nicht alle im Plenum vorgestellt werden. Stattdessen gab es eine kurze Vorstellung der Regelwerksgremien in den angloamerikanischen Ländern sowie Frankreich, Deutschland und Osterreich, Spanien, Russland, Italien und Kroatien.
    Date
    16.11.2003 19:22:45
  9. Michalowsky, U.: Fachverbund Judaica der Region Berlin-Brandenburg : Projektskizze (2006) 0.07
    0.07304592 = product of:
      0.24000803 = sum of:
        0.015508419 = weight(_text_:und in 4973) [ClassicSimilarity], result of:
          0.015508419 = score(doc=4973,freq=6.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.2968967 = fieldWeight in 4973, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4973)
        0.018109638 = product of:
          0.036219276 = sum of:
            0.036219276 = weight(_text_:bibliothekswesen in 4973) [ClassicSimilarity], result of:
              0.036219276 = score(doc=4973,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.34475547 = fieldWeight in 4973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4973)
          0.5 = coord(1/2)
        0.036219276 = weight(_text_:bibliothekswesen in 4973) [ClassicSimilarity], result of:
          0.036219276 = score(doc=4973,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.34475547 = fieldWeight in 4973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4973)
        0.029957397 = product of:
          0.059914794 = sum of:
            0.059914794 = weight(_text_:kataloge in 4973) [ClassicSimilarity], result of:
              0.059914794 = score(doc=4973,freq=2.0), product of:
                0.1351219 = queryWeight, product of:
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.023567878 = queryNorm
                0.4434129 = fieldWeight in 4973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4973)
          0.5 = coord(1/2)
        0.05980766 = weight(_text_:katalogisierung in 4973) [ClassicSimilarity], result of:
          0.05980766 = score(doc=4973,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.4430163 = fieldWeight in 4973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4973)
        0.05980766 = weight(_text_:katalogisierung in 4973) [ClassicSimilarity], result of:
          0.05980766 = score(doc=4973,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.4430163 = fieldWeight in 4973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4973)
        0.020597974 = weight(_text_:im in 4973) [ClassicSimilarity], result of:
          0.020597974 = score(doc=4973,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.30917975 = fieldWeight in 4973, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4973)
      0.3043478 = coord(7/23)
    
    Abstract
    Der Beitrag stellt den neu gegründeten Fachverbund Judaica der Region Berlin-Brandenburg vor, der zur Aufgabe hat, verschiedene Projekte (Katalogisierung und Retrokatalogisierung, Digitalisierung, Bündelung von Fachinformation usw.) auf regionaler Ebene im Hinblick auf die Teilnahme an einer Virtuellen Fachbibliothek zu befördern. Erstes Ergebnis dieser Bemühungen ist der Verbundkatalog Judaica, der über die Suchmaschine MetaLib des KOBV ein Retrieval über verteilte lokale Ressourcen im Bereich Judaistik (Fachausschnitte der OPACs großer Bibliotheken der Region Berlin-Brandenburg sowie Kataloge kleinerer Einrichtungen) ermöglicht. Der Verbundkatalog soll um weitere regionale Bestandsnachweise von Judaica- und Hebraica-Sammlungen sowie um E-Publikationen, Digitalisate usw. erweitert werden.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 53(2006) H.3/4, S.181-184
  10. Ackermann, E.: Piaget's constructivism, Papert's constructionism : what's the difference? (2001) 0.07
    0.07036372 = product of:
      0.32367313 = sum of:
        0.031193366 = product of:
          0.0935801 = sum of:
            0.0935801 = weight(_text_:3a in 692) [ClassicSimilarity], result of:
              0.0935801 = score(doc=692,freq=2.0), product of:
                0.19980873 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.023567878 = queryNorm
                0.46834838 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
          0.33333334 = coord(1/3)
        0.073119946 = product of:
          0.14623989 = sum of:
            0.14623989 = weight(_text_:2c in 692) [ClassicSimilarity], result of:
              0.14623989 = score(doc=692,freq=2.0), product of:
                0.24977885 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.023567878 = queryNorm
                0.5854775 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
          0.5 = coord(1/2)
        0.073119946 = product of:
          0.14623989 = sum of:
            0.14623989 = weight(_text_:2c in 692) [ClassicSimilarity], result of:
              0.14623989 = score(doc=692,freq=2.0), product of:
                0.24977885 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.023567878 = queryNorm
                0.5854775 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
          0.5 = coord(1/2)
        0.073119946 = product of:
          0.14623989 = sum of:
            0.14623989 = weight(_text_:2c in 692) [ClassicSimilarity], result of:
              0.14623989 = score(doc=692,freq=2.0), product of:
                0.24977885 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.023567878 = queryNorm
                0.5854775 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
          0.5 = coord(1/2)
        0.073119946 = product of:
          0.14623989 = sum of:
            0.14623989 = weight(_text_:2c in 692) [ClassicSimilarity], result of:
              0.14623989 = score(doc=692,freq=2.0), product of:
                0.24977885 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.023567878 = queryNorm
                0.5854775 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Content
    Vgl.: https://www.semanticscholar.org/paper/Piaget-%E2%80%99-s-Constructivism-%2C-Papert-%E2%80%99-s-%3A-What-%E2%80%99-s-Ackermann/89cbcc1e740a4591443ff4765a6ae8df0fdf5554. Darunter weitere Hinweise auf verwandte Beiträge. Auch unter: Learning Group Publication 5(2001) no.3, S.438.
  11. Wiesenmüller, H.: Informationsaufbereitung I : Formale Erfassung (2004) 0.07
    0.07013473 = product of:
      0.23044269 = sum of:
        0.018799042 = weight(_text_:und in 2914) [ClassicSimilarity], result of:
          0.018799042 = score(doc=2914,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.35989314 = fieldWeight in 2914, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.031703662 = weight(_text_:informationswissenschaft in 2914) [ClassicSimilarity], result of:
          0.031703662 = score(doc=2914,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.29862255 = fieldWeight in 2914, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.05126371 = weight(_text_:katalogisierung in 2914) [ClassicSimilarity], result of:
          0.05126371 = score(doc=2914,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 2914, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.051075295 = product of:
          0.10215059 = sum of:
            0.10215059 = weight(_text_:titelaufnahme in 2914) [ClassicSimilarity], result of:
              0.10215059 = score(doc=2914,freq=2.0), product of:
                0.19056913 = queryWeight, product of:
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.023567878 = queryNorm
                0.53602904 = fieldWeight in 2914, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2914)
          0.5 = coord(1/2)
        0.05126371 = weight(_text_:katalogisierung in 2914) [ClassicSimilarity], result of:
          0.05126371 = score(doc=2914,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 2914, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.02162337 = weight(_text_:im in 2914) [ClassicSimilarity], result of:
          0.02162337 = score(doc=2914,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.32457113 = fieldWeight in 2914, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.0047139092 = product of:
          0.0094278185 = sum of:
            0.0094278185 = weight(_text_:1 in 2914) [ClassicSimilarity], result of:
              0.0094278185 = score(doc=2914,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.16284466 = fieldWeight in 2914, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2914)
          0.5 = coord(1/2)
      0.3043478 = coord(7/23)
    
    Abstract
    Formale Erfassung wird auch als formale Analyse, Formalerschließung, Formalkatalogisierung, alphabetische Katalogisierung oder Titelaufnahme bezeichnet. Dabei wird der letzte Terminus nicht nur für den Vorgang der Erfassung verwendet, sondern kann auch sein Ergebnis beschreiben. Andere Bezeichnungen dafür sind Katalogisat oder Metadaten (Daten über Daten). Unter formaler Erfassung versteht man die konsistent nach bestimmten Regeln erfolgende Beschreibung und das Wiederauffindbar-Machen von Objekten nach äußerlichen, formalen Kriterien. Gegenstand einer formalen Erfassung können Objekte aller Art sein, also beispielsweise auch die Produktionspalette eines Industrieunternehmens. Im Informations- und Dokumentationswesen bezieht sich die formale Erfassung üblicherweise auf Dokumente (z. B. Druckschriften, audiovisuelle Materialien, Archivalien, Internet-Ressourcen, Museumsobjekte), wobei je nach Dokumenttyp unterschiedliche Merkmale zu erfassen sind. Die Formalerschließung stellt seit jeher eine zentrale Aufgabe von IuD-Institutionen dar. Sie bildet sozusagen das Fundament, auf dem die inhaltliche Erschließung aufsetzt. Diese erfolgt im deutschsprachigen Raum oft erst in einem zweiten, deutlich getrennten Arbeitsschritt. Im angelsächsischen Gebiet werden hingegen formale und sachliche Erschließung typischerweise gleichzeitig und durch denselben Bearbeiter vorgenommen.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  12. Boockmann, M.; Stabenow, A.: Hebraica in der Hochschule für jüdische Studien in Heidelberg (HfJS) : Bestand und Kataloge (2006) 0.07
    0.06823277 = product of:
      0.22419338 = sum of:
        0.0171611 = weight(_text_:und in 47) [ClassicSimilarity], result of:
          0.0171611 = score(doc=47,freq=10.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.328536 = fieldWeight in 47, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=47)
        0.015522547 = product of:
          0.031045094 = sum of:
            0.031045094 = weight(_text_:bibliothekswesen in 47) [ClassicSimilarity], result of:
              0.031045094 = score(doc=47,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2955047 = fieldWeight in 47, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=47)
          0.5 = coord(1/2)
        0.031045094 = weight(_text_:bibliothekswesen in 47) [ClassicSimilarity], result of:
          0.031045094 = score(doc=47,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.2955047 = fieldWeight in 47, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=47)
        0.03631385 = product of:
          0.0726277 = sum of:
            0.0726277 = weight(_text_:kataloge in 47) [ClassicSimilarity], result of:
              0.0726277 = score(doc=47,freq=4.0), product of:
                0.1351219 = queryWeight, product of:
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.023567878 = queryNorm
                0.53749764 = fieldWeight in 47, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.046875 = fieldNorm(doc=47)
          0.5 = coord(1/2)
        0.05126371 = weight(_text_:katalogisierung in 47) [ClassicSimilarity], result of:
          0.05126371 = score(doc=47,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 47, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=47)
        0.05126371 = weight(_text_:katalogisierung in 47) [ClassicSimilarity], result of:
          0.05126371 = score(doc=47,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 47, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=47)
        0.02162337 = weight(_text_:im in 47) [ClassicSimilarity], result of:
          0.02162337 = score(doc=47,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.32457113 = fieldWeight in 47, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=47)
      0.3043478 = coord(7/23)
    
    Abstract
    Der Bestand der 1979 gegründeten Hochschule für Jüdische Studien (HfJS) umfasst mit insgesamt ca. 48.000 Bänden, den Unterrichtsfächern an der HfJS entsprechend, fast die gesamte Breite der Jüdischen Studien. Die aktuelle Forschungsliteratur wird durch Altbestände seit dem 16. Jh. ergänzt. Von Beginn an wurden zwei Kataloge geführt, einer in hebräischer und einer in lateinischer Schrift, wobei die hebräischen Titel ohne Paralleltitel in lateinischer Schrift ausschließlich im hebräischen Katalog verzeichnet werden, die mit Paralleltitel in transliterierter Ansetzung in beiden. Die nicht rein hebräischen Werke sind inzwischen nahezu vollständig im SWB verzeichnet, während der hebräische Katalog bisher nur als Kartenkatalog besteht und diese Bestände daher nicht außerhalb der HfJS recherchierbar sind. Die Recherche der transliterierten hebräischen Titel im elektronischen Katalog wird durch die verschiedenen Normen der Transliteration, die zu unterschiedlichen Zeiten bei der Erstellung der Katalogisate verwendet wurden, und durch die geringen Kenntnisse der Benutzer über diese Normen erschwert. Die Lösung dieser Probleme liegt in der Erstellung eines EDV-Kataloges auf der Basis einer Unicode fähigen Bibliothekssoftware, die durch Doppelung bestimmter Kategorien die Möglichkeit zur zweisprachigen Katalogisierung bietet.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 53(2006) H.3/4, S.153-156
  13. Mittler, E.: Dublin Core und deutsche Bibliotheken (2000) 0.06
    0.05583392 = product of:
      0.18345432 = sum of:
        0.0171611 = weight(_text_:und in 4455) [ClassicSimilarity], result of:
          0.0171611 = score(doc=4455,freq=10.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.328536 = fieldWeight in 4455, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4455)
        0.015522547 = product of:
          0.031045094 = sum of:
            0.031045094 = weight(_text_:bibliothekswesen in 4455) [ClassicSimilarity], result of:
              0.031045094 = score(doc=4455,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2955047 = fieldWeight in 4455, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4455)
          0.5 = coord(1/2)
        0.031045094 = weight(_text_:bibliothekswesen in 4455) [ClassicSimilarity], result of:
          0.031045094 = score(doc=4455,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.2955047 = fieldWeight in 4455, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=4455)
        0.05126371 = weight(_text_:katalogisierung in 4455) [ClassicSimilarity], result of:
          0.05126371 = score(doc=4455,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 4455, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=4455)
        0.05126371 = weight(_text_:katalogisierung in 4455) [ClassicSimilarity], result of:
          0.05126371 = score(doc=4455,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 4455, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=4455)
        0.012484257 = weight(_text_:im in 4455) [ClassicSimilarity], result of:
          0.012484257 = score(doc=4455,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 4455, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4455)
        0.0047139092 = product of:
          0.0094278185 = sum of:
            0.0094278185 = weight(_text_:1 in 4455) [ClassicSimilarity], result of:
              0.0094278185 = score(doc=4455,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.16284466 = fieldWeight in 4455, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4455)
          0.5 = coord(1/2)
      0.3043478 = coord(7/23)
    
    Abstract
    Ende Oktober 1999 hat das 7. Dublin core Meeting in der Deutschen Bibliothek in Frankfurt/M. in beeindruckender Weise die Internationalität und Interdisziplinarität dieses Ansatzes zur Beschreibung elektronischer Medien verdeutlicht. Es war zugleich eine Anerkennung für die vielfältigen deutschen Aktivitäten. Anhand von Beispielen (Math-Net und Math-Bibl-Net; SSG-FI der SUB Göttingen; Südwestverbund und HBZ) werden die Zielvorstellungen von Dublin Core herausgearbeitet. Um die Auffindbarkeit der elektronischen Dokumente durch Standardisierung der Metadaten zu sichern setzt DC schon beim Autor an. Es ist u.a. gelungen, DC im Rahmen von neuen Standards wie open-e-book zu implementieren. Damit wird die Interoperabilität von Metadaten wesentlich verbessert. Die deutschen Bibliotheken haben sich erfolgreich in die internationale Entwicklung integriert. Auch die Teilnahme am OCLC-Projekt CORC trägt dazu bei. Das kann Rückwirkungen auch auf die Regeln für die Katalogisierung gedruckter Medien haben
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.46-55
  14. DNB: Neues zu Sammelwerken und Personennamen : Splitregeln für fortlaufende Sammelwerke - Individualisierung von Personennamen (2006) 0.05
    0.05116988 = product of:
      0.16812961 = sum of:
        0.023446526 = weight(_text_:und in 5993) [ClassicSimilarity], result of:
          0.023446526 = score(doc=5993,freq=42.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.44886562 = fieldWeight in 5993, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5993)
        0.017118512 = product of:
          0.034237023 = sum of:
            0.034237023 = weight(_text_:kataloge in 5993) [ClassicSimilarity], result of:
              0.034237023 = score(doc=5993,freq=2.0), product of:
                0.1351219 = queryWeight, product of:
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2533788 = fieldWeight in 5993, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5993)
          0.5 = coord(1/2)
        0.034175802 = weight(_text_:katalogisierung in 5993) [ClassicSimilarity], result of:
          0.034175802 = score(doc=5993,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.25315216 = fieldWeight in 5993, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.03125 = fieldNorm(doc=5993)
        0.034050196 = product of:
          0.06810039 = sum of:
            0.06810039 = weight(_text_:titelaufnahme in 5993) [ClassicSimilarity], result of:
              0.06810039 = score(doc=5993,freq=2.0), product of:
                0.19056913 = queryWeight, product of:
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.023567878 = queryNorm
                0.3573527 = fieldWeight in 5993, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5993)
          0.5 = coord(1/2)
        0.034175802 = weight(_text_:katalogisierung in 5993) [ClassicSimilarity], result of:
          0.034175802 = score(doc=5993,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.25315216 = fieldWeight in 5993, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.03125 = fieldNorm(doc=5993)
        0.022020161 = weight(_text_:im in 5993) [ClassicSimilarity], result of:
          0.022020161 = score(doc=5993,freq=14.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.33052707 = fieldWeight in 5993, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=5993)
        0.0031426062 = product of:
          0.0062852125 = sum of:
            0.0062852125 = weight(_text_:1 in 5993) [ClassicSimilarity], result of:
              0.0062852125 = score(doc=5993,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.1085631 = fieldWeight in 5993, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5993)
          0.5 = coord(1/2)
      0.3043478 = coord(7/23)
    
    Abstract
    Splitregeln für fortlaufende Sammelwerke Der Standardisierungsausschuss hat die Einführung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke beschlossen und in einem Umlaufverfahren im Frühjahr 2006 der Veröffentlichung und baldigen Anwendung der dafür notwendigen Änderungen in den »Regeln für die alphabetische Katalogisierung - RAK« und den »Format und Konventionen für die Zeitschriften-Titelaufnahme in der Zeitschriftendatenbank ZETA« zugestimmt. Die ZDB hat angekündigt, die Splitregeln ab Januar 2007 anzuwenden. Dieser Termin wurde gewählt, um ausreichend Zeit für die Vorbereitung und Durchführung verbundinterner Schulungen einzuräumen und Regelungen für den Umgang mit Altdaten vorzubereiten.
    Individualisierung von Personennamen Die Praxisregeln zu RAK-WB § 311 und RSWK § 106: Individualisierung von Personennamen beim Katalogisieren mit der Personennamendatei (PND), sind mit dem 1. Juli 2006 in Kraft getreten. Die Praxisregeln folgen den im Jahr 2004 im »perso-Projekt« getroffenen Beschlüssen. Im »perso-Projekt« waren in einem gemeinsamen Projekt der Expertengruppen PND, Formalerschließung und RSWK/SWD die Personenansetzungsregeln der Kegelwerke RAK-WB und RSWK einander angeglichen worden. Die miteinander abgestimmten Regeltexte hatten ein Stellungnahmeverfahren durchlaufen, und der Standardisierungsausschuss hatte die Veröffentlichung und Anwendung beschlossen. Mit den Praxisregel n zur Individualisierung wird eine wichtige Grundlage für die Arbeit in der Normdatei PND manifestiert. Die nun in Kraft getretenen Praxisregeln können nur einen Teil der im »perso-Projekt« vereinbarten Entwicklungen realisieren, da sie sich noch an den im bestehenden Austauschformat gegebenen Möglichkeiten orientieren. Weitergehende Formatveränderungen sind darin wegen des beschlossenen Umstiegs nach MARC21 zum jetzigen Zeitpunkt nicht möglich. Aus diesem Grund werden auch noch unterschiedliche Textfassungen für die Praxisregel zu den RAK-WB § 311 und RSWK § 106 vorgelegt. Ein gemeinsamer Regelwerkstext für Formal- und Sacherschließung wird nach Abschluss der internationalen Regelwerksentwicklung formuliert. Die im »perso-Projekt« getroffenen Festlegungen werden in die Diskussion und Kommentierung des RDA-Entwurfs für Personenansetzungsregeln einfließen und den deutschen Standpunkt bestimmen. Individualisierte Datensätze in der PND stellen wertvolle Sucheinstiege für die Benutzer unterschiedlichster Kataloge und Bestände dar. Sie ermöglichen die Verlinkung von Veröffentlichungen von und über die Person, von Archivalien, Museumsbeständen und Lexikoneinträgen, wie zum Beispiel in der deutschen Ausgabe der freien Internetenzyklopädie Wikipedia. Die PND umfasst zur Zeit rund 2,7 Millionen Datensätze, von denen etwa 1,1 Millionen individualisiert sind, das heißt genau eine Person beschreiben. Die kooperativ geführte Normdatei wird von allen deutschsprachigen Bibliotheksverbünden, dem Kalliope-Verbund und in Projekten angewendet. Mit vereinten Kräften und den nun geltenden Praxisregeln soll die Anzahl der individualisierten Datensätzen in den nächsten Jahren kontinuierlich steigen.
  15. Elektronische Volltextvermittlung ohne Copyright-Probleme (2009) 0.05
    0.050177302 = product of:
      0.16486828 = sum of:
        0.022881467 = weight(_text_:und in 2669) [ClassicSimilarity], result of:
          0.022881467 = score(doc=2669,freq=40.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.438048 = fieldWeight in 2669, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2669)
        0.010348365 = product of:
          0.02069673 = sum of:
            0.02069673 = weight(_text_:bibliothekswesen in 2669) [ClassicSimilarity], result of:
              0.02069673 = score(doc=2669,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.19700313 = fieldWeight in 2669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2669)
          0.5 = coord(1/2)
        0.02069673 = weight(_text_:bibliothekswesen in 2669) [ClassicSimilarity], result of:
          0.02069673 = score(doc=2669,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.19700313 = fieldWeight in 2669, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.03125 = fieldNorm(doc=2669)
        0.016645677 = weight(_text_:im in 2669) [ClassicSimilarity], result of:
          0.016645677 = score(doc=2669,freq=8.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.24985497 = fieldWeight in 2669, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=2669)
        0.08476717 = weight(_text_:ausland in 2669) [ClassicSimilarity], result of:
          0.08476717 = score(doc=2669,freq=4.0), product of:
            0.17878623 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.023567878 = queryNorm
            0.47412583 = fieldWeight in 2669, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.03125 = fieldNorm(doc=2669)
        0.0031426062 = product of:
          0.0062852125 = sum of:
            0.0062852125 = weight(_text_:1 in 2669) [ClassicSimilarity], result of:
              0.0062852125 = score(doc=2669,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.1085631 = fieldWeight in 2669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2669)
          0.5 = coord(1/2)
        0.006386244 = product of:
          0.012772488 = sum of:
            0.012772488 = weight(_text_:22 in 2669) [ClassicSimilarity], result of:
              0.012772488 = score(doc=2669,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.15476047 = fieldWeight in 2669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2669)
          0.5 = coord(1/2)
      0.3043478 = coord(7/23)
    
    Content
    "Seit nunmehr elf Jahren stellt FIZ Karlsruhe seinen Kunden in Wirtschaft und Wissenschaft über FIZ AutoDoc Fachliteratur aus aller Welt zur Online-Bestellung bereit. Jetzt wurde der Webauftritt des automatischen Volltextvermittlungs-Services völlig überarbeitet und mit zahlreichen neuen Funktionen ausgestattet. Außerdem gelang es FIZ Karlsruhe, weitere renommierte Volltextlieferanten für FIZ AutoDoc zu gewinnen. Durch die neue Kooperation mit Reprints Desk, Inc. können per DRM Copyright-geschützte PDF-Dokumente einfach geliefert und von seiten des Kunden verarbeitet werden. Auf der Frankfurter Buchmesse stellte FIZ Karlsruhe das innovative Workflow-Management-System für Literaturbeschaffung erstmals vor. Die Verbesserungen in FIZ AutoDoc machen die Beschaffung von wissenschaftlichen Publikationen, von Forschungsberichten, Patentschriften und Unternehmensveröffentlichungen noch komfortabler. Für effizienteren Kundensupport und eine einfachere Navigation sorgt die neu gestaltete FIZ AutoDoc-Webseite. Neu ist auch die Zusammenarbeit mit Reprints Desk, Inc., mit dessen anwenderfreundlichem DRM-Schutz PDF-Dokumente ohne zusätzliche Plugins geöffnet werden können. Für mehr Komfort bei der Literaturbeschaffung sorgt die Wiedereinführung von PDF als Standard-Lieferformat bei FIZ AutoDoc. Neue Lieferanten und verbesserte Bestell-Optionen erweitern die Möglichkeiten zur Beschaffung von Zeitschriftenartikeln, Forschungsberichten, Patentschriften und anderen Publikationen aus dem In- und Ausland. Ebenso neu im Netzwerk der Zulieferer sind die American Chemical Society (ACS), die Artikel aus den ACS-Zeitschriften von 1996 bis heute anbietet, die ETH Zürich, die für Schweizer Kunden Dokumente ausliefern wird, die Elsevier-Verlagsgruppe und der Thieme Verlag mit seinen eFirst-Publikationen. Außerdem bestehen Kooperationen mit renommierten Zentral- und Fachbibliotheken im In- und Ausland, darunter die Technische Informationsbibliothek (TIB) Hannover, die dank spezieller Vereinbarungen wieder Dokumente im PDF-Format elektronisch über FIZ AutoDoc liefert. Die internationalen Kooperationen garantieren alle Liefermöglichkeiten in Einklang mit dem Urheberrecht. Dabei ist sichergestellt, dass alle Lieferanten das Urheberrecht ihres Landes berücksichtigen und die Verlage die ihnen gesetzlich zustehenden Copyright-Gebühren erhalten.
    Hintergrund zu Funktionsweise und Lieferanten FIZ AutoDoc, der automatische Volltextvermittlungsservice von FIZ Karlsruhe, ist ein modernes, innovatives Workflow-Management-System, in dem die einzelnen Arbeitsschritte wie die Beschaffung von Literatur, deren Auslieferung, die Einhaltung von Copyright-Rechten und Abrechnung automatisiert ablaufen. Das System basiert auf modernsterTechnik und die einzelnen Module werden flexibel und intelligent eingesetzt. Der Zugriff kann entweder über das FIZ AutoDoc-Web-Portal oder über firmenspezifische Intranetlösungen erfolgen. FIZ AutoDoc stellt alle Funktionen für eine professionelle Literaturbeschaffung bereit und führt sie überwiegend automatisch aus: Bestellannahme über Formularoberflächen oder Schnittstellen (Open URL / Webservice), automatische Standortermittlung in den Datenbeständen der angeschlossenen Zulieferer, automatische Weiterleitung des Auftrages an die liefernde Bibliothek oder den Verlag, automatische Auslieferung und Abrechnung, etc. Kann eine Literaturbestellung nicht automatisch ausgeführt werden, besteht die Möglichkeit, mithilfe eines Backoffice innerhalb der eigenen Firma oder über den FIZ AutoDoc-Service eine individuelle Beschaffung zu beauftragen. Für das Volltextmanagement im Intranet stehen neben den eigentlichen Bestell- und Lieferfunktionen weitere Funktionen wie die Integration in vorhandene Linkresolver (z. B. SFX), die Einbindung eigener Bibliotheksbestände oder ausgefeilte Statistikfunktionen zur Verfügung."
    Date
    22. 2.2009 19:15:26
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 56(2009) H.1, S.45-46
  16. Stäcker, T.: Sacherschließung alter Drucke : die Retrokonversion vorhandener Kataloge und Bibliographien (2009) 0.05
    0.04996532 = product of:
      0.16417177 = sum of:
        0.03377264 = weight(_text_:buch in 3048) [ClassicSimilarity], result of:
          0.03377264 = score(doc=3048,freq=2.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.3082126 = fieldWeight in 3048, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=3048)
        0.025454026 = weight(_text_:und in 3048) [ClassicSimilarity], result of:
          0.025454026 = score(doc=3048,freq=22.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.48729765 = fieldWeight in 3048, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3048)
        0.015522547 = product of:
          0.031045094 = sum of:
            0.031045094 = weight(_text_:bibliothekswesen in 3048) [ClassicSimilarity], result of:
              0.031045094 = score(doc=3048,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2955047 = fieldWeight in 3048, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3048)
          0.5 = coord(1/2)
        0.031045094 = weight(_text_:bibliothekswesen in 3048) [ClassicSimilarity], result of:
          0.031045094 = score(doc=3048,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.2955047 = fieldWeight in 3048, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=3048)
        0.03631385 = product of:
          0.0726277 = sum of:
            0.0726277 = weight(_text_:kataloge in 3048) [ClassicSimilarity], result of:
              0.0726277 = score(doc=3048,freq=4.0), product of:
                0.1351219 = queryWeight, product of:
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.023567878 = queryNorm
                0.53749764 = fieldWeight in 3048, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3048)
          0.5 = coord(1/2)
        0.012484257 = weight(_text_:im in 3048) [ClassicSimilarity], result of:
          0.012484257 = score(doc=3048,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 3048, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=3048)
        0.009579366 = product of:
          0.019158732 = sum of:
            0.019158732 = weight(_text_:22 in 3048) [ClassicSimilarity], result of:
              0.019158732 = score(doc=3048,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.23214069 = fieldWeight in 3048, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3048)
          0.5 = coord(1/2)
      0.3043478 = coord(7/23)
    
    Abstract
    Während die Formalerschließung alter Drucke, nicht zuletzt durch die groß angelegten Fördermaßnahmen der Deutschen Forschungsgemeinschaft in den 80er und 90er Jahren, massiv vorangetrieben wurden, blieb es um die Sacherschließung alter Drucke lange Zeit vergleichsweise still. Erst die Göttinger, Hallenser und vor allem Berliner Bemühungen um die Einbringung der alten Realkataloge in den OPAC schärften wieder das Bewusstsein für das Potential, das eine Konversion alter Sachkataloge birgt. In vielen Altbestandsbibliotheken liegen ältere und neuere Sachkataloge in gedruckter Form oder als Kartenkatalog vor. Wahrnehmung und Nutzung dieser Kataloge ist jedoch im Zeitalter der elektronischen Informationsvermittlung und -versorgung meist gering. Eine systematische Retrokonversion könnte die Situation verbessern helfen. Ziel des Referates ist es, Aktivitäten zur Konversion von alten Realkatalogen und anderen Sacherschließungsinstrumenten an verschiedenen Altbestandsbibliotheken vorzustellen und Vorschläge zur Optimierung und Abstimmung dieser Prozesse zu machen.
    Date
    22. 8.2009 19:51:28
    Form
    Altes Buch
    Series
    Zeitschrift für Bibliothekswesen und Bibliographie : Sonderband ; 96
    Source
    Wissen bewegen - Bibliotheken in der Informationsgesellschaft / 97. Deutscher Bibliothekartag in Mannheim, 2008. Hrsg. von Ulrich Hohoff und Per Knudsen. Bearb. von Stefan Siebert
  17. CAS und CSA vereinbaren die Bereitstellung weiterer Datenbanken auf STN International (2004) 0.05
    0.048629217 = product of:
      0.15978172 = sum of:
        0.025717804 = weight(_text_:und in 2356) [ClassicSimilarity], result of:
          0.025717804 = score(doc=2356,freq=66.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.4923475 = fieldWeight in 2356, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2356)
        0.012805449 = product of:
          0.025610898 = sum of:
            0.025610898 = weight(_text_:bibliothekswesen in 2356) [ClassicSimilarity], result of:
              0.025610898 = score(doc=2356,freq=4.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.24377894 = fieldWeight in 2356, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2356)
          0.5 = coord(1/2)
        0.018493803 = weight(_text_:informationswissenschaft in 2356) [ClassicSimilarity], result of:
          0.018493803 = score(doc=2356,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.1741965 = fieldWeight in 2356, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2356)
        0.025610898 = weight(_text_:bibliothekswesen in 2356) [ClassicSimilarity], result of:
          0.025610898 = score(doc=2356,freq=4.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.24377894 = fieldWeight in 2356, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2356)
        0.014564968 = weight(_text_:im in 2356) [ClassicSimilarity], result of:
          0.014564968 = score(doc=2356,freq=8.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.2186231 = fieldWeight in 2356, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2356)
        0.052447014 = weight(_text_:ausland in 2356) [ClassicSimilarity], result of:
          0.052447014 = score(doc=2356,freq=2.0), product of:
            0.17878623 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.023567878 = queryNorm
            0.2933504 = fieldWeight in 2356, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2356)
        0.010141784 = product of:
          0.020283569 = sum of:
            0.020283569 = weight(_text_:international in 2356) [ClassicSimilarity], result of:
              0.020283569 = score(doc=2356,freq=8.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2579963 = fieldWeight in 2356, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2356)
          0.5 = coord(1/2)
      0.3043478 = coord(7/23)
    
    Abstract
    Chemical Abstracts Service (CAS) und CSA haben vereinbart, im Laufe des Jahres 2004 acht weitere CSADatenbanken über den Online-Dienst STN International verfügbar zu machen. Dieser Vertrag sichert STN®, der gemeinsam von CAS in den USA, FIZ Karlsruhe in Europa und IST in Japan betrieben wird, seine Position als größter unabhängiger Online-Anbieter von CSADatenbanken mit Schwerpunkt auf CSAs Angebot in den Bereichen Biowissenschaften, Umwelt, Meereswissenschaften, Informatik, Materialwissenschaft, Ingenieurwissenschaften, Luft- und Raumfahrt. Die demnächst bei STN angebotenen CSA-Datenbanken enthalten Informationen zu Biotechnologie, Sonderbereichen des Ingenieurwesens, geologischen und ökologischen Studien sowie Bibliothekswesen und Informationswissenschaft. Zusätzlich zu den neu hinzukommenden Datenbanken bietet STN Zugriff auf ein breites Spektrum von CSA-Fachdatenbanken, von denen einige über das europäische STN-Servicezentrum im FIZ Karlsruhe angeboten werden. STN International (The Scientific and Technical Information Network) ist der führende Online-Service für Wissenschaft und Technik mit einem Angebot von über 200 Fachdatenbanken. STN wird gemeinsam von drei Servicezentren betrieben: von CAS in Columbus, Ohio;vom FIZ Karlsruhe und von derJapan Science and Technology Agency in Tokio. CSA, ein Unternehmen der Cambridge Information Group, ist einer der führenden Anbieter von bibliografischen Datenbanken und gedruckten Zeitschrif ten, dievon über 4.000 Forschungseinrichtungen aus aller WeIt genutzt werden. CSA veröffentlicht jährlich über 700.000 Abstracts aus über 14.000 Quellen. Sein preisgekrönter Internet-Datenbank-Dienst bietet Web-Zugang zu über i00 bibliografischen Datenbanken aus wichtigen Forschungsbereichen wie zum Beispiel Materialwissenschaften, Umweltschutz, Biowissenschaften, Meereswissenschaften, Biotechnologie, Ingenieurwissenschaften, Informatik, Soziologie, Informationstechnologie, Kunstgeschichte, Politikwissenschaft und Linguistik.
    Der Chemical Abstracts Service (CAS), eine Abteilung der American Chemical Society, ist eine wissenschaftliche Organisation, die für Wissenschaftler in Forschung und Entwicklung hochwertige Inhalte und Werkzeuge für eine umfassende und effektive digitale Informationsumgebung erstellt und verfügbar macht. CAS bietet Zugang zu weltweit veröffentlichten wissenschaftlichen Publikationen aus Fachzeitschriften und Patentliteratur-alles Wichtige zur Chemie sowie umfangreiche Informationen im Bereich Biowissenschaften und zu zahlreichen weiteren Fachgebieten. Die nachgewiesene Literatur, die Daten und Fakten reichen bis ins frühe 20. Jahrhundert zurück. Außerdem betreibt CAS das STN-Servicezentrum in Nordamerika, veröffentlicht die gedruckte Version der Chemical Abstracts (CA) und verwandte Publikationen und bietet Dienste auf CD-ROM an. Die renommierte Informationseinrichtung entwickelt und pflegt das CAS Chemical Registry System, produziert eine Reihe von thematisch verwandten Online-Datenbanken und bietet das Desktop-Recherchetool »SciFinder« an. Das FIZ Karlsruhe ist eine gemeinnützige wissenschaftliche Serviceeinrichtung, die wissenschaftliche und technische Informationsdienste in elektronischer und gedruckter Form produziert und vermarktet. Es bietet seine Dienstleistungen weltweit an. Schwerpunkt sind hoch entwickelte Fachdatenbanken zu allen Bereichen von Naturwissenschaft und Technik sowie zum internationalen Patent- und Markenwesen. Die Informationen werden elektronisch über verschiedene Vertriebswege im Internet, über proprietäre Datennetze sowie in gedruckter Form als Spezialdienste angeboten. In Zusammenarbeit mit Institutionen aus dem In- und Ausland erstellt das FIZ Karlsruhe Datenbanken in den Fachgebieten Energie, Kernforschung und Kerntechnik, Kristallografie, Kunststoffe, Mathematik, Informatik und Physik und bietet einen Recherchedienst für alle Unternehmen oder Institutionen mit FuE-Aktivitäten an. Größter Geschäftsbereich ist STN International. Das FIZ Karlsruhe ist Mitglied der Leibniz-Gemeinschaft, in der sich außeruniversitäre Forschungs- und Serviceeinrichtungen verschiedener Wissenschaftsbereiche zusammengeschlossen haben, die gemeinsam von Bund und Ländern gefördert werden.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 51(2004) H.3, S.176-177
  18. Gumbrecht, C.: Workshop zur CJK-Katalogisierung am 18. Juni 2009 an der Staatsbibliothek zu Berlin : ein Bericht (2009) 0.05
    0.047936704 = product of:
      0.18375736 = sum of:
        0.018369861 = weight(_text_:und in 3042) [ClassicSimilarity], result of:
          0.018369861 = score(doc=3042,freq=66.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.3516768 = fieldWeight in 3042, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3042)
        0.010699071 = product of:
          0.021398142 = sum of:
            0.021398142 = weight(_text_:kataloge in 3042) [ClassicSimilarity], result of:
              0.021398142 = score(doc=3042,freq=2.0), product of:
                0.1351219 = queryWeight, product of:
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.023567878 = queryNorm
                0.15836176 = fieldWeight in 3042, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3042)
          0.5 = coord(1/2)
        0.06754586 = weight(_text_:katalogisierung in 3042) [ClassicSimilarity], result of:
          0.06754586 = score(doc=3042,freq=20.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.5003359 = fieldWeight in 3042, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3042)
        0.06754586 = weight(_text_:katalogisierung in 3042) [ClassicSimilarity], result of:
          0.06754586 = score(doc=3042,freq=20.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.5003359 = fieldWeight in 3042, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3042)
        0.015605321 = weight(_text_:im in 3042) [ClassicSimilarity], result of:
          0.015605321 = score(doc=3042,freq=18.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.23423903 = fieldWeight in 3042, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3042)
        0.0039914027 = product of:
          0.007982805 = sum of:
            0.007982805 = weight(_text_:22 in 3042) [ClassicSimilarity], result of:
              0.007982805 = score(doc=3042,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.09672529 = fieldWeight in 3042, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3042)
          0.5 = coord(1/2)
      0.26086956 = coord(6/23)
    
    Abstract
    Vor nunmehr acht Jahren gab Günter Schucher an dieser Stelle einen Situationsbericht zur Schaffung eines einheitlichen Katalogs für chinesische, japanische und koreanische (CJK-)Literatur in Deutschland, indem er eingangs feststellt: "Schon lange träumen deutsche Ostasienwissenschaftler von einem einheitlichen Katalog, der ihnen die Recherche originalsprachlicher Literatur in deutschen Bibliotheken erleichtern würde. Anders als in den USA blieb dieser Traum jedoch bisher unerfüllt." Schucher, der damalige Geschäftsführer der Deutschen Gesellschaft für Asienkunde e.V., hatte im Jahr 1999 eine vom BMBF finanzierte und vom Institut für Asienkunde betreute Studie durchgeführt, die die Möglichkeiten zur Verbesserung der Literaturversorgung der Ostasienwissenschaftler ausloten sollte. Die Studie dokumentiert die ungünstige Forschungssituation der Ostasienforschung in Deutschland im Hinblick auf die Verstreutheit der von ihr dringend benötigten originalsprachigen Literatur auf eine Vielzahl von Bibliotheken und Archive und die daraus resultierende erschwerte Recherchierbarkeit derselben. Neben den Staats- und Universitätsbibliotheken mit z.T. großen bis sehr großen Beständen solcher Literatur (allen voran die Staatsbibliothek zu Berlin und die Bayerische Staatsbliothek in München), existieren ca. 100 Seminar- und Institutsbibliotheken. Die Studie konstatierte sowohl die mangelnde Kooperation bei Beschaffung und Katalogisierung seitens der Institute, die in der materiellen und personellen Unterausstattung mit Bibliothekaren ihre Ursache habe, als auch die Weigerung der Bibliotheksverbünde, den Ostasienbibliotheken durch Mehrschriftlichkeit ihrer Kataloge die Mitarbeit zu ermöglichen. Auf dem Workshop "Vernetzung von Bibliotheks- und Archivressourcen im Bereich Ostasienwissenschaften", am 20. April 2000, auf dem die Ergebnisse der Studie diskutiert wurden, kam man zu dem Ergebnis, "dass die Förderorganisationen bis zur Ermöglichung von Mehrschriftlichkeit in den Verbünden bereits die Schaffung eines einheitlichen CJK-Katalogs in Deutschland unterstützen könnten, der sich so weit wie möglich auf die Standards der Verbünde zu bewegen sollte, um die Katalogisate der beteiligten Bibliotheken qualitativ zu verbessern und eine spätere Integration zu erleichtern.
    Aufgrund dieser Empfehlung finanzierte das BMBF einen weiteren Workshop mit mit dem Titel "CJK-Fachbibliotheken auf dem Weg in die Verbünde", der am 3. und 4. Mai 2001 in Hamburg stattfand. Die Teilnehmer des Workshops waren Vertreter der CJK-Bibliotheken, Asienwissenschaftler, Vertreter der Bibliotheksverbünde, betroffener Ausschüsse und der Deutschen Bibliothek sowie Vertreter von Förderorganisationen. Man kam schon damals zu dem Schluss, dass in technischer Hinsicht keine Hindernisse mehr für eine Kooperation zwischen den CJK-BiblioIheken sowie zwischen diesen und den Verbünden existierten. Die Vertreter der Verbünde erklärten ihre Bereitschaft zur Unterstützung und Integration der CJKBibliotheken. Am 18. Juni diesen Jahres fand erneut ein Workshop zur CJK-Katalogisierung statt, nun an der Staatsbibliothek Berlin, auf Einladung derselben und der AG Kooperative Verbundanwendungen. Anlass hierfür war die Öffnung verschiedener Verbundkataloge für die originalsprachige Katalogisierung (HBZ 2006, BVB 2008, HeBIS Dezember 2008, SWB Januar 2009, GBV Mai 2009 (in separater Datenbank und zum gegenwärtigen Zeitpunkt ausschließlich für die SBB)), die einen zunehmenden Bedarf an größerer Vereinheitlichung in der Katalogisierungspraxis mit sich bringt. Zu den insgesamt 50 Teilnehmern des Workshops zählten Vertreter der Verbünde, der Deutschen Bibliothek (aus dem Bereich der Normdateien sowie der Informationstechnik) sowie Vertreter der mit der Katalogisierung von CJK-Literatur Befassten aus einer ganzen Reihe von Einrichtungen, u.a. auch aus der Schweiz und Österreich. Der Workshop wurde moderiert von Matthias Kaun (Leiter der Ostasienabteilung der SBB). Formuliertes Ziel des Workshops war die Erarbeitung einer gemeinsamen Katalogisierungspraxis für die originalschriftliche CJK-Katalogisierung sowie einer einheitlichen Regelung der Transkriptionen.
    In der Einführung sprachen zunächst Matthias Kaun und Silke Horny (BSZ) über Problemstellung und Ziel des Workshops aus Sicht der Sondersammelgebiet-Bibliothek (SSG Ost- und Südostasien) bzw. der Verbünde. Matthias Kaun stellte fest, dass bei den Ostasienbibliothekaren in Deutschland bzw. Europa nach wie vor für die Katalogisierung von originalsprachiger Literatur Diskussions- und Handlungsbedarf im Hinblick auf Regelungen, Praxis und technische Lösungen bestehe. Er erwähnte Lösungsansätze, die für Zeitschriften in der Zeitschriftendatenbank existieren, vermisste jedoch eine übergreifende Praxis für den Bereich der Formalerschließung von Monographien, im Bereich der Namensansetzungen sowie der Normdaten. Während die Nutzung von Fremddaten an der SBB seit 1990 Praxis war, fehlt es auch heute noch an Kooperation bzw. Datenaustausch in Deutschland. Matthias Kaun formulierte die Notwendigkeit einer Professionalisierung im Bereich der CJK-Katalogisierung und damit verbunden der Erarbeitung einer gemeinsamen Praxis im Bereich der Titel und Verfasser in Originalschrift und / oder auch Transkriptionen sowie im Bereich der Normdaten (PND / GKD) wie auch die Notwendigkeit der Definition eines Zeichenvorrats. Erklärtes Ziel des Workshops war somit zunächst eine stärkere Sensibilisierung für die bestehenden Probleme und dann die Bildung von Arbeitsgruppen, die sich den Fragen einer gemeinsamen Praxis annehmen sollen, um auf deren Grundlage Lösungsansätze kooperativ verbundübergreifend erarbeiten, testen und umsetzen zu können.
    Es folgte ein Überblick über die derzeitige Praxis der Katalogisierung chinesischer bzw. japanischer Bestände (da zu wenige Vertreter aus Bibliotheken mit koreanischen Beständen anwesend waren, wurde dieser Teil auf dem Workshop weitestgehend ausgeklammert) an fünf verschiedenen deutschen Einrichtungen, in dem deutlich wurde, dass die Bedingungen unter denen gearbeitet wird (Personal- und Sachmittel) äußerst unterschiedlich sind und dass die einzelnen Institutionen untereinander kaum vernetzt sind bzw. Informationen austauschen. Matthias Kaun, Anne Labitzky-Wagner (Institut für Sinologie, Universität Heidelberg) und Julia Welsch (Asien-Afrika-Institut, Universität Hamburg) gaben einen Einblick in die chinesischsprachige, Ursula Flache (Staatsbibliothek zu Berlin), Aoki Hisae (Japan-Zentum, Philipps-Universität Marburg) und Dr. Klaus Gottheiner (Universitätsbibliothek Trier) in die japanischsprachige Katalogisierungspraxis. Erstere reicht von der kompletten Datenübernahme aus China im Fall der SBB, Fremddaten werden via Z39.50 aus China (von der National Library of China, Beijing übernommen - seit Mai diesen Jahres sind diese Daten in oben erwähnter separater Datenbank des GBV zu recherchieren -, bis hin zum Angebot eines Digitalen Zettelkatalogs für Altdaten an der Bibliothek des Asien-Afrika-Instituts/Abteilung Sprache und Kultur Chinas der Universität Hamburg bzw. Katalogisierung neuer Titel ausschließlich in lateinischer Umschrift bei paralleler Führung einer separaten Word-Datei in Originalschrift.
    Date
    22. 8.2009 10:44:16
  19. Klauß, H.: Pilotmigration UB des BIZ der Europa-Universität Viadrina - Frankfurt (Oder) in den BVB (2009) 0.05
    0.047623396 = product of:
      0.15647689 = sum of:
        0.016921071 = weight(_text_:und in 3282) [ClassicSimilarity], result of:
          0.016921071 = score(doc=3282,freq=14.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.32394084 = fieldWeight in 3282, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3282)
        0.021398142 = product of:
          0.042796284 = sum of:
            0.042796284 = weight(_text_:kataloge in 3282) [ClassicSimilarity], result of:
              0.042796284 = score(doc=3282,freq=2.0), product of:
                0.1351219 = queryWeight, product of:
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.023567878 = queryNorm
                0.31672353 = fieldWeight in 3282, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3282)
          0.5 = coord(1/2)
        0.04271975 = weight(_text_:katalogisierung in 3282) [ClassicSimilarity], result of:
          0.04271975 = score(doc=3282,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.3164402 = fieldWeight in 3282, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3282)
        0.04271975 = weight(_text_:katalogisierung in 3282) [ClassicSimilarity], result of:
          0.04271975 = score(doc=3282,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.3164402 = fieldWeight in 3282, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3282)
        0.020807097 = weight(_text_:im in 3282) [ClassicSimilarity], result of:
          0.020807097 = score(doc=3282,freq=8.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.3123187 = fieldWeight in 3282, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3282)
        0.0039282576 = product of:
          0.007856515 = sum of:
            0.007856515 = weight(_text_:1 in 3282) [ClassicSimilarity], result of:
              0.007856515 = score(doc=3282,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.13570388 = fieldWeight in 3282, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3282)
          0.5 = coord(1/2)
        0.007982805 = product of:
          0.01596561 = sum of:
            0.01596561 = weight(_text_:22 in 3282) [ClassicSimilarity], result of:
              0.01596561 = score(doc=3282,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.19345059 = fieldWeight in 3282, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3282)
          0.5 = coord(1/2)
      0.3043478 = coord(7/23)
    
    Abstract
    Ende 2007 wurde die "Vereinbarung zur Strategischen Allianz zwischen dem Bibliotheksverbund Bayern (BVB) und dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV)" beschlossen). Infolgedessen werden die Kataloge von vielen Bibliotheken aus Berlin und Brandenburg zusammengeführt. Die beteiligten Bibliotheken sind teils SISIS-, teils Aleph-Bibliotheken. Die UB des Bibliotheks- und Informationszentrum (BIZ) Frankfurt (Oder) hat für die SISIS-Bibliotheken die Pilotierung übernommen. Es soll im Folgenden nicht das Verfahren der Beschlussfassung in dieser Sache thematisiert werden, sondern es sollen einige Anmerkungen gemacht werden zur Berlin-Brandenburgischen Bibliotheksgeschichte bzgl. Verbundkatalogisierung und lokal autonomer Katalogisierung im Hinblick auf die Allianz sowie gewisse Rahmenbedingungen und einiger Details der Migration bei uns. Im Jahr 1994 trat das Land Brandenburg dem "Bibliotheksverbund Berlin-Brandenburg" (BVBB), davor "Berliner Bibliotheksverbund", BBV), (ehem. "Berliner Monographienverbund" bei. Dieser Anschluss lief für die UB der EUV so: Es wurden keine bestehenden Titelaufnahmen, d.h. keine alten Bestände, in den BVBB-Katalog gemeldet, sondern nur neue. Um Doppelarbeit zu vermeiden und die Titelaufnahmen sofort im Katalog zu haben, haben wir in Frankfurt (Oder) Titelaufnahmen mit der sog. Softcopy in den Lokalkatalog eingearbeitet. Es ging bei dieser Migration deshalb nicht um die vollständige Übernahme der Titelaufnahmen der UB der EUV, sondern "nur" um die Übernahme der neu erstellten Titelaufnahmen. Es gab daher in unserem Katalog damals zugleich BVBB- und nicht-BVBB-gestützte Titelaufnahmen.
    Date
    22. 2.2009 20:38:30
    Source
    Bibliotheksdienst. 43(2009) H.1, S.20-38
  20. Wiesenmüller, H.: Von Fröschen und Strategen : Ein kleiner Leitfaden zur AACR2-Debatte (2002) 0.05
    0.047055222 = product of:
      0.18037835 = sum of:
        0.018799042 = weight(_text_:und in 636) [ClassicSimilarity], result of:
          0.018799042 = score(doc=636,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.35989314 = fieldWeight in 636, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
        0.015522547 = product of:
          0.031045094 = sum of:
            0.031045094 = weight(_text_:bibliothekswesen in 636) [ClassicSimilarity], result of:
              0.031045094 = score(doc=636,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2955047 = fieldWeight in 636, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=636)
          0.5 = coord(1/2)
        0.031045094 = weight(_text_:bibliothekswesen in 636) [ClassicSimilarity], result of:
          0.031045094 = score(doc=636,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.2955047 = fieldWeight in 636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
        0.05126371 = weight(_text_:katalogisierung in 636) [ClassicSimilarity], result of:
          0.05126371 = score(doc=636,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
        0.05126371 = weight(_text_:katalogisierung in 636) [ClassicSimilarity], result of:
          0.05126371 = score(doc=636,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
        0.012484257 = weight(_text_:im in 636) [ClassicSimilarity], result of:
          0.012484257 = score(doc=636,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
      0.26086956 = coord(6/23)
    
    Abstract
    Zu den bestbesuchten Veranstaltungen des diesjährigen Bibliothekartages in Augsburg gehörte die Diskussion um die Reform der Formalerschließung. Ganz offensichtlich spielt die Katalogisierung - trotz Internet, Digitalisierung, Dublin Core etc. - im täglichen Geschäft nach wie vor eine bedeutende Rolle. Die Debatte um Regelwerke und Datenformate wird jedenfalls mit großem Ernst und Engagement geführt. Doch die Diskussion droht mittlerweile unübersichtlich zu werden, fachliche Argumente, technische Erfordernisse und bibliothekspolitische Positionen gehen munter durcheinander.
    Content
    "Bemerkenswerterweise argumentieren die RAK-Befürworter so gut wie nie formalistisch oder traditionalistisch, sondern meist pragmatisch und benutzerorientiert" - "Eine hundertprozentige Übereinstimmung von deutschen und anglo-amerikanischen Daten bliebe auch nach dem Umstieg eine Utopie. Der versprochene Effekt bei der Nachnutzung von AACR2-Datensätzen ist deshalb deutlich zu relativieren." - "Der Standardisierungsauschuss hat mit seinem Beschluss die Weiterentwicklung der RAK2 faktisch gestoppt. Aber kann es sich das deutsche Bibliothekswesen wirklich leisten, zwei Jahre lang keine eigenständige Regelwerksarbeit zu betreiben?"

Authors

Languages

Types

Themes