Search (1934 results, page 1 of 97)

  • × theme_ss:"Formalerschließung"
  1. Metz, S.: Zur Katalogisierung chinesischer Werke : Regeln und EDV-Einsatz (1995) 0.06
    0.06430178 = product of:
      0.28476503 = sum of:
        0.045116674 = weight(_text_:sprache in 1641) [ClassicSimilarity], result of:
          0.045116674 = score(doc=1641,freq=4.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.40567178 = fieldWeight in 1641, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1641)
        0.018379595 = weight(_text_:und in 1641) [ClassicSimilarity], result of:
          0.018379595 = score(doc=1641,freq=20.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3871834 = fieldWeight in 1641, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1641)
        0.054297216 = weight(_text_:literatur in 1641) [ClassicSimilarity], result of:
          0.054297216 = score(doc=1641,freq=8.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.52923983 = fieldWeight in 1641, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1641)
        0.054297216 = weight(_text_:literatur in 1641) [ClassicSimilarity], result of:
          0.054297216 = score(doc=1641,freq=8.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.52923983 = fieldWeight in 1641, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1641)
        0.009454499 = weight(_text_:im in 1641) [ClassicSimilarity], result of:
          0.009454499 = score(doc=1641,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.15615936 = fieldWeight in 1641, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1641)
        0.08484024 = weight(_text_:werke in 1641) [ClassicSimilarity], result of:
          0.08484024 = score(doc=1641,freq=6.0), product of:
            0.13780719 = queryWeight, product of:
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.02141793 = queryNorm
            0.6156445 = fieldWeight in 1641, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1641)
        0.018379595 = weight(_text_:und in 1641) [ClassicSimilarity], result of:
          0.018379595 = score(doc=1641,freq=20.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3871834 = fieldWeight in 1641, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1641)
      0.22580644 = coord(7/31)
    
    Abstract
    Diese Arbeit gibt einen auch für Nicht-Sinologen verständlichen Einblick in die bibliographische Welt dieses wichtigen außereuropäischen Kulturkreises und konfrontiert sie mit den existierenden Regelwerken für europäische Sprachen (RAK/AACR2). Der zweite Teil der Studie beschreibt nach einer Darstellung der Voraussetzungen für die Automatisierung im Hard- und Softwarebereich unter anderem die Katalogisierung in den amerikanischen CJK-Datenbanken von RLIN und OCLC und dann den gegenwärtigen Stand der automatischen Katalogisierung chinesischer Werke in Deutschland an drei Fallbeispielen: UB Heidelberg, SBB-PK, BSB München. Allegro erweist sich als geeignetes System auch für die Katalogisierung chinesischer Werke
    BK
    18.90 / Chinesische Sprache und Literatur
    Classification
    AN 74700 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Kataloge, Katalogisierung / Aufnahme fremdsprachiger Titel
    18.90 / Chinesische Sprache und Literatur
    Bib A 270 Chinesische Literatur
    Editor
    Kommission des Deutschen Bibliotheksinstituts für Erschließung und Katalogmanagement, Expertengruppe RAK
    RVK
    AN 74700 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Kataloge, Katalogisierung / Aufnahme fremdsprachiger Titel
    SBB
    Bib A 270 Chinesische Literatur
  2. Hartmann, S.; Pampel, H.: GND und ORCID : Brückenschlag zwischen zwei Systemen zur Autorenidentifikation (2017) 0.05
    0.049025785 = product of:
      0.2171142 = sum of:
        0.015595603 = weight(_text_:und in 5115) [ClassicSimilarity], result of:
          0.015595603 = score(doc=5115,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.328536 = fieldWeight in 5115, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5115)
        0.016044816 = weight(_text_:im in 5115) [ClassicSimilarity], result of:
          0.016044816 = score(doc=5115,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.26501122 = fieldWeight in 5115, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=5115)
        0.010728197 = weight(_text_:20 in 5115) [ClassicSimilarity], result of:
          0.010728197 = score(doc=5115,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.18222281 = fieldWeight in 5115, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.046875 = fieldNorm(doc=5115)
        0.069558755 = weight(_text_:einzelne in 5115) [ClassicSimilarity], result of:
          0.069558755 = score(doc=5115,freq=4.0), product of:
            0.1260605 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02141793 = queryNorm
            0.5517887 = fieldWeight in 5115, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=5115)
        0.04479561 = weight(_text_:autoren in 5115) [ClassicSimilarity], result of:
          0.04479561 = score(doc=5115,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.37235492 = fieldWeight in 5115, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.046875 = fieldNorm(doc=5115)
        0.04479561 = weight(_text_:autoren in 5115) [ClassicSimilarity], result of:
          0.04479561 = score(doc=5115,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.37235492 = fieldWeight in 5115, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.046875 = fieldNorm(doc=5115)
        0.015595603 = weight(_text_:und in 5115) [ClassicSimilarity], result of:
          0.015595603 = score(doc=5115,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.328536 = fieldWeight in 5115, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5115)
      0.22580644 = coord(7/31)
    
    Abstract
    Die Uneindeutigkeit von Personennamen erschwert im Rahmen der bibliothekarischen Erschließung die eindeutige Zuordnung von Autorinnen und Autoren zu ihren Werken. Bibliotheken im deutschsprachigen Raum adressieren das Problem der Mehrdeutigkeit von Namen durch den Einsatz der Gemeinsamen Normdatei (GND). Die internationale Initiative ORCID (Open Researcher and Contributor ID) verfolgt das gleiche Ziel. Akteur ist hier jedoch die einzelne Wissenschaftlerin oder der einzelne Wissenschaftler. Das Projekt "ORCID DE - Förderung der Open Researcher and Contributor ID in Deutschland" hat sich, dank der Förderung der Deutschen Forschungsgemeinschaft (DFG), unter anderem zum Ziel gesetzt, einen Brückenschlag zwischen den beiden Systemen - GND und ORCID - zu schaffen, um damit die Datenqualität beider Systeme wechselseitig zu erhöhen. Der vorliegende Beitrag gibt einen Überblick über ORCID und das Projekt ORCID DE. Dabei wird insbesondere auf die angestrebte Verlinkung von GND und ORCID eingegangen.
    Date
    17. 3.2019 16:19:20
  3. Haller, K.; Popst, H.: Katalogisierung nach den RAK-WB : eine Einführung in die Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken (2003) 0.05
    0.047712155 = product of:
      0.2465128 = sum of:
        0.019276682 = weight(_text_:und in 1811) [ClassicSimilarity], result of:
          0.019276682 = score(doc=1811,freq=22.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.40608138 = fieldWeight in 1811, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1811)
        0.027148608 = weight(_text_:literatur in 1811) [ClassicSimilarity], result of:
          0.027148608 = score(doc=1811,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.26461992 = fieldWeight in 1811, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1811)
        0.027148608 = weight(_text_:literatur in 1811) [ClassicSimilarity], result of:
          0.027148608 = score(doc=1811,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.26461992 = fieldWeight in 1811, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1811)
        0.01337068 = weight(_text_:im in 1811) [ClassicSimilarity], result of:
          0.01337068 = score(doc=1811,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.22084267 = fieldWeight in 1811, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1811)
        0.019276682 = weight(_text_:und in 1811) [ClassicSimilarity], result of:
          0.019276682 = score(doc=1811,freq=22.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.40608138 = fieldWeight in 1811, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1811)
        0.14029154 = sum of:
          0.12578237 = weight(_text_:einzelwerke in 1811) [ClassicSimilarity], result of:
            0.12578237 = score(doc=1811,freq=2.0), product of:
              0.22083156 = queryWeight, product of:
                10.310593 = idf(docFreq=3, maxDocs=44218)
                0.02141793 = queryNorm
              0.56958514 = fieldWeight in 1811, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                10.310593 = idf(docFreq=3, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1811)
          0.01450917 = weight(_text_:22 in 1811) [ClassicSimilarity], result of:
            0.01450917 = score(doc=1811,freq=2.0), product of:
              0.07500195 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02141793 = queryNorm
              0.19345059 = fieldWeight in 1811, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1811)
      0.19354838 = coord(6/31)
    
    Abstract
    Diese Einführung vermittelt alle wichtigen Kenntnisse über die Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken (RAK-WB), das maßgebliche deutsche Regelwerk für die alphabetische Katalogisierung. In die neue, sechste Ausgabe ist der aktuelle Regelwerksstand eingearbeitet. Das betrifft vor allem die Ansetzung von Personennamen. Nach dem einleitenden Kapitel über die Funktion, die äußeren Formen und die grundlegenden Begriffe des alphabetischen Katalogs werden die verschiedenen Eintragungsarten und ihre formale Gestaltung beschrieben. Das Hauptgewicht der Darstellung liegt bei den Bestimmungen über Haupt- und Nebeneintragungen unter Personennamen, Sachtiteln und Körperschaftsnomen sowie deren Ansetzung. Neben den Grundregeln für die Kotologisierung ein- und mehrbändiger Einzelwerke, Sammlungen und Sammelwerke werden auch die Sonderregeln für Kongressberichte, Bildbände, Bilderbücher, Kunstbände, Ausstellungskataloge, Hochschulschriften, Gesetze, Kommentare, Loseblattausgaben, Schulbücher, Reports und Normen behandelt. Die Bestimmungen für Vorlagen mit Einheitssachtiteln, Neben- und Paralleltiteln werden ebenso ausführlich dargestellt wie die schwierigen Fälle fortlaufender Sammelwerke mit Unterreihen. Alle Regeln werden durch Beispiele erläutert. Die Vorlagen werden meist mit ihrer Haupttitelseite wiedergegeben und den vollständigen Lösungen sowie erläuternden Texten gegenübergestellt. Die einschlägigen Paragraphen des Regelwerks werden im Text jeweils in Klammern angegeben. Auf die Belange der moschinenlesbaren Katalogisierung in Online-Datenbanken wird eingegangen. Das Kategorisieren der Katalogdaten wird in einem eigenen Kapitel dargestellt. Beispiele von Aufnahmen gemäß dem Maschinellen Austauschformat für Bibliotheken (MAB2) sollen helfen, die Grundbegriffe der gefelderten Erfassung zu verstehen. Das Lehrbuch Katalogisierung nach den RAK-WB ist eine unverzichtbare Grundlage für Studierende der bibliothekarischen Lehrinstitute und angehende Bibliothekare in der praktischen Ausbildung sowie für das Selbststudium und für die Weiterbildung bereits im Beruf stehender Bibliothekare.
    Date
    17. 6.2015 15:22:06
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  4. Conversations with catalogers in the 21st century (2011) 0.05
    0.04555613 = product of:
      0.15691558 = sum of:
        0.017781723 = weight(_text_:und in 4530) [ClassicSimilarity], result of:
          0.017781723 = score(doc=4530,freq=52.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.37458867 = fieldWeight in 4530, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4530)
        0.016289165 = weight(_text_:literatur in 4530) [ClassicSimilarity], result of:
          0.016289165 = score(doc=4530,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.15877196 = fieldWeight in 4530, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4530)
        0.016289165 = weight(_text_:literatur in 4530) [ClassicSimilarity], result of:
          0.016289165 = score(doc=4530,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.15877196 = fieldWeight in 4530, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4530)
        0.012684541 = weight(_text_:im in 4530) [ClassicSimilarity], result of:
          0.012684541 = score(doc=4530,freq=10.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.20950976 = fieldWeight in 4530, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4530)
        0.028753266 = weight(_text_:jahrhundert in 4530) [ClassicSimilarity], result of:
          0.028753266 = score(doc=4530,freq=2.0), product of:
            0.13630733 = queryWeight, product of:
              6.3641686 = idf(docFreq=206, maxDocs=44218)
              0.02141793 = queryNorm
            0.21094438 = fieldWeight in 4530, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3641686 = idf(docFreq=206, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4530)
        0.022397805 = weight(_text_:autoren in 4530) [ClassicSimilarity], result of:
          0.022397805 = score(doc=4530,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.18617746 = fieldWeight in 4530, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4530)
        0.022397805 = weight(_text_:autoren in 4530) [ClassicSimilarity], result of:
          0.022397805 = score(doc=4530,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.18617746 = fieldWeight in 4530, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4530)
        0.0025403968 = weight(_text_:e in 4530) [ClassicSimilarity], result of:
          0.0025403968 = score(doc=4530,freq=6.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.08251929 = fieldWeight in 4530, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4530)
        0.017781723 = weight(_text_:und in 4530) [ClassicSimilarity], result of:
          0.017781723 = score(doc=4530,freq=52.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.37458867 = fieldWeight in 4530, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4530)
      0.29032257 = coord(9/31)
    
    Editor
    Sanchez, E.
    Footnote
    Rez. in Mitt VÖB 64(2011) H.1, S.151-153 (S. Breitling): "Wie sieht die Rolle der Katalogisierung im 21. Jahrhundert aus? In diversen Blogs und Mailinglisten wird darüber seit geraumer Zeit diskutiert. Der Bereich Katalogisierung befindet sich in einer Phase tiefgreifenden Wandels, ausgelöst durch eine Vielzahl von Faktoren, von denen veränderte Nutzererwartungen bei der Recherche und die wachsende Menge an neuen zu katalogisierenden Materialien (e-Books, Web-Ressourcen etc.) und Formaten nur zwei Aspekte darstellen. Das technische Umfeld wird nicht zuletzt durch fortgeschrittene Möglichkeiten im Bereich Retrieval und Präsentation geprägt. Wie schafft man es, dass Katalogisierung als Teil des gesamten Bibliothekswesens relevant und zeitgemäß bleibt? Welche der in Jahrzehnten Katalogisierungspraxis erarbeiteten Standards sind erhaltenswert, und welche sind im Hinblick auf den Fortschritt der IT und ein mögliches Semantic Web vielleicht gar nicht mehr nötig oder müssen an die Gegebenheiten angepasst werden? Mit diesen und anderen Fragen beschäftigt sich die Aufsatzsammlung "Conversations with catalogers in the 21st century". In der Community bekannte Personen wie Martha Yee, Christine Schwartz oder James Weinheimer kommen zu Wort, aus dem deutschsprachigen Raum Bernhard Eversberg, Entwickler des Bibliothekssystems Allegro.
    Ein großes Thema ist erwartungsgemäß das neue Regelwerk RDA, das, um es vorwegzunehmen, bei den drei Autoren, die sich ausschließlich diesem Gesichtspunkt widmen, vorwiegend auf Kritik stößt. Erstmals publiziert wird an dieser Stelle eine Studie der Herausgeberin Elaine R. Sanchez, die ein Meinungsbild der einschlägig tätigen Bibliothekarinnen (wie z.B. Titelaufnehmerinnen, Systembibliothekarinnen) zum Umstieg auf RDA zeichnet. Wie in den anderen Kapiteln liegt auch hier der Schwerpunkt auf dem US- bzw. anglo-amerikanischen Raum, was einen Blick über den eigenen Tellerrand ermöglicht und eine Grundstimmung einfängt, der man auch in Europa und hierzulande angesichts internationaler Kooperationen und zunehmend globaler Ausrichtung bei Standards und Regelwerken Beachtung schenken sollte. Andere Beiträge setzen sich mit Themen auseinander, die ebenfalls die Rolle der Katalogisierung unter sich ständig und rasant verändernden Bedingungen betreffen: die Bedeutung von bibliographischen Standards (und Qualitätsstandards im besonderen) im Zeitalter von Google Books, das Titeldaten aus Bibliotheken "nur noch" in einem Mashup mit anderen algorithmisch aufbereiteten Daten verarbeitet; das sich wandelnde Berufsbild von Titelaufnehmerinnen, die mit traditionellen Materialien und Datenformaten arbeiten, hin zu Metadaten-Spezialisten, die sich durch Kenntnisse digitaler Objekte und der entsprechenden Formate wie etwa Dublin Core auszeichnen; Anpassung von Workflows an die technischen Möglichkeiten der Automatisierung und Digitalisierung; Anforderungen an Ausbildung und berufliche Weiterbildung von Katalogisierungsexpertinnen etc. Eine chronologische Bibliographie von Literatur mit Bezug auf Bibliotheken und Katalogisierung von 1800 bis heute beschließt den Band.
    Eine wiederkehrende positive Einschätzung ist, dass Katalogisiererinnen sich in der jüngeren Geschichte schon mehrmals Wandel und Veränderungen stellen mußten (z.B. Umstieg von Zettelkatalog auf EDV) und dies auch stets gut gemeistert haben. Allerdings muss man hier anmerken, dass neue Entwicklungen erst mit (großer) Verzögerung nachvollzogen wurden und Bibliotheken heute nicht mehr die einzigen sind, die bibliographische Daten bereitstellen. Es gilt also mehr denn je, sich als ein Player unter vielen zu positionieren und die Rolle neu zu definieren, die Bibliotheken (und vor allem die Katalogisierung als Rückgrat der Informationsversorgung) in einer veränderten Wissens- und Informationslandschaft spielen. Der vorliegende Titel kann hierzu Anregungen und Denkanstöße aus verschiedenen Blickwinkeln, wenn auch keine wirklich revolutionären Ansätze oder gar fertigen Lösungen liefern."
    Language
    e
  5. Becker, H.-G.; Höhner, K.: ¬Die ORCID-Integration der Technischen Universität Dortmund (2019) 0.04
    0.0433212 = product of:
      0.19185103 = sum of:
        0.008136993 = weight(_text_:und in 5347) [ClassicSimilarity], result of:
          0.008136993 = score(doc=5347,freq=2.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.17141339 = fieldWeight in 5347, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5347)
        0.05738305 = weight(_text_:einzelne in 5347) [ClassicSimilarity], result of:
          0.05738305 = score(doc=5347,freq=2.0), product of:
            0.1260605 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02141793 = queryNorm
            0.45520246 = fieldWeight in 5347, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5347)
        0.052261546 = weight(_text_:autoren in 5347) [ClassicSimilarity], result of:
          0.052261546 = score(doc=5347,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.4344141 = fieldWeight in 5347, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5347)
        0.052261546 = weight(_text_:autoren in 5347) [ClassicSimilarity], result of:
          0.052261546 = score(doc=5347,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.4344141 = fieldWeight in 5347, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5347)
        0.0034222968 = weight(_text_:e in 5347) [ClassicSimilarity], result of:
          0.0034222968 = score(doc=5347,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.1111659 = fieldWeight in 5347, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5347)
        0.010248612 = product of:
          0.020497223 = sum of:
            0.020497223 = weight(_text_:29 in 5347) [ClassicSimilarity], result of:
              0.020497223 = score(doc=5347,freq=2.0), product of:
                0.07534158 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02141793 = queryNorm
                0.27205724 = fieldWeight in 5347, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5347)
          0.5 = coord(1/2)
        0.008136993 = weight(_text_:und in 5347) [ClassicSimilarity], result of:
          0.008136993 = score(doc=5347,freq=2.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.17141339 = fieldWeight in 5347, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5347)
      0.22580644 = coord(7/31)
    
    Abstract
    Die Universitätsbibliothek Dortmund (UB) steht vor der Herausforderung, künftig Aussagen zum Publikationsverhalten ihrer Angehörigen treffen zu müssen. Dabei liegt die eine Schwierigkeit darin, Personen eindeutig Publikationen zuzuordnen. Zweitens müssen die Publikationsleistungen möglichst sowohl für einzelne Autoren als auch für alle Disziplinen umfassend nachgewiesen werden. Um beiden Herausforderungen zu begegnen, wurde ein Metadatenmanagementsystem entwickelt. Bereits bei der Konzeption dieses Systems wurde eine ORCID-Integration angestrebt, denn die UB sieht für beide genannten Herausforderungen die ORCID iD als Teil einer möglichen Lösung an. Die Ziele und die technische Umsetzung der Integration werden anhand der fünf Integrationsstufen, die ORCID bietet, vorgestellt.
    Date
    30. 7.2019 19:29:09
    Language
    e
  6. Haller, K.; Popst, H.: Katalogisierung nach den RAK-WB : eine Einführung in die Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken (1996) 0.04
    0.037050113 = product of:
      0.19142559 = sum of:
        0.019727051 = weight(_text_:und in 1813) [ClassicSimilarity], result of:
          0.019727051 = score(doc=1813,freq=16.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.41556883 = fieldWeight in 1813, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1813)
        0.03257833 = weight(_text_:literatur in 1813) [ClassicSimilarity], result of:
          0.03257833 = score(doc=1813,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 1813, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=1813)
        0.03257833 = weight(_text_:literatur in 1813) [ClassicSimilarity], result of:
          0.03257833 = score(doc=1813,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 1813, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=1813)
        0.011345398 = weight(_text_:im in 1813) [ClassicSimilarity], result of:
          0.011345398 = score(doc=1813,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.18739122 = fieldWeight in 1813, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=1813)
        0.019727051 = weight(_text_:und in 1813) [ClassicSimilarity], result of:
          0.019727051 = score(doc=1813,freq=16.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.41556883 = fieldWeight in 1813, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1813)
        0.07546943 = product of:
          0.15093885 = sum of:
            0.15093885 = weight(_text_:einzelwerke in 1813) [ClassicSimilarity], result of:
              0.15093885 = score(doc=1813,freq=2.0), product of:
                0.22083156 = queryWeight, product of:
                  10.310593 = idf(docFreq=3, maxDocs=44218)
                  0.02141793 = queryNorm
                0.6835022 = fieldWeight in 1813, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.310593 = idf(docFreq=3, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1813)
          0.5 = coord(1/2)
      0.19354838 = coord(6/31)
    
    Abstract
    Diese Einführung vermittelt mittlerweile in 5. überarbeiteter Auflage alle wichtigen Kenntnisse über die RAK-WB, das maßgebliche deutsche Regelwerk für die alphabetische Katalogisierung. Das Hauptgewicht der Darstellung liegt bei den Bestimmungen über Haupt- und Nebeneintragungen unter Personennamen, Sachtiteln und Körperschaftsnamen sowie deren Ansetzung. Neben den Grundregeln für die Katalogisierung ein- und mehrbändiger Einzelwerke, Sammlungen und Sammelwerke werden auch die Sonderregeln für Kongreßberichte, Bildbände, Bilderbücher, Kunstbände, Ausstellungskataloge, Hochschulschriften, Gesetze, Kommentare, Loseblattausgaben, Schulbücher, Reports und Normen behandelt. Die Einführung ist unverzichtbare Grundlage für die Studierenden der bibliothekarischen Lehrinstitute und die angehenden Bibliothekare in der praktischen Ausbildung. Da alle Regeln durch Beispiele erläutert werden und alle Regeländerungen der letzten Zeit berücksichtigt sind, ist dieses Standardwerk auch für das Selbststudium und für die Weiterbildung bereits im Beruf stehender Bibliothekare besonders geeignet.
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  7. Wiesenmüller, H.; Horny, S.: Basiswissen RDA : eine Einführung für deutschsprachige Anwender (2015) 0.04
    0.036007088 = product of:
      0.15945996 = sum of:
        0.038282767 = weight(_text_:sprache in 4003) [ClassicSimilarity], result of:
          0.038282767 = score(doc=4003,freq=2.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.34422392 = fieldWeight in 4003, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.046875 = fieldNorm(doc=4003)
        0.015595603 = weight(_text_:und in 4003) [ClassicSimilarity], result of:
          0.015595603 = score(doc=4003,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.328536 = fieldWeight in 4003, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4003)
        0.03257833 = weight(_text_:literatur in 4003) [ClassicSimilarity], result of:
          0.03257833 = score(doc=4003,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 4003, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=4003)
        0.03257833 = weight(_text_:literatur in 4003) [ClassicSimilarity], result of:
          0.03257833 = score(doc=4003,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 4003, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=4003)
        0.016044816 = weight(_text_:im in 4003) [ClassicSimilarity], result of:
          0.016044816 = score(doc=4003,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.26501122 = fieldWeight in 4003, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4003)
        0.008784524 = product of:
          0.017569048 = sum of:
            0.017569048 = weight(_text_:29 in 4003) [ClassicSimilarity], result of:
              0.017569048 = score(doc=4003,freq=2.0), product of:
                0.07534158 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02141793 = queryNorm
                0.23319192 = fieldWeight in 4003, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4003)
          0.5 = coord(1/2)
        0.015595603 = weight(_text_:und in 4003) [ClassicSimilarity], result of:
          0.015595603 = score(doc=4003,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.328536 = fieldWeight in 4003, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4003)
      0.22580644 = coord(7/31)
    
    Abstract
    Basiswissen RDA bietet eine Einführung in das neue, aus der angloamerikanischen Tradition stammende Katalogisierungsregelwerk RDA (Resource Description and Access), das das bisherige deutsche Regelwerk RAK ablöst. In verständlicher Sprache geschrieben und mit zahlreichen Beispielen illustriert, leistet dieses Lehrbuch praktische Hilfestellung, um den Schritt von der Theorie in die Umsetzung zu unterstützen.
    Content
    Vgl. auch: http://www.basiswissen-rda.de/. Im Laufe des Jahres 2015 wird das bisherige deutsche Katalogisierungsregelwerk, die "Regeln für die alphabetische Katalogisierung" (RAK), durch einen neuen, internationalen Standard abgelöst: "Resource Description and Access" (RDA). Das am 27. März 2015 im Verlag De Gruyter erschienene Lehrbuch Basiswissen RDA von Heidrun Wiesenmüller und Silke Horny führt in das neue Regelwerk ein. Die Begleitwebsite ergänzt das Lehrbuch durch Aktualisierungen und zusätzliche Materialien und bietet außerdem in einem Blog Neuigkeiten und Informationen rund um das Thema RDA. 2. Aufl. 2017.
    Date
    29. 3.2013 10:52:50
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  8. Gumbrecht, C.: Workshop zur CJK-Katalogisierung am 18. Juni 2009 an der Staatsbibliothek zu Berlin : ein Bericht (2009) 0.04
    0.035643533 = product of:
      0.1381187 = sum of:
        0.015951153 = weight(_text_:sprache in 3042) [ClassicSimilarity], result of:
          0.015951153 = score(doc=3042,freq=2.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.14342663 = fieldWeight in 3042, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3042)
        0.016694095 = weight(_text_:und in 3042) [ClassicSimilarity], result of:
          0.016694095 = score(doc=3042,freq=66.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3516768 = fieldWeight in 3042, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3042)
        0.03325012 = weight(_text_:literatur in 3042) [ClassicSimilarity], result of:
          0.03325012 = score(doc=3042,freq=12.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.3240919 = fieldWeight in 3042, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3042)
        0.03325012 = weight(_text_:literatur in 3042) [ClassicSimilarity], result of:
          0.03325012 = score(doc=3042,freq=12.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.3240919 = fieldWeight in 3042, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3042)
        0.014181747 = weight(_text_:im in 3042) [ClassicSimilarity], result of:
          0.014181747 = score(doc=3042,freq=18.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.23423903 = fieldWeight in 3042, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3042)
        0.004470082 = weight(_text_:20 in 3042) [ClassicSimilarity], result of:
          0.004470082 = score(doc=3042,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.07592617 = fieldWeight in 3042, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3042)
        0.016694095 = weight(_text_:und in 3042) [ClassicSimilarity], result of:
          0.016694095 = score(doc=3042,freq=66.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3516768 = fieldWeight in 3042, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3042)
        0.0036272926 = product of:
          0.007254585 = sum of:
            0.007254585 = weight(_text_:22 in 3042) [ClassicSimilarity], result of:
              0.007254585 = score(doc=3042,freq=2.0), product of:
                0.07500195 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02141793 = queryNorm
                0.09672529 = fieldWeight in 3042, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3042)
          0.5 = coord(1/2)
      0.2580645 = coord(8/31)
    
    Abstract
    Vor nunmehr acht Jahren gab Günter Schucher an dieser Stelle einen Situationsbericht zur Schaffung eines einheitlichen Katalogs für chinesische, japanische und koreanische (CJK-)Literatur in Deutschland, indem er eingangs feststellt: "Schon lange träumen deutsche Ostasienwissenschaftler von einem einheitlichen Katalog, der ihnen die Recherche originalsprachlicher Literatur in deutschen Bibliotheken erleichtern würde. Anders als in den USA blieb dieser Traum jedoch bisher unerfüllt." Schucher, der damalige Geschäftsführer der Deutschen Gesellschaft für Asienkunde e.V., hatte im Jahr 1999 eine vom BMBF finanzierte und vom Institut für Asienkunde betreute Studie durchgeführt, die die Möglichkeiten zur Verbesserung der Literaturversorgung der Ostasienwissenschaftler ausloten sollte. Die Studie dokumentiert die ungünstige Forschungssituation der Ostasienforschung in Deutschland im Hinblick auf die Verstreutheit der von ihr dringend benötigten originalsprachigen Literatur auf eine Vielzahl von Bibliotheken und Archive und die daraus resultierende erschwerte Recherchierbarkeit derselben. Neben den Staats- und Universitätsbibliotheken mit z.T. großen bis sehr großen Beständen solcher Literatur (allen voran die Staatsbibliothek zu Berlin und die Bayerische Staatsbliothek in München), existieren ca. 100 Seminar- und Institutsbibliotheken. Die Studie konstatierte sowohl die mangelnde Kooperation bei Beschaffung und Katalogisierung seitens der Institute, die in der materiellen und personellen Unterausstattung mit Bibliothekaren ihre Ursache habe, als auch die Weigerung der Bibliotheksverbünde, den Ostasienbibliotheken durch Mehrschriftlichkeit ihrer Kataloge die Mitarbeit zu ermöglichen. Auf dem Workshop "Vernetzung von Bibliotheks- und Archivressourcen im Bereich Ostasienwissenschaften", am 20. April 2000, auf dem die Ergebnisse der Studie diskutiert wurden, kam man zu dem Ergebnis, "dass die Förderorganisationen bis zur Ermöglichung von Mehrschriftlichkeit in den Verbünden bereits die Schaffung eines einheitlichen CJK-Katalogs in Deutschland unterstützen könnten, der sich so weit wie möglich auf die Standards der Verbünde zu bewegen sollte, um die Katalogisate der beteiligten Bibliotheken qualitativ zu verbessern und eine spätere Integration zu erleichtern.
    Aufgrund dieser Empfehlung finanzierte das BMBF einen weiteren Workshop mit mit dem Titel "CJK-Fachbibliotheken auf dem Weg in die Verbünde", der am 3. und 4. Mai 2001 in Hamburg stattfand. Die Teilnehmer des Workshops waren Vertreter der CJK-Bibliotheken, Asienwissenschaftler, Vertreter der Bibliotheksverbünde, betroffener Ausschüsse und der Deutschen Bibliothek sowie Vertreter von Förderorganisationen. Man kam schon damals zu dem Schluss, dass in technischer Hinsicht keine Hindernisse mehr für eine Kooperation zwischen den CJK-BiblioIheken sowie zwischen diesen und den Verbünden existierten. Die Vertreter der Verbünde erklärten ihre Bereitschaft zur Unterstützung und Integration der CJKBibliotheken. Am 18. Juni diesen Jahres fand erneut ein Workshop zur CJK-Katalogisierung statt, nun an der Staatsbibliothek Berlin, auf Einladung derselben und der AG Kooperative Verbundanwendungen. Anlass hierfür war die Öffnung verschiedener Verbundkataloge für die originalsprachige Katalogisierung (HBZ 2006, BVB 2008, HeBIS Dezember 2008, SWB Januar 2009, GBV Mai 2009 (in separater Datenbank und zum gegenwärtigen Zeitpunkt ausschließlich für die SBB)), die einen zunehmenden Bedarf an größerer Vereinheitlichung in der Katalogisierungspraxis mit sich bringt. Zu den insgesamt 50 Teilnehmern des Workshops zählten Vertreter der Verbünde, der Deutschen Bibliothek (aus dem Bereich der Normdateien sowie der Informationstechnik) sowie Vertreter der mit der Katalogisierung von CJK-Literatur Befassten aus einer ganzen Reihe von Einrichtungen, u.a. auch aus der Schweiz und Österreich. Der Workshop wurde moderiert von Matthias Kaun (Leiter der Ostasienabteilung der SBB). Formuliertes Ziel des Workshops war die Erarbeitung einer gemeinsamen Katalogisierungspraxis für die originalschriftliche CJK-Katalogisierung sowie einer einheitlichen Regelung der Transkriptionen.
    In der Einführung sprachen zunächst Matthias Kaun und Silke Horny (BSZ) über Problemstellung und Ziel des Workshops aus Sicht der Sondersammelgebiet-Bibliothek (SSG Ost- und Südostasien) bzw. der Verbünde. Matthias Kaun stellte fest, dass bei den Ostasienbibliothekaren in Deutschland bzw. Europa nach wie vor für die Katalogisierung von originalsprachiger Literatur Diskussions- und Handlungsbedarf im Hinblick auf Regelungen, Praxis und technische Lösungen bestehe. Er erwähnte Lösungsansätze, die für Zeitschriften in der Zeitschriftendatenbank existieren, vermisste jedoch eine übergreifende Praxis für den Bereich der Formalerschließung von Monographien, im Bereich der Namensansetzungen sowie der Normdaten. Während die Nutzung von Fremddaten an der SBB seit 1990 Praxis war, fehlt es auch heute noch an Kooperation bzw. Datenaustausch in Deutschland. Matthias Kaun formulierte die Notwendigkeit einer Professionalisierung im Bereich der CJK-Katalogisierung und damit verbunden der Erarbeitung einer gemeinsamen Praxis im Bereich der Titel und Verfasser in Originalschrift und / oder auch Transkriptionen sowie im Bereich der Normdaten (PND / GKD) wie auch die Notwendigkeit der Definition eines Zeichenvorrats. Erklärtes Ziel des Workshops war somit zunächst eine stärkere Sensibilisierung für die bestehenden Probleme und dann die Bildung von Arbeitsgruppen, die sich den Fragen einer gemeinsamen Praxis annehmen sollen, um auf deren Grundlage Lösungsansätze kooperativ verbundübergreifend erarbeiten, testen und umsetzen zu können.
    Es folgte ein Überblick über die derzeitige Praxis der Katalogisierung chinesischer bzw. japanischer Bestände (da zu wenige Vertreter aus Bibliotheken mit koreanischen Beständen anwesend waren, wurde dieser Teil auf dem Workshop weitestgehend ausgeklammert) an fünf verschiedenen deutschen Einrichtungen, in dem deutlich wurde, dass die Bedingungen unter denen gearbeitet wird (Personal- und Sachmittel) äußerst unterschiedlich sind und dass die einzelnen Institutionen untereinander kaum vernetzt sind bzw. Informationen austauschen. Matthias Kaun, Anne Labitzky-Wagner (Institut für Sinologie, Universität Heidelberg) und Julia Welsch (Asien-Afrika-Institut, Universität Hamburg) gaben einen Einblick in die chinesischsprachige, Ursula Flache (Staatsbibliothek zu Berlin), Aoki Hisae (Japan-Zentum, Philipps-Universität Marburg) und Dr. Klaus Gottheiner (Universitätsbibliothek Trier) in die japanischsprachige Katalogisierungspraxis. Erstere reicht von der kompletten Datenübernahme aus China im Fall der SBB, Fremddaten werden via Z39.50 aus China (von der National Library of China, Beijing übernommen - seit Mai diesen Jahres sind diese Daten in oben erwähnter separater Datenbank des GBV zu recherchieren -, bis hin zum Angebot eines Digitalen Zettelkatalogs für Altdaten an der Bibliothek des Asien-Afrika-Instituts/Abteilung Sprache und Kultur Chinas der Universität Hamburg bzw. Katalogisierung neuer Titel ausschließlich in lateinischer Umschrift bei paralleler Führung einer separaten Word-Datei in Originalschrift.
    Date
    22. 8.2009 10:44:16
  9. Crönert, M.: Neue Katalogisierungsregeln und unselbständige Werke (2003) 0.03
    0.0338525 = product of:
      0.20988551 = sum of:
        0.012996335 = weight(_text_:und in 1345) [ClassicSimilarity], result of:
          0.012996335 = score(doc=1345,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.27378 = fieldWeight in 1345, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1345)
        0.027148608 = weight(_text_:literatur in 1345) [ClassicSimilarity], result of:
          0.027148608 = score(doc=1345,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.26461992 = fieldWeight in 1345, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1345)
        0.027148608 = weight(_text_:literatur in 1345) [ClassicSimilarity], result of:
          0.027148608 = score(doc=1345,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.26461992 = fieldWeight in 1345, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1345)
        0.12959562 = weight(_text_:werke in 1345) [ClassicSimilarity], result of:
          0.12959562 = score(doc=1345,freq=14.0), product of:
            0.13780719 = queryWeight, product of:
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.02141793 = queryNorm
            0.9404126 = fieldWeight in 1345, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1345)
        0.012996335 = weight(_text_:und in 1345) [ClassicSimilarity], result of:
          0.012996335 = score(doc=1345,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.27378 = fieldWeight in 1345, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1345)
      0.16129032 = coord(5/31)
    
    Abstract
    Die aktuelle Debatte um die Zukunft der Katalogisierungsregeln verlangt den Protagonisten und "sonstigen beteiligten Personen" einiges ab: neben dem bibliothekarischen Sachverstand sind schon visionäre Vorstellungskraft, Sinn für politisches Taktieren sowie außerordentliche Fähigkeiten in der Textauslegung gefordert. Einem, der da nicht mehr mithalten kann, sei dennoch ein sachdienlich gemeinter Hinweis auf ein eher alltägliches Detailproblem der Katalogisierung erlaubt: die einigermaßen regelwerkgerechte Katalogisierung der unselbständig erschienenen Werke. Gerade für wissenschaftliche Spezialbibliotheken, die sehr intensiv auch die bibliographisch unselbständige Literatur erschließen, ist es besonders wichtig, dass die neuen/revidierten Katalogisierungsregeln die unselbständigen Werke angemessen ("gleichwertig") berücksichtigen. Das künftige Regelwerk, wie es dann auch heißen mag, muss die katalogisierungstechnischen Möglichkeiten der "Sonderregeln für unselbständig erschienene Werke" integrieren. Das ist zwar nur eine Kleinigkeit, sollte aber auch bei der Bewertung der konkurrierenden Konzepte (AACR oder RAK2) durchaus beachtet werden. Dabei wird es sich als vorteilhaft erweisen, wenn ein Regelwerk nach einem Bauplan konstruiert ist, der die erforderliche Emanzipation der bibliographisch unselbständigen Werke nicht nur prinzipiell ermöglicht, sondern ausdrücklich vorsieht. Da das logisch-strukturelle Konzept vor allem in den Definitionen der Grundbegriffe zum Ausdruck kommt, wird schon hier erkennbar, ob die Logik des Regelwerks auf selbständige und unselbständige Werke gleichermaßen ausgerichtet ist. Und wenn mit präzise und klar formulierten Grundparagraphen ein passendes Fundament gelegt ist, können die (nur wenigen) speziell für unselbständige Werke notwendigen Einzelregeln leicht in das Gesamtregelwerk eingefügt werden.
  10. Wiesenmüller, H.; Horny, S.: Basiswissen RDA : eine Einführung für deutschsprachige Anwender (2017) 0.03
    0.03308352 = product of:
      0.14651273 = sum of:
        0.021140529 = weight(_text_:und in 5027) [ClassicSimilarity], result of:
          0.021140529 = score(doc=5027,freq=54.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.44534507 = fieldWeight in 5027, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5027)
        0.019004026 = weight(_text_:literatur in 5027) [ClassicSimilarity], result of:
          0.019004026 = score(doc=5027,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.18523395 = fieldWeight in 5027, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5027)
        0.019004026 = weight(_text_:literatur in 5027) [ClassicSimilarity], result of:
          0.019004026 = score(doc=5027,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.18523395 = fieldWeight in 5027, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5027)
        0.0017111484 = weight(_text_:e in 5027) [ClassicSimilarity], result of:
          0.0017111484 = score(doc=5027,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.05558295 = fieldWeight in 5027, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5027)
        0.005124306 = product of:
          0.010248612 = sum of:
            0.010248612 = weight(_text_:29 in 5027) [ClassicSimilarity], result of:
              0.010248612 = score(doc=5027,freq=2.0), product of:
                0.07534158 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02141793 = queryNorm
                0.13602862 = fieldWeight in 5027, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5027)
          0.5 = coord(1/2)
        0.059388172 = weight(_text_:werke in 5027) [ClassicSimilarity], result of:
          0.059388172 = score(doc=5027,freq=6.0), product of:
            0.13780719 = queryWeight, product of:
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.02141793 = queryNorm
            0.43095118 = fieldWeight in 5027, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5027)
        0.021140529 = weight(_text_:und in 5027) [ClassicSimilarity], result of:
          0.021140529 = score(doc=5027,freq=54.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.44534507 = fieldWeight in 5027, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5027)
      0.22580644 = coord(7/31)
    
    Abstract
    Mit der ersten Auflage von Basiswissen RDA lag erstmals ein deutschsprachiges Lehrbuch für das neue, internationale Katalogisierungsregelwerk RDA (Resource Description and Access) vor. Seither wurde nicht nur das Regelwerk selbst an vielen Stellen verändert, sondern auch die deutschsprachigen Anwendungsrichtlinien wurden erheblich erweitert und verfeinert - nicht zuletzt aufgrund der Praxiserfahrungen seit dem Beginn der aktiven Katalogisierung mit RDA. Die überarbeitete und erweiterte Neuauflage - präsentiert die Katalogisierungsregeln auf dem aktuellen Stand von 2017 - bietet an vielen Stellen zusätzliche Details und Erläuterungen - geht besonders auf typische Fragen und Probleme ein, die beim Katalogisieren mit RDA auftreten - wurde um Beispiele und Erklärungen für verschiedene Themenbereiche erweitert (u.a. Reproduktionen, E-Books, Sprachkurse) - behandelt auch das neue theoretische Modell IFLA LRM und die geplante Weiterentwicklung von RDA Die zweite Auflage von Basiswissen RDA ist ein unverzichtbarer Begleiter für Studierende, Auszubildende und Beschäftigte in Bibliotheken, die mit RDA arbeiten. Das Lehrbuch unterstützt nicht nur beim Anfertigen von korrekten Katalogisaten, sondern auch dabei, das neue Regelwerk zu verstehen.
    Content
    Vgl. auch: http://www.basiswissen-rda.de/. IAllgemeiner Teil; 1 Formalerschließung: Konzepte und Standards; 1.1 Ziele von Formalerschließung; 1.2 Bisherige Regelwerke; 1.3 Bibliografische Beschreibung; 1.4 Eintragungen und Verweisungen; 1.5 EDV-Katalogisierung; 1.6 Aktuelle Herausforderungen; 2 Das FRBR-Modell; 2.1 Grundlagen; 2.2 Entitäten der Gruppe 1; 2.3 Entitäten der Gruppe 2; 2.4 FRBR in der Praxis; 3 RDA: Grundlagen; 3.1 Die Entwicklung von RDA; 3.2 RDA und FRBR; 3.3 Weitere Grundprinzipien von RDA; 3.4 Das RDA Toolkit; Haupteil; 4 Manifestationen und Exemplare; 4.1 Allgemeines 4.2 Grundprinzipien beim Erfassen und Übertragen4.3 Informationsquellen; 4.4 Titel der Manifestation; 4.5 Verantwortlichkeitsangabe; 4.6 Ausgabevermerk; 4.7 Erscheinungsvermerk; 4.8 Gesamttitelangabe; 4.9 Erscheinungsweise; 4.10 Identifikator für die Manifestation; 4.11 Anmerkung zur Manifestation; 4.12 Medientyp und Datenträgertyp; 4.13 Umfang; 4.14 Weitere Merkmale von Datenträgern; 4.15 Bezugs- und Zugangsinformationen; 4.16 Merkmale auf Exemplar-Ebene; 4.17 Begleitmaterial; 4.18 Beschreibung von mehrteiligen Monografien; 4.19 Beschreibung von monografischen Reihen 4.20 Beschreibung von integrierenden Ressourcen
    5 Werke und Expressionen; 5.1 Allgemeines; 5.2 Titel des Werks; 5.3 Weitere Merkmale von Werken; 5.4 Inhaltstyp; 5.5 Weitere Merkmale von Expressionen; 5.6 Sucheinstiege für Werke und Expressionen; 5.7 Beschreibung des Inhalts; 6 Personen, Familien und Körperschaften; 6.1 Allgemeines; 6.2 Moderne Personennamen; 6.3 Moderne Personen: Merkmale und Sucheinstiege; 6.4 Besondere Personengruppen; 6.5 Familien; 6.6 Namen von Körperschaften; 6.7 Namen von untergeordneten Körperschaften; 6.8 Körperschaften: Merkmale und Sucheinstiege; 6.9 Gebietskörperschaften und die ihnen untergeordneten Körperschaften6.10 Konferenzen und ähnliche Veranstaltungen; 7 Geografika; 7.1 Allgemeines; 7.2 Namen von Geografika; 8 Primärbeziehungen; 8.1 Allgemeines; 8.2 Primärbeziehungen und Datenmodelle; 8.3 Kernelemente bei den Primärbeziehungen;
    9 Beziehungen zu Personen, Familien und Körperschaften; 9.1 Allgemeines; 9.2 Geistiger Schöpfer: Allgemeines; 9.3 Körperschaft als geistiger Schöpfer; 9.4 Sonstige Person, Familie oder Körperschaft, die mit einem Werk in Verbindung steht; 9.5 Mitwirkender 9.6 Geistige Schöpfer und Mitwirkende: Besondere Fälle9.7 Beziehungen auf der Manifestationsebene; 9.8 Beziehungen auf der Exemplar-Ebene; 10 Beziehungen zwischen Werken, Expressionen, Manifestationen und Exemplaren; 10.1 Allgemeines; 10.2 In Beziehung stehende Werke; 10.3 In Beziehung stehende Expressionen; 10.4 In Beziehung stehende Manifestationen; 10.5 In Beziehung stehende Exemplare; 11 Beziehungen zwischen Personen, Familien und Körperschaften; 11.1 Allgemeines; 11.2 In Beziehung stehende Personen; 11.3 In Beziehung stehende Familien; 11.4 In Beziehung stehende Körperschaften; 12 Sacherschließung in RDA
    Date
    29. 3.2013 10:52:50
    Issue
    2., überarbeitete und erweiterte Auflage.
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  11. ORCID (2015) 0.03
    0.03188922 = product of:
      0.19771317 = sum of:
        0.015595603 = weight(_text_:und in 1870) [ClassicSimilarity], result of:
          0.015595603 = score(doc=1870,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.328536 = fieldWeight in 1870, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1870)
        0.011345398 = weight(_text_:im in 1870) [ClassicSimilarity], result of:
          0.011345398 = score(doc=1870,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.18739122 = fieldWeight in 1870, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=1870)
        0.07758828 = weight(_text_:autoren in 1870) [ClassicSimilarity], result of:
          0.07758828 = score(doc=1870,freq=6.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.64493775 = fieldWeight in 1870, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.046875 = fieldNorm(doc=1870)
        0.07758828 = weight(_text_:autoren in 1870) [ClassicSimilarity], result of:
          0.07758828 = score(doc=1870,freq=6.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.64493775 = fieldWeight in 1870, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.046875 = fieldNorm(doc=1870)
        0.015595603 = weight(_text_:und in 1870) [ClassicSimilarity], result of:
          0.015595603 = score(doc=1870,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.328536 = fieldWeight in 1870, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1870)
      0.16129032 = coord(5/31)
    
    Abstract
    ORCID (Open Researcher and Contributor ID) ist ein nicht-proprietärer, überwiegend numerischer Code, der der eindeutigen Identifizierung wissenschaftlicher Autoren dienen soll.
    Content
    ORCID soll die elektronische Zuordnung von Publikation und Autoren ermöglichen. Dies ist notwendig, da verschiedene Autoren gleiche Namen haben können, Namen sich ändern (z. B. bei Heirat) und Namen in verschiedenen Publikationen unterschiedlich angegeben werden (z. B. einmal die ausgeschriebenen Vornamen, ein anderes Mal aber nur die Initialen). ORCID soll zum De-facto-Standard für die Autorenidentifikation wissenschaftlicher Publikationen werden. Die Etablierung wird von der Non-Profit-Organisation Open Researcher Contributor Identification Initiative organisiert. Zu den Gründungsmitgliedern der Initiative gehören zahlreiche wissenschaftliche Verlagsgruppen (z. B. Elsevier, Nature Publishing Group, Springer) und Forschungsorganisationen (z. B. EMBO, CERN). Die Planungen für ORCID wurden 2010 auf Umfragen gestützt. ORCID ging am 16. Oktober 2012 offiziell an den Start. Am Jahresende 2012 hatte ORCID 42.918 Registrierte, Jahresende 2013 waren es 460.000 Registrierte und im November 2014 hatte ORCID 1 Million Autorenidentifikationen ausgestellt. Vgl. auch den Zusammenhang mit der GND und den Erfassungsleitfaden der DNB unter: https://wiki.dnb.de/x/vYYGAw.
  12. Dodd, S.A.: Cataloging machine-readable data files : an interpretive manual (1982) 0.03
    0.027120259 = product of:
      0.21018201 = sum of:
        0.08687555 = weight(_text_:literatur in 4176) [ClassicSimilarity], result of:
          0.08687555 = score(doc=4176,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.84678376 = fieldWeight in 4176, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.125 = fieldNorm(doc=4176)
        0.08687555 = weight(_text_:literatur in 4176) [ClassicSimilarity], result of:
          0.08687555 = score(doc=4176,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.84678376 = fieldWeight in 4176, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.125 = fieldNorm(doc=4176)
        0.028608523 = weight(_text_:20 in 4176) [ClassicSimilarity], result of:
          0.028608523 = score(doc=4176,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.4859275 = fieldWeight in 4176, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.125 = fieldNorm(doc=4176)
        0.0078223925 = weight(_text_:e in 4176) [ClassicSimilarity], result of:
          0.0078223925 = score(doc=4176,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.2540935 = fieldWeight in 4176, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.125 = fieldNorm(doc=4176)
      0.12903225 = coord(4/31)
    
    Date
    5. 8.2006 10:20:00
    Language
    e
    Theme
    Schöne Literatur
  13. Horny, S.: Katalogisierung mehrbändiger begrenzter Werke (2006) 0.03
    0.027102554 = product of:
      0.2100448 = sum of:
        0.020133836 = weight(_text_:und in 674) [ClassicSimilarity], result of:
          0.020133836 = score(doc=674,freq=24.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.42413816 = fieldWeight in 674, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=674)
        0.007320437 = product of:
          0.014640874 = sum of:
            0.014640874 = weight(_text_:29 in 674) [ClassicSimilarity], result of:
              0.014640874 = score(doc=674,freq=2.0), product of:
                0.07534158 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02141793 = queryNorm
                0.19432661 = fieldWeight in 674, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=674)
          0.5 = coord(1/2)
        0.16245669 = weight(_text_:werke in 674) [ClassicSimilarity], result of:
          0.16245669 = score(doc=674,freq=22.0), product of:
            0.13780719 = queryWeight, product of:
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.02141793 = queryNorm
            1.1788695 = fieldWeight in 674, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.0390625 = fieldNorm(doc=674)
        0.020133836 = weight(_text_:und in 674) [ClassicSimilarity], result of:
          0.020133836 = score(doc=674,freq=24.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.42413816 = fieldWeight in 674, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=674)
      0.12903225 = coord(4/31)
    
    Content
    Inhalt: 1 Gesamtaufnahme 2 Bände (F-/f-Satz) 2.1 f-Sätze 2.2 F-Sätze 3 Mehrfach-Verknüpfungen 3.1 Mehrbändiges begrenztes Werk innerhalb einer Schriftenreihe 3.2 Mehrbändiges begrenztes Werk innerhalb eines anderen mehrbändigen begrenzten Werkes 3.3 Bandliste 4 Abteilungen und übergeordnete Bandangaben 4.1 Mehrbändige begrenzte Werke mit Abteilungen und durchlaufender Zählung 4.1.1 Mehrbändige begrenzte Werke mit Abteilungen und durchlaufender Zählung für die Einzelbände (RAK-WB § 167,2) 4.1.2 Mehrbändige begrenzte Werke mit Abteilungen und durchlaufender Zählung für die Einzelbände bezogen auf das Gesamtwerk sowie durchlaufender Zählung innerhalb der Abteilung (RAK-WB § 167,2) 4.2 Mehrbändige begrenzte Werke ohne eigene durchlaufende Zählung mit Abteilungen 4.3 Mehrbändige begrenzte Werke mit über- und untergeordneten Bandangaben 4.3.1 Mehrbändige begrenzte Werke mit über- und untergeordneten Bandzählungen, zu deren einzelnen Gliederungsstufen keine eigenen Angaben gehören 4.3.2 Mehrbändige begrenzte Werke mit über- und untergeordneten Bandzählungen, zu deren einzelnen Gliederungsstufen eigene Angaben gehören 4.3.3 Mehrbändige begrenzte Werke mit Abteilungen und über- und untergeordneten Bandangaben (Mischform) 4.3.3.1 Mehrbändige begrenzte Werke mit durchlaufender Zählung für die Einzelbände und mit Abteilungen (Fall 1) 4.3.3.2 Mehrbändige begrenzte Werke ohne eigene durchlaufende Zählung mit Abteilungen (Fall 2) 4.3.4 Sonderfall bei mehrbändigen begrenzten Werken mit über- und untergeordneten Bandangaben 4.3.5 Sonderfall bei mehrbändigen begrenzten Werken mit Abteilungen und durchlaufender Zählung für die Einzelbände 4.4 Bandlisten mit Abteilungen 5 Besonderheiten bei Korrekturen von mehrbändigen begrenzten Werken 5.1 Wechsel von einem mehrbändigen begrenzten Werk zu einem fortlaufenden Sammelwerk 5.2 Wechsel von einem fortlaufenden Sammelwerk zu einem mehrbändigen begrenzten Werk 5.3 Wechsel von einem Einzelwerk zu einem mehrbändigen begrenzten Werk
    Date
    29. 3.2013 12:00:27
  14. Faßnacht, M.: "Druckt die GND Nummer in der Publikation ab!" : Vereinfachung der Normdatenverwendung in Bibliotheken und Datenbanken (2014) 0.03
    0.026162436 = product of:
      0.16220711 = sum of:
        0.0120803015 = weight(_text_:und in 2393) [ClassicSimilarity], result of:
          0.0120803015 = score(doc=2393,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.2544829 = fieldWeight in 2393, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2393)
        0.011345398 = weight(_text_:im in 2393) [ClassicSimilarity], result of:
          0.011345398 = score(doc=2393,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.18739122 = fieldWeight in 2393, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=2393)
        0.06335056 = weight(_text_:autoren in 2393) [ClassicSimilarity], result of:
          0.06335056 = score(doc=2393,freq=4.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.5265894 = fieldWeight in 2393, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.046875 = fieldNorm(doc=2393)
        0.06335056 = weight(_text_:autoren in 2393) [ClassicSimilarity], result of:
          0.06335056 = score(doc=2393,freq=4.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.5265894 = fieldWeight in 2393, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.046875 = fieldNorm(doc=2393)
        0.0120803015 = weight(_text_:und in 2393) [ClassicSimilarity], result of:
          0.0120803015 = score(doc=2393,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.2544829 = fieldWeight in 2393, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2393)
      0.16129032 = coord(5/31)
    
    Abstract
    Normdateien lösen das Problem von unterschiedlichen Namensschreibweisen, Übersetzungen und Namensdoppelungen. Nationale oder an Sprachräume gebundene Normdaten sind mittlerweile im "Virtual International Authority File" Projekt (VIAF) über Konkordanzen miteinander verlinkt. Neben diesen von Bibliotheken erstellten Normdaten entstehen aber auch in anderen Kontexten Identifizierungssysteme, die die Uneindeutigkeit von Personennamen in sehr großen Datenmengen beseitigen sollen. Ein arbeitsaufwändiges Problem ist dabei aber immer noch nicht gelöst: nach wie vor müssen Bibliothekare die Identität der Autoren mühsam recherchieren. Wie einfach wäre es, wenn die GND oder LoC Nummer beim Namen des Autors abgedruckt wäre! An einem Pilotprojekt der UB Tübingen wird demonstriert, wie durch die Zusammenarbeit von Herausgeber, Verlag und Bibliothek die GND-Nummern der Autoren in der Publikation abgedruckt werden können.
  15. Hoffmann, L.: Bericht über die 3. Sitzung des Beirats des Projekts "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" am 20.10.2003 (2003) 0.03
    0.025415177 = product of:
      0.112552926 = sum of:
        0.01610707 = weight(_text_:und in 2036) [ClassicSimilarity], result of:
          0.01610707 = score(doc=2036,freq=96.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.33931053 = fieldWeight in 2036, product of:
              9.797959 = tf(freq=96.0), with freq of:
                96.0 = termFreq=96.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=2036)
        0.015357573 = weight(_text_:literatur in 2036) [ClassicSimilarity], result of:
          0.015357573 = score(doc=2036,freq=4.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.14969164 = fieldWeight in 2036, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.015625 = fieldNorm(doc=2036)
        0.015357573 = weight(_text_:literatur in 2036) [ClassicSimilarity], result of:
          0.015357573 = score(doc=2036,freq=4.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.14969164 = fieldWeight in 2036, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.015625 = fieldNorm(doc=2036)
        0.013635471 = weight(_text_:im in 2036) [ClassicSimilarity], result of:
          0.013635471 = score(doc=2036,freq=26.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.22521622 = fieldWeight in 2036, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.015625 = fieldNorm(doc=2036)
        0.016395157 = weight(_text_:einzelne in 2036) [ClassicSimilarity], result of:
          0.016395157 = score(doc=2036,freq=2.0), product of:
            0.1260605 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02141793 = queryNorm
            0.13005784 = fieldWeight in 2036, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.015625 = fieldNorm(doc=2036)
        0.019593013 = weight(_text_:werke in 2036) [ClassicSimilarity], result of:
          0.019593013 = score(doc=2036,freq=2.0), product of:
            0.13780719 = queryWeight, product of:
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.02141793 = queryNorm
            0.142177 = fieldWeight in 2036, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.015625 = fieldNorm(doc=2036)
        0.01610707 = weight(_text_:und in 2036) [ClassicSimilarity], result of:
          0.01610707 = score(doc=2036,freq=96.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.33931053 = fieldWeight in 2036, product of:
              9.797959 = tf(freq=96.0), with freq of:
                96.0 = termFreq=96.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=2036)
      0.22580644 = coord(7/31)
    
    Content
    "Stand des Projekts: Die Projektbearbeiterin berichtet über die 3 1/2 Monate, die seit der zweiten Beiratssitzung im Juli vergangen sind. Nach den Abschlussarbeiten der Projektteile Regelwerks- und Formatabgleich war der Zwischenbericht an die DFG anzufertigen, der am 20.8.2003 termingemäß abgegeben wurde. Die DFG hat mitgeteilt, dass keine Bemerkungen seitens der Gutachter eingegangen sind. Danach fanden Vorarbeiten zur Untersuchung der Auswirkungen eines Umstiegs auf den OPAC und den Benutzer, zur Befragung von amerikanischen Experten sowie zur Wirtschaftlichkeitsuntersuchung statt. Befragungen von Benutzern: Eine hohe Priorität im Gesamtprojekt hat die Untersuchung der Auswirkungen eines Umstiegs auf den OPAC und den Benutzer. Dazu soll zunächst die Suchstrategie von Benutzern ermittelt werden, um dann anschließend analysieren zu können, ob diese Suchstrategie in einem AACR-MARC-basierten Katalog erfolgreicher oder weniger erfolgreich wäre. Da die zunehmende Literatur-Recherche im Internet möglicherweise das Suchverhalten in einem OPAC beeinflusst, soll zusätzlich die Suchstrategie im Internet erfragt werden. Zur Ermittlung der Suchstrategie wurde ein Fragebogen entworfen und in Der Deutschen Bibliothek getestet. Dieser Pretest wurde in vier Durchgängen vorgenommen. Nach jedem Durchgang sind Kritik und Anmerkungen der Benutzer eingebracht worden. Im letzten Durchgang konnte der Fragebogen ohne Verständnisschwierigkeiten von den Benutzern alleine ausgefüllt werden. Anhand der Deutschen Bibliotheksstatistik wurden Bibliotheken unter den Gesichtspunkten der Nutzerfrequenz und des Bestands ausgewählt und angefragt, ob sie bereit sind, den Fragebogen in ihrer Bibliothek auszulegen. Nachdem sich zehn Bibliotheken bereit erklärt hatten, wurden für die endgültige Befragung - soweit in einer Bibliothek erforderlich - einige spezielle Fragen zu Suchbegriffen an die jeweiligen Bibliotheks-OPACs angepasst, da Formulierungen und Bezeichnungen wie Person, Autor, Verfasser u. dgl. in den Bibliothekskatalogen voneinander abweichen können. In der Diskussion wird auf weitere Möglichkeiten hingewiesen, z.B. anhand von Servermitschnitten von Benutzereingaben das Benutzerverhalten zu ermitteln. Da solche Mitschnitte nur bedingt als repräsentativ gelten können und als schwer auswertbar eingeschätzt werden, wird im folgenden davon ausgegangen, dass auf Benutzerumfragen nicht verzichtet werden solle. Frühere Benutzerumfragen wurden als veraltet und nicht zielgenau betrachtet.
    Untersuchung zur Stabilität der Zielsysteme (Ausschreibung eines Library Consultants): Im DFG-Antrag ist vorgesehen, dass amerikanische Experten zur Zukunftsfähigkeit von MARC21 und AACR2 befragt werden. Diese Befragungen sollen durch einen amerikanischer Library Consultant durchgeführt werden. Mittels eines "Letters of intent" sind mehrere Firmen angeschrieben und gebeten worden, ggf. ihr Interesse an dem Projekt zu bekunden und ein Angebot abzugeben. Ausgewählt wurde schließlich die Firma Stillwater. Die Firma hat bereits Erfahrungen mit deutschen Projekten gemacht und ein überzeugendes und schlüssiges Angebot abgegeben. Im weiteren wurde eine ausführliche Liste von Fragestellungen zugeschickt, die nach mündlichen Verhandlungen konkretisiert und präzisiert wurde. Es wurde mit Stillwater verhandelt, welcher Expertenkreis befragt werden soll. Von den zu befragenden Experten wird erwartet, dass sie eine verlässliche Einschätzung über die Weiterentwicklung von MARC21 und AACR2 abgeben können, aber auch die mögliche Bedeutung weiterer Standards wie XML u.a. für das Bibliothekswesen einordnen können. In diesem Zusammenhang wird auch nachgefragt, welche Rolle Metadatenstandards wie Dublin Core oder MODS (Metadata Object Description Schema) und METS (Metadata Encoding and Transmission Standard) in der zukünftigen Standardisierung möglicherweise spielen werden. Mit dem Library Consultant werden gemeinsam Vorgaben für die Befragungen amerikanischer Experten erarbeitet. Die Befragungen wird Stillwater in Form von Interviews jeweils direkt vor Ort vornehmen. Neben den Fragen zur Zukunftsfähigkeit von MARC21 und AACR2 sind für einen Umstieg auch Fragen der gängigen Katalogisierungspraxis von Interesse. Experten der Library of Congress werden u.a. zur Praxis und zum Aufwand der Normdatenarbeit befragt. Es wird in Erfahrung gebracht, an welchen überregionalen kooperativen Katalogisierungsprojekten deutsche Bibliotheken teilnehmen können, welche Vorbedingungen eine Bibliothek dafür erfüllen muss, welche Berechtigungen damit verbunden sind und welche aktiven Mitwirkungsmöglichkeiten bestehen. Es wird ermittelt, wie die Aussichten stehen, dass deutsche Anforderungen an Regelwerk und Format berücksichtigt werden. Experten des OCLC werden u.a. danach befragt, was aus den Ergebnissen des Reuse-Projekts geworden ist. Es hat dort konkrete Vorschläge für die Verbesserung des Datentauschs v.a. in Bezug auf mehrbändige Werke gegeben. Das OCLC wird überdies im Zusammenhang mit dortigen Tests zur Implementierung der Datenstruktur der Functional Requirement of Bibliographic Records in das MARC-Format nach seiner Einschätzung der Veränderungen von Format und Regelwerk in Richtung der Functional Requirements befragt. Sowohl MARC21 und AACR2 als auch MAB2 und RAK sind von Katalogisierungsabläufen und Funktionalitäten geprägt. Deshalb ist es unumgänglich, Informationen über Katalogisierungsvorgänge einzuholen. Einigen Universitäts- und Öffentlichen Bibliotheken sollen u.a. folgende Fragen gestellt werden:
    - Wie funktioniert Copy Cataloguing? Wie hoch ist der Anteil von Fremddaten? - Wie funktioniert die Normdatenarbeit in den Bibliotheken? Wie werden die Normdaten der Library of Congress nachgenutzt? - Wie hoch ist der Aufwand der Individualisierung? - Wie werden die Bände eines mehrbändigen Werkes nachgewiesen und verwaltet? - Wie setzt sich das Katalogisierungspersonal zusammen? - Wie funktioniert Aus- und Fernleihe, v.a. wenn Bände keinen eigenen Datensatz haben? - Wie hoch ist der Bedarf an deutschen Daten jetzt, und wie hoch würde er sein, wenn deutsche Bibliotheken auf AACR2 und MARC21 umgestiegen wären?
    Es wurde angeregt, darüber hinaus zu fragen, wie die Aussichten sind, dass im Rahmen der Umsetzung der Functional Requirements in das MARCFormat Verknüpfungsstrukturen eingeführt werden könnten. Stand der Wirtschaftlichkeitsuntersuchung (Präsentation durch die Firma Kienbaum): Den Stand und das weitere Vorgehen der Wirtschaftlichkeitsuntersuchung haben Vertreter der Firma Kienbaum vorgestellt. Nach der Phase der Exploration hat die Phase der Kostenermittlung begonnen. In einem Workshop, zu dem Vertreter der DBV-Sektionen, der Arbeitsgemeinschaft der Verbundsysteme, der ekz, der nicht im DBV organisierten Spezialbibliotheken sowie der österreichischen Bibliotheken eingeladen worden sind, wurden gemeinsam Katalogisierungsprozesse definiert, die von einem Umstieg betroffen sein werden. In einem zweiten Schritt wurden diese Katalogisierungsprozesse nach Bibliothekstypen auf ihre Relevanz bewertet. Die so festgelegten Schätzwerte werden in einzelnen typischen Bibliotheken stichprobenartig konkretisiert und präzisiert. Dazu haben die DBV-Vorsitzenden Bibliotheken benannt, in denen vor Ort Kennzahlen ermittelt werden. Die Wirtschaftlichkeitsbetrachtung geht von folgenden Grundannahmen aus: Verzicht auf Hierarchien und Übernahme der AACR-Ansetzungen. Da es keine Entscheidung darüber gibt, ob bei einem Umstieg die Linkingfelder des MARC-Formats für Verknüpfungen genutzt werden und welche Ansetzungssprache anstelle von Englisch gewählt wird, werden diese Möglichkeiten als Varianten in einer Chancen-Risiko-Berechnung betrachtet. In der folgenden Diskussion wird u.a. hinsichtlich der Befragung einzelner Bibliotheken durch die Firma Kienbaum die Frage angesprochen, was passiert, wenn einzelne Bibliotheken keine konkreten Kennzahlen zur weiteren Berechnung vorlegen können. In diesen Fällen wird Kienbaum weitere Bibliotheken ansprechen. Wenn das auch nicht zum Erfolg führt, wird versucht, aus der Literatur zu nutzbaren Werten zu kommen. Falls erforderlich werden Annahmen mit einer Risikoabschätzung getroffen. Die Firma Kienbaum geht in der Wirtschaftlichkeitsberechnung davon aus, dass ein Umstieg im Zusammenhang mit einer ohnehin fälligen Systemumstellung erfolgt. Es wird diskutiert, ob diese Grundannahme durchgehend vorausgesetzt werden oder ob es nicht andere Zwänge zum Umstieg oder Nichtumstieg geben kann. Auf den Hinweis, dass die Berechnung des Ist-Standes auch Teil der Wirtschaftlichkeitsberechnung sein soll, stellt die Firma Kienbaum dar, dass die Analyse des Ist-Standes den größten Teil der Wirtschaftlichkeitsberechnung ausmacht. Die Berechnung der Kosten nach einem Umstieg geschieht mittels einer Differenzbetrachtung. Der Entwurf einer Erklärung des Beirats, den Herr Eversberg auf der zweiten Beiratssitzung als Tischvorlage verteilt hat und der dort nicht mehr besprochen werden konnte, wird diskutiert. Herr Eversberg schlägt in dem Papier vor, dass der Beirat die in der Vergangenheit aufgetretenen Missverständnisse zum Anlass nimmt, eine Erklärung abzugeben, die in einem Überblick die derzeitigen Aktivitäten der Standardisierungsarbeit darstellt und den Willen zum Konsens der daran Beteiligten betont. Es wird überlegt, wieweit der Beirat das geeignete Gremium für eine generelle Erklärung ist, die über den Betrachtungsumfang des Projekts hinausgeht. Als Ergebnis der Diskussion ist man sich aber einig, dass der Beirat durchaus die Umstiegsfrage in einen umfassenden Zusammenhang der Standardisierungsarbeit positionieren sollte. Die Erklärung soll gemeinsam mit dem ohnehin geplanten Bericht über die Beiratssitzung in geeigneter Weise veröffentlicht werden.
    Projekt "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" Erklärung des Beirats: Der Beirat des DFG-Projekts "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" hat die Notwendigkeit erkannt, seine Arbeit sowie das Projekt in einen umfassenden Zusammenhang mit anderen laufenden Aktivitäten der Standardisierungsarbeit zu stellen. Nicht erst das Internet hat Bibliotheken dazu veranlasst, sich um internationale Zusammenarbeit zu bemühen. Besonders auf dem Gebiet der Katalogisierung wurde schon lange vor der Einführung der elektronischen Datenverarbeitung an Konzepten und Normen gearbeitet, die den grenzüberschreitenden Datenaustausch erleichtern sollen. Gegenwärtig wird unter dem weltweiten Dach der IFLA verstärkt nach Wegen gesucht, zu einem internationalen Katalogregelwerk zu gelangen. Dabei ist sowohl der Tatsache Rechnung zu tragen, dass elektronische Medien in Bibliothekskatalogen in geeigneter Weise nachgewiesen werden, als auch der Tatsache, dass Online-Kataloge Benutzern ganz neue Zugriffsmöglichkeiten eröffnen. Zu den Schritten, die zur Zeit in Deutschland unternommen werden, gehören vor allem fünf Aktionsfelder: - Aktive Mitarbeit Der Deutschen Bibliothek bzw. der deutschen Vertreter in den betreffenden IFLA-Sektionen bei der internationalen Standardisierungsarbeit. - Durchführung des DFG-Projekts "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" bei Der Deutschen Bibliothek im Auftrag des Standardisierungsausschusses, in dem die Rahmenbedingungen und Konsequenzen eines Umstiegs untersucht werden. - Weiterentwicklung der RAK in Zusammenarbeit mit den Expertengruppen des Standardisierungsausschusses in Angleichung an internationale Regelwerke und unter Berücksichtigung der Projektergebnisse. - Zusammenarbeit Der Deutschen Bibliothek mit der Library of Congress und dem OCLC mit dem Ziel, zu verteilten, internationalen Normdateien zu gelangen (Projekt VIAF), die von möglichst vielen Einrichtungen gespeist und genutzt werden. Dies führt nicht nur zu effektiverer Normierungsarbeit, sondern erleichtert auch die weltweite und katalogübergreifende Suche des Benutzers. - Optimierung von Verfahren für die Datenkonversion, der Zusammenführung unterschiedlich strukturierter Daten und des Austauschs vorhandener Daten. Alle für die verschiedenen Aktivitäten Verantwortlichen werden zustimmen, dass breiter Konsens erreicht werden muss, weil nur so vor dem Hintergrund der föderalen Struktur mit verteilten Zuständigkeiten nachhaltige Erfolge erzielt werden können."
  16. Kasprzik, A.: Vorläufer der Internationalen Katalogisierungsprinzipien (2014) 0.02
    0.024982769 = product of:
      0.12907764 = sum of:
        0.020923696 = weight(_text_:und in 1619) [ClassicSimilarity], result of:
          0.020923696 = score(doc=1619,freq=18.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.4407773 = fieldWeight in 1619, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1619)
        0.03257833 = weight(_text_:literatur in 1619) [ClassicSimilarity], result of:
          0.03257833 = score(doc=1619,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 1619, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=1619)
        0.03257833 = weight(_text_:literatur in 1619) [ClassicSimilarity], result of:
          0.03257833 = score(doc=1619,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 1619, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=1619)
        0.011345398 = weight(_text_:im in 1619) [ClassicSimilarity], result of:
          0.011345398 = score(doc=1619,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.18739122 = fieldWeight in 1619, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=1619)
        0.010728197 = weight(_text_:20 in 1619) [ClassicSimilarity], result of:
          0.010728197 = score(doc=1619,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.18222281 = fieldWeight in 1619, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.046875 = fieldNorm(doc=1619)
        0.020923696 = weight(_text_:und in 1619) [ClassicSimilarity], result of:
          0.020923696 = score(doc=1619,freq=18.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.4407773 = fieldWeight in 1619, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1619)
      0.19354838 = coord(6/31)
    
    Abstract
    Für eine korrekte und zielführende Formalerschließung lassen sich drei Ebenen von Leitlinien definieren: Zielsetzungen, Prinzipien und Regeln der Katalogisierung. Der vorliegende Artikel befasst sich hauptsächlich mit den (möglichen) Zielsetzungen und Prinzipien der Katalogisierung. In der Einleitung der im Jahr 2009 herausgegebenen "Erklärung zu den Internationalen Katalogisierungsprinzipien" (ICP) ist vermerkt, dass die dort vorgelegte Prinzipiensammlung aufbaut auf "den großen Katalogtraditionen der Welt". Diese Traditionen werden dann mit drei Referenzen aus der frühen Fachliteratur belegt: Den Schriften von Charles A. Cutter (1904), Shiyali R. Ranganathan (1955) und Seymour Lubetzky (1969). In diesem Artikel werden nach einem kurzen chronologischen Überblick die drei genannten Publikationen und insbesondere die darin enthaltenen Feststellungen zu Sinn und Zweck von international einheitlichen Prinzipien für die bibliothekarische Formalerschließung in ihren geschichtlichen Kontext eingeordnet und ihr jeweiliger Einfluss auf die diversen existierenden Formulierungen von Zielen und Prinzipien näher beleuchtet. Außerdem werden einige bemerkenswert moderne Gedankengänge in den betreffenden Schriften aufgezeigt. Ein abschließendes Fazit fasst die wichtigsten Zielsetzungen und Prinzipien der Katalogisierung noch einmal mit Bezug auf die verwendete Literatur zur Theorie der Informationsorganisation zusammen.
    Date
    20. 1.2015 18:00:28
  17. Hoeffken, P.: Kollaborative Ansätze zur Vereinheitlichung von Namensformen in LibraryThing.com (2009) 0.02
    0.024243124 = product of:
      0.15030737 = sum of:
        0.016273987 = weight(_text_:und in 2221) [ClassicSimilarity], result of:
          0.016273987 = score(doc=2221,freq=8.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.34282678 = fieldWeight in 2221, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2221)
        0.013236298 = weight(_text_:im in 2221) [ClassicSimilarity], result of:
          0.013236298 = score(doc=2221,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.2186231 = fieldWeight in 2221, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2221)
        0.052261546 = weight(_text_:autoren in 2221) [ClassicSimilarity], result of:
          0.052261546 = score(doc=2221,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.4344141 = fieldWeight in 2221, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2221)
        0.052261546 = weight(_text_:autoren in 2221) [ClassicSimilarity], result of:
          0.052261546 = score(doc=2221,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.4344141 = fieldWeight in 2221, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2221)
        0.016273987 = weight(_text_:und in 2221) [ClassicSimilarity], result of:
          0.016273987 = score(doc=2221,freq=8.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.34282678 = fieldWeight in 2221, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2221)
      0.16129032 = coord(5/31)
    
    Abstract
    LibraryThing.com ist eine Web 2.0 Anwendung, die sich der Community-Bildung verschrieben hat und dazu (Privat-)Bibliotheken ins Zentrum stellt. Die Nutzer erstellen dabei die Inhalte der Kataloge einerseits durch Import von Daten, andererseits durch eigenständige Eingabe. Dabei werden auch zu Autoren Seiten angelegt, die die Nutzer mit diversen Daten anreichern können. In dieser Arbeit werden diese Bestrebungen hinsichtlich der Autorenseiten dargestellt und mit der Personennamendatei der Deutschen Nationalbibliothek verglichen. Dabei wird aufgezeigt, welche Unterschiede und Gemeinsamkeiten bestehen. Schließlich wird untersucht in welcher Form in LibraryThing Inhalte generiert werden und ob sie fachlichen Ansprüchen an Bibliothekskataloge genügen können.
    Footnote
    Diplomarbeit im Studiengang Bibliothekswesen
  18. Hilberer, T.: Aufwand vs. Nutzen : Wie sollen deutsche wissenschaftliche Bibliotheken künftig katalogisieren? (2003) 0.02
    0.024135614 = product of:
      0.09352551 = sum of:
        0.014141542 = weight(_text_:und in 1733) [ClassicSimilarity], result of:
          0.014141542 = score(doc=1733,freq=74.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.29790485 = fieldWeight in 1733, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1733)
        0.015357573 = weight(_text_:literatur in 1733) [ClassicSimilarity], result of:
          0.015357573 = score(doc=1733,freq=4.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.14969164 = fieldWeight in 1733, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.015625 = fieldNorm(doc=1733)
        0.015357573 = weight(_text_:literatur in 1733) [ClassicSimilarity], result of:
          0.015357573 = score(doc=1733,freq=4.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.14969164 = fieldWeight in 1733, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.015625 = fieldNorm(doc=1733)
        0.008456361 = weight(_text_:im in 1733) [ClassicSimilarity], result of:
          0.008456361 = score(doc=1733,freq=10.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.13967317 = fieldWeight in 1733, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.015625 = fieldNorm(doc=1733)
        0.0035760654 = weight(_text_:20 in 1733) [ClassicSimilarity], result of:
          0.0035760654 = score(doc=1733,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.060740937 = fieldWeight in 1733, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.015625 = fieldNorm(doc=1733)
        0.019593013 = weight(_text_:werke in 1733) [ClassicSimilarity], result of:
          0.019593013 = score(doc=1733,freq=2.0), product of:
            0.13780719 = queryWeight, product of:
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.02141793 = queryNorm
            0.142177 = fieldWeight in 1733, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.015625 = fieldNorm(doc=1733)
        0.014141542 = weight(_text_:und in 1733) [ClassicSimilarity], result of:
          0.014141542 = score(doc=1733,freq=74.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.29790485 = fieldWeight in 1733, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1733)
        0.002901834 = product of:
          0.005803668 = sum of:
            0.005803668 = weight(_text_:22 in 1733) [ClassicSimilarity], result of:
              0.005803668 = score(doc=1733,freq=2.0), product of:
                0.07500195 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02141793 = queryNorm
                0.07738023 = fieldWeight in 1733, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1733)
          0.5 = coord(1/2)
      0.2580645 = coord(8/31)
    
    Content
    "Die folgenden Thesen versuchen den Stand der Fachdiskussion so auf den Punkt zu bringen, dass sie auch für Außenstehende verständlich wird. Da sich auch Bibliothekarinnen und Bibliothekare außerhalb der Katalogabteilungen öfter als Laien auf dem Gebiet der Katalogisierung fühlen, scheint eine Veröffentlichung in der wichtigsten deutschen bibliothekarischen Zeitschrift nicht verfehlt zu sein. Die Frage, wie Bücher, Zeitschriften und andere Medien in den Computerkatalogen zu verzeichnen sind, hört sich ziemlich bibliothekarisch - sprich: esoterisch - an. Tatsächlich hat ihre Beantwortung bedeutende Folgen für Hochschulen und Wissenschaft, denn die Bibliotheken geben bislang den weitaus größten Teil ihres Etats nicht für Literatur aus, sondern für ihr Personal. Die Kosten für die Katalogisierung müssen deshalb eingeschränkt werden, bzw. die Mittel sollten nur für solche Erschließungsangebote verwendet werden, die die Wissenschaftler und Studierenden wirklich brauchen. Die Erschließung der Bestände stellt eine der wesentlichen Aufgaben der Bibliotheken dar. Nur das im Katalog verzeichnete Buch kann gefunden und somit gelesen werden. Diese Verzeichnung erfolgt keinesfalls, wie man vielleicht glauben könnte, durch einfaches Abschreiben der Titelblätter, vielmehr folgt die bibliothekarische Beschreibung einem komplizierten und umfangreichen Regelwerk. Dadurch soll sichergestellt werden, dass jedes Buch eindeutig und unverwechselbar erfasst wird. Solche Perfektion ist bei historischen Beständen unverzichtbar, wo es gilt, jedes Objekt in seiner Individualität voll ständig zu beschreiben. Für das Massengeschäft der aktuellen Literatur wäre weitaus weniger Aufwand vonnöten. Derzeit katalogisieren deutsche wissenschaftliche Bibliotheken ausnahmslos nach den Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken, abgekürzt RAK-WB. Auf knapp 600 großformatigen Seiten wird in 823 Paragraphen (allerdings mit springender Zählung) festgelegt, was wie zu erfassen und auf Titelkarten zu schreiben ist. Hinzu kommen meist mehrere Ordner umfassende Auslegungs- und Anwendungsregeln der verschiedenen regionalen Katalogisierungsverbünde. Ganz zu schweigen von den Protokollen der ebenfalls auf Verbundebene tätigen Katalog-AGs. Die Unterrichtung in diesem Regelwerk stellt einen wesentlichen Teil der Ausbildung zum Diplom-Bibliothekar dar (Laufbahn des gehobenen Dienstes), der folglich seine berufliche Identität nicht zuletzt aus der Qualität der Titelaufnahmen herleitet. Die Erschließungskosten sind daher hoch; nach jüngsten Erhebungen der Universitätsbibliothek Mannheim belaufen sie sich durchschnittlich auf ca. 20 Euro pro Buch. Dieser hohe Aufwand wird von Seiten der Nutzer weder wahrgenommen noch nachgefragt. Ihnen geht es nicht um die Beschreibung, sondern um das Auffinden von Büchern und Informationen. Zudem haben die verschiedenen Auslegungsregeln zur Folge, dass die bibliographische Beschreibung ein und desselben Buchs von Verbund zu Verbund verschieden ausfällt. Die durch das ausführliche Regelwerk angestrebte Eindeutigkeit wird also trotz des betriebenen Aufwands nicht erreicht. Die RAK-WB wurden für Zettelkataloge entwickelt und entsprechen nicht den Bedingungen von Datenbanken und Online-Katalogen. Sie beinhalten z. B. ausführliche Vorschriften für die Frage, unter welchem Element des Titels die "Haupteintragung" zu leisten sei, also wo die "Haupttitelkarte" in den Zettelkasten einzuordnen und von welchen anderen Elementen wie darauf zu verweisen ist. Das spielt im elektronischen Katalog überhaupt keine Rolle mehr, wo jedes Element der bibliographischen Beschreibung als Sucheinstieg gewählt werden kann. Sind, um noch ein Beispiel aufzuführen, mehr als drei Verfasser an einem Werk beteiligt, so wird nur der erste berücksichtigt, um die Zahl der Zettel klein zu halten. Der Online-Katalog hingegen sollte alle beteiligten Personen aufführen, um möglichst viele Informationen zu bieten.
    Die deutschen wissenschaftlichen Bibliotheken, so lässt sich zusammenfassen, katalogisieren mit hohem Aufwand und ohne entsprechenden Nutzen nach einem hypertrophen und veralteten Regelwerk - das überdies kaum geeignet ist, multimediale Objekte zu verzeichnen. Aus dieser Situation heraus ist, vor allem von Seiten der Deutschen Bibliothek, der Vorschlag gemacht worden, das deutsche Regelwerk durch die international weit verbreiteten Anglo-American Cataloguing Rules in der zweiten Ausgabe (sog. AACR2) zu ersetzen. Dies - so wird vorgebracht - würde es erlauben, Titelaufnahmen aus großen anglo-amerikanischen Datenbanken einfach zu übernehmen und so die Kosten für die Katalogisierung zu senken. Diese Lösung scheint auf den ersten Blick sehr verlockend zu sein, tatsächlich stellt sie keinen gangbaren Weg dar, und zwar aus mehreren Gründen: 1. Auch die AACR2 sind für Zettelkataloge verfasst und mithin genau so veraltet wie die RAK. 2. Die AACR2 sind nicht weniger kompliziert und umfangreich als die RAK, und sie kennen wie diese von Bibliotheksverbund zu Bibliotheksverbund unterschiedliche Auslegungsregeln. 3. Aus dieser exegetischen Vielfalt folgt eine Uneinheitlichkeit der bibliographischen Beschreibung. Einfache Übernahme von Titelaufnahmen ohne Nachbearbeitung wäre also nicht möglich. 4. Die AACR2 sind spezifisch für das amerikanische Bibliothekswesen entwickelt, das sich vom deutschen markant unterscheidet (z. B. Freihandbibliotheken statt Magazinbibliotheken). Schon deswegen könnte man das Regelwerk nicht 1:1 übernehmen, sondern müsste zahlreiche Anpassungen vornehmen, wie dies auch in der Schweiz geschehen ist. Auch dadurch wären einfache Übernahmen ausgeschlossen. 5. Eine solche einfache Übernahme würde weiterhin dadurch verhindert werden, dass die Ansetzung von Namen nach AACR2 in der Landessprache erfolgen müsste: Wo in einer amerikanischen Titelaufnahme z.B. Florence steht, müsste bei uns Florenz stehen (bisher nach RAK originalsprachlich Firenze). Der Umarbeitungsaufwand wäre besonders erheblich bei der Ansetzung von Namen aus Sprachen mit nicht-lateinischer Schrift, die man im Englischen ganz anders transkribiert als bei uns. Letzteres wiegt besonders schwer, denn alle Wissenschaften, die solche Sprachen zum Gegenstand haben oder mit ihnen arbeiten, könnten mit den neuen Ansetzungen nichts mehr anfangen. Sie würden diese Umstellung vermutlich nicht mitmachen und Sonderkataloge einfordern. 6. Sehr große Unterschiede bestehen außerdem bei der Katalogisierung von Zeitschriften. Während die RAK sich beispielsweise immer an den neuesten Titel einer Zeitschrift halten, stehen Zeitschriften in Amerika immer un ter dem ältesten. Eine Umarbeitung der Zeitschriftendatenbank wäre ungemein aufwendig, ohne dass der Nutzer etwas davon hätte. 7. Schon seit längerem übernehmen deutsche Bibliotheken angloamerikanische Titelaufnahmen, und passen sie an. Unterschiedliche Regelwerke verhindern Übernahmen also nicht. Umgekehrt gilt leider auch, dass Titelaufnahmen, die zwar nach demselben deutschen Regelwerk (RAK) erstellt worden sind, aber in einem anderen Verbund, folglich nach anderen Anwendungsregeln, nicht ohne Nachbearbeitung übernommen werden können: in Göttingen wird das Buch anders beschrieben als in Freiburg, trotz gleichen Regelwerks. Zunächst müsste also der einfache Austausch von Katalogisaten zwischen den deutschen Bibliotheksverbünden ermöglicht werden.
    8. Wollte man nicht mit enormem Aufwand alle vorhandenen Titelaufnahmen ändern, dann wäre ein Katalogbruch die Folge. Die Nutzer hätten also für ältere Werke den RAK-, und für neuere den AACR2-Katalog zu konsultie ren, und in vielen Bibliotheken noch einen oder gar mehrere Zettelkataloge für die ältesten Teile des Bestandes. 9. Der Aufwand, besonders an Schulungen, aber auch an technischen Umstellungen wäre immens und schlechterdings nicht zu leisten; die durchschnittlichen Kosten pro Titelaufnahme würden sich dadurch gewaltig er höhen. Bearbeitungsrückstände würden sich bilden, der ohnehin meist zu langwierige Geschäftsgang würde weiter gedehnt. (Die Kosten eines Umstiegs werden derzeit durch eine von der DFG geförderte Studie der Deutschen Bibliothek untersucht. Da sich letztere bisher mit geradezu verbissener Heftigkeit für einen Umstieg ausgesprochen hat, wird das Ergebnis außerordentlich kritisch betrachtet werden müssen.) 10. Aus den aufgeführten Gründen würden zahlreiche Bibliotheken mit Recht einen Umstieg nicht mitmachen, so dass der Datentausch für deutsche Bibliotheken insgesamt noch schwieriger, sprich: kostspieliger, werden würde. Fazit: Ein Umstieg auf die AACR2 würde bedeuten, dass man mit hohem Aufwand und ohne wirklichen Nutzen ein überkompliziertes und veraltetes Regelwerk durch ein anderes ersetzen würde, das ebenso schwerfällig und nicht mehr zeitgemäß ist. Dass dies unsinnig ist, liegt auf der Hand; die Entwicklung müsste vielmehr in eine andere Richtung gehen: 1. Die Zahl der Katalogisierungsverbünde in Deutschland müsste vermindert werden, zumindest müssten die größeren Verbünde eine gemeinsame Datenbank anlegen. Dies würde den Katalogisierungsaufwand sofort be trächtlich reduzieren, da eine Vielzahl von Bibliotheken dieselbe Aufnahme nutzen könnte. 2. Das Regelwerk RAK muss modernisiert und verschlankt werden. Vorschriften, die nur für Kartenkataloge sinnvoll sind, müssen gestrichen werden - andere, die zur Beschreibung multimedialer Objekte erforderlich sind, sind neu einzufügen. Da das bisherige Regelwerk die Grundlage bildet, besteht Kompatibilität, d.h. es findet kein Katalogbruch statt. 3. Anzustreben wäre selbstverständlich auch eine Anpassung an verbreitete internationale Standards, um den Austausch zu vereinfachen. 4. Dieses weiterentwickelte Regelwerk könnte RAK-L(ight) oder RAK-online heißen, und es sollte mehrstufig angelegt werden. Ein minimaler und auch von nicht-professionellen Kräften handhabbarer Mindest-Standard müss te ermöglicht werden. Die Erfassung könnte dann zu einem Gutteil durch angelernte Schreib- bzw. wissenschaftliche Hilfskräfte erfolgen, was eine enorme Kostenersparnis bedeuten und die hochqualifizierten Diplom-Bibliothekare für andere Aufgaben (z.B. im Bereich des elektronischen Publizierens) freisetzen würde. Solche Minimal-Katalogisate könnten bei Bedarf durch weitere Elemente ergänzt werden bis hin zu einer umfassenden, professionellen bibliographischen Beschreibung, wie sie historische Bestände erfordern. 5. Der durch die Vereinfachung ersparte Aufwand könnte sinnvoll für eine elektronische Erfassung sämtlicher noch vorhandener Zettelkataloge genutzt werden. Alle Erfassungsarbeiten würden beschleunigt werden. Denkbar wäre dann auch, die Kataloge durch Verzeichnung von Aufsätzen, Inhaltsverzeichnissen, Abstracts, Rezensionen etc. mit Informationen anzureichern.
    An einer Weiterentwicklung der RAK in diesem Sinne einer Vereinfachung, Modernisierung und besseren internationalen Kompatibilität wurde unter dem Arbeitstitel RAK2 bereits einige Jahre gearbeitet. Diese Arbeit ist de facto schon im Jahr 2000 von der Deutschen Bibliothek gestoppt worden. Seither führen die Bibliothekare eine unfruchtbare Umstellungsdiskussion, anstatt ein sinnvolles Regelwerk zu erarbeiten. Die erzwungene Pause gibt Gelegenheit, die Zielrichtung neu zu fassen und stärker als bisher geplant auf eine Vereinfachung abzuzielen. Oberster Grundsatz sollte dabei sein, nur das zu leisten, was wirklich vom Nutzer (und nicht nur vom Bibliothekar) gebraucht wird. Mit anderen Worten: die immer spärlicher fließenden Mittel müssen so effektiv wie möglich eingesetzt werden. Da aber die zuständigen bibliothekarischen Institutionen, allen voran die derzeit in Vielem merkwürdig rückwärts gewandte Deutsche Bibliothek, genau diese Weiterentwicklung zu bremsen versuchen, müssen die Impulse von anderer Seite kommen. Es bleibt zu hoffen, dass die Kanzler der Hochschulen und die Aufsicht führenden Ministerien die Bibliotheken doch noch zwingen, ihre Katalogisierungsregeln den Erfordernissen der Nutzer anzupassen, für die sie da sind."
    Date
    22. 6.2003 12:13:13
  19. Sollfrank, H.: Katalogisierung für öffentliche Bibliotheken (1987) 0.02
    0.023673194 = product of:
      0.1467738 = sum of:
        0.021747028 = weight(_text_:und in 1377) [ClassicSimilarity], result of:
          0.021747028 = score(doc=1377,freq=28.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.45812157 = fieldWeight in 1377, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1377)
        0.027148608 = weight(_text_:literatur in 1377) [ClassicSimilarity], result of:
          0.027148608 = score(doc=1377,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.26461992 = fieldWeight in 1377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1377)
        0.027148608 = weight(_text_:literatur in 1377) [ClassicSimilarity], result of:
          0.027148608 = score(doc=1377,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.26461992 = fieldWeight in 1377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1377)
        0.04898253 = weight(_text_:werke in 1377) [ClassicSimilarity], result of:
          0.04898253 = score(doc=1377,freq=2.0), product of:
            0.13780719 = queryWeight, product of:
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.02141793 = queryNorm
            0.3554425 = fieldWeight in 1377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1377)
        0.021747028 = weight(_text_:und in 1377) [ClassicSimilarity], result of:
          0.021747028 = score(doc=1377,freq=28.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.45812157 = fieldWeight in 1377, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1377)
      0.16129032 = coord(5/31)
    
    Abstract
    Dieses Buch bringt eine Einführung in die Katalogisierung für öffentliche Bibliotheken, der zweiten Auflage liegt die autorisierte Ausgabe der "Regeln für öffentliche Bibliotheken, RAK-ÖB" von 1986 zugrunde. Der Stoff wird gemäß dem Prinzip, das die Autorin in ihrer praktischen Arbeit verwendet hat, dargestellt: 1) Voranstellung der theoretischen Grundlagen; diese sind durch viele Beispiele erläutert; 2) praktische Beispiele anhand von kopierten Haupttitelseiten mit umfangreichen Erläuterungen und Angabe der betreffenden Paragraphen. Die Beispiele zur Theorie und auch die praktischen Beispiele wurden weitgehend aus dem Bestand einer typischen öffentlichen Bibliothek ausgewählt. Neben den allgemeinen RAK-ÖB-Bestimmungen werden auch die Alternativregeln, die deutschsprachige Ansetzungen der Namen und Sachtitel zulassen, berücksichtigt. Die zweite Auflage wurde auf die Ausgabe von 1986 der Regeln ausgerichtet, dadurch ergaben sich Änderungen und Erweiterungen. Auch ein Abschnitt über die Katalogisierung von Bilderbüchern wurde aufgenommen. Ziel des Buches ist die Einführung der Bibliothekare der öffentlichen Bibliotheken in das neue Regelwerk. Es ist sowohl für Studenten als auch für Bibliothekare, die sich den Stoff selbst aneignen wollen, gedacht. Außerdem vermittelt das Buch den Bibliothekaren, die sich entweder für die allgemeinen RAK-ÖB-Regeln oder die Alternativregeln entscheiden müssen, einen Überblick, wo die Alternativregeln Anwendung finden und wieviel einfacher und praxisnäher sie sind.
    Content
    Inhaltsübersicht: Vorwort.- Einführung in die Katalogisierung: Einleitung. Grundbegriffe und allgemeine Regeln. Die einzelnen Teile der bibliographischen Beschreibung.- Anwendung der Regeln: Haupt- und Nebeneintragungen unter Personen. Haupt- und Nebeneintragungen unter Sachtiteln. Begriffsbestimmung und Einheitsaufnahme für fortlaufende Sammelwerke. Begriffsbestimmung und Einheitsaufnahme für mehrbändige begrenzte Werke. Begriffsbestimmung und Einheitsaufnahme für begrenzte Sammelwerke. Haupt- und Nebeneintragungen unter Körperschaften. Sonderregeln für Haupt- und Nebeneintragungen.- Anhang: Ordnung der Eintragungen. Anlagen.- Sachregister
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  20. Neuböck, I.: Deutscher Bibliothekartag Leipzig 2007 : Standardisierungsausschuss (2007) 0.02
    0.02259177 = product of:
      0.11672415 = sum of:
        0.016356807 = weight(_text_:und in 414) [ClassicSimilarity], result of:
          0.016356807 = score(doc=414,freq=44.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.34457147 = fieldWeight in 414, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=414)
        0.009825403 = weight(_text_:im in 414) [ClassicSimilarity], result of:
          0.009825403 = score(doc=414,freq=6.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.16228557 = fieldWeight in 414, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0234375 = fieldNorm(doc=414)
        0.022397805 = weight(_text_:autoren in 414) [ClassicSimilarity], result of:
          0.022397805 = score(doc=414,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.18617746 = fieldWeight in 414, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0234375 = fieldNorm(doc=414)
        0.022397805 = weight(_text_:autoren in 414) [ClassicSimilarity], result of:
          0.022397805 = score(doc=414,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.18617746 = fieldWeight in 414, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0234375 = fieldNorm(doc=414)
        0.029389521 = weight(_text_:werke in 414) [ClassicSimilarity], result of:
          0.029389521 = score(doc=414,freq=2.0), product of:
            0.13780719 = queryWeight, product of:
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.02141793 = queryNorm
            0.21326551 = fieldWeight in 414, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.0234375 = fieldNorm(doc=414)
        0.016356807 = weight(_text_:und in 414) [ClassicSimilarity], result of:
          0.016356807 = score(doc=414,freq=44.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.34457147 = fieldWeight in 414, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=414)
      0.19354838 = coord(6/31)
    
    Content
    "Der Bericht fand im größten Saal des Kongresszentrums in Leipzig statt und war bei Weitem überdimensioniert - das Interesse am Neuen Regelwerk und Neuem Format sowie die Aufregung darüber scheinen der Vergangenheit anzugehören. Zunächst erfolgte ein Bericht zum geplanten Umstieg auf das Format MARC21 von Reinhard Altenhöner und Reinhold Heuvelmann (DNB). Dazu gibt es ein eigenes Steuerungsgremium für den Umgang mit MARC in Bibliotheken, das sich MARBI (= Machine Readable Bibliographic Information Committee) nennt. Federführend in diesem Gremium ist die Library of Congress. An dieses Gremium werden Änderungswünsche für die deutsche und österreichische Konvertierung auf MARC21 geleitet und dort diskutiert bzw. genehmigt und umgesetzt. Eine Konkordanz von MAB2 zur MARC21 wurde erstellt. Daraus resultierende Änderungswünsche an MARC21 wurden an MARBI weitergeleitet: Folgende Anträge wurden bereits begutachtet und akzeptiert: 1. IDN-Verknüpfung - Zu PND, GKS, SWD - Zwischen Stück und Reihentitel 2. Sortierform für Bände 3. Kodierung für mehrteilige Werke 4. Sonstiges, wie RSWK-Ketten-Kennzeichnung der Institutionen, ... Bei den Kodierungen gab es Vorbehalte. DDC in MARC21 wurde zurückgestellt und soll in das MARC Classification-Format eingehen. Tendenz bei mehrbändigen Werken: Jeder Band soll ein vollständiger Datensatz sein. Y-Sätze gibt es nicht mehr. Darüber hinaus gibt es Überlegungen zu einer D-MARC für die Deutsche Anwendung von MARC21, aber auch Überlegungen zu MAR-/XML... Die D-MARC soll ca. 12 Gruppen umfassen, davon sollen sich 4 Blöcke mit Kodierungen befassen. Inwieweit MARC21 als Internformat oder lediglich als Austauschformat zum Einsatz kommt muss von den jeweiligen Verbünden entschieden werden. Ais Tendenz lässt sich festhalten, dass man weg von Kodierungen und hin zu textlichen Formulierungen geht.
    Als Vortragender zur RDA (Ressource Description Access) war wieder Gordon Dunsire eingeladen. Er gab wieder einen kurzen historischen Rückblick und eine Auflistung allgemeiner Kritikpunkte an der RDA. Von seiten Dunsires wurde klar dargestellt, dass Katalogregeln unabhängig vom Format sein müssen: RDA = nicht MARC21. Bei der RDA gehe es um Inhalte und nicht um Struktur. RDA basiert auf dem FRBR-Entitäten-Modell; eine deutsche Übersetzung der FRBR liegt vor und kann kostenfrei von der Homepage der Deutschen Nationalbibliothek runtergeladen werden. Die RDA soll 2009 fertiggestellt sein. Im Anschluss daran sprach Gudrun Henze zur "Internationalisierung des Deutschen Regelwerkes": AfS (Arbeitsstelle für Standardisierung) und AGV (Arbeitsgemeinschaft der Verbundsysteme) haben mittlerweile Ziele und Maßnahmen beschlossen: - Deutsch wird zur Ansetzungssprache - Entitäten sollen internationalen Standards entsprechen - Künftig soll es ein einheitliches Regelwerk geben, das die Sonderregeln bereits enthält - Individualisierung von Normdaten - flache Hierarchien - Anpassung der Splitregeln an die ISBD - Ansetzung der Einheitssachtitel hat hohe Priorität
    In weiterer Folge berichtet sie über die Stellungnahmen zu Part 1 - hier werden keine Hindernisse für eine Umsetzung gesehen. Bei Chapter 6-7 wurde festgehalten, dass die Angaben für Verweisungen zu allgemein gehalten wären und Verbünde schwer mit Kann-Bestimmungen umgehen könnten. Eine Begrenzung auf drei Autoren sei außerdem nicht mehr zeitgemäß. Die RDA-Deutsch soll wie folgt aussehen: - modularer Aufbau - Web-Produkt - Regeln für formale und inhaltliche Erschließung - verbundübergreifende Anwendungsrichtlinien Als vierte Vortragende gab Frau Christine Hengel einen Bericht zu den "Neuen Wegen" der Normdaten. Basis für die RDA ist ein konzeptionelles Modell für Normdaten, das von der IFLA-Arbeitsgruppe FRANAR erarbeitet wird. Dieses soll 2007 abgeschlossen sein. - Es wird gemeinsame Regeln für die Ansetzung von Personen und Körperschaften geben - sie beschäftigen sich mit: Normieren, Identifizieren, Anreichern, Sucheinstiegen. - Die neuen Regeln für die Ansetzung von Personen in den PND und SWD werden in die RDA einfließen - Es soll zu einer einheitliche Anwendung von kompatiblen Datenmodellen für die Bereiche Bibliotheken, Archive, Dokumentationen und Museen kommen - Forderung einer Online-Kommunikation mit Normdaten: dazu muss sich der Teilnehmerkreis von den Redaktionen bis hin zum Katalog stark erweitern. Das neue Redaktionsverfahren soll ab Mitte 2007 für die PND zum Einsatz kommen. Im Anschluss daran für die GKD. In der zweiten Hälfte des Jahres 2007 ist der Umstieg auf MARC21 geplant. Insgesamt war die Veranstaltung zu Recht schwach besucht; es gab wenig Neues, kaum Überraschendes und daher auch keine wirklich anregende Diskussion."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 60(2007) H.2, S.42-44

Authors

Languages

Types

  • a 1663
  • m 140
  • el 127
  • s 33
  • b 17
  • n 17
  • x 12
  • r 10
  • l 8
  • p 6
  • ? 4
  • ag 2
  • u 1
  • More… Less…

Subjects

Classifications