Search (113 results, page 2 of 6)

  • × language_ss:"d"
  • × theme_ss:"Datenformate"
  1. Brintzinger, K.-R.: Berichte und Beiträge zu einer Veranstaltung des VDB-Regionalverbandes Südwest : Amerikanische Standards für das deutsche Bibliothekswesen? (2002) 0.06
    0.06470188 = product of:
      0.20219336 = sum of:
        0.018096281 = weight(_text_:und in 1091) [ClassicSimilarity], result of:
          0.018096281 = score(doc=1091,freq=8.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.29385152 = fieldWeight in 1091, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1091)
        0.021435548 = weight(_text_:aus in 1091) [ClassicSimilarity], result of:
          0.021435548 = score(doc=1091,freq=2.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.22614425 = fieldWeight in 1091, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.046875 = fieldNorm(doc=1091)
        0.02831026 = weight(_text_:dem in 1091) [ClassicSimilarity], result of:
          0.02831026 = score(doc=1091,freq=4.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.3090635 = fieldWeight in 1091, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=1091)
        0.029063752 = weight(_text_:der in 1091) [ClassicSimilarity], result of:
          0.029063752 = score(doc=1091,freq=20.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.46826762 = fieldWeight in 1091, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1091)
        0.018096281 = weight(_text_:und in 1091) [ClassicSimilarity], result of:
          0.018096281 = score(doc=1091,freq=8.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.29385152 = fieldWeight in 1091, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1091)
        0.029063752 = weight(_text_:der in 1091) [ClassicSimilarity], result of:
          0.029063752 = score(doc=1091,freq=20.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.46826762 = fieldWeight in 1091, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1091)
        0.029063752 = weight(_text_:der in 1091) [ClassicSimilarity], result of:
          0.029063752 = score(doc=1091,freq=20.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.46826762 = fieldWeight in 1091, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1091)
        0.029063752 = weight(_text_:der in 1091) [ClassicSimilarity], result of:
          0.029063752 = score(doc=1091,freq=20.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.46826762 = fieldWeight in 1091, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1091)
      0.32 = coord(8/25)
    
    Abstract
    Seit fast einem Jahr beherrscht die Diskussion um die mögliche Ablösung des Regelwerkes RAK die Diskussion in der bibliothekarischen Fachpresse und in den einschlägigen Mailinglisten. Nach vielen - teilweise missverständlichen - Wortmeldungen und Diskussionsbeiträgen stellt sich dabei die Frage nach dem eigentlichen Kern der Diskussion. Diesen aufzugreifen, hatte sich der Regionalverband Südwest des Vereins Deutscher Bibliothekare (VDB) im Rahmen einer Fortbildungsveranstaltung am 10. Juli in der Württembergischen Landesbibliothek Stuttgart vorgenommen. Der Charakter einer Fortbildungsveranstaltung eines Berufsverbandes - frei von dem Zwang zu Entscheidungen - ermöglichte beides: Eine fachliche Einführung in die komplexe Thematik auf hohem Niveau, wofür der VDB-Regionalverband Südwest kompetente und mit den einzelnen Sachfragen bestens vertraute Referenten - ganz überwiegend aus der Südwest-Region - gewinnen konnte wie auch eine sehr engagierte, aber durchweg konstruktive Diskussion. Der relativ kurzfristig ausgesprochenen Einladung waren über 70 Teilnehmer gefolgt, die - trotz der regionalen Ausrichtung der Tagung - z.T. weite Anreisen auf sich genommen hatten.
  2. Burd, B.: Java und XML für Dummies (2003) 0.06
    0.06460402 = product of:
      0.20188756 = sum of:
        0.027144423 = weight(_text_:und in 1694) [ClassicSimilarity], result of:
          0.027144423 = score(doc=1694,freq=18.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.4407773 = fieldWeight in 1694, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1694)
        0.030314444 = weight(_text_:aus in 1694) [ClassicSimilarity], result of:
          0.030314444 = score(doc=1694,freq=4.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.3198163 = fieldWeight in 1694, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.046875 = fieldNorm(doc=1694)
        0.020018376 = weight(_text_:dem in 1694) [ClassicSimilarity], result of:
          0.020018376 = score(doc=1694,freq=2.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.21854089 = fieldWeight in 1694, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=1694)
        0.024316479 = weight(_text_:der in 1694) [ClassicSimilarity], result of:
          0.024316479 = score(doc=1694,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3917808 = fieldWeight in 1694, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1694)
        0.027144423 = weight(_text_:und in 1694) [ClassicSimilarity], result of:
          0.027144423 = score(doc=1694,freq=18.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.4407773 = fieldWeight in 1694, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1694)
        0.024316479 = weight(_text_:der in 1694) [ClassicSimilarity], result of:
          0.024316479 = score(doc=1694,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3917808 = fieldWeight in 1694, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1694)
        0.024316479 = weight(_text_:der in 1694) [ClassicSimilarity], result of:
          0.024316479 = score(doc=1694,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3917808 = fieldWeight in 1694, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1694)
        0.024316479 = weight(_text_:der in 1694) [ClassicSimilarity], result of:
          0.024316479 = score(doc=1694,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3917808 = fieldWeight in 1694, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1694)
      0.32 = coord(8/25)
    
    Abstract
    Barry Budd erklärt, wie XML in Verbindung mit Java optimal funktionieren und Daten zwischen Anwendungen transferieren kann. Das Buch ist nicht nur für Anfänger interessant. Insbesondere Javabewanderte Web-Entwickler finden hier einen geradlinigen und lockeren Einstieg in die Zusammenarbeit von Java und XML. Die ersten 30 Seiten widmen sich der Programmiertheorie, der Installation von Java und den zusätzlich nötigen XMLrelevanten Klassen. Im zweiten Teil erfährt der Leser alles über die lineare Untersuchung von XML-Dateien und die Programmierung mit SAX. Es folgt der holistische Ansatz mit DOM und dessen Java-optimierter, eleganterer Alternative JDOM. XSL, die Anzeige von XML-Daten im Web und Java API for XML-Binding (JAXB) mit der man aus XML-Dokumenten maßgeschneiderte Java-Klassen dateien erstellen kann. Teil drei zeigt Spezialwerkzeuge für Webservices Soap, UDDI, WSDL, Java API for XML Messaging (JAXM) und die Arbeit mit XML-Registraren. Zu den Techniken erfährt der Leser sinnvolle Einsatzszenarien. Der Autor verdeutlicht die Theorie mit Code-Beispielen, die in Teilen für eigene Projekte verwendbar sind.
    Issue
    Übersetzung aus dem Amerikan. von Uwe Thiemann.
  3. Gömpel, R.; Niggemann, E.: RAK und MAB oder AACR und MARC? : Strategische Überlegungen zu einer aktuellen Diskussion (2002) 0.06
    0.06323489 = product of:
      0.19760902 = sum of:
        0.028612731 = weight(_text_:und in 6775) [ClassicSimilarity], result of:
          0.028612731 = score(doc=6775,freq=20.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.46462005 = fieldWeight in 6775, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6775)
        0.030314444 = weight(_text_:aus in 6775) [ClassicSimilarity], result of:
          0.030314444 = score(doc=6775,freq=4.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.3198163 = fieldWeight in 6775, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.046875 = fieldNorm(doc=6775)
        0.020018376 = weight(_text_:dem in 6775) [ClassicSimilarity], result of:
          0.020018376 = score(doc=6775,freq=2.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.21854089 = fieldWeight in 6775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=6775)
        0.022512684 = weight(_text_:der in 6775) [ClassicSimilarity], result of:
          0.022512684 = score(doc=6775,freq=12.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.36271852 = fieldWeight in 6775, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=6775)
        0.028612731 = weight(_text_:und in 6775) [ClassicSimilarity], result of:
          0.028612731 = score(doc=6775,freq=20.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.46462005 = fieldWeight in 6775, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6775)
        0.022512684 = weight(_text_:der in 6775) [ClassicSimilarity], result of:
          0.022512684 = score(doc=6775,freq=12.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.36271852 = fieldWeight in 6775, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=6775)
        0.022512684 = weight(_text_:der in 6775) [ClassicSimilarity], result of:
          0.022512684 = score(doc=6775,freq=12.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.36271852 = fieldWeight in 6775, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=6775)
        0.022512684 = weight(_text_:der in 6775) [ClassicSimilarity], result of:
          0.022512684 = score(doc=6775,freq=12.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.36271852 = fieldWeight in 6775, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=6775)
      0.32 = coord(8/25)
    
    Abstract
    Nachdem Regelwerksfragen in den letzten Jahren keine zentrale Rolle gespielt haben, hat die Diskussion über einen Umstieg von RAK und MAB auf AACR und MARC in den letzten Monaten einen gewaltigen Schub bekommen. Die vor fünf Jahren im Zusammenhang mit einem "Konvergenzprojekt" angestellten Überlegungen sind dabei nach wie vor aktuell. Die Veränderungen in der Regelwerks-Gremienlandschaft seit Gründung der Konferenz für Regelwerksfragen sowie die Gründe für das erneute Aufleben der deutschen Regelwerksdiskussion werden rekapituliert und die Situation Der Deutschen Bibliothek vor dem Hintergrund dieser Diskussion skizziert. Neben den Nachteilen einer Ablösung von RAK und MAB werden die Vorteile internationaler Regeln und Standards aus Nutzersicht sowie aus ökonomischer Sicht skizziert. Vor der Entscheidung für oder gegen eine Migration auf internationale Regeln und Formate sollte die Durchführung einer Machbarkeitsstudie stehen, in der die technischen, finanziellen und organisatorischen Rahmenbedingungen sowie die damit verbundenen Zeitperspektiven untersucht werden.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 49(2002) H.1, S.3-12
  4. Oehlschläger, S.: Treffpunkt Standardisierung : Eine Veranstaltung des Standardisierungsausschusses beim 2. Leipziger Kongress für Information und Bibliothek (2004) 0.06
    0.063096195 = product of:
      0.1971756 = sum of:
        0.024128376 = weight(_text_:und in 2790) [ClassicSimilarity], result of:
          0.024128376 = score(doc=2790,freq=32.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.39180204 = fieldWeight in 2790, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2790)
        0.024751643 = weight(_text_:aus in 2790) [ClassicSimilarity], result of:
          0.024751643 = score(doc=2790,freq=6.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.26112893 = fieldWeight in 2790, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=2790)
        0.02311523 = weight(_text_:dem in 2790) [ClassicSimilarity], result of:
          0.02311523 = score(doc=2790,freq=6.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.2523493 = fieldWeight in 2790, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.03125 = fieldNorm(doc=2790)
        0.025262995 = weight(_text_:der in 2790) [ClassicSimilarity], result of:
          0.025262995 = score(doc=2790,freq=34.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.40703082 = fieldWeight in 2790, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2790)
        0.024128376 = weight(_text_:und in 2790) [ClassicSimilarity], result of:
          0.024128376 = score(doc=2790,freq=32.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.39180204 = fieldWeight in 2790, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2790)
        0.025262995 = weight(_text_:der in 2790) [ClassicSimilarity], result of:
          0.025262995 = score(doc=2790,freq=34.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.40703082 = fieldWeight in 2790, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2790)
        0.025262995 = weight(_text_:der in 2790) [ClassicSimilarity], result of:
          0.025262995 = score(doc=2790,freq=34.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.40703082 = fieldWeight in 2790, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2790)
        0.025262995 = weight(_text_:der in 2790) [ClassicSimilarity], result of:
          0.025262995 = score(doc=2790,freq=34.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.40703082 = fieldWeight in 2790, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2790)
      0.32 = coord(8/25)
    
    Abstract
    Treffpunkt Standardisierung - Projekte, Konzepte und Kooperationen - lautete der Titel der Veranstaltung des Standardisierungsausschusses beim 2. Leipziger Kongress für Information und Bibliothek »Information Macht Bildung«, die vom Vorsitzenden Berndt Dugall moderiert wurde. Den größten Raum innerhalb der Veranstaltung nahm der Themenkomplex »Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)« ein. Zunächst stellte die Projektbearbeiterin Luise Hoffmann die Ausgangslage des Projektes sowie bisher vorliegende Ergebnisse aus dem von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projekt vor und ging dabei auf einige Projektschwerpunkte ein: Luise Hoffmann stellte einige Punkte aus dem Regelwerks- und Formatabgleich sowie der Untersuchung über die Konsequenzen eines Umstiegs auf die laufende Katalogisierung vor und ging dann ausführlicher auf mögliche Auswirkungen eines Umstiegs auf die Informationsversorgung des Benutzers ein, einen Aspekt, dem im DFG-Antrag eine besondere, hervorgehobene Bedeutung beigemessen wird. In erster Linie wurden die Strategien der Benutzer zur Literatursuche untersucht. Ziel war es, herauszufinden, ob und welche Auswirkungen ein Umstieg auf die Benutzung des örtlichen Bibliothekskatalogs haben würde. Hierzu wurde zunächst die Suchstrategie von Benutzern ermittelt, um anschließend analysieren zu können, ob diese Strategie in einem AACR-MARC-basierten Katalog erfolgreicher oder weniger erfolgreich gewesen wäre. Da die zunehmende Literaturrecherche im Internet möglicherweise das Suchverhalten in einem OPAC beeinflusst, wurde zusätzlich die Suchstrategie im Internet erfragt. Zur Ermittlung der Suchstrategie wurde ein Fragebogen entworfen und in Der Deutschen Bibliothek getestet. Anhand der Deutschen Bibliotheksstatistik wurden Bibliotheken unter den Gesichtspunkten der Nutzerfrequenz und der Bestandsgröße ausgewählt und angefragt, ob sie bereit wären, den Fragebogen in ihrer Bibliothek auszulegen. Nachdem sich zehn Bibliotheken bereit erklärt hatten, wurden für die endgültige Befragung einige spezielle Fragen zu Suchbegriffen an die jeweiligen Bibliotheks-OPACs angepasst, da Formulierungen und Bezeichnungen wie Person, Autor, Verfasser u. dgl. in den Bibliothekskatalogen voneinander abweichen können. Als erstes Ergebnis nach Auswertung der Fragebögen aus drei Universitätsbibliotheken konnte festgestellt werden, dass Benutzer überwiegend unter Titelstichwörtern und Personen suchen und dabei Namensformen verwenden, die ihnen geläufig sind. Ein großer Teil der Benutzer weiß der Umfrage zufolge nicht, wie man den Band eines mehrbändigen Werkes sucht, und fast die Hälfte aller Befragten sucht nach Aufsätzen von Sammelwerken. Benutzer unterscheiden überwiegend bei ihrer Suche nicht, ob sie in einem deutschen oder einem ausländischen Katalog recherchieren. Um zu einheitlichen Suchergebnissen bei der Suche in deutschen und ausländischen Katalogen zu gelangen, sollte eine Annäherung der Standards angestrebt werden.
  5. Oehlschläger, S.: Aus der 52. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 24. und 25. April 2007 in Berlin (2007) 0.06
    0.06261098 = product of:
      0.1956593 = sum of:
        0.022932371 = weight(_text_:und in 465) [ClassicSimilarity], result of:
          0.022932371 = score(doc=465,freq=74.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.37238106 = fieldWeight in 465, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
        0.019971395 = weight(_text_:aus in 465) [ClassicSimilarity], result of:
          0.019971395 = score(doc=465,freq=10.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.21069749 = fieldWeight in 465, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
        0.02043117 = weight(_text_:dem in 465) [ClassicSimilarity], result of:
          0.02043117 = score(doc=465,freq=12.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.22304736 = fieldWeight in 465, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
        0.027347995 = weight(_text_:der in 465) [ClassicSimilarity], result of:
          0.027347995 = score(doc=465,freq=102.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4406238 = fieldWeight in 465, product of:
              10.099504 = tf(freq=102.0), with freq of:
                102.0 = termFreq=102.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
        0.022932371 = weight(_text_:und in 465) [ClassicSimilarity], result of:
          0.022932371 = score(doc=465,freq=74.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.37238106 = fieldWeight in 465, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
        0.027347995 = weight(_text_:der in 465) [ClassicSimilarity], result of:
          0.027347995 = score(doc=465,freq=102.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4406238 = fieldWeight in 465, product of:
              10.099504 = tf(freq=102.0), with freq of:
                102.0 = termFreq=102.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
        0.027347995 = weight(_text_:der in 465) [ClassicSimilarity], result of:
          0.027347995 = score(doc=465,freq=102.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4406238 = fieldWeight in 465, product of:
              10.099504 = tf(freq=102.0), with freq of:
                102.0 = termFreq=102.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
        0.027347995 = weight(_text_:der in 465) [ClassicSimilarity], result of:
          0.027347995 = score(doc=465,freq=102.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4406238 = fieldWeight in 465, product of:
              10.099504 = tf(freq=102.0), with freq of:
                102.0 = termFreq=102.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
      0.32 = coord(8/25)
    
    Abstract
    Am 24. und 25. April 2007 fand die 52. Sitzung der Arbeitsgemeinschaft der Verbundsysteme auf Einladung der KOBV-Verbundzentrale in Berlin statt.
    Content
    "Umstieg auf MARC 21 Das Projekt Umstieg auf MARC 21 gliedert sich in mehrere Arbeitspakete: einerseits die Entwicklung einer Konkordanz von MAB2 nach MARC 21 und die Beantragung von Veränderungen im MARC-21-Format, andererseits die Entwicklung eines Editionssystems, eine Übersetzung von MARC Concise und die Erstellung einer Expertise zur Verwendung von MARCXML. Seit der letzten Sitzung der Arbeitsgemeinschaft der Verbundsysteme gelang es den Projektbeteiligten, diese Arbeitspakete in großen Teilen abzuschließen bzw. weiter voranzubringen. Kooperative Neukatalogisierung Ziel des Projektes Kooperative Neukatalogisierung ist es, dass jeder Titel in den Verbünden, bei der Deutschen Nationalbibliothek und in der ZDB nur noch einmal nach einheitlichen Regeln erfasst und erschlossen wird. Damit soll einerseits die Eigenkatalogisierungsquote in den Verbünden gesenkt werden und andererseits sollen die Daten schneller als bisher zur Verfügung stehen. Die AG Kooperative Neukatalogisierung unter dem Vorsitz von Frau Dr. Block (GBV) hat nach intensiver Arbeit ein Papier vorgelegt, in dem der Stand der Arbeiten dokumentiert und die gemeinsam von der Arbeitsgruppe getroffenen Vereinbarungen zusammengefasst sind. Die Arbeitsgemeinschaft der Verbundsysteme dankte der Arbeitsgruppe für ihre gute Arbeit und verabschiedete das Papier einstimmig.
    Catalogue Enrichment Die Arbeitsgruppe Catalogue Enrichment unter Federführung des hbz hat im Berichtszeitraum nicht getagt. Der Vorsitzende der AGV berichtet, dass das Projekt insgesamt eine gute Dynamik erreicht habe. Ursprünglich war man von dem Gedanken eines Referenzservers ausgegangen. Die Idee dabei war es, einen Server aufzusetzen, an den alle angereicherten Daten geliefert werden sollten. Dabei sollte automatisch abgeglichen werden, ob irgendwo bereits Daten vorliegen. Nunmehr müsse geprüft werden, ob ein zentraler Server in dieser Form noch benötigt werde. Normdaten-Onlineschnittstelle Im Projekt Online-Normschnittstelle konnten die Hersteller-Funktionstests mit der Deutschen Nationalbibliothek mittlerweile erfolgreich abgeschlossen werden, und die Funktionstests mit den Anwendern stehen unmittelbar bevor. Nach dem entsprechend angepassten Zeitplan für die Projekte Online-Normschnittstelle und Online-Redaktionsverfahren für Normdaten ist der Beginn der "produktiven Phase", d.h. der Einsatz im Echtbetrieb der Normdatei, für das zweite Halbjahr 2007 vorgesehen. Die Zeitplanung für die Einführung ist entscheidend von den Ergebnissen der Anwendertests abhängig. Das Online-Updateverfahren (Z39,50-Update und zeitnahe Replikation Ober °Al in die Bibliotheksverbünde) soil dabeizuerst in der Personennamendatei (PND) eingesetzt werden. Füreinen Einführungszeitraum von zwei Monaten sollen Redaktionsverfahren und Teilnehmerkreis zunächst weitgehend unverändert bleiben (noch keine Einbeziehung der Katalogisierer). Der Einführungszeitraum soll dazu genutzt werden, etwaige noch nicht erkannte Funktionsschwächen zu beseitigen, die für das volle Online-Redaktionsverfahren notwendigen Formaterweiterungen und Umsetzungen vorzunehmen und in den Bibliotheksverbünden und Bibliotheken die notwendigen Geschäftsgangsänderungen zu planen und durchzuführen. Im Anschluss sollen dann für die PND der Teilnehmerkreis am Online-Kommunikationsverfahren auf alle Katalogisierer in den teilnehmenden Bibliotheksverbünden ausgeweitet und das Online-Redaktionsverfahren eingesetzt werden.
    DDC-vascoda Für den Sucheinstieg bei vascoda wird bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungsjahr) kombiniert werden kann, angeboten. Die Suche kann zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Da in vascoda die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument eingeführt ist und bereits nennenswerte Bestände mit der DDC erschlossen sind, bietet sich die Möglichkeit, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Im Berichtszeitraum wurde in der vascoda AG Betrieb und mit dem hbz als Portalbetreiber die konzeptionelle und technische Einbindung des DDC-Browsings im vascoda-Portal diskutiert und beschlossen. Die Navigation mit DDC wird ähnlich wie die Navigation über die Fachcluster auf der linken Seite der Trefferliste integriert, beim Navigieren im Baum werden synchron die passenden Ressourcen aus der Suchmaschine in der mittleren Spalte eingeblendet. Wegen hoher Arbeitsbelastung im hbz wird dieses Feature wahrscheinlich nicht Teil des vascoda-Relaunches im Juni 2007 sein, sondern erst im 2. Halbjahr 2007 integriert werden. Weiter wurde ein Angebot implementiert für Fachportale und andere Institutionen, die mit DDC erschließen, aber nicht die technischen Möglichkeiten haben, ein eigenes Browsing zu entwickeln. Das Verfahren sieht vor, dass die DNB einen Dienst anbietet, der ein HTML-Snippet mit der gewünschten Browsing-Struktur generiert (ähnlich wie MelvilSearch), die in die Oberfläche des Fachportals integriert werden kann. Der Dienst wird voraussichtlich im 2. Quartal 2007 in Betrieb genommen werden können. In Zusammenarbeit mit der SUB Göttingen wurde ein Workshop zum Thema Lizenzfragen für DDC in Bezug auf Fachportale und andere Online-Angebote abgehalten. Die Ergebnisse wurden im vascoda-Newsletter veröffentlicht.
    kim - Kompetenzzentrum Interoperable Metadaten Projektziel ist der Aufbau eines Kompetenzzentrums Interoperable Metadaten (KIM), das im deutschsprachigen Raum den Ausbau der Kompetenzen für die Themen interoperable Metadaten, Metadatenaustausch und Formate fördern soll. Strukturierte Beschreibungen (Metadaten) verschiedener Datenbestände werden als "interoperabel" bezeichnet, wenn in ihnen über einheitliche Suchverfahren recherchiert oder sie sinnvoll in die Datenverwaltung integriert werden können. Interoperabilität wird erreicht, indem man sich in kontrollierten institutionellen Zusammenhängen an technische Spezifikationen hält. Eine zentrale Aufgabe des "Kompetenzzentrum Interoperable Metadaten" als DCMI-Affiliate in Deutschland (nach Projektende im deutschsprachigen Raum mit Partnern aus Österreich und der Schweiz) besteht dabei in der Bildung einer Kernarbeitsgruppe mit weiteren spezifischen Arbeitsgruppen, die durch die Begutachtung bereits existierender Anwendungsprofile ein gemeinsames Verständnis für "good practice" in der Anwendung sowohl des Dublin-Core-Modells als auch des Semantic-Web-Modells entwickelt. Dieses Verständnis bildet die Grundlage für die Entwicklung von Zertifizierungsverfahren, Ausbildungsangeboten und Beratungsdiensten im Bereich interoperable Metadaten.
    CrissCross Ziel des Projekts ist die Schaffung eines multilingualen, thesaurusbasierten und benutzerorientierten Recherchevokabulars zu heterogen erschlossenen Dokumenten für die Nutzer des deutschen wissenschaftlichen Bibliothekswesens. Dazu werden die Sachschlagwörter der SWD mit den Notationen der Dewey Dezimalklassifikation verbunden sowie mit ihren Äquivalenten in LCSH und Rameau verknüpft. Projektpartner sind die Fakultät für Informations- und Kommunikationswissenschaften der Fachhochschule Köln und die Deutsche Nationalbibliothek. Das Projekt hat am 1. Februar 2006 begonnen und soll zum 31. Januar 2008 abgeschlossen sein. Im Berichtszeitraum wurde die Arbeitsumgebung im Pica/Iltis-System der Deutschen Nationalbibliothek und im Tool für die DDC-Notationsvergabe "MelvilClass" verwendet, um DDC-Notationen an SWD-Schlagwörtern zu erfassen. Die bisherigen Erfahrungen zeigen, dass die intellektuelle Vergabe sehr viel aufwändiger als gedacht ist. Dementsprechend wird neu über maschinelle Verfahren nachgedacht, wie ein maschineller Abgleich zwischen den SWD-Termen und den DDC-Registerbegriffen. Bei Übereinstimmung soll eine automatisch generierte Vorschlags-Notation im SWD-Satz gespeichert werden. Inwiefern durch die unterschiedliche Begriffsbildung Übereinstimmungen zwischen den Vokabularien existieren, welche Vorbereitungen ev. notwendig sind (z.B. MILOS) und welchen Nutzen automatische generierte Vorschlagsnotationen haben, muss noch weiter fachlich geprüft werden. Die aufwändige intellektuelle Verlinkung der SWD-Schlagwörter zur DDC soll sich in Zukunft auf relevante, d.h. häufig verwendete, Schlagwörter beziehen. Hierzu werden entsprechende Auswertungen in der DNB-Datenbank gemacht. Die LCSH/Rameau-Tupels aus dem MACS Projekt konnten noch nicht nach Pica / Iltis geladen werden, da die Aktualisierungen in MACS noch nicht abgeschlossen sind."
    Footnote
    Dazu weitere Berichte aus den einzelnen Verbundsystemen
  6. Oehlschläger, S.: Aus der 50. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 24. und 25. April 2006 in Köln (2006) 0.06
    0.06216865 = product of:
      0.19427703 = sum of:
        0.023006624 = weight(_text_:und in 5183) [ClassicSimilarity], result of:
          0.023006624 = score(doc=5183,freq=38.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3735868 = fieldWeight in 5183, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5183)
        0.017683426 = weight(_text_:aus in 5183) [ClassicSimilarity], result of:
          0.017683426 = score(doc=5183,freq=4.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.18655951 = fieldWeight in 5183, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5183)
        0.023354774 = weight(_text_:dem in 5183) [ClassicSimilarity], result of:
          0.023354774 = score(doc=5183,freq=8.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.25496438 = fieldWeight in 5183, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5183)
        0.026806396 = weight(_text_:der in 5183) [ClassicSimilarity], result of:
          0.026806396 = score(doc=5183,freq=50.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4318977 = fieldWeight in 5183, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5183)
        0.023006624 = weight(_text_:und in 5183) [ClassicSimilarity], result of:
          0.023006624 = score(doc=5183,freq=38.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3735868 = fieldWeight in 5183, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5183)
        0.026806396 = weight(_text_:der in 5183) [ClassicSimilarity], result of:
          0.026806396 = score(doc=5183,freq=50.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4318977 = fieldWeight in 5183, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5183)
        0.026806396 = weight(_text_:der in 5183) [ClassicSimilarity], result of:
          0.026806396 = score(doc=5183,freq=50.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4318977 = fieldWeight in 5183, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5183)
        0.026806396 = weight(_text_:der in 5183) [ClassicSimilarity], result of:
          0.026806396 = score(doc=5183,freq=50.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4318977 = fieldWeight in 5183, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5183)
      0.32 = coord(8/25)
    
    Abstract
    Am 24. und 25. April 2006 hat die Arbeitsgemeinschaft der Verbundsysteme auf Einladung der Staatsbibliothek zu Berlin Preußischer Kulturbesitz ihre 50. Sitzung in Berlin durchgeführt.
    Content
    Inhalt: - Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung - - MARC21 als Austauschformat Die Arbeiten im Rahmen des Projektes Umstieg auf MARC 21 liegen im Zeitplan. Der gegenwärtige Schwerpunkt der Arbeit ist die Erstellung einer Konkordanz MAB2 - MARC 21, die laufend mit der Expertengruppe Datenformate zurückgekoppelt wird und den Verbünden nach ihrer Fertigstellung vorgelegt wird. Es wird erwartet, dass zum 1. Januar 2007 ein Stand erreicht ist, an dem die Verbünde die erforderlichen Schritte ihres Umstiegs konkret terminieren können. Ab Herbst soll eine Arbeitsgruppe aus Vertretern der Verbünde den Umstieg auf operativer Ebene konkret planen. Damit der Umstieg als gut vorbereiteter, konzertierter und flächendeckend durchgeführter Schritt vollzogen werden kann, sollen die Verbundzentralen entsprechende Kapazitäten einplanen. - - Matchkey Kooperative Neukatalogisierung - - Catalogue Enrichment Nach einem Beschluss in der 49. Sitzung wurde eine Arbeitsgruppe Catalogue enrichment unter Federführung des HBZ gegründet. Das HBZ hat einen Entwurf zu einer Referenzdatenbank für Kataloganreicherungen vorgelegt, der gegenwärtig diskutiert wird. Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben sich darauf geeinigt, eine Bestandsaufnahme sowie eine Mengen- und Inhaltsabschätzung dessen zu machen, was sie in die Referenzdatenbank einspeisen können. Das HBZ wird ein Konzept für ein Daten- und Schnittstellenmodell vorlegen und einen Prototyp der Datenbank aufsetzen. Die Deutsche Bibliothek hat zugesagt, mit Verlegern über zusätzliche Daten wie Inhaltsverzeichnisse, Abstracts, Cover o.ä. zu verhandeln mit dem Ziel, diese Informationseinheiten zu übernehmen, ggf. selbst zu erstellen und über ihre Datendienste auszuliefern statt wie bisher nur als Link auf Drittsystemen zur Verfügung zu stellen. Der Deutsche Bibliotheksverband (DBV) steht mit dem Börsenverein des Deutschen Buchhandels in Kontakt und hat bereits eine prinzipielle Zusage erreicht; derzeit wird eine entsprechende Vereinbarung angestrebt. - - Normdaten-Onlineschnittstelle
    - Neues von den Mitgliedern (in Auswahl, Stand: April 2006) - - Bibliotheksverbund Bayern (BVB) / Verbundzentrale - - - Erweiterung des ALEPH-Einsatzes - - - Catalogue Enrichment ADAM - - - CD-ROM-Server - - - InfoGuide - - - Application Service Providing (ASP) - - Bibliotheksservice-Zentrum Baden-Württemberg (BSZ) - - - SWB-Verbunddatenbank - - - Catalogue Enrichment - - - OPUS - - - Internetportal für Bibliotheken, Archive und Museen (BAM) - - - Metadatenverwaltung für den Verteilten Dokumentenserver (VDS) - - - Virtuelle Auskunft mit drei Partnerbibliotheken eröffnet - - Die Deutsche Bibliothek - - - DissOnline Portal - - - DissOnline Tutor - - - CrissCross Ziel des Projektes CrissCross ist es, ein multilinguales, thesaurusbasiertes und benutzergerechtes Recherchevokabular zu schaffen. Hierzu werden die Sachschlagwörter der Schlagwortnormdatei (SWD) mit den Notationen der Dewey-Dezimalklassifikation (DDC) verbunden. Die Multilingualität wird durch die Verknüpfung mit ihren Äquivalenten in den beiden umfassenden Schlagwortnormdateien Library of Congress Subject Headings (LCSH) und Rameau erreicht. Dabei wird auf den Ergebnissen des MACS-Projektes aufgebaut. Dem Nutzer wird so der Zugang zu heterogen erschlossenen Dokumenten ermöglicht, ohne dass er die Regeln des jeweiligen nationalen oder internationalen Erschließungsinstrumentes kennen muss. Projektpartner sind die Fakultät für Informations- und Kommunikationswissenschaften der Fachhochschule Köln und Die Deutsche Bibliothek. Das Projekt hat am 1. Februar 2006 begonnen und soll Ende Januar 2008 abgeschlossen sein. Technisch wird das Projekt im PICA/Iltis-System Der Deutschen Bibliothek und in der Arbeitsumgebung für die DDC "MelvilClass" realisiert. - - - DDC-vascoda
    - - Gemeinsamer Bibliotheksverbund (GBV) / Verbundzentrale des GBV (VZG) - - - WWW-Datenbanken - - - Virtuelle Fachbibliotheken - - - Verbundkatalog Internetquellen VKI - - - Öffentliche Bibliotheken im GBV - - Hessisches BibliotheksinformationsSystem (NeBIS) / Verbundzentrale - - - HeBIS-Portal - - - PND-Projekt - - - Catalogue Enrichment - - Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (HBZ) - - - Bibliographischer Werkzeugkasten - - - DigiAuskunft - - - Suchmaschine - - - Suchmaschinentechnologie - - - Verfügbarkeitsrecherche - - - Publikationssysteme/Digital Peer Publishing (DiPP) - - Kooperativer Bibliotheksverbund Berlin-Brandenburg (KOBV) / KOBV-Zentrale - - - KOBV-Portal - - - Inbetriebnahme des neuen KOBV-Index - - - KOBV-Konsortialportal - - - OPUS- und Archivierungsdienste - - - Zeitschriftenartikel im Volltext
    - - Österreichische Bibliothekenverbund und Service Ges.m.b.H. (OBVSG) Datenlieferung an die ZDB - - - ZDB als Fremddatenquelle/Normdatei - - - Österreichische Dissertationsdatenbank/eDoc - - - Anbindung weiterer Lokalsysteme - - - Retroerfassungsprojekt - - - Homepage /"Verbundportal" - - Zeitschriftendatenbank (ZDB) - - - ZDB-OPAC - - - Integration DDB in ZDB - - - Collection Management/ Kennzeichnung von Sondersommelgebietszeitschriften in der ZDB - - - Sigelverzeichnis online/Bibliotheksdatei der ZDB
  7. Helmkamp, K.; Oehlschläger, S.: ¬Die Internationalisierung deutscher Standards : auf dem Weg von MAB2 zu MARC 21. "Access" - der Schlüssel zum Erfolg (2006) 0.06
    0.061095767 = product of:
      0.19092427 = sum of:
        0.028423341 = weight(_text_:und in 4873) [ClassicSimilarity], result of:
          0.028423341 = score(doc=4873,freq=58.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.4615447 = fieldWeight in 4873, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4873)
        0.01250407 = weight(_text_:aus in 4873) [ClassicSimilarity], result of:
          0.01250407 = score(doc=4873,freq=2.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.13191749 = fieldWeight in 4873, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4873)
        0.01651432 = weight(_text_:dem in 4873) [ClassicSimilarity], result of:
          0.01651432 = score(doc=4873,freq=4.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.18028705 = fieldWeight in 4873, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4873)
        0.026264798 = weight(_text_:der in 4873) [ClassicSimilarity], result of:
          0.026264798 = score(doc=4873,freq=48.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4231716 = fieldWeight in 4873, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4873)
        0.028423341 = weight(_text_:und in 4873) [ClassicSimilarity], result of:
          0.028423341 = score(doc=4873,freq=58.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.4615447 = fieldWeight in 4873, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4873)
        0.026264798 = weight(_text_:der in 4873) [ClassicSimilarity], result of:
          0.026264798 = score(doc=4873,freq=48.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4231716 = fieldWeight in 4873, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4873)
        0.026264798 = weight(_text_:der in 4873) [ClassicSimilarity], result of:
          0.026264798 = score(doc=4873,freq=48.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4231716 = fieldWeight in 4873, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4873)
        0.026264798 = weight(_text_:der in 4873) [ClassicSimilarity], result of:
          0.026264798 = score(doc=4873,freq=48.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4231716 = fieldWeight in 4873, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4873)
      0.32 = coord(8/25)
    
    Abstract
    Seit einigen Jahren ist der Begriff "Access" oder "Zugang" in aller Munde. Er bezieht sich auf den Zugang zu Informationsressourcen im World Wide Web und stellt eine zentrale Voraussetzung für den Erfolg oder Misserfolg in der modernen Gesellschaft dar. Viele Lebensbereiche sind auf einen ungehinderten Zugang zu digitalen Ressourcen angewiesen. Für ein Wirtschaftsunternehmen ist es im 21. Jahrhundert nicht mehr nur wichtig, über traditionelle Produktionsfaktoren, wie Maschinen oder Kapital, zu verfügen, von gleicher Bedeutung ist der Zugang auf Informationen, die intern und extern zur Verfügung stehen, und die Grundlage für ein umfassendes Wissensmanagement bilden. Damit kann der Innovationsprozess beschleunigt und das eigene Risiko vermindert werden, beispielsweise wenn bei der Produktentwicklung die Zeit bis zur Markteinführung verringert und damit ein wesentlicher Vorteil gegenüber den Konkurrenten erzielt wird. Auch die Welt der Wissenschaft hat sich in den letzten Jahrzehnten sehr verändert. Das Interesse von Wissenschaftlern ist nicht auf ihre jeweilige eigene nationale und kulturelle Umgebung beschränkt. Sie benötigen Informationen über Dokumente und Daten aus der ganzen Welt. Gleichzeitig wollen sie die eigenen Forschungsergebnisse in der internationalen Forschungsgemeinschaft zur Diskussion stellen. Schließlich ist der Zugang zu digitalen und konventionellen Ressourcen eine Voraussetzung für den Erfolg in dynamischen und global agierenden Gesellschaften und Systemen. Diese sind davon abhängig, dass Wissen ständig neu generiert und organisiert wird, und propagieren das lebenslange Lernen. Das Konzept des lebenslangen Lernens richtet sich an den Einzelnen, der seine Informationskompetenz ständig erweitern soll. Dadurch wird das Bedürfnis nach Bildungsangeboten im weitesten Sinne und folglich nach einem ungehinderten Zugang zu ihnen geweckt. All dies zeigt, dass ein reibungsloser Metadatenaustausch auf der Grundlage von sprachraumübergreifenden Standards eine wichtige Voraussetzung für Erfolge in ganz unterschiedlichen Bereichen ist. Daraus erwachsen wichtige Aufgaben für Bibliothekarinnen und Bibliothekare, die Daten über Dokumente bereitstellen und den Nachweis und Zugang zu ihnen garantieren. Deutschsprachige und ausländische Bibliotheken verwenden derzeit noch unterschiedliche Standards bei der Speicherung und dem Austausch von Katalogdaten. Während in Deutschland und Österreich das Maschinelle Austauschformat für Bibliotheken MAB2 verwendet wird, ist das Format Machine Readable Cataloguing MARC 21 der weltweit am weitesten verbreitete Standard.
    Content
    "Der Beschluss Der Standardisierungsausschuss hat in seiner 9. Sitzung am 15. Dezember 2004 wegweisende Beschlüsse zur Internationalisierung der deutschen Standards gefasst' Diese sehen als ersten Meilenstein die flächendeckende Einführung von MARC 21 als Austauschformat vor. Die Verbundsysteme als größte Datenproduzenten haben sich verpflichtet, MARC 21 einheitlich, d.h. ohne verbundspezifische Besonderheiten, einzuführen und anzuwenden. Gleichzeitig sollen die bisher unterschiedlichen Verbundrichtlinien vereinheitlicht werden. Die Einführung von MARC 21 bildet zusammen mit den Bestrebungen zur Verbesserung der Zusammenarbeit der Verbundsysteme einen entscheidenden Schritt, die Voraussetzungen für die Fremddatenübernahme und den Datentausch für die deutschen Bibliotheken sowohl auf nationaler als auch auf internationaler Ebene erheblich zu verbessern. Der Auftrag des Standardisierungsausschusses, den Umstieg auf MARC 21 vorzubereiten, richtet sich an die Arbeitstelle für Standardisierung (AfS). Für das Umstiegsprojekt gelang es erfolgreich, international agierende und verlässliche Partner zu gewinnen und Drittmittel einzuwerben: Die Andrew W. Mellon Foundation, die als amerikanische Stiftung ein Interesse an intensiven Kontakten zwischen den USA und deutschsprachigen Ländern u.a. auf der Ebene des Datentransfers hat, erklärte sich bereit, die Migration von MAB2 nach MARC 21 vor allem durch die Unterstützung von Kontakten auf der Arbeitsebene zu fördern. Die Deutsche Forschungsgemeinschaft genehmigte einen Antrag für verschiedene Arbeitspakete, wie z.B. die Entwicklung eines Editionssystems und einer Übersetzung von MARC Concise, und eine auf 18 Monaten befristete Mitarbeiterstelle, die in erster Linie die Aufgabe hat, das Projekt zu betreuen und zu dokumentieren. Nach der Zeit- und Ressourcenplanung der AfS gliedert sich das Umstiegsvorhaben in zwei große Abschnitte: die Vorbereitungsphase, die Anfang Januar 2007 abgeschlossen sein wird, und im Anschluss daran die Phase des konkreten Umstiegs."
  8. Hoffmann, L.: Bericht über die 3. Sitzung des Beirats des Projekts "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" am 20.10.2003 (2003) 0.06
    0.06042205 = product of:
      0.18881892 = sum of:
        0.020895787 = weight(_text_:und in 2036) [ClassicSimilarity], result of:
          0.020895787 = score(doc=2036,freq=96.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.33931053 = fieldWeight in 2036, product of:
              9.797959 = tf(freq=96.0), with freq of:
                96.0 = termFreq=96.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=2036)
        0.015977114 = weight(_text_:aus in 2036) [ClassicSimilarity], result of:
          0.015977114 = score(doc=2036,freq=10.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.16855799 = fieldWeight in 2036, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.015625 = fieldNorm(doc=2036)
        0.022131149 = weight(_text_:dem in 2036) [ClassicSimilarity], result of:
          0.022131149 = score(doc=2036,freq=22.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.24160606 = fieldWeight in 2036, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.015625 = fieldNorm(doc=2036)
        0.027229767 = weight(_text_:der in 2036) [ClassicSimilarity], result of:
          0.027229767 = score(doc=2036,freq=158.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.43871894 = fieldWeight in 2036, product of:
              12.569805 = tf(freq=158.0), with freq of:
                158.0 = termFreq=158.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=2036)
        0.020895787 = weight(_text_:und in 2036) [ClassicSimilarity], result of:
          0.020895787 = score(doc=2036,freq=96.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.33931053 = fieldWeight in 2036, product of:
              9.797959 = tf(freq=96.0), with freq of:
                96.0 = termFreq=96.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=2036)
        0.027229767 = weight(_text_:der in 2036) [ClassicSimilarity], result of:
          0.027229767 = score(doc=2036,freq=158.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.43871894 = fieldWeight in 2036, product of:
              12.569805 = tf(freq=158.0), with freq of:
                158.0 = termFreq=158.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=2036)
        0.027229767 = weight(_text_:der in 2036) [ClassicSimilarity], result of:
          0.027229767 = score(doc=2036,freq=158.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.43871894 = fieldWeight in 2036, product of:
              12.569805 = tf(freq=158.0), with freq of:
                158.0 = termFreq=158.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=2036)
        0.027229767 = weight(_text_:der in 2036) [ClassicSimilarity], result of:
          0.027229767 = score(doc=2036,freq=158.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.43871894 = fieldWeight in 2036, product of:
              12.569805 = tf(freq=158.0), with freq of:
                158.0 = termFreq=158.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=2036)
      0.32 = coord(8/25)
    
    Content
    "Stand des Projekts: Die Projektbearbeiterin berichtet über die 3 1/2 Monate, die seit der zweiten Beiratssitzung im Juli vergangen sind. Nach den Abschlussarbeiten der Projektteile Regelwerks- und Formatabgleich war der Zwischenbericht an die DFG anzufertigen, der am 20.8.2003 termingemäß abgegeben wurde. Die DFG hat mitgeteilt, dass keine Bemerkungen seitens der Gutachter eingegangen sind. Danach fanden Vorarbeiten zur Untersuchung der Auswirkungen eines Umstiegs auf den OPAC und den Benutzer, zur Befragung von amerikanischen Experten sowie zur Wirtschaftlichkeitsuntersuchung statt. Befragungen von Benutzern: Eine hohe Priorität im Gesamtprojekt hat die Untersuchung der Auswirkungen eines Umstiegs auf den OPAC und den Benutzer. Dazu soll zunächst die Suchstrategie von Benutzern ermittelt werden, um dann anschließend analysieren zu können, ob diese Suchstrategie in einem AACR-MARC-basierten Katalog erfolgreicher oder weniger erfolgreich wäre. Da die zunehmende Literatur-Recherche im Internet möglicherweise das Suchverhalten in einem OPAC beeinflusst, soll zusätzlich die Suchstrategie im Internet erfragt werden. Zur Ermittlung der Suchstrategie wurde ein Fragebogen entworfen und in Der Deutschen Bibliothek getestet. Dieser Pretest wurde in vier Durchgängen vorgenommen. Nach jedem Durchgang sind Kritik und Anmerkungen der Benutzer eingebracht worden. Im letzten Durchgang konnte der Fragebogen ohne Verständnisschwierigkeiten von den Benutzern alleine ausgefüllt werden. Anhand der Deutschen Bibliotheksstatistik wurden Bibliotheken unter den Gesichtspunkten der Nutzerfrequenz und des Bestands ausgewählt und angefragt, ob sie bereit sind, den Fragebogen in ihrer Bibliothek auszulegen. Nachdem sich zehn Bibliotheken bereit erklärt hatten, wurden für die endgültige Befragung - soweit in einer Bibliothek erforderlich - einige spezielle Fragen zu Suchbegriffen an die jeweiligen Bibliotheks-OPACs angepasst, da Formulierungen und Bezeichnungen wie Person, Autor, Verfasser u. dgl. in den Bibliothekskatalogen voneinander abweichen können. In der Diskussion wird auf weitere Möglichkeiten hingewiesen, z.B. anhand von Servermitschnitten von Benutzereingaben das Benutzerverhalten zu ermitteln. Da solche Mitschnitte nur bedingt als repräsentativ gelten können und als schwer auswertbar eingeschätzt werden, wird im folgenden davon ausgegangen, dass auf Benutzerumfragen nicht verzichtet werden solle. Frühere Benutzerumfragen wurden als veraltet und nicht zielgenau betrachtet.
    Untersuchung zur Stabilität der Zielsysteme (Ausschreibung eines Library Consultants): Im DFG-Antrag ist vorgesehen, dass amerikanische Experten zur Zukunftsfähigkeit von MARC21 und AACR2 befragt werden. Diese Befragungen sollen durch einen amerikanischer Library Consultant durchgeführt werden. Mittels eines "Letters of intent" sind mehrere Firmen angeschrieben und gebeten worden, ggf. ihr Interesse an dem Projekt zu bekunden und ein Angebot abzugeben. Ausgewählt wurde schließlich die Firma Stillwater. Die Firma hat bereits Erfahrungen mit deutschen Projekten gemacht und ein überzeugendes und schlüssiges Angebot abgegeben. Im weiteren wurde eine ausführliche Liste von Fragestellungen zugeschickt, die nach mündlichen Verhandlungen konkretisiert und präzisiert wurde. Es wurde mit Stillwater verhandelt, welcher Expertenkreis befragt werden soll. Von den zu befragenden Experten wird erwartet, dass sie eine verlässliche Einschätzung über die Weiterentwicklung von MARC21 und AACR2 abgeben können, aber auch die mögliche Bedeutung weiterer Standards wie XML u.a. für das Bibliothekswesen einordnen können. In diesem Zusammenhang wird auch nachgefragt, welche Rolle Metadatenstandards wie Dublin Core oder MODS (Metadata Object Description Schema) und METS (Metadata Encoding and Transmission Standard) in der zukünftigen Standardisierung möglicherweise spielen werden. Mit dem Library Consultant werden gemeinsam Vorgaben für die Befragungen amerikanischer Experten erarbeitet. Die Befragungen wird Stillwater in Form von Interviews jeweils direkt vor Ort vornehmen. Neben den Fragen zur Zukunftsfähigkeit von MARC21 und AACR2 sind für einen Umstieg auch Fragen der gängigen Katalogisierungspraxis von Interesse. Experten der Library of Congress werden u.a. zur Praxis und zum Aufwand der Normdatenarbeit befragt. Es wird in Erfahrung gebracht, an welchen überregionalen kooperativen Katalogisierungsprojekten deutsche Bibliotheken teilnehmen können, welche Vorbedingungen eine Bibliothek dafür erfüllen muss, welche Berechtigungen damit verbunden sind und welche aktiven Mitwirkungsmöglichkeiten bestehen. Es wird ermittelt, wie die Aussichten stehen, dass deutsche Anforderungen an Regelwerk und Format berücksichtigt werden. Experten des OCLC werden u.a. danach befragt, was aus den Ergebnissen des Reuse-Projekts geworden ist. Es hat dort konkrete Vorschläge für die Verbesserung des Datentauschs v.a. in Bezug auf mehrbändige Werke gegeben. Das OCLC wird überdies im Zusammenhang mit dortigen Tests zur Implementierung der Datenstruktur der Functional Requirement of Bibliographic Records in das MARC-Format nach seiner Einschätzung der Veränderungen von Format und Regelwerk in Richtung der Functional Requirements befragt. Sowohl MARC21 und AACR2 als auch MAB2 und RAK sind von Katalogisierungsabläufen und Funktionalitäten geprägt. Deshalb ist es unumgänglich, Informationen über Katalogisierungsvorgänge einzuholen. Einigen Universitäts- und Öffentlichen Bibliotheken sollen u.a. folgende Fragen gestellt werden:
    - Wie funktioniert Copy Cataloguing? Wie hoch ist der Anteil von Fremddaten? - Wie funktioniert die Normdatenarbeit in den Bibliotheken? Wie werden die Normdaten der Library of Congress nachgenutzt? - Wie hoch ist der Aufwand der Individualisierung? - Wie werden die Bände eines mehrbändigen Werkes nachgewiesen und verwaltet? - Wie setzt sich das Katalogisierungspersonal zusammen? - Wie funktioniert Aus- und Fernleihe, v.a. wenn Bände keinen eigenen Datensatz haben? - Wie hoch ist der Bedarf an deutschen Daten jetzt, und wie hoch würde er sein, wenn deutsche Bibliotheken auf AACR2 und MARC21 umgestiegen wären?
    Es wurde angeregt, darüber hinaus zu fragen, wie die Aussichten sind, dass im Rahmen der Umsetzung der Functional Requirements in das MARCFormat Verknüpfungsstrukturen eingeführt werden könnten. Stand der Wirtschaftlichkeitsuntersuchung (Präsentation durch die Firma Kienbaum): Den Stand und das weitere Vorgehen der Wirtschaftlichkeitsuntersuchung haben Vertreter der Firma Kienbaum vorgestellt. Nach der Phase der Exploration hat die Phase der Kostenermittlung begonnen. In einem Workshop, zu dem Vertreter der DBV-Sektionen, der Arbeitsgemeinschaft der Verbundsysteme, der ekz, der nicht im DBV organisierten Spezialbibliotheken sowie der österreichischen Bibliotheken eingeladen worden sind, wurden gemeinsam Katalogisierungsprozesse definiert, die von einem Umstieg betroffen sein werden. In einem zweiten Schritt wurden diese Katalogisierungsprozesse nach Bibliothekstypen auf ihre Relevanz bewertet. Die so festgelegten Schätzwerte werden in einzelnen typischen Bibliotheken stichprobenartig konkretisiert und präzisiert. Dazu haben die DBV-Vorsitzenden Bibliotheken benannt, in denen vor Ort Kennzahlen ermittelt werden. Die Wirtschaftlichkeitsbetrachtung geht von folgenden Grundannahmen aus: Verzicht auf Hierarchien und Übernahme der AACR-Ansetzungen. Da es keine Entscheidung darüber gibt, ob bei einem Umstieg die Linkingfelder des MARC-Formats für Verknüpfungen genutzt werden und welche Ansetzungssprache anstelle von Englisch gewählt wird, werden diese Möglichkeiten als Varianten in einer Chancen-Risiko-Berechnung betrachtet. In der folgenden Diskussion wird u.a. hinsichtlich der Befragung einzelner Bibliotheken durch die Firma Kienbaum die Frage angesprochen, was passiert, wenn einzelne Bibliotheken keine konkreten Kennzahlen zur weiteren Berechnung vorlegen können. In diesen Fällen wird Kienbaum weitere Bibliotheken ansprechen. Wenn das auch nicht zum Erfolg führt, wird versucht, aus der Literatur zu nutzbaren Werten zu kommen. Falls erforderlich werden Annahmen mit einer Risikoabschätzung getroffen. Die Firma Kienbaum geht in der Wirtschaftlichkeitsberechnung davon aus, dass ein Umstieg im Zusammenhang mit einer ohnehin fälligen Systemumstellung erfolgt. Es wird diskutiert, ob diese Grundannahme durchgehend vorausgesetzt werden oder ob es nicht andere Zwänge zum Umstieg oder Nichtumstieg geben kann. Auf den Hinweis, dass die Berechnung des Ist-Standes auch Teil der Wirtschaftlichkeitsberechnung sein soll, stellt die Firma Kienbaum dar, dass die Analyse des Ist-Standes den größten Teil der Wirtschaftlichkeitsberechnung ausmacht. Die Berechnung der Kosten nach einem Umstieg geschieht mittels einer Differenzbetrachtung. Der Entwurf einer Erklärung des Beirats, den Herr Eversberg auf der zweiten Beiratssitzung als Tischvorlage verteilt hat und der dort nicht mehr besprochen werden konnte, wird diskutiert. Herr Eversberg schlägt in dem Papier vor, dass der Beirat die in der Vergangenheit aufgetretenen Missverständnisse zum Anlass nimmt, eine Erklärung abzugeben, die in einem Überblick die derzeitigen Aktivitäten der Standardisierungsarbeit darstellt und den Willen zum Konsens der daran Beteiligten betont. Es wird überlegt, wieweit der Beirat das geeignete Gremium für eine generelle Erklärung ist, die über den Betrachtungsumfang des Projekts hinausgeht. Als Ergebnis der Diskussion ist man sich aber einig, dass der Beirat durchaus die Umstiegsfrage in einen umfassenden Zusammenhang der Standardisierungsarbeit positionieren sollte. Die Erklärung soll gemeinsam mit dem ohnehin geplanten Bericht über die Beiratssitzung in geeigneter Weise veröffentlicht werden.
    Projekt "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" Erklärung des Beirats: Der Beirat des DFG-Projekts "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" hat die Notwendigkeit erkannt, seine Arbeit sowie das Projekt in einen umfassenden Zusammenhang mit anderen laufenden Aktivitäten der Standardisierungsarbeit zu stellen. Nicht erst das Internet hat Bibliotheken dazu veranlasst, sich um internationale Zusammenarbeit zu bemühen. Besonders auf dem Gebiet der Katalogisierung wurde schon lange vor der Einführung der elektronischen Datenverarbeitung an Konzepten und Normen gearbeitet, die den grenzüberschreitenden Datenaustausch erleichtern sollen. Gegenwärtig wird unter dem weltweiten Dach der IFLA verstärkt nach Wegen gesucht, zu einem internationalen Katalogregelwerk zu gelangen. Dabei ist sowohl der Tatsache Rechnung zu tragen, dass elektronische Medien in Bibliothekskatalogen in geeigneter Weise nachgewiesen werden, als auch der Tatsache, dass Online-Kataloge Benutzern ganz neue Zugriffsmöglichkeiten eröffnen. Zu den Schritten, die zur Zeit in Deutschland unternommen werden, gehören vor allem fünf Aktionsfelder: - Aktive Mitarbeit Der Deutschen Bibliothek bzw. der deutschen Vertreter in den betreffenden IFLA-Sektionen bei der internationalen Standardisierungsarbeit. - Durchführung des DFG-Projekts "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" bei Der Deutschen Bibliothek im Auftrag des Standardisierungsausschusses, in dem die Rahmenbedingungen und Konsequenzen eines Umstiegs untersucht werden. - Weiterentwicklung der RAK in Zusammenarbeit mit den Expertengruppen des Standardisierungsausschusses in Angleichung an internationale Regelwerke und unter Berücksichtigung der Projektergebnisse. - Zusammenarbeit Der Deutschen Bibliothek mit der Library of Congress und dem OCLC mit dem Ziel, zu verteilten, internationalen Normdateien zu gelangen (Projekt VIAF), die von möglichst vielen Einrichtungen gespeist und genutzt werden. Dies führt nicht nur zu effektiverer Normierungsarbeit, sondern erleichtert auch die weltweite und katalogübergreifende Suche des Benutzers. - Optimierung von Verfahren für die Datenkonversion, der Zusammenführung unterschiedlich strukturierter Daten und des Austauschs vorhandener Daten. Alle für die verschiedenen Aktivitäten Verantwortlichen werden zustimmen, dass breiter Konsens erreicht werden muss, weil nur so vor dem Hintergrund der föderalen Struktur mit verteilten Zuständigkeiten nachhaltige Erfolge erzielt werden können."
  9. Winkler, J.: 1st IFLA Meeting of Experts on an International Cataloguing Code (IME ICC) : 28.-30. Juli 2003, Die Deutsche Bibliothek, Frankfurt am Main (2003) 0.06
    0.060409162 = product of:
      0.18877864 = sum of:
        0.022932371 = weight(_text_:und in 2269) [ClassicSimilarity], result of:
          0.022932371 = score(doc=2269,freq=74.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.37238106 = fieldWeight in 2269, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2269)
        0.012631019 = weight(_text_:aus in 2269) [ClassicSimilarity], result of:
          0.012631019 = score(doc=2269,freq=4.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.1332568 = fieldWeight in 2269, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2269)
        0.01668198 = weight(_text_:dem in 2269) [ClassicSimilarity], result of:
          0.01668198 = score(doc=2269,freq=8.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.1821174 = fieldWeight in 2269, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2269)
        0.028400224 = weight(_text_:der in 2269) [ClassicSimilarity], result of:
          0.028400224 = score(doc=2269,freq=110.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.45757705 = fieldWeight in 2269, product of:
              10.488089 = tf(freq=110.0), with freq of:
                110.0 = termFreq=110.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2269)
        0.022932371 = weight(_text_:und in 2269) [ClassicSimilarity], result of:
          0.022932371 = score(doc=2269,freq=74.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.37238106 = fieldWeight in 2269, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2269)
        0.028400224 = weight(_text_:der in 2269) [ClassicSimilarity], result of:
          0.028400224 = score(doc=2269,freq=110.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.45757705 = fieldWeight in 2269, product of:
              10.488089 = tf(freq=110.0), with freq of:
                110.0 = termFreq=110.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2269)
        0.028400224 = weight(_text_:der in 2269) [ClassicSimilarity], result of:
          0.028400224 = score(doc=2269,freq=110.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.45757705 = fieldWeight in 2269, product of:
              10.488089 = tf(freq=110.0), with freq of:
                110.0 = termFreq=110.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2269)
        0.028400224 = weight(_text_:der in 2269) [ClassicSimilarity], result of:
          0.028400224 = score(doc=2269,freq=110.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.45757705 = fieldWeight in 2269, product of:
              10.488089 = tf(freq=110.0), with freq of:
                110.0 = termFreq=110.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2269)
      0.32 = coord(8/25)
    
    Content
    "Im Vorfeld der 69. IFLA-Generalkonferenz, die unter dem Titel "Bibliothek als Portal: Medien - Information - Kultur" vom 1. bis 9. August 2003 in Berlin tagte, stand in Frankfurt am Main an der Deutschen Bibliothek auf Einladung der Sektion Katalogisierung der IFLA ein Treffen von Regelwerksexperten aus Europa, Amerika und Australien im Zeichen intensiver Beratungen über Möglichkeiten und Wege zur internationalen Harmonisierung von Strukturen, Regeln und Arbeitsverfahren im Katalogisierungsbereich. Barbara Tillett, leitende Bibliothekarin der Library of Congress, sorgte als Vorsitzende einer Planungsgruppe gemeinsam mit ihren deutschen Kolleginnen Renate Gömpel (DDB), Monika Münnich (UB Heidelberg), Clau dia Fabian (BSB) und Susanne Oehlschläger (DDB) für die hervorragende Vorbereitung und Organisation des Frankfurter Expertentreffens. 52 Bibliothekarinnen und Bibliothekare nahmen an der Frankfurter Konferenz teil: neben den von den Regelwerksgremien der europäischen Teilnehmerländer nominierten Regelwerksexperten hochrangige Katalogisierungsexperten aus den Vereinigten Staaten und Australien. Die Sektion Katalogisierung der IFLA räumt seit Jahren dem Ziel, die Möglichkeiten zum internationalen Austausch von Kataloginformationen entscheidend zu verbessern, höchste Priorität ein. Einigkeit besteht dar über, dass diese Zielvorstellung nur über gemeinsame Standards für den Inhalt von bibliographischen Datensätzen und Normdatensätzen und gemeinsame Standards für den Zugriff auf diese Daten zu erreichen ist. In diesem Sinne war Frankfurt mit Blick auf die Praxis der Katalogisierung in Europa als Auftakt kommenderTagungen mit ähnlich großräumigen Perspektiven im Umfeld der IFLA-Konferenzen 2004 in Buenos Aires, 2006 in Seoul sowie 2007 in Durban gedacht.
    In der Vorbereitungsphase der Konferenz erstellten die Regelwerksgremien der Teilnehmerländer unter Verwendung eines vorgegebenen Fragenkatalogs Präsentationen der in Europa aktuell in Verwendung stehenden Regelwerkel als Grundlage einer vergleichenden Untersuchung von Gemeinsamkeiten und Unterschieden sowie als Ausgangspunkt für mögliche Annäherungen an das erklärte Fernziel einer möglichst weitgehenden Vereinheitlichung der Katalogisierungspraxis im Rahmen international verbindlicher Vereinbarungen. Auf die Vielzahl der in Verwendung stehenden Regelwerke konnte im Rahmen der Tagung nicht eingegangen werden. Doch waren im Programm des ersten Tages beispielhaft die AACR-Anwender und die Vertretungen Frankreichs, Spaniens, Russlands, Italiens, Kroatiens und Deutschlands, das gemeinsam mit Österreich für die RAK-Anwendung stand, zu kurzen Vorstellungen ihrer Regelwerksgremien aufgefordert. Im wesentlichen galt das Programm des ersten Tages der breiten Information über Grundsätze und Standards der internationalen Zusammenarbeit sowie der Vorbereitung der auf fünf Arbeitsgruppen verteilten Behandlung der Themen "Personal names", "Corporate bodies", "Seriality", "Multipart structures" und "Uniform titles and GMDs (General material designations)". John D. Byrum, Chair der IFLA ISBD Review Group, betonte die Bedeutung der "International Standard Bibliographic Descriptions" (ISBDs), die sich als international gültiger Standard für die bibliographische Beschreibung längst bewährt haben und auch künftig als unverzichtbar für den Datentausch und die gemeinsame Datennutzung gesehen werden. Priorität in der ISBD Review Group hat derzeit die generelle Revision der verschiedenen ISBD-Ausgaben mit Blick auf die Konzentration der Inhalte und die beabsichtigte Einbeziehung der FRBR-Terminologie in die ISBD. Patrick Le Boeuf, Chair der IFLA Working Group an FRBR, erläuterte sodann in seinem höchst anregenden und mit Esprit und Verve präsentierten Vortrag "Brave new FRBR world" die Begrifflichkeit und das Grundmuster der "Functional Requirements for Bibliographic Records".3 Dabei handelt es sich nicht um ein Modell zur Abbildung von Daten, sondern um ein Modell zur Darstellung von Beziehungen zwischen Entitäten und ihren möglichen Attributen. Offen blieb, ob und wie sich der hohe Abstraktionsgrad des Modells mit seinen Schlüsselbegriffen "work", "expression", "manifestation" und "item" über Standards und Regelwerke in der täglichen Praxis des Bibliotheksbetriebs umsetzen lässt und behaupten kann. Barbara Tillett schließlich widmete ihren Vortrag dem Projekt VIAF (The Virtual International Authority File), das OCLC, die Library of Congress und Die Deutsche Bibliothek gemeinsam verfolgen, um die Möglichkeiten der Erstellung und des Austauschs von Normdaten in international vernetzter Zusammenarbeit zu erproben.
    Zentrale Bedeutung kam im Rahmen der Tagung dem Entwurf einer Neufassung der 1961 in Paris verabschiedeten "Paris Principles' zu. Die im Vorfeld der Konferenz erarbeiteten zusammenfassenden Präsentionen der in den europäischen Ländern angewandten Regelwerke machen deutlich, wie bestimmend die "Paris Principles" mit ihren "Prinzipien", also beispielsweise ihren Aussagen zur Funktion eines Kataloges, zu den verschiedenen Arten von Eintragungen (Haupt- und Nebeneintragungen bzw. Verweisungen) sowie zu den Eintragungen selbst für die Standardisierung der Regelwerksarbeit waren. Nun galt eine der Zielsetzungen der FrankfurterTagung der Anpassung der 1961 in Paris verabschiedeten Grundsätze an die zeitgemäßen Erfordernisse und Rahmenbedingungen von Online-Katalogen sowie der Erwei terung des Geltungsbereiches auf Aspekte der Sacherschließung neben den seit 1961 festgeschriebenen Gesichtspunkten der formalen Erfassung. Der für dieses neue "Statement of Cataloguing Principles" von Monika Münnich gemeinsam mit Hans Popst und Charles Croissant erarbeitete Entwurf wurde im Plenum ausführlich diskutiert und in den folgenden Wochen über eine detaillierte Abstimmung der einzelnen Formulierungen weiterentwickelt. Er berücksichtigt die Termini der FRBR, die auch in die angekündigte Neuausgabe der AACR Eingang finden sollen, definiert die Funktionen des Katalogs, das Prinzip der bibliographischen Beschreibung sowie die vorzusehenden Sucheinstiege über Namen von Personen und Körperschaften bzw. über Titel. Festgelegt sind darin auch die Forderungen des FRANAR-Konzepts' für eine möglichst weitgehende Normierung der Ansetzung von Namen, Titeln und Sachbegriffen. Noch in diesem Jahr wird der modifizierte Entwurf für das neue "Statement of Cataloguing Principles" der Fachöffentlichkeit vorgestellt werden. Die in Frankfurt angestoßene intensive Diskussion wird sich auf den Fol gekonferenzen von Buenos Aires und Seoul fortsetzen und letztendlich in ein Dokument münden, das nicht zuletzt auch als Richtlinie und Leitfaden für die in den fünf Arbeitsgruppen der Frankfurter Tagung angedachten Detailprobleme Gültigkeit haben soll."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 56(2003) H.3/4, S.72-74
  10. Block, B.; Hengel, C.; Heuvelmann, R.; Katz, C.; Rusch, B.; Schmidgall, K.; Sigrist, B.: Maschinelles Austauschformat für Bibliotheken und die Functional Requirements for Bibliographic Records : Oder: Wieviel FRBR verträgt MAB? (2005) 0.06
    0.059633177 = product of:
      0.18635368 = sum of:
        0.019194005 = weight(_text_:und in 467) [ClassicSimilarity], result of:
          0.019194005 = score(doc=467,freq=36.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.31167662 = fieldWeight in 467, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=467)
        0.023965672 = weight(_text_:aus in 467) [ClassicSimilarity], result of:
          0.023965672 = score(doc=467,freq=10.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.25283697 = fieldWeight in 467, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0234375 = fieldNorm(doc=467)
        0.020018376 = weight(_text_:dem in 467) [ClassicSimilarity], result of:
          0.020018376 = score(doc=467,freq=8.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.21854089 = fieldWeight in 467, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0234375 = fieldNorm(doc=467)
        0.02599541 = weight(_text_:der in 467) [ClassicSimilarity], result of:
          0.02599541 = score(doc=467,freq=64.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4188313 = fieldWeight in 467, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=467)
        0.019194005 = weight(_text_:und in 467) [ClassicSimilarity], result of:
          0.019194005 = score(doc=467,freq=36.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.31167662 = fieldWeight in 467, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=467)
        0.02599541 = weight(_text_:der in 467) [ClassicSimilarity], result of:
          0.02599541 = score(doc=467,freq=64.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4188313 = fieldWeight in 467, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=467)
        0.02599541 = weight(_text_:der in 467) [ClassicSimilarity], result of:
          0.02599541 = score(doc=467,freq=64.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4188313 = fieldWeight in 467, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=467)
        0.02599541 = weight(_text_:der in 467) [ClassicSimilarity], result of:
          0.02599541 = score(doc=467,freq=64.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4188313 = fieldWeight in 467, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=467)
      0.32 = coord(8/25)
    
    Abstract
    Eine konsequente Umsetzung des FRBR-Modells - schreibt OCLC - würde die größte Veränderung in der Katalogisierung seit hundert Jahren bedeuten. Doch gibt es auch andere Stimmen. So hieß es am Rande eines FRBRWorkshops, der 2004 in Der Deutschen Bibliothek stattfand: Das Verhältnis zwischen den FRBR und der Katalogisierungspraxis sei vergleichbar mit der Beziehung zwischen Fußballkommentatoren und der Fußballmannschaft. Die einen theoretisierten nach Spielende das, was die anderen soeben getan hätten. Was hat es mit den Functional Requirements for Bibliographic Records nun tatsächlich auf sich? Haben vielleicht beide Stimmen Recht? In welcher Beziehung steht das MAB-Format zu dem vorliegenden Modell? Wie lassen sich die Entitäten mit ihren jeweiligen Attributen in MAB abbilden? Bietet MAB die strukturellen Voraussetzungen, um FRBR-Anwendungen zu unterstützen? Das sind die Fragen, die den MAB-Ausschuss, der seit Beginn diesen Jahres als Expertengruppe Datenformate auftritt, beschäftigten und auf die im Folgenden erste Antworten versucht werden. Die Functional Requirements for Bibliographic Records, kurz FRBR, sind eine Empfehlung der International Federation of Library Associations and Institutions (IFLA) von 1998 zur Neustrukturierung von Bibliothekskatalogen. Dabei sind die FRBR ausgelegt als ein logisches Denkmodell für bibliographische Beschreibungen. Es handelt sich ausdrücklich nicht um ein umsetzungsreifes Datenmodell oder gar ein praktisches Regelwerk. Das Modell bleibt auf einer abstrakten Ebene. Beschrieben werden abstrakte Entitäten mit ihren Eigenschaften und Beziehungen zueinander.
    Zehn Entitäten werden drei Gruppen zugeordnet. Die Entitäten der ersten Gruppe stehen unter der Überschrift Produkte intellektueller und/oder künstlerischer Arbeit, Gruppe zwei für die Produktverantwortlichen und die letzte Gruppe für die Produktinhalte. Wichtig für das Verständnis ist die Unterscheidung zwischen den vier Entitäten der ersten Gruppe: Work, Expression, Manifestation, Item. Die abstrakte Einheit Work drückt sich aus in einer Expression, die ihre konkrete, physische Erscheinung in einer oder mehreren Manifestationen findet, von der wiederum zahlreiche Items existieren (können). Frau Tillett nennt zur Illustration ein Beispiel: Von einem Roman (Work) existieren verschiedene Übersetzungen (Expression) als Papierausgabe oder Hörbuch (Manifestation), die in zahlreichen Exemplaren (Item) im Besitz einer Bibliothek sind. Diese Begriffe haben weder in der Terminologie der AACR noch in der der RAK genaue Entsprechungen. Entsprechend verhält es sich mit den Felddefinitionen auf der Formatebene in MAB und MARC 21. Zwei weitere Gruppen von Entitäten spielen im Kontext bibliographischer Veröffentlichungen eine Rolle: Zum einen sind dies Personen (Person) und Körperschaften (Corporate Body): Gruppe-2-Entitäten. Sie sind die Akteure, die ein künstlerisches Werk - bestehend aus Work, Expression, Manifestation, Item - gestalten: es schaffen, dazu beitragen oder daran beteiligt sind. Zum anderen sind dies Begriffe (Concept), Gegenstände (Object), Ereignisse (Event) und Orte (Place): die Gruppe-3-Entitäten. Damit sind alle Einheiten gemeint, die in Werken als deren Gegenstand behandelt werden. Da auch die Entitäten der Gruppen 1 und 2 Gegenstand einer Veröffentlichung sein können, sind sie gleichzeitig auch der Gruppe 3 zuzurechnen. Jede Einheit charakterisiert sich durch Eigenschaften, die mit Hilfe von Attributen beschrieben werden können. Im MAB-Format finden sich diese Attribute in Feldern wieder. Das Verhältnis zwischen den Entitäten ist in dem Modell durch Relationen beschrieben. Für die Entitäten der ersten Gruppe handelt es sich um immanente Relationen (z.B. Relation "is realized by" Beispiel: Work "is realized by" Expression) und um Relationen, die bibliographische Entitäten untereinander in Beziehung setzen (z.B. Teil-Ganzes-Beziehungen). Für Personen und Körperschaften wird mit der Relation ihre Rolle definiert (Verfasser, Übersetzer usw.). Das gilt auch für die Entitäten der dritten Gruppe, deren Rolle mit der Relation "is subject of" beschrieben ist.
    Ausgehend von den beschriebenen Entitäten lassen sich interessante Anwendungen aufbauen. In diesem Zusammenhang sei auf den FictionFinder von OCLC, den Red-Light-Green-Opac der Research Library Group und das AustLit-Projekt hingewiesen. Interessant ist in allen Projekten der Versuch der Neustrukturierung von großen Treffermengen sowie im AustLit-Projekt die mehrdimensionale Navigation, die auf den im FRBR-Modell beschriebenen Beziehungen aufsetzt. Es ist kein Zufall, dass die genannten Anwendungen aus dem Bereich der Geisteswissenschaften stammen. So lässt sich am Beispiel des World-Cat-Kataloges exemplarisch nachweisen, dass nur in etwa 20% der vorhandenen Katalogsätze alle vier FRBR-Ebenen beschrieben sind bzw. sich aus vorhandenen Katalogdaten ableiten lassen. Als prominente Beispiele werden gerne genannt die Bibel, der Koran oder Werke aus der Weltliteratur wie Goethes Faust. Für das Gros des beschriebenen Materials hingegen gilt, dass die Ebenen Work, Expression und Manifestation wenig ausgeprägt sind. Man denke hier beispielsweise an Hochschulschriften. Die Diskussion im deutschsprachigen Raum befindet sich erst in den Anfängen, was sich unter anderem daran zeigt, dass es selbst für die Terminologie noch keine gebräuchlichen deutschen Übersetzungen gibt. Weiter fortgeschritten ist die Auseinandersetzung mit dem FRBR-Modell in den USA. Nicht nur, dass die Terminologie ausdrücklich im zukünftigen Regelwerk verankert werden soll, auch liegt eine detaillierte Studie von Tom Delsey vor, der die FRBR-Entitäten mit sämtlichen Attributen auf das MARC21-Format anwendet. Als Annäherung der Expertengruppe Datenformate entstand analog zur MARC-Umsetzung eine entsprechende Tabelle für MAB. Diese Tabelle allerdings hat ausdrücklich Entwurfscharakter und wird zunächst nicht weiter bearbeitet. Daneben entstand ein kleines Programm, das MAB-Daten nach FRBR strukturiert darstellt und damit die verschiedenen Entitäten sichtbar macht.
    Footnote
    Vgl.: http://www.ddb.de/standardisierung/pdf/frbr_mab.pdf und http://www.ddb.de/standardisierung/pdf/mab_in_frbr.pdf.
  11. Andrew W. Mellon Foundation unterstützt Einführung von MARC 21 im deutschsprachigen Bibliothekswesen (2005) 0.06
    0.059474505 = product of:
      0.18585783 = sum of:
        0.025857216 = weight(_text_:und in 4301) [ClassicSimilarity], result of:
          0.025857216 = score(doc=4301,freq=12.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.41987535 = fieldWeight in 4301, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4301)
        0.02500814 = weight(_text_:aus in 4301) [ClassicSimilarity], result of:
          0.02500814 = score(doc=4301,freq=2.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.26383498 = fieldWeight in 4301, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4301)
        0.023354774 = weight(_text_:dem in 4301) [ClassicSimilarity], result of:
          0.023354774 = score(doc=4301,freq=2.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.25496438 = fieldWeight in 4301, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4301)
        0.021445118 = weight(_text_:der in 4301) [ClassicSimilarity], result of:
          0.021445118 = score(doc=4301,freq=8.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34551817 = fieldWeight in 4301, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4301)
        0.025857216 = weight(_text_:und in 4301) [ClassicSimilarity], result of:
          0.025857216 = score(doc=4301,freq=12.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.41987535 = fieldWeight in 4301, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4301)
        0.021445118 = weight(_text_:der in 4301) [ClassicSimilarity], result of:
          0.021445118 = score(doc=4301,freq=8.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34551817 = fieldWeight in 4301, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4301)
        0.021445118 = weight(_text_:der in 4301) [ClassicSimilarity], result of:
          0.021445118 = score(doc=4301,freq=8.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34551817 = fieldWeight in 4301, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4301)
        0.021445118 = weight(_text_:der in 4301) [ClassicSimilarity], result of:
          0.021445118 = score(doc=4301,freq=8.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34551817 = fieldWeight in 4301, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4301)
      0.32 = coord(8/25)
    
    Content
    "Die Andrew W. Mellon Foundation, New York, unterstützt die Einführung des international gebräuchlichen Datenaustauschformats MARC 21 im deutschsprachigen Bibliothekswesen. Deutschsprachige und ausländische Bibliotheken verwenden derzeit noch unterschiedliche Standards bei der Speicherung und dem Austausch von Katalogdaten. Das von der Andrew W. Mellon Foundation geförderte Projekt verfolgt das Ziel, die Daten deutschsprachiger Bibliotheken weltweit sichtbar zu machen. Das Interesse von Wissenschaftlern ist nicht auf ihre jeweilige eigene nationale und kulturelle Umgebung beschränkt. Sie benötigen Informationen über Dokumente und Daten aus der ganzen WeIt. Gleichzeitig wollen sie die eigenen Forschungsergebnisse in der internationalen Forschungsgemeinschaft zur Diskussion stellen. Sprachraumübergreifende Standards für Metadaten und ein reibungsloser Metadatenaustausch sind Voraussetzung für die wissenschaftliche Kommunikation und für den individuellen Erfolg des einzelnen Forschers."
  12. Helmkamp, K.; Oehlschläger, S.: Standardisierung : Ein Meilenstein auf dem Weg zur Internationalisierung; Im Jahr 2007 erfolgt der Umstieg auf MARC 21 (2006) 0.06
    0.0585469 = product of:
      0.18295906 = sum of:
        0.02584622 = weight(_text_:und in 65) [ClassicSimilarity], result of:
          0.02584622 = score(doc=65,freq=94.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.4196968 = fieldWeight in 65, product of:
              9.69536 = tf(freq=94.0), with freq of:
                94.0 = termFreq=94.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
        0.017862957 = weight(_text_:aus in 65) [ClassicSimilarity], result of:
          0.017862957 = score(doc=65,freq=8.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.18845356 = fieldWeight in 65, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
        0.011795942 = weight(_text_:dem in 65) [ClassicSimilarity], result of:
          0.011795942 = score(doc=65,freq=4.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.12877646 = fieldWeight in 65, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
        0.025401931 = weight(_text_:der in 65) [ClassicSimilarity], result of:
          0.025401931 = score(doc=65,freq=88.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.40926933 = fieldWeight in 65, product of:
              9.380832 = tf(freq=88.0), with freq of:
                88.0 = termFreq=88.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
        0.02584622 = weight(_text_:und in 65) [ClassicSimilarity], result of:
          0.02584622 = score(doc=65,freq=94.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.4196968 = fieldWeight in 65, product of:
              9.69536 = tf(freq=94.0), with freq of:
                94.0 = termFreq=94.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
        0.025401931 = weight(_text_:der in 65) [ClassicSimilarity], result of:
          0.025401931 = score(doc=65,freq=88.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.40926933 = fieldWeight in 65, product of:
              9.380832 = tf(freq=88.0), with freq of:
                88.0 = termFreq=88.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
        0.025401931 = weight(_text_:der in 65) [ClassicSimilarity], result of:
          0.025401931 = score(doc=65,freq=88.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.40926933 = fieldWeight in 65, product of:
              9.380832 = tf(freq=88.0), with freq of:
                88.0 = termFreq=88.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
        0.025401931 = weight(_text_:der in 65) [ClassicSimilarity], result of:
          0.025401931 = score(doc=65,freq=88.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.40926933 = fieldWeight in 65, product of:
              9.380832 = tf(freq=88.0), with freq of:
                88.0 = termFreq=88.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
      0.32 = coord(8/25)
    
    Abstract
    Die Vorbereitungen für den flächendeckenden Formatumstieg vom deutschen MAB2 zum internationalen Standard MARC 21 gehen in ihre Endphase. Ab Januar 2007 sollen die Verbundsysteme als größte Datenproduzenten das neue Datenformat einführen und anwenden. Ziel des Mammutprojekts ist die Verbesserung der Fremddatenübernahme und des Datenaustauschs für alle deutschen Bibliotheken auf nationaler und internationaler Ebene.
    Content
    "Mit der steigenden Zahl von digitalen und digitalisierten Dokumenten, die im World Wide Web zur Verfügung stehen, verliert der aktuelle Speicherort einer Publikation seine Bedeutung. Entscheidend für die Forschung sind vielmehr Auffindbarkeit und schnelle Nutzungsmöglichkeit von Informationen. Global in elektronischen Umgebungen zu arbeiten, Daten, Informationen, Texte zu tauschen und zu mischen, ist zur täglichen Routine für Wissenschaftler und Bibliothekare geworden. Das Interesse von Wissenschaftlern ist nicht auf ihre jeweilige eigene nationale und kulturelle Umgebung beschränkt. Sie benötigen Informationen über Dokumente und Daten aus der ganzen Welt. Gleichzeitig wollen sie die eigenen Forschungsergebnisse in der internationalen Forschungsgemeinschaft zur Diskussion stellen. Sprachraumübergreifende Standards für Metadaten und ein reibungsloser Metadatenaustausch sind Voraussetzung für die wissenschaftliche Kommunikation und für den individuellen Erfolg des einzelnen Forschers. Deutschsprachige und ausländische Bibliotheken verwenden derzeit noch unterschiedliche Standards bei der Speicherung und dem Austausch von Katalogdaten. Während in Deutschland und Österreich das Maschinelle Austauschformat für Bibliotheken MAB2 verwendet wird, ist das Format Machine Readable Cataloguing MARC 21 der weltweit am weitesten verbreitete Standard. Der Standardisierungsausschuss hat in seiner 9. Sitzung am 15. Dezember 2004 wegweisende Beschlüsse zur Internationalisierung der deutschen Standards gefasst.' Diese sehen als ersten Meilenstein die flächendeckende Einführung von MARC 21 als Austauschformat vor. Die Verbundsysteme als größte Datenproduzenten haben sich verpflichtet, MARC 21 einheitlich, das heißt ohne verbundspezifische Besonderheiten, einzuführen und anzuwenden. Gleichzeitig werden die bisher unterschiedlichen Verbundrichtlinien vereinheitlicht. Die Einführung von MARC 21 bildet zusammen mit den Bestrebungen zur Verbesserung der Zusammenarbeit der Verbundsysteme einen entscheidenden Schritt, die Voraussetzungen für Fremddatenübernahme und Datentausch für die deutschen Bibliotheken sowohl auf nationaler als auch auf internationaler Ebene erheblich zu verbessern.
    Für das Projekt »Umstieg auf MARC 21« konnten starke Partner gewonnen werden. Die Deutsche Forschungsgemeinschaft (DFG) und die Andrew W. Mellon Foundation, New York, unterstützen die Einführung des international gebräuchlichen Datenaustauschformats MARC 21 im deutschsprachigen Bibliothekswesen. Bis Januar 2007 sollen die Vorbereitungen zur Einführung von MARC 21 als einheitlichem Transportformat abgeschlossen sein. Die Vorarbeiten umfassen vor allem drei Teilbereiche: Erstellung einer Konkordanz MAB2 - MARC 21, Durchführung von Expertenworkshops sowie Aufbau und Pflege von Kontakten zu internationalen Gremien und Experten. Außerdem soll ein Editionssystem als Arbeitsplattform entwickelt werden, die das Format MARC 21 zur Anzeige, Pflege, Dokumentation und Druckausgabe bringt, und eine tabellarische Darstellung der Abbildung von MAB2 auf MARC 21 beinhaltet. Darüber hinaus soll eine Übersetzung des MARC-Concise-Formats ins Deutsche erstellt und in das Editionssystem eingebunden werden. Konkordanz MAB2 - MARC 21 Im Vorfeld der Arbeiten an der Konkordanz MAB2 - MARC 21 diskutierte die Expertengruppe Datenformate (früher Expertengruppe MAB-Ausschuss) anhand eines zuvor erstellten Fomatabgleichs wichtige Punkte, zum Beispiel mehrbändig begrenzte Werke sowie die Methoden und Techniken, Datensätze in den beiden Formaten zu verknüpfen. Auf dieser Basis wurden die Arbeiten am Kernstück des Formatumstiegs, der Konkordanz, aufgenommen, die regelmäßig mit der Expertengruppe Datenformate rückgekoppelt wird. Im Rahmen der Konkordanz wird ein Mapping der MAB2Kategorien auf ihr Pendant in MARC 21 durchgeführt. Dabei wird nicht nur dokumentiert, an welcher Stelle bibliografische Informationen aus MAB2 in MARC 21 stehen, sondern auch auf welche Weise sie transportiert werden. Die vorliegenden Ergebnisse werden sukzessive von der Expertengruppe Datenformate einer genauen Prüfung unterzogen. Ein besonderes Augenmerk liegt dabei auf Lücken, die eingehend untersucht und bewertet werden.
    Expertenworkshops Zur Erweiterung und Vertiefung von vorhandenen Kenntnissen über das Zielformat MARC 21 wurden schon in der Anfangsphase der Arbeiten für den Formatumstieg eine Reihe von Expertenworkshops geplant. Der erste Workshop wurde bereits im Juli 2005 in der Deutschen Nationalbibliothek mit Randall Barry von der Library of Congress durchgeführt, der seit vielen Jahren im Network Development and MARC Standards Office mit der Pflege, Weiterentwicklung und Dokumentation des Formats beschäftigt ist. Zu den Teilnehmern gehörten die Spezialisten für Normdaten und Datenformate der Deutschen Nationalbibliothek, die Expertengruppe Datenformate sowie weitere Fachleute und Hersteller von Bibliothekssoftware-Systemen. Ein zweiter Workshop hat Ende September 2006 an der Deutschen Nationalbibliothek stattgefunden. Als Expertin konnte Sally McCallum, die Leiterin der Abteilung Network Development and MARC Standards an der Library of Congress, gewonnen werden. Zu den weiteren Teilnehmern gehörten die Spezialisten der Deutschen Nationalbibliothek und die Expertengruppe Datenformate. Im Rahmen des Workshops wurden unter anderem auch die Ergebnisse der Konkordanz sowie das weitere Vorgehen im Hinblick auf die erkannten Lücken diskutiert. Das Ziel hierbei war, gemeinsame Lösungen zu finden und nötigenfalls Anträge zur Einrichtung neuer Felder in MARC 21 zu formulieren.
    Aufbau und Pflege von Kontakten zu internationalen Gremien und Experten Der Arbeitsschwerpunkt Aufbau und Pflege von Kontakten zu internationalen Gremien und Experten bezieht sich in erster Linie auf die Teilnahme an den Sitzungen des Machine Readable Bibliographic Information Committee (MARBI), zu dessen wichtigsten Aufgaben die Pflege und Weiterentwicklung des MARC-Formats und somit auch die Entscheidung über Änderungsanträge gehören. Kern von MARBI sind drei Ex-Officio-Vertreter der Library of Congress (LC), von Library and Archives Canada (LAC) und der British Library. Dazu kommen neun Mitglieder mit Stimmrecht aus verschiedenen Untergliederungen der ALA und von anderen großen Institutionen, Die Sitzungen von MARBI finden jeweils im Januar und Juni in Verbindung mit den Tagungen der American Library Association (ALA) statt und sind offen für interessierte Gäste und Zuhörer. Im Jahr 2006 nahmen Vertreter der Deutschen Nationalbibliothek und der Expertengruppe Datenformate an Sitzungen in San Antonio sowie New Orleans teil und nutzten dabei auch die Gelegenheit, im Rahmen von Arbeitstreffen mit MARC-21-Experten wichtige Details des geplanten Umstiegs intensiv und eingehend zu erörtern. Die Vorbereitungen für den Formatumstieg liegen im Wesentlichen im Zeitplan. Die Zusammenarbeit mit internationalen Gremien und Experten, insbesondere mit MARBI, wird im Jahr 2007 fortgeführt und intensiviert werden, weitere Workshops befinden sich bereits in der Planung. Im Herbst wird eine Arbeitsgruppe aus Vertretern der Verbünde eingesetzt, die den Umstieg auf der operativen Ebene konkret planen soll. Die Deutsche Nationalbibliothek als Träger des Projekts ist zuversichtlich, dass der Umstieg auf MARC 21 im Jahre 2007 als gut vorbereiteter, konzertierter und flächendeckender Schritt in allen Verbünden durchgeführt werden kann."
  13. Aus der Deutschen Forschungsgemeinschaft (2002) 0.06
    0.05836482 = product of:
      0.18239006 = sum of:
        0.019748773 = weight(_text_:und in 2134) [ClassicSimilarity], result of:
          0.019748773 = score(doc=2134,freq=28.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3206851 = fieldWeight in 2134, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2134)
        0.030628592 = weight(_text_:aus in 2134) [ClassicSimilarity], result of:
          0.030628592 = score(doc=2134,freq=12.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.32313055 = fieldWeight in 2134, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2134)
        0.011677387 = weight(_text_:dem in 2134) [ClassicSimilarity], result of:
          0.011677387 = score(doc=2134,freq=2.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.12748219 = fieldWeight in 2134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2134)
        0.02514663 = weight(_text_:der in 2134) [ClassicSimilarity], result of:
          0.02514663 = score(doc=2134,freq=44.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.405156 = fieldWeight in 2134, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2134)
        0.019748773 = weight(_text_:und in 2134) [ClassicSimilarity], result of:
          0.019748773 = score(doc=2134,freq=28.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3206851 = fieldWeight in 2134, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2134)
        0.02514663 = weight(_text_:der in 2134) [ClassicSimilarity], result of:
          0.02514663 = score(doc=2134,freq=44.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.405156 = fieldWeight in 2134, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2134)
        0.02514663 = weight(_text_:der in 2134) [ClassicSimilarity], result of:
          0.02514663 = score(doc=2134,freq=44.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.405156 = fieldWeight in 2134, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2134)
        0.02514663 = weight(_text_:der in 2134) [ClassicSimilarity], result of:
          0.02514663 = score(doc=2134,freq=44.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.405156 = fieldWeight in 2134, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2134)
      0.32 = coord(8/25)
    
    Abstract
    Der Bibliotheksausschuss hat sich eingehend mit dem Beschluss des Standardisierungsausschusses befasst, der sich in seiner Sitzung am 06.12.2001 mehrheitlich für einen grundsätzlichen Umstieg von RAK und MAB zu AACR und MARC ausgesprochen hatte. Der Standardisierungsausschuss hatte angeregt, vor einer endgültigen Entscheidung darüber in einer Studie die technischen, finanziellen und organisatorischen Rahmenbedingungen eruieren zu lassen. In der Diskussion wurden vom Bibliotheksausschuss vor allem folgende Punkte hervorgehoben: Kosten: Bei einem Umstieg würden für die Bibliotheken und Verbünde durch die notwendigen intensiven Schulungsmaßnahmen hohe Kosten entstehen. Auf der anderen Seite seien durch die dann mögliche Übernahme von Titelaufnahmen zu ausländischen Werken, die in wissenschaftlichen Bibliotheken einen Umfang von ca. 30%-60% ausmachen, Einsparungen zu erzielen. Dies gelte natürlich nicht für die öffentlichen Bibliotheken. Da sie aber weiterhin für die deutsche Literatur ihre Titelaufnahmen von Der Deutschen Bibliothek beziehen könnten, sei bei ihnen der Prozentsatz der selbst zu erstellenden Titelaufnahmen gering. Bibliothekssysteme könnten zukünftig günstiger erworben werden, da keine Modifizierungen mehr für die deutschen Verhältnisse erforderlich seien. Heterogenität: Die bisherigen Versuche, die Heterogenität der Regelwerke beizubehalten und durch Metastrukturen zu überwinden, seien gescheitert. Das für diese Zwecke eigens entwickelte UNIMARC habe sich nicht durchsetzen können. Konversion: Eine rein maschinelle Konvertierung sei grundsätzlich möglich, die Titelaufnahmen würden dann aber nur Basisinformationen beinhalten, Detailinformationen gingen verloren. Die Titelaufnahmen würden aber nicht mehr den hohen Anforderungen an Nachweisinstrumente gerecht. Oualität: Da AACR ein komplexeres Regelwerk als RAK sei, würde eine Vereinfachung bei der Erstellung von Titelaufnahmen durch den Umstieg nicht erzielt. Besonderheiten der deutschen Sprache könnten aber weiterhin berücksichtigt werden, da AACR im Gegensatz zu RAKden landes-und nicht den original-sprachigen Ansatz verfolge. Diese Möglichkeit werde von vielen nicht-englischsprachigen Ländern genutzt. Auch AACR sehe die Verwendung von Normdaten vor. Umstieg oder Eigenentwicklung: Das Problem sei, dass beide Regelwerke veraltet seien. Beide seien auf Zettelkataloge ausgerichtet und nicht auf Online-Kataloge. Im Grunde müsste ein neues, den modernen Anforderungen entsprechendes Regelwerk geschaffen werden. Es sei allerdings nicht zu erwarten, dass dies von Deutschland aus geleistet werden könne. Daher sei zu überlegen, auf AACR und MARC umzusteigen und in den zuständigen Gremien an einer gemeinsamen Neuentwicklung mitzuarbeiten. Die bisherige Zusammenarbeit mit OCLC habe gezeigt, dass eine Einflussnahme von deutscher Seite aus grundsätzlich möglich ist. Nutzerperspektive: Seitens der Wissenschaftler wurde die Notwendigkeit der internationalen Öffnung der deutschen Bibliotheken mit Nachdruck hervorgehoben, damit Ergebnisse deutscher Forschungen und Publikationen deutscher Wissenschaftler auch international wahrgenommen werden können. Dies werde durch die unterschiedlichen Regelwerke bisher behindert. Aus diesem Grunde wurde für einen raschen Umstieg plädiert. Es sei vorzuziehen, eventuell nach einem Umstieg ein neues Regelwerk zusammen mit den amerikanischen Bibliotheken zu entwickeln. Aus rein finanziellen Gründen sollte aus Sicht der Wissenschaftler der Umstieg nicht abgelehnt werden. Der Bibliotheksausschuss stellte als Ergebnis seinereingehenden Beratungfest,dass dringender Handlungsbedarf hinsichtlich der internationalen Öffnung bei der Formalkatalogisierung und der Austauschformate bestehe. Da in dieser Hinsicht der Umstieg auf AACR und MARC die einzige realistische Option darstelle, sollte vor einer endgültigen Entscheidung im Rahmen einer Studie, in die sowohl Befürworter als auch Gegner eines Umstiegs eingebunden werden sollen, die ökonomischen, technischen und organisatorischen Rahmenbedingungen geklärt werden.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 49(2002) H.4, S.236-240
  14. Porth, R.: Betrachtung des Formatumstiegs von MAB2 zu MARC 21 : Potentielle Mehrwerte bei der Internationalisierung eines bibliographischen Formats (2009) 0.06
    0.056998927 = product of:
      0.17812166 = sum of:
        0.01846944 = weight(_text_:und in 4036) [ClassicSimilarity], result of:
          0.01846944 = score(doc=4036,freq=12.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.29991096 = fieldWeight in 4036, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4036)
        0.030939551 = weight(_text_:aus in 4036) [ClassicSimilarity], result of:
          0.030939551 = score(doc=4036,freq=6.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.32641116 = fieldWeight in 4036, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4036)
        0.023591883 = weight(_text_:dem in 4036) [ClassicSimilarity], result of:
          0.023591883 = score(doc=4036,freq=4.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.25755292 = fieldWeight in 4036, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4036)
        0.021662839 = weight(_text_:der in 4036) [ClassicSimilarity], result of:
          0.021662839 = score(doc=4036,freq=16.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34902605 = fieldWeight in 4036, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4036)
        0.01846944 = weight(_text_:und in 4036) [ClassicSimilarity], result of:
          0.01846944 = score(doc=4036,freq=12.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.29991096 = fieldWeight in 4036, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4036)
        0.021662839 = weight(_text_:der in 4036) [ClassicSimilarity], result of:
          0.021662839 = score(doc=4036,freq=16.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34902605 = fieldWeight in 4036, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4036)
        0.021662839 = weight(_text_:der in 4036) [ClassicSimilarity], result of:
          0.021662839 = score(doc=4036,freq=16.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34902605 = fieldWeight in 4036, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4036)
        0.021662839 = weight(_text_:der in 4036) [ClassicSimilarity], result of:
          0.021662839 = score(doc=4036,freq=16.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34902605 = fieldWeight in 4036, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4036)
      0.32 = coord(8/25)
    
    Abstract
    Die wichtigsten Rahmenbedingungen des im Jahr 2004 beschlossenen Formatumstiegs von MAB2 zu MARC 21 stehen seit Anfang des Jahres 2008 fest und das Projekt befindet sich damit am Übergang von der Vorbereitungs- zur Umsetzungsphase. Das war der Anlass den Wechsel von MAB2 zu MARC 21 in dieser Arbeit aus zwei verschiedenen Blickwinkeln zu betrachten: Erstens wird aus "klassischer" bibliothekarischer Sicht die Rolle des Austauschformats, des Interformats und des Katalogisierungsformats beschrieben und betrachtet, unter welchen Voraussetzungen Auswirkungen des Formatwechsels zu MARC 21 zu erwarten sind. Weiter werden Auswirkungen der Unterschiede verschiedener Interpretationen von MARC 21 untersucht. Ergänzend werden anhand einer Befragung praktische Erfahrungen des IDS mit dem sehr eng an MARC 21 angelehnten Format KIDS präsentiert. Zweitens wird aus einer fachübergreifenden Sicht vor dem Hintergrund der zunehmenden Vernetzung von Metadaten untersucht, wie gut MARC 21 im XML Containerformat mit verschiedenen anderen aktuellen XML-basierten Metadaten-Formaten und Protokollen ßusammenpasst". In der abschließenden Diskussion erfolgt eine zusammenfassende Betrachtung des Formatumstiegs in der auch auf die Erweiterungen von MARC 21, besonders auf die Möglichkeit ID-basierter Verknüpfungen, und längerfristige Entwicklungen bibliothekarischer Formate eingegangen wird.
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  15. Hoffmann, L.: Bericht über die Konstituierende Sitzung des Beirats für das Projekt "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" am 3. Februar 2003 (2003) 0.06
    0.0565908 = product of:
      0.17684625 = sum of:
        0.020232257 = weight(_text_:und in 1789) [ClassicSimilarity], result of:
          0.020232257 = score(doc=1789,freq=90.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.32853597 = fieldWeight in 1789, product of:
              9.486833 = tf(freq=90.0), with freq of:
                90.0 = termFreq=90.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1789)
        0.015977114 = weight(_text_:aus in 1789) [ClassicSimilarity], result of:
          0.015977114 = score(doc=1789,freq=10.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.16855799 = fieldWeight in 1789, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.015625 = fieldNorm(doc=1789)
        0.009436754 = weight(_text_:dem in 1789) [ClassicSimilarity], result of:
          0.009436754 = score(doc=1789,freq=4.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.10302117 = fieldWeight in 1789, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.015625 = fieldNorm(doc=1789)
        0.02774197 = weight(_text_:der in 1789) [ClassicSimilarity], result of:
          0.02774197 = score(doc=1789,freq=164.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.44697145 = fieldWeight in 1789, product of:
              12.806249 = tf(freq=164.0), with freq of:
                164.0 = termFreq=164.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=1789)
        0.020232257 = weight(_text_:und in 1789) [ClassicSimilarity], result of:
          0.020232257 = score(doc=1789,freq=90.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.32853597 = fieldWeight in 1789, product of:
              9.486833 = tf(freq=90.0), with freq of:
                90.0 = termFreq=90.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1789)
        0.02774197 = weight(_text_:der in 1789) [ClassicSimilarity], result of:
          0.02774197 = score(doc=1789,freq=164.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.44697145 = fieldWeight in 1789, product of:
              12.806249 = tf(freq=164.0), with freq of:
                164.0 = termFreq=164.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=1789)
        0.02774197 = weight(_text_:der in 1789) [ClassicSimilarity], result of:
          0.02774197 = score(doc=1789,freq=164.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.44697145 = fieldWeight in 1789, product of:
              12.806249 = tf(freq=164.0), with freq of:
                164.0 = termFreq=164.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=1789)
        0.02774197 = weight(_text_:der in 1789) [ClassicSimilarity], result of:
          0.02774197 = score(doc=1789,freq=164.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.44697145 = fieldWeight in 1789, product of:
              12.806249 = tf(freq=164.0), with freq of:
                164.0 = termFreq=164.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=1789)
      0.32 = coord(8/25)
    
    Content
    "Bereits in der konstituierenden Sitzung des Standardisierungsausschusses am 17. November 2000 wurde die Frage nach der Übernahme international verbreiteter Regeln und Standards und den dazugehörigen Datenaustauschformaten gestellt, aber nicht eindeutig beantwortet. Der Standardisierungsausschuss beschloss die Weiterentwicklung der RAK unter Integration der Sonderregeln und besonderer Berücksichtigung der Verbesserung des internationalen Datentausches. Kurze Zeit später - im Jahre 2001 - haben die Deutsche Forschungsgemeinschaft (DFG) und der Beirat Der Deutschen Bibliothek die Überwindung der internationalen Isolierung der deutschen Bibliotheken im Hinblick auf die deutschen Standards gefordert. Auf einer Podiumsdiskussion unter dem Thema "Ist Deutschland reif für die internationale Zusammenarbeit" im Rahmen der 5. Verbundkonferenz des Gemeinsamen Bibliotheksverbundes (GBV) in Göttingen am 11. September 2001 sprachen sich maßgebliche Vertreter des deutschen Bibliothekswesens mehrheitlich für einen Wechsel auf internationale Standards aus. Auf seiner nächsten Sitzung am 6. Dezember 2001 befasste sich der Standardisierungsausschuss mit dieser Frage und beschloss mehrheitlich, einen Umstieg auf die Standards, die weltweit im Einsatz sind, anzustreben. Da ein solcher Schritt jedoch erhebliche strukturelle und finanzielle Konsequenzen nach sich ziehen würde, wurde Die Deutsche Bibliothek beauftragt, zunächst in einer Studie Rahmenbedingungen, Konsequenzen und Zeitablauf eines Wechsels zu untersuchen. Daraufhin hat die Arbeitsstelle für Standardisierung Der Deutschen Bibliothek mit Unterstützung einer Arbeitsgruppe des Standardisierungsausschusses einen Förderantrag an die Deutsche Forschungsgemeinschaft erarbeitet. Die DFG hat den Antrag im August 2002 genehmigt. Als Projektbearbeiterin konnte Luise Hoffmann vom Hochschulbibliothekszentrum Nordrhein-Westfalen (HBZ) gewonnen werden. Die Leitung des Projekts "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" liegt bei Der Deutschen Bibliothek, die das Projekt im Auftrag des Standardisierungsausschusses in enger Kooperation mit anderen bibliothekarischen Einrichtungen und den Verbundsystemen durchführt. Diese Einrichtungen sind im Standardisierungsausschuss vertreten. Das Projekt "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" ist auf 18 Monate angelegt, begann am 12. November 2002 und wird von einem Beirat begleitet. Dazu wurden die im DFG-Antrag für die Besetzung des Beirats genannten Institutionen angeschrieben und um die Benennung von Vertretern gebeten. Der Beirat ist wie folgt zusammengesetzt: Frau Dr. Sigrun Eckelmann (Deutsche Forschungsgemeinschaft) Herr Bernhard Eversberg (Universitätsbibliothek Braunschweig als Vertreter der Universitätsbibliotheken Herr Josef Friedl (Universität Wien als Vertreter der Österreichischen Bibliotheken) Herr Dr. Klaus Haller (Bayerische Staatsbibliothek München als Vertreter der Staatsbibliotheken) Herr Dr. Friedrich Geißelmann (Universitätsbibliothek Regensburg als Vorsitzender des Deutschen Bibliotheksverbandes) Frau Kornelie Hartmann (Hochschule Magdeburg-Stendhal als Vertreterin des außerbibliothekarischen Bereichs) Herr Heinz-Werner Hoffmann (Hochschulbibliothekszentrum Köln als Vertreter der Arbeitsgemeinschaft der Verbundsysteme) Herr Adrian Nolte (Stadtbibliothek Essen als Vertreter der Öffentlichen Bibliotheken) Frau Margret Schild (Theatermuseum Düsseldorf als Vertreterin der Spezialbibliotheken) Herr Werner Stephan (Universitätsbibliothek Stuttgart als Vertreter der Universitätsbibliotheken)
    Die konstituierende Sitzung des Beirats fand am 3. Februar 2003 in der Deutschen Bibliothek Frankfurt am Main statt. Zum Vorsitzenden wurde Herr Dr. Klaus Haller gewählt. Der Beirat betonte die bibliothekspolitische Dimension des Projekts, die u.a. darin gesehen wird, dass die deutschen Bibliotheken in die Lage versetzt werden, ihre Bestände in einem weltweiten "Verbund" nachweisen zu können. Auf der anderen Seite war unstrittig, dass auch die praktische Seite eines Umstiegs nicht vernachlässigt werden darf. Es bestand Einigkeit darin, dass die im Projekt erarbeitete Studie eine solide Grundlage für die politischen Entscheidungsträger bilden und der Ansatz der Studie ergebnisoffen sein soll. Die Studie soll auch Aussagen zur Bedeutung der Erschließung im Unterschied zum Internet und den Suchmaschinen treffen. Der von der Projektbearbeiterin entwickelte Projektplan wurde intensiv diskutiert. Im Einzelnen wurden folgende Arbeitspakete besprochen: - Vergleich der Regelwerke Beim Umstieg sollen vor allem die Konsequenzen im Bereich der Personennamen und ihrer individualisierenden Ansetzungen, der Sprachpräferenzen insbesondere bei den Gebietskörperschaften, der unterschiedlichen Transliterationen sowie der Split entries bei fortlaufenden Sammelwerken berücksichtigt werden. - Vergleich der Formate Neben den hierarchischen Strukturen des MAB-Formats sollen auch die Verknüpfungen zwischen Norm- und Titeldaten untersucht werden. Da die Normdatenhaltung in den lokalen Systemen nicht immer zufriedenstellend ist, soll als Alternative zu den komplexen Verknüpfungsstrukturen geprüft werden, ob moderne Suchmaschinen mit ihren Retrievalmöglichkeiten die Verknüpfungsstrukturen verzichtbar machen können. - Untersuchungen zur Vorgehensweise bei einer Migration Frau Hoffmann erläuterte die verschiedenen Migrationsmodelle. Bereits zu Beginn des Projekts war klar, dass das Ergebnis der Studie nicht unbedingt "Umstieg ja" oder "Umstieg nein" heißen muss, sondern auch Möglichkeiten eines "sanften Umstiegs" aufgezeigt werden sollen. Aus diesem Grund wurden verschiedene Migrationsszenarien entwickelt: Kompletter Umstieg - Katalogabbruch, neuer Katalog - Maschinelle Umsetzung des alten Katalogs von MAB2 nach MARC21 - Abgleich einer MAB-Datenbank mit der Datenbank der LoC und/oder OCLC und Ersetzen von identischen Titeln Teilweiser Umstieg - Nur Umstieg auf MARC21 und Beibehaltung von RAK Kein Umstieg - Verbleib bei RAK und MAB - Aktive Beteiligung an internationalen Entwicklungen und Projekten und späterer Umstieg Der Beirat diskutierte über die weiteren Arbeitspakete des Projektplans: Auswirkungen auf die laufende Katalogisierung - Untersuchung zur Entwicklung und Zukunft von AACR2 und MARC21 sowie anderen bibliothekarischen und bibliographischen Projekten - Kosten eines Umstiegs sowie eines Nicht-Umstiegs - Konsequenzen eines Umstiegs für andere Bibliotheksbereiche - Auswirkungen auf den Benutzer. Die Diskussion machte deutlich, dass der Benutzerbegriff vom Wissenschaftler, der ein Interesse daran hat, dass seine Publikationen weltweit zur Kenntnis genommen werden, bis zum Schüler einer Stadtbücherei reicht - Zeitliche Perspektiven in Abhängigkeit vom jeweiligen Umstiegsszenario Im Anschluss an die Besprechung der einzelnen Arbeitspakete wurden die bisherigen Aktivitäten vorgestellt: Zunächst wurden die im Projektantrag an die DFG genannten Aspekte, unter denen ein Umstieg beleuchtet werden soll, strukturiert und Schwerpunkte gesetzt, da die Begrenzung der Projektdauer auf 18 Monate eine detaillierte Untersuchung aller Einzelaspekte nicht zulässt, so wünschenswert sie auch wäre. Sodann wurde die sachliche und inhaltliche Struktur in einen zeitlichen Ablauf gebracht, damit die einzelnen Aufgabenpakete in einer sinnvollen Reihenfolge, teilweise auch parallel, abgearbeitet werden können. Um die gegenwärtige Situation in den Bibliotheken untersuchen zu können, wurden Bibliotheken, bibliothekarische Gremien und Expertengruppen frühzeitig in die Untersuchungen einbezogen.
    Ein umfangreicher Fragebogen wurde entwickelt, der unter anderem verlässliche Daten zu folgenden Fragestellungen ermitteln soll: - Welche Bibliothekssysteme sind im Einsatz? - Welche Bibliothekssysteme sind auf MARC konfigurierbar? - Wie groß ist der Datenbestand insgesamt? - Wie hoch ist der Fremddatenanteil? - Welche Fremddaten werden genutzt? - In welchen Formaten und Regelwerken liegen diese Fremddaten vor? Werden die genutzten Fremddaten unverändert übernommen? - Wenn sie geändert werden, geschieht dies maschinell oder manuell? - Werden Dublettenprüfungen eingesetzt? Dieser Fragebogen wurde als Online-Fragebogen konzipiert und über die Vorsitzenden der Sektionen des Deutschen Bibliotheksverbandes verschickt. Gleichzeitig wurden Fragestellungen für die Expertengruppen des Standardisierungsausschusses (Expertengruppen Formalerschließung, PND, GKD sowie MAB-Ausschuss) entwickelt. Spezielle Fragen, die die Besonderheiten der fortlaufenden Sammelwerke und Zeitschriften betreffen, wurden an die Zeitschriftendatenbank (ZDB) und die Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB (AGDBT) gestellt. Gleichzeitig wurden diese Fragen auch externen Experten vorgelegt. Zu diesen Untersuchungsgegenständen gehören unter anderem: Vergleich von RAK und AACR unter folgenden Aspekten: - Ansetzung von persönlichen Namen - Individualisierung von Personennamen - Ansetzung von Gebietskörperschaften und Kongressen - Split entries bei fortlaufenden Sammelwerken - Transliterationen Vergleich von MAB und MARC unter folgenden Aspekten - Darstellung der Mehrbändigkeit - Darstellung der Nichtsortierzeichen - Verwendung von Pflichtcodes und Pflichtfeldern Der Vergleich beschränkt sich schwerpunktmäßig auf diejenigen Aspekte, die mit großer Wahrscheinlichkeit bei einer Migration zu Konflikten führen werden. Die Ergebnisse des Vergleichs werden auf ihre Konsequenzen untersucht und zwar jeweils auf die verschiedenen Migrationsszenarien bezogen. Für die Errechnung der Kosten eines Umstiegs wird sich das Projekt eines externen Unternehmensberaters bedienen. Dabei geht es nicht nur um die Kosten einer Neuanschaffung bzw. der Umrüstung eines EDV-Systems. Die Kosten werden differenziert je nach Migrationsmodell errechnet. Darüber hinaus werden Folgekosten wie Anpassungen von Schnittstellen an das MARCFormat sowie die Fortbildung von Mitarbeitern kalkuliert. Es werden aber auch die Kosten errechnet, die bei einem "Nicht"-Umstieg entstehen. Dazu gehören die Kosten, die entstehen, wenn ein neues SoftwareSystem bei seiner Installierung auf MAB aufgerüstet werden muss. Hier werden Kalkulationen über entgangene Fremddatennutzung, entgangene Kooperationen, Kosten für Anpassungen von MARC-Daten an das MAB-Format u.dgl. aufgestellt. Dabei wird nicht nur der internationale Datentausch betrachtet, sondern auch der Datentausch zwischen MAB-Datenbanken. Für die Untersuchung betriebwirtschaftlicher Aspekte im Hinblick auf die Finanzierung eines Umstiegs oder der verschiedenen Umstiegsvarianten sowie des Verbleibs bei den bisherigen Systemen sind erste Kontakte mit Experten auf dem Gebiet der Kostenrechnung im Bibliothekswesen aufgenommen worden. Es haben außerdem Vorgespräche in Der Deutschen Bibliothek für den formalen Ablauf einer-Ausschreibung sowohl im Inland wie auch in den USA stattgefunden. Der Beirat regte an, den Projektplan stärker in Abhängigkeit von den Umstiegsszenarien zu systematisieren und hat eine stärkere Einbeziehung der Nutzersicht und der Konsequenzen eines Umstiegs für Fernleihe, Dokumentlieferung und OPAC empfohlen. Insbesondere die Anliegen der wissenschaftlichen Nutzer aus der Sicht der DFG und die Bedeutung des internationalen Informationsaustauschs sollen stärker akzentuiert werden. Abschließend wurden die nächsten Schritte von Frau Hoffmann skizziert:
    In den nächsten Wochen werden der Rücklauf der Fragebögen aus den Bibliotheken sowie die Ergebnisse der Untersuchungen aus den Expertengruppen erwartet. Für die Besprechung und Analyse der Ergebnisse der Expertengruppen werden jeweils eigene Sitzungen der Expertengruppen stattfinden. Gleichzeitig wird für das Ausschreibungsverfahren zur Wirtschaftlichkeitsberechnung ein Leistungsverzeichnis entworfen. Die Ergebnisse der Befragungen einschließlich der vom Projekt vorgenommen Auswertung werden Gegenstand der nächsten Beiratssitzung am 7. Juli 2003 sein. Der Beirat begrüßt eine intensive Öffentlichkeitsarbeit während der Laufzeit des Projekts. Über das Projekt und seine Fortschritte wird regelmäßig in der Fachöffentlichkeit berichtet. Aktuelle Informationen werden auf der Homepage Der Deutschen Bibliothek und über Mailinglisten veröffentlicht. Darüber hinaus wird über das Projekt auch in Vorträgen auf Veranstaltungen informiert.
  16. Klien, P.; Labner, J.: Originalschriftliche Eingabe nichtlateinischer Zeichen im österreichischen Bibliothekenverbund (2004) 0.06
    0.056562442 = product of:
      0.17675763 = sum of:
        0.022570027 = weight(_text_:und in 2197) [ClassicSimilarity], result of:
          0.022570027 = score(doc=2197,freq=28.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.36649725 = fieldWeight in 2197, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2197)
        0.014290365 = weight(_text_:aus in 2197) [ClassicSimilarity], result of:
          0.014290365 = score(doc=2197,freq=2.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.15076284 = fieldWeight in 2197, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=2197)
        0.013345584 = weight(_text_:dem in 2197) [ClassicSimilarity], result of:
          0.013345584 = score(doc=2197,freq=2.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.14569393 = fieldWeight in 2197, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.03125 = fieldNorm(doc=2197)
        0.02599541 = weight(_text_:der in 2197) [ClassicSimilarity], result of:
          0.02599541 = score(doc=2197,freq=36.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4188313 = fieldWeight in 2197, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2197)
        0.022570027 = weight(_text_:und in 2197) [ClassicSimilarity], result of:
          0.022570027 = score(doc=2197,freq=28.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.36649725 = fieldWeight in 2197, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2197)
        0.02599541 = weight(_text_:der in 2197) [ClassicSimilarity], result of:
          0.02599541 = score(doc=2197,freq=36.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4188313 = fieldWeight in 2197, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2197)
        0.02599541 = weight(_text_:der in 2197) [ClassicSimilarity], result of:
          0.02599541 = score(doc=2197,freq=36.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4188313 = fieldWeight in 2197, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2197)
        0.02599541 = weight(_text_:der in 2197) [ClassicSimilarity], result of:
          0.02599541 = score(doc=2197,freq=36.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4188313 = fieldWeight in 2197, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2197)
      0.32 = coord(8/25)
    
    Abstract
    Das Phänomen der Globalisierung betrifft zunehmend auch die bibliothekarische WeIt. Parallel zu den derzeit geführten Diskussionen über die Anpassung von internationalen Regelwerken und Austauschformaten wächst auch der Wunsch, fremdsprachige Katalogisate zumindest teilweise in Originalschrift eingeben zu können. Dieses Bestreben wird noch dadurch gefördert, dass in zunehmenden Maße die Voraussetzungen auf technischer Ebene gewährleistet werden. Zum einen sind nun die Windows-Betriebssysteme NT / 2000 / XP "unicodefähig", zum anderen unterstützt auch die neue Generation der integrierten Bibliothekssysteme immer öfter den Unicode-Standard, der für alle Schriftzeichen weltweit eine eindeutige Codierung vorsieht. Diese wachsende Akzeptanz des Unicode-Standards und die Verfügbarkeit unterstützender Programme zählen übrigens zu den bedeutendsten weltweiten Trends in der gegenwärtigen Softwaretechnologie. Auch im MAB-Ausschuss (MAB ist das Maschinelle Austauschformat für Bibliotheken) wurde diesen Entwicklungen Rechnung getragen und ein neues MAB-Feld zur Darstellung von Originalschrift und Umschrift bei der Verwendung von Unicode / ISO 10646 geschaffen. Ersten diesbezüglichen Überlegungen im November 2001 folgte ein Entwurf für ein neues MABFeld 671 der erst unlängst (Februar 2004) freigegeben wurde. Die aktualisierte MAB2 Online-Kurzreferenz-Version kann unter ftp://ftp.ddb.de~ pubtmab/erw-mab txt eingesehen werden. Für den Österreichischen Bibliothekenverbund bedeutete der Releasewechsel auf die ALEPH 500 Version 14.2 (Sommer 2001) die Möglichkeit, Unicode im vollen Umfang nutzen zu können. Vor allem die Fachbereichsbibliothek für Ostasienwissenschaften an der Universität Wien zeigte in der Folge nachdrückliches Interesse daran, japanische und koreanische Originalschriften in den Verbundkatalog einbringen zu können. Die aus diesem Anlass vorgenommene und im folgenden beschriebene Implementierung nutzen mittlerweile auch die Fachbereichsbibiiothek für Byzantinistik und Neogräzistik an der Universität Wien (Griechisch) sowie demnächst die Bibliothek des jüdischen Museums Wien (Hebräisch).
    - Zielsetzung - Bevor mit der Ausarbeitung einer Lösung für originalschriftliche Eingaben im Österreichischen Bibliothekenverbund begonnen werden konnte, waren bestimmte Rahmenbedingungen festzulegen. Hohe Priorität sollte einer ökonomischen Katalogisierung eingeräumt werden (effiziente Arbeitsabläufe, einfache und übersichtliche Kategorienstrukturen, unterstützende Satzschablonen). Auch von systembibliothekarischer und systemadministrativer Seite her sollte der Aufwand möglichst gering gehalten werden (z.B. Anpassungsumfang bei der Parametrisierung, Anzahl der zu ändernden Tabellen). Weiters wurden Aleph 500-Anwender, die außerhalb des Österreichischen Bibliothekenverbundes das MAB-Format verwenden, in die Diskussion miteingebunden, um eine möglichst einheitliche Lösung zu finden (Import- und Exportschnittstellen müssten dann von der Herstellerfirma Ex Libris nur einmal adaptiert werden). Außerdem wurde vorerst festgelegt, dass die neu hinzukommenden originalschriftlichen Texte lediglich für die Anzeige dienen sollten. Indexierung und Retrieval sind hingegen hier nicht vorgesehen. Basis für die zu implementierende Lösung war nahe liegender Weise der vorliegende MAB-Entwurf (schließlich ist das im Österreichischen Bibliothekenverbund verwendete Internformat bis auf einige kleinere Adaptionen und eine durchgängige Subfieldstruktur nahezu ident mit dem MABFormat). Dennoch sahen wir keine Notwendigkeit, uns um jeden Preis an diesen Entwurf halten zu müssen, falls er sich als unnötig kompliziert und ineffizient erweisen sollte.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 57(2004) H.1, S.48-58
  17. Oehlschläger, S.: Aus der 48. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 12. und 13. November 2004 in Göttingen (2005) 0.06
    0.056085203 = product of:
      0.17526627 = sum of:
        0.017683141 = weight(_text_:und in 3556) [ClassicSimilarity], result of:
          0.017683141 = score(doc=3556,freq=44.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.28714287 = fieldWeight in 3556, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
        0.017862957 = weight(_text_:aus in 3556) [ClassicSimilarity], result of:
          0.017862957 = score(doc=3556,freq=8.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.18845356 = fieldWeight in 3556, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
        0.026376529 = weight(_text_:dem in 3556) [ClassicSimilarity], result of:
          0.026376529 = score(doc=3556,freq=20.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.28795293 = fieldWeight in 3556, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
        0.023915125 = weight(_text_:der in 3556) [ClassicSimilarity], result of:
          0.023915125 = score(doc=3556,freq=78.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3853143 = fieldWeight in 3556, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
        0.017683141 = weight(_text_:und in 3556) [ClassicSimilarity], result of:
          0.017683141 = score(doc=3556,freq=44.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.28714287 = fieldWeight in 3556, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
        0.023915125 = weight(_text_:der in 3556) [ClassicSimilarity], result of:
          0.023915125 = score(doc=3556,freq=78.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3853143 = fieldWeight in 3556, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
        0.023915125 = weight(_text_:der in 3556) [ClassicSimilarity], result of:
          0.023915125 = score(doc=3556,freq=78.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3853143 = fieldWeight in 3556, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
        0.023915125 = weight(_text_:der in 3556) [ClassicSimilarity], result of:
          0.023915125 = score(doc=3556,freq=78.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3853143 = fieldWeight in 3556, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
      0.32 = coord(8/25)
    
    Content
    Enthält u.a. folgende Aussagen aus einzelnen Bibliotheken oder Verbünden: MARC21 als Austauschformat Die Expertengruppe Datenformate des Standardisierungsausschusses hat am 11. April 2005 getagt, dabei wurden die Arbeitspakete aus einem von der Arbeitsstelle für Standardisierung Der Deutschen Bibliothek vorgelegten Projektund Zeitplan in überschaubare Einheiten aufgegliedert. Ziel ist es, das bestehende MARC21 weitgehend zu übernehmen. Sollten nationale Abweichungen von MARC21 dennoch notwendig sein, so müssen diese einheitlich für alle Verbünde gelten. Bibliotheksservicezentrum Baden-Württemberg (BSZ) SWBPIus "Catalogue enrichment", die Anreicherung von Katalogdaten durch ergänzende Materialien, wie z. B. Rezensionen und Inhaltsverzeichnisse, wird als eine der wichtigsten Möglichkeiten diskutiert, die Nutzung von OPACs zu erleichtern und zu verbessern. Ganz im Trend liegt daher die Anwendung SWBplus, in der das BSZ weiterführende Texte zu Titeln in Verbund- und lokalen OPACs auflegt. Nach ca. 2.500 Dokumenten im Jahr 2003 ist der Bestand mittlerweile bei 12.300 angelangt. Mit 6.900 haben dabei die Inhaltsverzeichnisse die Rezensionen anteilsmäßig überholt. Erreicht wurde dies durch die Mitarbeit der Universitätsbibliotheken Konstanz und Heidelberg, die Inhaltsverzeichnisse scannen und an das BSZ liefern. In diese Kooperation werden nun auch die Universitätsbibliothek Mannheim, die Bibliotheken der PH Ludwigsburg und PH Freiburg sowie die Bibliothek des Bundesgerichtshofs in Karlsruhe eintreten. Vorbereitet wird zudem die Zusammenarbeit mit dem Bibliotheksverbund Bayern, so dass Inhaltsverzeichnisse auch aus Bayern in die Datenbank eingebracht und gemeinsam genutzt werden können. Fehlertolerante Suche in OPACs Gemeinsam mit der Bibliothek der Fachhochschule Konstanz und der Firma exorbyte führt das BSZ derzeit einen Test durch, in dem OPAC-Nutzer bei Unsicherheiten hinsichtlich der Schreibweise von Suchbegriffen unterstützt werden. Dazu wurde dem Horizon-WebPac der FH Konstanz die RechercheSoftware Matchmaker vorgeschaltet, die dem Nutzer neben exakten auch näherungsweise Treffer sowie Alternativen zu den Suchbegriffen anbietet. Sucht man dort nun z. B. nach "Pronnstein", so findet man dennoch unter den ersten Treffern die bekannte mathematische Formelsammlung von Ilja Bronstejn. In einer Befragung, die den Test begleitet, fanden ca. 70% der Nutzer den Einsatz dieser Technologie hilfreich und gaben an, auch die Alternativvorschläge zu nutzen. Weitere Informationen stehen unter der Adresse http://cms.bsz-bw.de/cms/entwicki/ftolsuche/ zur Verfügung. Interessenten an einem Einsatz der Software melden sich bitte beim BSZ, das die Einführung koordiniert.
    Die Deutsche Bibliothek Retrieval von Content In dem Projekt wird angestrebt, Verfahren zu entwickeln und einzuführen, die automatisch und ohne intellektuelle Bearbeitung für das Content-Retrieval ausreichend Sucheinstiege bieten. Dabei kann es sich um die Suche nach Inhalten von Volltexten, digitalen Abbildern, Audiofiles, Videofiles etc. von in Der Deutschen Bibliothek archivierten digitalen Ressourcen oder digitalen Surrogaten archivierter analoger Ressourcen (z. B. OCR-Ergebnisse) handeln. Inhalte, die in elektronischer Form vorhanden sind, aber dem InternetBenutzer Der Deutschen Bibliothek bisher nicht oder nur eingeschränkt zur Verfügung stehen, sollen in möglichst großem Umfang und mit möglichst großem Komfort nutzbar gemacht werden. Darüber hinaus sollen Inhalte benutzt werden, die für ein in ILTIS katalogisiertes Objekt beschreibenden Charakter haben, um auf das beschriebene Objekt zu verweisen. Die höchste Priorität liegt dabei auf der Erschließung von Inhalten in Textformaten. In einem ersten Schritt wurde der Volltext aller Zeitschriften, die im Projekt "Exilpresse digital" digitalisiert wurden, für eine erweiterte Suche genutzt. In einem nächsten Schritt soll die PSI-Software für die Volltextindexierung von Abstracts evaluiert werden. MILOS Mit dem Einsatz von MILOS eröffnet sich die Möglichkeit, nicht oder wenig sachlich erschlossene Bestände automatisch mit ergänzenden Inhaltserschließungsinformationen zu versehen, der Schwerpunkt liegt dabei auf der Freitext-Indexierung. Das bereits in einigen Bibliotheken eingesetzte System, das inzwischen von Der Deutschen Bibliothek für Deutschland lizenziert wurde, wurde in eine UNIX-Version überführt und angepasst. Inzwischen wurde nahezu der gesamte Bestand rückwirkend behandelt, die Daten werden im Gesamt-OPAC für die Recherche zur Verfügung stehen. Die in einer XMLStruktur abgelegten Indexeinträge werden dabei vollständig indexiert und zugänglich gemacht. Ein weiterer Entwicklungsschritt wird in dem Einsatz von MILOS im Online-Verfahren liegen.
    Hessisches BibliotheksinformationsSystem (HEBIS) Personennamendatei (PND) Vor dem Hintergrund der Harmonisierungsbestrebungen bei den Normdateien hat der HeBIS-Verbundrat nach erneuter Diskussion mehrheitlich entschieden, künftig neben SWD und GKD auch die PND als in HeBIS integrierte Normdatei obligatorisch zu nutzen. Im Zuge der wachsenden Vernetzung der regionalen Verbundsysteme kommt der Homogenität der Datensätze eine zunehmend wichtigere Bedeutung zu. Konkret wird dies speziell für HeBIS mit dem Produktionsbeginn des HeBIS-Portals und der integrierten verbundübergreifenden Fernleihe. Nur wenn die Verfasserrecherche in den einzelnen Verbunddatenbanken auf weitgehend einheitliche Datensätze einschließlich Verweisungsformen trifft, kann der Benutzer gute Trefferergebnisse erwarten und damit seine Chancen erhöhen, die gewünschte Literatur über Fernleihe bestellen zu können. Das Gesamtkonzept ist ausgelegt auf eine pragmatische und aufwandsreduzierte Vorgehensweise. Mit der Umsetzung wurde begonnen. Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (HBZ) FAST-Suchmaschine Das HBZ hat die Suchmaschinentechnologie des norwegischen Herstellers FAST lizenziert. Ziel ist es, die Produkte des HBZ mit Hilfe innovativer Suchmaschinentechnologien in einer neuen Ausrichtung zu präsentieren. Die Präsentation soll einen schnellen Recherche-Zugang zu den NRWVerbunddaten mittels FAST-Suchmaschinentechnologie mit folgenden Eigenschaften beinhalten: - Eine Web-Oberfläche, um für Laien eine schnelle Literatursuche anbieten zu können. - Eine Web-Oberfläche, um für Expertinnen und Experten eine schnelle Literatur-Suche anbieten zu können. - Präsentation von Zusatzfunktionen, die in gängigen Bibliothekskatalogen so nicht vorhanden sind. - Schaffung einer Zugriffsmöglichkeit für den KVK auf die Verbunddaten mit sehr kurzen Antwortzeiten Digitale Bibliothek Die Mehrzahl der Bibliotheken ist inzwischen auf Release 5 umgezogen. Einige befinden sich noch im Bearbeitungsstatus. Von den letzten drei Bibliotheken liegen inzwischen die Umzugsanträge vor. Durch die Umstrukturierung der RLB Koblenz zum LBZ Rheinland-Pfalz werden die Einzelsichten der RLB Koblenz, PLB Speyer und der Bipontina in Zweibrücken mit den Büchereistellen Koblenz und Neustadt zu einer Sicht verschmolzen.
  18. Mensing, P.: Planung und Durchführung von Digitalisierungsprojekten am Beispiel nicht-textueller Materialien (2010) 0.06
    0.05554401 = product of:
      0.17357504 = sum of:
        0.019748773 = weight(_text_:und in 3577) [ClassicSimilarity], result of:
          0.019748773 = score(doc=3577,freq=28.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3206851 = fieldWeight in 3577, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3577)
        0.021657687 = weight(_text_:aus in 3577) [ClassicSimilarity], result of:
          0.021657687 = score(doc=3577,freq=6.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.22848782 = fieldWeight in 3577, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3577)
        0.01651432 = weight(_text_:dem in 3577) [ClassicSimilarity], result of:
          0.01651432 = score(doc=3577,freq=4.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.18028705 = fieldWeight in 3577, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3577)
        0.02397637 = weight(_text_:der in 3577) [ClassicSimilarity], result of:
          0.02397637 = score(doc=3577,freq=40.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.38630107 = fieldWeight in 3577, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3577)
        0.019748773 = weight(_text_:und in 3577) [ClassicSimilarity], result of:
          0.019748773 = score(doc=3577,freq=28.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3206851 = fieldWeight in 3577, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3577)
        0.02397637 = weight(_text_:der in 3577) [ClassicSimilarity], result of:
          0.02397637 = score(doc=3577,freq=40.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.38630107 = fieldWeight in 3577, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3577)
        0.02397637 = weight(_text_:der in 3577) [ClassicSimilarity], result of:
          0.02397637 = score(doc=3577,freq=40.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.38630107 = fieldWeight in 3577, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3577)
        0.02397637 = weight(_text_:der in 3577) [ClassicSimilarity], result of:
          0.02397637 = score(doc=3577,freq=40.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.38630107 = fieldWeight in 3577, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3577)
      0.32 = coord(8/25)
    
    Abstract
    Im Jahr 2007 hat die GWLB gemeinsam mit der HAAB, der Universitätsbibliothek Johann Christian Senckenberg und mehreren Stiftungen die Königliche Gartenbibliothek Herrenhausen erworben. Neben den textuellen Materialien enthält die Bibliothek auch viele nicht-textuelle Materialien wie Herbarien, Zeichnungen und auch Gouachen mit Abbildungen von Obstsorten aus der ehemaligen Obstbaumplantage. Diese Gouachen in Mappen liegend bei der GWLB aufbewahrt. Die einzelnen Blätter tragen keine Titel, sondern sind am unteren Rand mit Bleistift durchnummeriert. Ohne die beigefügte ebenfalls durchnummerierte Liste mit Sortennamen ist keine eindeutige Zuordnung und die Nutzung somit nur eingeschränkt möglich. Die Überlegung zu einer digitalen Präsentation liegt daher nahe, denn "der ungehinderte Zugang zu elektronischen wissenschaftlich relevanten Publikationen von jedem Ort aus und zu jeder Zeit spielt in der digitalen Informationsgesellschaft eine immer bedeutendere Rolle." Oder um es drastischer zu formulieren: "Was nicht im Web ist, ist nicht in der Welt". Bevor jedoch mit der Digitalisierung begonnen werden kann, müssen einige Fragen vorab geklärt werden. Im Folgenden werden Kriterien, die bei der Planung und Durchführung von Digitalisierungsprojekten zu beachten sind, behandelt.
    Content
    Darin auch: "2.7 Erschließung der Digitalisate Die formale Erschließung von gedruckten Beständen wird in Deutschland nach RAK-WB bzw. RAK-OB durchgeführt. Im Gegensatz zu Druckwerken, die meist alle wichtigen Informationen selbst enthalten (Impressum), sind in oder an Kunstwerken und Bildern meist keine Angaben wie Autor, Künstler oder Entstehungsjahr zu finden. Für die Formalerfassung von Nichtbuchmaterialien sind in Deutschland die "Regeln für die alphabetische Katalogisierung von Nichtbuchmaterialien" anzuwenden (RAK-NBM), eine Erweiterung der o.g. RAK. Zur Erschließung von Kunstwerken wurde seit den 70er Jahren des 20. Jhds. die Marburger-Index-Datenbank (MIDAS) entwickelt, die auf dem AKL, ICONCLASS und auch RAK aufbaut. MIDAS findet hauptsächlich in Museen Anwendung, konnte sich aber aufgrund der nicht verbindlichen Nutzung nicht durchsetzen. Ebenfalls aus dem Museumsbereich stammt CIDOC CRM, das seit 2006 ISO-zertifiziert ist (ISO 21127:2006) und der Datenfeldkatalog zur Grundinventarisation. Um die inhaltliche Erschließung von Bibliotheksbeständen einheitlich gestalten zu können, wurde die Schlagwortnormdatei entwickelt. Diese Datei ist universell ausgerichtet und ist daher für Spezialgebiete nicht tief genug ausgearbeitet. Im kunsthistorischen Bereich sind daher außerdem u.a. der AA und der AGM von Bedeutung. Als Klassifizierungssystem steht ICONCLASS zur Verfügung. Bei der inhaltlichen Erschließung ist darauf zu achten, dass irrelevante Informationen nicht zur unnötigen Vergrößerung des Kataloges führen. Um durchgängig eine größtmögliche Nutzerorientierung bieten zu können, sollten die gewünschten Prioritäten der Erschließung in einer Richtlinie festgehalten werden. Zur Interpretation von Bildern wurde von Panofsky ein 3-Stufen-Modell entwickelt, dass sich in prä- oder vor-ikonografische, ikonografische Beschreibung und ikonologische Interpretation unterteilen lässt. In der ersten Stufe werden nur die dargestellten Dinge oder Personen skizziert, ohne ihre Bedeutung zueinander zu interpretieren. Dies erfolgt erst in der zweiten Stufe. Hier wird das Ahema des Kunstwerkes allerdings ohne weitere Deutung benannt. In der dritten Stufe wird schließlich geklärt, warum dieses Werk so geschaffen wurde und nicht anders.
    2.8 Metadaten und Austauschformate . . .
  19. Boiger, W.: Entwicklung und Implementierung eines MARC21-MARCXML-Konverters in der Programmiersprache Perl (2015) 0.05
    0.053145517 = product of:
      0.18980542 = sum of:
        0.019949274 = weight(_text_:und in 2466) [ClassicSimilarity], result of:
          0.019949274 = score(doc=2466,freq=14.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.32394084 = fieldWeight in 2466, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2466)
        0.023591883 = weight(_text_:dem in 2466) [ClassicSimilarity], result of:
          0.023591883 = score(doc=2466,freq=4.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.25755292 = fieldWeight in 2466, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2466)
        0.031578742 = weight(_text_:der in 2466) [ClassicSimilarity], result of:
          0.031578742 = score(doc=2466,freq=34.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.5087885 = fieldWeight in 2466, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2466)
        0.019949274 = weight(_text_:und in 2466) [ClassicSimilarity], result of:
          0.019949274 = score(doc=2466,freq=14.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.32394084 = fieldWeight in 2466, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2466)
        0.031578742 = weight(_text_:der in 2466) [ClassicSimilarity], result of:
          0.031578742 = score(doc=2466,freq=34.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.5087885 = fieldWeight in 2466, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2466)
        0.031578742 = weight(_text_:der in 2466) [ClassicSimilarity], result of:
          0.031578742 = score(doc=2466,freq=34.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.5087885 = fieldWeight in 2466, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2466)
        0.031578742 = weight(_text_:der in 2466) [ClassicSimilarity], result of:
          0.031578742 = score(doc=2466,freq=34.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.5087885 = fieldWeight in 2466, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2466)
      0.28 = coord(7/25)
    
    Abstract
    Aktuell befinden sich im Datenbestand des gemeinsamen Katalogs des Bibliotheksverbundes Bayern und des Kooperativen Bibliotheksverbundes Berlin-Brandenburg (B3Kat) etwa 25,6 Millionen Titeldatensätze. Die Bayerische Verbundzentrale veröffentlicht diese Daten seit 2011 im Zuge der bayerischen Open-Data-Initiative auf ihrer Webpräsenz. Zu den Nachnutzern dieser Daten gehören die Deutsche Digitale Bibliothek und das Projekt Culturegraph der DNB. Die Daten werden im weitverbreiteten Katalogdatenformat MARCXML publiziert. Zur Erzeugung der XML-Dateien verwendete die Verbundzentrale bis 2014 die Windows-Software MarcEdit. Anfang 2015 entwickelte der Verfasser im Rahmen der bayerischen Referendarsausbildung einen einfachen MARC-21-MARCXML-Konverter in Perl, der die Konvertierung wesentlich erleichert und den Einsatz von MarcEdit in der Verbundzentrale überflüssig macht. In der vorliegenden Arbeit, die zusammen mit dem Konverter verfasst wurde, wird zunächst die Notwendigkeit einer Perl-Implementierung motiviert. Im Anschluss werden die bibliographischen Datenformate MARC 21 und MARCXML beleuchtet und für die Konvertierung wesentliche Eigenschaften erläutert. Zum Schluss wird der Aufbau des Konverters im Detail beschrieben. Die Perl-Implementierung selbst ist Teil der Arbeit. Verwendung, Verbreitung und Veränderung der Software sind unter den Bedingungen der GNU Affero General Public License gestattet, entweder gemäß Version 3 der Lizenz oder (nach Ihrer Option) jeder späteren Version.[Sie finden die Datei mit der Perl-Implementierung in der rechten Spalte in der Kategorie Artikelwerkzeuge unter dem Punkt Zusatzdateien.]
  20. Wolters, C.: Wie muß man seine Daten formulieren bzw. strukturieren, damit ein Computer etwas Vernünftiges damit anfangen kann? : Mit einem Glossar von Carlos Saro (1991) 0.05
    0.05299227 = product of:
      0.16560085 = sum of:
        0.019075155 = weight(_text_:und in 4013) [ClassicSimilarity], result of:
          0.019075155 = score(doc=4013,freq=20.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3097467 = fieldWeight in 4013, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4013)
        0.02020963 = weight(_text_:aus in 4013) [ClassicSimilarity], result of:
          0.02020963 = score(doc=4013,freq=4.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.21321087 = fieldWeight in 4013, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=4013)
        0.018873507 = weight(_text_:dem in 4013) [ClassicSimilarity], result of:
          0.018873507 = score(doc=4013,freq=4.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.20604233 = fieldWeight in 4013, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.03125 = fieldNorm(doc=4013)
        0.022091849 = weight(_text_:der in 4013) [ClassicSimilarity], result of:
          0.022091849 = score(doc=4013,freq=26.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.35593814 = fieldWeight in 4013, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4013)
        0.019075155 = weight(_text_:und in 4013) [ClassicSimilarity], result of:
          0.019075155 = score(doc=4013,freq=20.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3097467 = fieldWeight in 4013, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4013)
        0.022091849 = weight(_text_:der in 4013) [ClassicSimilarity], result of:
          0.022091849 = score(doc=4013,freq=26.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.35593814 = fieldWeight in 4013, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4013)
        0.022091849 = weight(_text_:der in 4013) [ClassicSimilarity], result of:
          0.022091849 = score(doc=4013,freq=26.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.35593814 = fieldWeight in 4013, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4013)
        0.022091849 = weight(_text_:der in 4013) [ClassicSimilarity], result of:
          0.022091849 = score(doc=4013,freq=26.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.35593814 = fieldWeight in 4013, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4013)
      0.32 = coord(8/25)
    
    Abstract
    Die Dokumentationsabteilung im Institut für Museumskunde der Staatlichen Museen Preußischer Kulturbesitz (IfM) hat die Aufgabe, bundesweit Museen und museale Einrichtungen bei der Einführung der Informationstechnik mit Rat und Tat zu unterstützen. Hierbei arbeitet sie mit dem Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB) zusammen. Diese Aktivitäten liegen im Bereich einer professionell durchgeführten Rationalisierung; Computerisierung ist nicht Selbstzweck, sondern eine Möglichkeit, ohnehin durchzuführende Arbeiten in puncto Zeit und Kosten effizienter zu gestalten bzw. Dinge durchzuführen, für die man beim Einsatz konventioneller Methoden weder die Zeit noch das Geld hätte. Mit der Vermittlung der hierfür notwendigen Kenntnisse und Fertigkeiten ist ein kleines Institut wie das IfM wegen des rapide ansteigenden Beratungsbedarfs der Museen heute noch weit überfordert. Wir konzentrieren daher unsere Aktivitäten auf eine Zusammenarbeit mit den für die Museumsbetreuung zuständigen Einrichtungen in den Bundesländern. Wir haben die Hoffnung, daß mehr und mehr Bundesländer für diese Aufgabe eigene Dienstleistungsangebote entwickeln werden. Bevor das erreicht ist, versucht das HM interessierten Museen zumindest eine "Hilfe zur Selbsthilfe" anzubieten; auch wenn dieses oder jenes Bundesland noch nicht in der Lage ist, seine Museen auf diesem Gebiet professionell zu beraten, soll es einzelnen Museen zumindest erleichtert werden, sich hier selber schlau zu machen. Zum Inhalt: Zur Zeit der Großrechner waren sich noch alle Beteiligten darüber einig, daß man für den Einsatz der Informationstechnik professioneller Hilfe bedarf. Man war bereit, sich den Anforderungen der Maschine anzupassen, man versuchte, sich "computergerecht" zu verhalten. Die Einführung leicht zu bedienender und leistungsstarker Computer im Bürobereich hat diese Arbeitsbedingungen aber grundlegend verändert. Auch Leute, die von Computer noch nichts verstehen, können heute in wenigen Tagen lernen, mit Programmen für "Textverarbeitung" ganz selbstverständlich umzugehen. Sie erwarten daher, daß das bei einem Einsatz des Computers für die Inventarisierung genauso problemlos sei. Von einer solchen Benutzerfreundlichkeit der Programme sind wir im deutschen Museumswesen aber noch weit entfernt. Das hat einen einfachen Grund: In die eben erwähnten einfach zu handhabenden Programme wurde inzwischen hunderte oder gar tausende von "Mannjahren" investiert; ein erheblicher Teil dieser Mittel diente dazu, den Computer den spezifischen Bedürfnissen bestimmter Arbeitsplätze anzupassen, bzw. die daran arbeitenden Mitarbeiter auszubilden. Bis das auch für das Museum gilt, wird wohl noch einige Zeit vergehen; dieser Markt ist zu klein, als daß sich solche Investitionen auf rein kommerzieller Basis kurzfristig auszahlen könnten. Das Institut für Museumskunde versucht hier Hilfestellung zu geben. Das vorliegende Heft 33 der "Materialien" ist aus Beratungen und Kursen hervorgegangen. Es versucht, die für die Einführung der Informationstechnik im Museum unabdingbaren grundlegenden Computerkenntnisse für Museumsleute in Form eines Lern- und Lesebuchs zu vermitteln. Es schließt damit an Heft 30 (Jane Sunderland und Leonore Sarasan, Was muß man alles tun, um den Computer im Museum erfolgreich einzusetzen?) direkt an und soll zusammen mit ihm benutzt werden.
    Series
    Materialien aus dem Institut für Museumskunde; H.33

Types

  • a 93
  • m 7
  • x 6
  • el 4
  • s 3
  • l 2
  • n 1
  • r 1
  • More… Less…