Search (341 results, page 1 of 18)

  • × theme_ss:"Datenformate"
  1. Aalberg, T.; Haugen, F.B.; Husby, O.: ¬A Tool for Converting from MARC to FRBR (2006) 0.04
    0.038169704 = product of:
      0.1679467 = sum of:
        0.066604465 = weight(_text_:lecture in 2425) [ClassicSimilarity], result of:
          0.066604465 = score(doc=2425,freq=2.0), product of:
            0.13308205 = queryWeight, product of:
              6.4711404 = idf(docFreq=185, maxDocs=44218)
              0.02056547 = queryNorm
            0.5004767 = fieldWeight in 2425, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.4711404 = idf(docFreq=185, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2425)
        0.045397673 = weight(_text_:notes in 2425) [ClassicSimilarity], result of:
          0.045397673 = score(doc=2425,freq=2.0), product of:
            0.10987139 = queryWeight, product of:
              5.3425174 = idf(docFreq=574, maxDocs=44218)
              0.02056547 = queryNorm
            0.41318923 = fieldWeight in 2425, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3425174 = idf(docFreq=574, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2425)
        0.004161952 = weight(_text_:in in 2425) [ClassicSimilarity], result of:
          0.004161952 = score(doc=2425,freq=4.0), product of:
            0.027974274 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02056547 = queryNorm
            0.14877784 = fieldWeight in 2425, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2425)
        0.021242218 = weight(_text_:computer in 2425) [ClassicSimilarity], result of:
          0.021242218 = score(doc=2425,freq=2.0), product of:
            0.0751567 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.02056547 = queryNorm
            0.28263903 = fieldWeight in 2425, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2425)
        0.030540384 = sum of:
          0.011036023 = weight(_text_:science in 2425) [ClassicSimilarity], result of:
            0.011036023 = score(doc=2425,freq=2.0), product of:
              0.0541719 = queryWeight, product of:
                2.6341193 = idf(docFreq=8627, maxDocs=44218)
                0.02056547 = queryNorm
              0.20372227 = fieldWeight in 2425, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.6341193 = idf(docFreq=8627, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2425)
          0.01950436 = weight(_text_:22 in 2425) [ClassicSimilarity], result of:
            0.01950436 = score(doc=2425,freq=2.0), product of:
              0.072016776 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02056547 = queryNorm
              0.2708308 = fieldWeight in 2425, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2425)
      0.22727273 = coord(5/22)
    
    Abstract
    The FRBR model is by many considered to be an important contribution to the next generation of bibliographic catalogues, but a major challenge for the library community is how to use this model on already existing MARC-based bibliographic catalogues. This problem requires a solution for the interpretation and conversion of MARC records, and a tool for this kind of conversion is developed as a part of the Norwegian BIBSYS FRBR project. The tool is based on a systematic approach to the interpretation and conversion process and is designed to be adaptable to the rules applied in different catalogues.
    Series
    Lecture notes in computer science; vol.4172
    Source
    Research and advanced technology for digital libraries : 10th European conference, proceedings / ECDL 2006, Alicante, Spain, September 17 - 22, 2006
  2. Martin, P.: Conventions and notations for knowledge representation and retrieval (2000) 0.04
    0.036879957 = product of:
      0.16227181 = sum of:
        0.08073681 = weight(_text_:lecture in 5070) [ClassicSimilarity], result of:
          0.08073681 = score(doc=5070,freq=4.0), product of:
            0.13308205 = queryWeight, product of:
              6.4711404 = idf(docFreq=185, maxDocs=44218)
              0.02056547 = queryNorm
            0.6066694 = fieldWeight in 5070, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.4711404 = idf(docFreq=185, maxDocs=44218)
              0.046875 = fieldNorm(doc=5070)
        0.05503029 = weight(_text_:notes in 5070) [ClassicSimilarity], result of:
          0.05503029 = score(doc=5070,freq=4.0), product of:
            0.10987139 = queryWeight, product of:
              5.3425174 = idf(docFreq=574, maxDocs=44218)
              0.02056547 = queryNorm
            0.500861 = fieldWeight in 5070, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3425174 = idf(docFreq=574, maxDocs=44218)
              0.046875 = fieldNorm(doc=5070)
        0.0035673876 = weight(_text_:in in 5070) [ClassicSimilarity], result of:
          0.0035673876 = score(doc=5070,freq=4.0), product of:
            0.027974274 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02056547 = queryNorm
            0.12752387 = fieldWeight in 5070, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=5070)
        0.018207615 = weight(_text_:computer in 5070) [ClassicSimilarity], result of:
          0.018207615 = score(doc=5070,freq=2.0), product of:
            0.0751567 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.02056547 = queryNorm
            0.24226204 = fieldWeight in 5070, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.046875 = fieldNorm(doc=5070)
        0.0047297236 = product of:
          0.009459447 = sum of:
            0.009459447 = weight(_text_:science in 5070) [ClassicSimilarity], result of:
              0.009459447 = score(doc=5070,freq=2.0), product of:
                0.0541719 = queryWeight, product of:
                  2.6341193 = idf(docFreq=8627, maxDocs=44218)
                  0.02056547 = queryNorm
                0.17461908 = fieldWeight in 5070, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6341193 = idf(docFreq=8627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5070)
          0.5 = coord(1/2)
      0.22727273 = coord(5/22)
    
    Abstract
    Much research has focused on the problem of knowledge accessibility, sharing and reuse. Specific languages (e.g. KIF, CG, RDF) and ontologies have been proposed. Common characteristics, conventions or ontological distinctions are beginning to emerge. Since knowledge providers (humans and software agents) must follow common conventions for the knowledge to be widely accessed and re-used, we propose lexical, structural, semantic and ontological conventions based on various knowledge representation projects and our own research. These are minimal conventions that can be followed by most and cover the most common knowledge representation cases. However, agreement and refinements are still required. We also show that a notation can be both readable and expressive by quickly presenting two new notations -- Formalized English (FE) and Frame-CG (FCG) - derived from the CG linear form [9] and Frame-Logics [4]. These notations support the above conventions, and are implemented in our Web-based knowledge representation and document indexation tool, WebKB¹ [7]
    Series
    Lecture notes in computer science; vol.1867: Lecture notes on artificial intelligence
  3. Mönch, C.; Aalberg, T.: Automatic conversion from MARC to FRBR (2003) 0.03
    0.027543936 = product of:
      0.12119331 = sum of:
        0.047574617 = weight(_text_:lecture in 2422) [ClassicSimilarity], result of:
          0.047574617 = score(doc=2422,freq=2.0), product of:
            0.13308205 = queryWeight, product of:
              6.4711404 = idf(docFreq=185, maxDocs=44218)
              0.02056547 = queryNorm
            0.35748336 = fieldWeight in 2422, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.4711404 = idf(docFreq=185, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2422)
        0.032426912 = weight(_text_:notes in 2422) [ClassicSimilarity], result of:
          0.032426912 = score(doc=2422,freq=2.0), product of:
            0.10987139 = queryWeight, product of:
              5.3425174 = idf(docFreq=574, maxDocs=44218)
              0.02056547 = queryNorm
            0.29513517 = fieldWeight in 2422, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3425174 = idf(docFreq=574, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2422)
        0.0042042066 = weight(_text_:in in 2422) [ClassicSimilarity], result of:
          0.0042042066 = score(doc=2422,freq=8.0), product of:
            0.027974274 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02056547 = queryNorm
            0.15028831 = fieldWeight in 2422, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2422)
        0.015173013 = weight(_text_:computer in 2422) [ClassicSimilarity], result of:
          0.015173013 = score(doc=2422,freq=2.0), product of:
            0.0751567 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.02056547 = queryNorm
            0.20188503 = fieldWeight in 2422, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2422)
        0.02181456 = sum of:
          0.0078828735 = weight(_text_:science in 2422) [ClassicSimilarity], result of:
            0.0078828735 = score(doc=2422,freq=2.0), product of:
              0.0541719 = queryWeight, product of:
                2.6341193 = idf(docFreq=8627, maxDocs=44218)
                0.02056547 = queryNorm
              0.1455159 = fieldWeight in 2422, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.6341193 = idf(docFreq=8627, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2422)
          0.013931687 = weight(_text_:22 in 2422) [ClassicSimilarity], result of:
            0.013931687 = score(doc=2422,freq=2.0), product of:
              0.072016776 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02056547 = queryNorm
              0.19345059 = fieldWeight in 2422, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2422)
      0.22727273 = coord(5/22)
    
    Abstract
    Catalogs have for centuries been the main tool that enabled users to search for items in a library by author, title, or subject. A catalog can be interpreted as a set of bibliographic records, where each record acts as a surrogate for a publication. Every record describes a specific publication and contains the data that is used to create the indexes of search systems and the information that is presented to the user. Bibliographic records are often captured and exchanged by the use of the MARC format. Although there are numerous rdquodialectsrdquo of the MARC format in use, they are usually crafted on the same basis and are interoperable with each other -to a certain extent. The data model of a MARC-based catalog, however, is rdquo[...] extremely non-normalized with excessive replication of datardquo [1]. For instance, a literary work that exists in numerous editions and translations is likely to yield a large result set because each edition or translation is represented by an individual record, that is unrelated to other records that describe the same work.
    Series
    Lecture notes in computer science; vol.2769
    Source
    Research and advanced technology for digital libraries : 7th European Conference, proceedings / ECDL 2003, Trondheim, Norway, August 17-22, 2003
  4. Krischker, U.: Formale Analyse (Erfassung) von Dokumenten (1990) 0.02
    0.020744057 = product of:
      0.11409231 = sum of:
        0.017858583 = weight(_text_:und in 1535) [ClassicSimilarity], result of:
          0.017858583 = score(doc=1535,freq=8.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.39180204 = fieldWeight in 1535, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1535)
        0.07501179 = weight(_text_:schriftenreihe in 1535) [ClassicSimilarity], result of:
          0.07501179 = score(doc=1535,freq=2.0), product of:
            0.13211027 = queryWeight, product of:
              6.4238877 = idf(docFreq=194, maxDocs=44218)
              0.02056547 = queryNorm
            0.5677968 = fieldWeight in 1535, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.4238877 = idf(docFreq=194, maxDocs=44218)
              0.0625 = fieldNorm(doc=1535)
        0.017858583 = weight(_text_:und in 1535) [ClassicSimilarity], result of:
          0.017858583 = score(doc=1535,freq=8.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.39180204 = fieldWeight in 1535, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1535)
        0.003363365 = weight(_text_:in in 1535) [ClassicSimilarity], result of:
          0.003363365 = score(doc=1535,freq=2.0), product of:
            0.027974274 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02056547 = queryNorm
            0.120230645 = fieldWeight in 1535, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=1535)
      0.18181819 = coord(4/22)
    
    Abstract
    Die formale Analyse von Dokumenten ist komplex und vielschichtig. Um sie beschreiben zu können, muß sie unter verschiedenen Gesichtspunkten betrachtet werden. Zu untersuchen ist, welchen Zweck die formale Analyse erfüllen soll, wem sie nützt und wer sie durchführt, welche Methoden zur Verfügung stehen, welche technischen Hilfsmittel eingesetzt werden können bzw. welche Verfahren es beim Einsatz von Datenverarbeitungsanlagen gibt.
    Footnote
    Allgemeine, d.h. nicht ausschließlich an bibliothekarischen Anwendungsbereichen orientierte, Darstellung der formalen Erfassung und bibliographischen Beschreibung von Dokumenten verschiedenster Typen.
    Series
    DGD-Schriftenreihe; Bd.9
    Source
    Grundlagen der praktischen Information und Dokumentation: ein Handbuch zur Einführung in die fachliche Informationsarbeit. 3. Aufl. Hrsg.: M. Buder u.a. Bd.1
  5. SGML und XML : Anwendungen und Perspektiven (1999) 0.02
    0.018916342 = product of:
      0.10403988 = sum of:
        0.041409813 = weight(_text_:informatik in 1392) [ClassicSimilarity], result of:
          0.041409813 = score(doc=1392,freq=2.0), product of:
            0.104934774 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.02056547 = queryNorm
            0.3946243 = fieldWeight in 1392, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1392)
        0.029234055 = weight(_text_:und in 1392) [ClassicSimilarity], result of:
          0.029234055 = score(doc=1392,freq=28.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.6413702 = fieldWeight in 1392, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1392)
        0.029234055 = weight(_text_:und in 1392) [ClassicSimilarity], result of:
          0.029234055 = score(doc=1392,freq=28.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.6413702 = fieldWeight in 1392, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1392)
        0.004161952 = weight(_text_:in in 1392) [ClassicSimilarity], result of:
          0.004161952 = score(doc=1392,freq=4.0), product of:
            0.027974274 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02056547 = queryNorm
            0.14877784 = fieldWeight in 1392, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1392)
      0.18181819 = coord(4/22)
    
    Abstract
    SGML und XML sind fundamentale Konzepte der heutigen und künftigen Speicherung, Verarbeitung und Verbreitung langlebiger Informationen, gerade im Hinblick auf die weltweite Vernetzung durch das Internet. Ausgehend von den technischen und ökonomischen Herausforderungen unserer Informationsgesellschaft, stellen die Autoren die wichtigen Entwicklungen dar und berichten über aktuelle Projekte mit SGML- und XML-Anwendungen in der Praxis. Das Buch wendet sich an das Management informationsverarbeitender und -produzierender Unternehmen, an die Technik-Verantwortlichen und SGML-/XML-Anwender sowie an Studierende informationsverarbeitender Fächer und der Informatik.
    Content
    Einführungen (Zukunft und Vergangenheit).- Charles Goldfarb: SGML-Philosophie und Zukunft.- Pam Genussa: SGML/XML und IETM.- Manfred Krüger: SGML - Der lange Weg.- Praxis heute.Zeitung/Zeitschrift.- Nachschlagewerke.- Technische Dokumentation.- Praxis - morgen.- Register.- Literatur.- Autorenliste.
    Footnote
    Rez. in: nfd 50(1999) H.6, S.372 (I. Macherius)
  6. Krischker, U.: Formale Analyse von Dokumenten (1997) 0.02
    0.018034121 = product of:
      0.099187665 = sum of:
        0.018941889 = weight(_text_:und in 3925) [ClassicSimilarity], result of:
          0.018941889 = score(doc=3925,freq=16.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.41556883 = fieldWeight in 3925, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3925)
        0.056258842 = weight(_text_:schriftenreihe in 3925) [ClassicSimilarity], result of:
          0.056258842 = score(doc=3925,freq=2.0), product of:
            0.13211027 = queryWeight, product of:
              6.4238877 = idf(docFreq=194, maxDocs=44218)
              0.02056547 = queryNorm
            0.42584762 = fieldWeight in 3925, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.4238877 = idf(docFreq=194, maxDocs=44218)
              0.046875 = fieldNorm(doc=3925)
        0.018941889 = weight(_text_:und in 3925) [ClassicSimilarity], result of:
          0.018941889 = score(doc=3925,freq=16.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.41556883 = fieldWeight in 3925, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3925)
        0.0050450475 = weight(_text_:in in 3925) [ClassicSimilarity], result of:
          0.0050450475 = score(doc=3925,freq=8.0), product of:
            0.027974274 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02056547 = queryNorm
            0.18034597 = fieldWeight in 3925, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3925)
      0.18181819 = coord(4/22)
    
    Abstract
    Die formale Analyse von Dokumenten ist seit alters her eine der Hauptaufgaben der Bibliotheken und Archive, in neuerer Zeit auch der Dokumentationsstellen. Die gesammelten und ausgewerteten Dokumente müssen identifizierbar und wieder auffindbar sein. Die formale Analyse bietet die Möglichkeit, die formalen Charakteristika von Dokumenten zu beschreiben. Damit können die Dokumente unter mehreren, aber immer den formal gleichen Such- und Ordnungsmerkmalen in Katalogen, Datenbanken, Bibliographien o.ä. nachgewiesen werden. Hierzu werden nach festgelegten Regeln die verschiedenen formalen Charakteristika zu "Auswertungselementen" zusammengefaßt, die jeweils eine sinnvoll nicht weiter zu unterteilende Klasse zusammengehöriger Charakteristika bilden (z.B. ist ein Datum, bestehend aus Tag, Monat, Jahr nicht weiter zu unterteilen und bildet deshalb ein Auswertungselement). Alle bei der formalen Analyse ermittelten Auswertungselemente für die Beschreibung eines Dokumentes werden in festgelegter Form und Reihenfolge niedergeschrieben. Aus der vollständigen Menge von Auswertungselementen wird nur ein bestimmter Teil als Ordnungs- oder Suchmerkmale ausgewählt. Das Ergebnis der formalen Analyse wird gemeinhin "Titelaufnahme" oder "Fundstelle" oder "Zitat" genannt.
    Footnote
    Allgemeine, d.h. nicht ausschließlich an bibliothekarischen Anwendungsbereichen orientierte, Darstellung der formalen Erfassung und bibliographischen Beschreibung von Dokumenten verschiedenster Typen.
    Series
    DGD-Schriftenreihe; Bd.9
    Source
    Grundlagen der praktischen Information und Dokumentation: ein Handbuch zur Einführung in die fachliche Informationsarbeit. 4. Aufl. Hrsg.: M. Buder u.a
  7. ISO 25964 Thesauri and interoperability with other vocabularies (2008) 0.01
    0.012531898 = product of:
      0.05514035 = sum of:
        0.0033484844 = weight(_text_:und in 1169) [ClassicSimilarity], result of:
          0.0033484844 = score(doc=1169,freq=2.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.07346288 = fieldWeight in 1169, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1169)
        0.0033484844 = weight(_text_:und in 1169) [ClassicSimilarity], result of:
          0.0033484844 = score(doc=1169,freq=2.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.07346288 = fieldWeight in 1169, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1169)
        0.033699036 = weight(_text_:notes in 1169) [ClassicSimilarity], result of:
          0.033699036 = score(doc=1169,freq=6.0), product of:
            0.10987139 = queryWeight, product of:
              5.3425174 = idf(docFreq=574, maxDocs=44218)
              0.02056547 = queryNorm
            0.3067135 = fieldWeight in 1169, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.3425174 = idf(docFreq=574, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1169)
        0.005640535 = weight(_text_:in in 1169) [ClassicSimilarity], result of:
          0.005640535 = score(doc=1169,freq=40.0), product of:
            0.027974274 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02056547 = queryNorm
            0.20163295 = fieldWeight in 1169, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1169)
        0.009103808 = weight(_text_:computer in 1169) [ClassicSimilarity], result of:
          0.009103808 = score(doc=1169,freq=2.0), product of:
            0.0751567 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.02056547 = queryNorm
            0.12113102 = fieldWeight in 1169, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1169)
      0.22727273 = coord(5/22)
    
    Abstract
    T.1: Today's thesauri are mostly electronic tools, having moved on from the paper-based era when thesaurus standards were first developed. They are built and maintained with the support of software and need to integrate with other software, such as search engines and content management systems. Whereas in the past thesauri were designed for information professionals trained in indexing and searching, today there is a demand for vocabularies that untrained users will find to be intuitive. ISO 25964 makes the transition needed for the world of electronic information management. However, part 1 retains the assumption that human intellect is usually involved in the selection of indexing terms and in the selection of search terms. If both the indexer and the searcher are guided to choose the same term for the same concept, then relevant documents will be retrieved. This is the main principle underlying thesaurus design, even though a thesaurus built for human users may also be applied in situations where computers make the choices. Efficient exchange of data is a vital component of thesaurus management and exploitation. Hence the inclusion in this standard of recommendations for exchange formats and protocols. Adoption of these will facilitate interoperability between thesaurus management systems and the other computer applications, such as indexing and retrieval systems, that will utilize the data. Thesauri are typically used in post-coordinate retrieval systems, but may also be applied to hierarchical directories, pre-coordinate indexes and classification systems. Increasingly, thesaurus applications need to mesh with others, such as automatic categorization schemes, free-text search systems, etc. Part 2 of ISO 25964 describes additional types of structured vocabulary and gives recommendations to enable interoperation of the vocabularies at all stages of the information storage and retrieval process.
    T.2: The ability to identify and locate relevant information among vast collections and other resources is a major and pressing challenge today. Several different types of vocabulary are in use for this purpose. Some of the most widely used vocabularies were designed a hundred years ago and have been evolving steadily. A different generation of vocabularies is now emerging, designed to exploit the electronic media more effectively. A good understanding of the previous generation is still essential for effective access to collections indexed with them. An important object of ISO 25964 as a whole is to support data exchange and other forms of interoperability in circumstances in which more than one structured vocabulary is applied within one retrieval system or network. Sometimes one vocabulary has to be mapped to another, and it is important to understand both the potential and the limitations of such mappings. In other systems, a thesaurus is mapped to a classification scheme, or an ontology to a thesaurus. Comprehensive interoperability needs to cover the whole range of vocabulary types, whether young or old. Concepts in different vocabularies are related only in that they have the same or similar meaning. However, the meaning can be found in a number of different aspects within each particular type of structured vocabulary: - within terms or captions selected in different languages; - in the notation assigned indicating a place within a larger hierarchy; - in the definition, scope notes, history notes and other notes that explain the significance of that concept; and - in explicit relationships to other concepts or entities within the same vocabulary. In order to create mappings from one structured vocabulary to another it is first necessary to understand, within the context of each different type of structured vocabulary, the significance and relative importance of each of the different elements in defining the meaning of that particular concept. ISO 25964-1 describes the key characteristics of thesauri along with additional advice on best practice. ISO 25964-2 focuses on other types of vocabulary and does not attempt to cover all aspects of good practice. It concentrates on those aspects which need to be understood if one of the vocabularies is to work effectively alongside one or more of the others. Recognizing that a new standard cannot be applied to some existing vocabularies, this part of ISO 25964 provides informative description alongside the recommendations, the aim of which is to enable users and system developers to interpret and implement the existing vocabularies effectively. The remainder of ISO 25964-2 deals with the principles and practicalities of establishing mappings between vocabularies.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  8. Murphy, C.: Curriculum-enhanced MARC (CEMARC) : a new cataloging format for school librarians (1995) 0.01
    0.012151958 = product of:
      0.08911436 = sum of:
        0.045397673 = weight(_text_:notes in 5100) [ClassicSimilarity], result of:
          0.045397673 = score(doc=5100,freq=2.0), product of:
            0.10987139 = queryWeight, product of:
              5.3425174 = idf(docFreq=574, maxDocs=44218)
              0.02056547 = queryNorm
            0.41318923 = fieldWeight in 5100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3425174 = idf(docFreq=574, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5100)
        0.0050973296 = weight(_text_:in in 5100) [ClassicSimilarity], result of:
          0.0050973296 = score(doc=5100,freq=6.0), product of:
            0.027974274 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02056547 = queryNorm
            0.1822149 = fieldWeight in 5100, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5100)
        0.038619358 = sum of:
          0.011036023 = weight(_text_:science in 5100) [ClassicSimilarity], result of:
            0.011036023 = score(doc=5100,freq=2.0), product of:
              0.0541719 = queryWeight, product of:
                2.6341193 = idf(docFreq=8627, maxDocs=44218)
                0.02056547 = queryNorm
              0.20372227 = fieldWeight in 5100, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.6341193 = idf(docFreq=8627, maxDocs=44218)
                0.0546875 = fieldNorm(doc=5100)
          0.027583335 = weight(_text_:22 in 5100) [ClassicSimilarity], result of:
            0.027583335 = score(doc=5100,freq=4.0), product of:
              0.072016776 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02056547 = queryNorm
              0.38301262 = fieldWeight in 5100, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=5100)
      0.13636364 = coord(3/22)
    
    Abstract
    Briefly summarizes the problems encountered when attempting to use the USMARC cataloguing format in US school libraries and describes the development of CEMARC format by the Northwest Ohio Educational Technology Foundation (NWOET), which addresses the main problems by: offering sata entry guidelines for a minimum USMARC standard in order to clarify inconsistencies in application; and by suggesting enhancements and new fields that go beyond the USMARC standard. Concludes with brief notes on early CEMARC implementation
    Date
    11. 9.1996 19:22:20
    Source
    Literacy: traditional, cultural, technological. Proceedings of the 23rd Annual Conference of the International Association of School Librarianship (selected papers), Pittsburgh, Pennsylvania, Pittsburgh University, School of Library and Information Science, 17-22 Jul 94
  9. Wolters, C.: Wie muß man seine Daten formulieren bzw. strukturieren, damit ein Computer etwas Vernünftiges damit anfangen kann? : Mit einem Glossar von Carlos Saro (1991) 0.01
    0.010817905 = product of:
      0.059498474 = sum of:
        0.01411845 = weight(_text_:und in 4013) [ClassicSimilarity], result of:
          0.01411845 = score(doc=4013,freq=20.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.3097467 = fieldWeight in 4013, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4013)
        0.01411845 = weight(_text_:und in 4013) [ClassicSimilarity], result of:
          0.01411845 = score(doc=4013,freq=20.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.3097467 = fieldWeight in 4013, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4013)
        0.0041192644 = weight(_text_:in in 4013) [ClassicSimilarity], result of:
          0.0041192644 = score(doc=4013,freq=12.0), product of:
            0.027974274 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02056547 = queryNorm
            0.14725187 = fieldWeight in 4013, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=4013)
        0.02714231 = weight(_text_:computer in 4013) [ClassicSimilarity], result of:
          0.02714231 = score(doc=4013,freq=10.0), product of:
            0.0751567 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.02056547 = queryNorm
            0.3611429 = fieldWeight in 4013, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.03125 = fieldNorm(doc=4013)
      0.18181819 = coord(4/22)
    
    Abstract
    Die Dokumentationsabteilung im Institut für Museumskunde der Staatlichen Museen Preußischer Kulturbesitz (IfM) hat die Aufgabe, bundesweit Museen und museale Einrichtungen bei der Einführung der Informationstechnik mit Rat und Tat zu unterstützen. Hierbei arbeitet sie mit dem Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB) zusammen. Diese Aktivitäten liegen im Bereich einer professionell durchgeführten Rationalisierung; Computerisierung ist nicht Selbstzweck, sondern eine Möglichkeit, ohnehin durchzuführende Arbeiten in puncto Zeit und Kosten effizienter zu gestalten bzw. Dinge durchzuführen, für die man beim Einsatz konventioneller Methoden weder die Zeit noch das Geld hätte. Mit der Vermittlung der hierfür notwendigen Kenntnisse und Fertigkeiten ist ein kleines Institut wie das IfM wegen des rapide ansteigenden Beratungsbedarfs der Museen heute noch weit überfordert. Wir konzentrieren daher unsere Aktivitäten auf eine Zusammenarbeit mit den für die Museumsbetreuung zuständigen Einrichtungen in den Bundesländern. Wir haben die Hoffnung, daß mehr und mehr Bundesländer für diese Aufgabe eigene Dienstleistungsangebote entwickeln werden. Bevor das erreicht ist, versucht das HM interessierten Museen zumindest eine "Hilfe zur Selbsthilfe" anzubieten; auch wenn dieses oder jenes Bundesland noch nicht in der Lage ist, seine Museen auf diesem Gebiet professionell zu beraten, soll es einzelnen Museen zumindest erleichtert werden, sich hier selber schlau zu machen. Zum Inhalt: Zur Zeit der Großrechner waren sich noch alle Beteiligten darüber einig, daß man für den Einsatz der Informationstechnik professioneller Hilfe bedarf. Man war bereit, sich den Anforderungen der Maschine anzupassen, man versuchte, sich "computergerecht" zu verhalten. Die Einführung leicht zu bedienender und leistungsstarker Computer im Bürobereich hat diese Arbeitsbedingungen aber grundlegend verändert. Auch Leute, die von Computer noch nichts verstehen, können heute in wenigen Tagen lernen, mit Programmen für "Textverarbeitung" ganz selbstverständlich umzugehen. Sie erwarten daher, daß das bei einem Einsatz des Computers für die Inventarisierung genauso problemlos sei. Von einer solchen Benutzerfreundlichkeit der Programme sind wir im deutschen Museumswesen aber noch weit entfernt. Das hat einen einfachen Grund: In die eben erwähnten einfach zu handhabenden Programme wurde inzwischen hunderte oder gar tausende von "Mannjahren" investiert; ein erheblicher Teil dieser Mittel diente dazu, den Computer den spezifischen Bedürfnissen bestimmter Arbeitsplätze anzupassen, bzw. die daran arbeitenden Mitarbeiter auszubilden. Bis das auch für das Museum gilt, wird wohl noch einige Zeit vergehen; dieser Markt ist zu klein, als daß sich solche Investitionen auf rein kommerzieller Basis kurzfristig auszahlen könnten. Das Institut für Museumskunde versucht hier Hilfestellung zu geben. Das vorliegende Heft 33 der "Materialien" ist aus Beratungen und Kursen hervorgegangen. Es versucht, die für die Einführung der Informationstechnik im Museum unabdingbaren grundlegenden Computerkenntnisse für Museumsleute in Form eines Lern- und Lesebuchs zu vermitteln. Es schließt damit an Heft 30 (Jane Sunderland und Leonore Sarasan, Was muß man alles tun, um den Computer im Museum erfolgreich einzusetzen?) direkt an und soll zusammen mit ihm benutzt werden.
  10. Paulus, W.; Weishaupt, K.: Bibliotheksdaten werden mehr wert : LibLink wertet bibliothekarische Dienstleistung auf (1996) 0.01
    0.00914783 = product of:
      0.050313067 = sum of:
        0.011161615 = weight(_text_:und in 5228) [ClassicSimilarity], result of:
          0.011161615 = score(doc=5228,freq=2.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.24487628 = fieldWeight in 5228, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5228)
        0.011161615 = weight(_text_:und in 5228) [ClassicSimilarity], result of:
          0.011161615 = score(doc=5228,freq=2.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.24487628 = fieldWeight in 5228, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5228)
        0.014058149 = product of:
          0.028116299 = sum of:
            0.028116299 = weight(_text_:29 in 5228) [ClassicSimilarity], result of:
              0.028116299 = score(doc=5228,freq=2.0), product of:
                0.072342895 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02056547 = queryNorm
                0.38865322 = fieldWeight in 5228, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5228)
          0.5 = coord(1/2)
        0.013931687 = product of:
          0.027863374 = sum of:
            0.027863374 = weight(_text_:22 in 5228) [ClassicSimilarity], result of:
              0.027863374 = score(doc=5228,freq=2.0), product of:
                0.072016776 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02056547 = queryNorm
                0.38690117 = fieldWeight in 5228, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5228)
          0.5 = coord(1/2)
      0.18181819 = coord(4/22)
    
    Abstract
    Die maschinenlesbaren Katalogdaten der Bibliotheken wurden bisher hauptsächlich intern genutzt. Die im Institut Arbeit und Technik entwickelte Software LibLink ermöglich es, diese Daten auch im wissenschaftlichen Kontext zu verwenden
    Date
    29. 9.1996 18:58:22
  11. ZETA: Format und Konventionen für die Zeitschriften-Titelaufnahme in der Zeitschriftendatenbank (ZDB) (1993) 0.01
    0.008855037 = product of:
      0.048702702 = sum of:
        0.013393938 = weight(_text_:und in 4335) [ClassicSimilarity], result of:
          0.013393938 = score(doc=4335,freq=2.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.29385152 = fieldWeight in 4335, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4335)
        0.013393938 = weight(_text_:und in 4335) [ClassicSimilarity], result of:
          0.013393938 = score(doc=4335,freq=2.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.29385152 = fieldWeight in 4335, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4335)
        0.016869778 = product of:
          0.033739556 = sum of:
            0.033739556 = weight(_text_:29 in 4335) [ClassicSimilarity], result of:
              0.033739556 = score(doc=4335,freq=2.0), product of:
                0.072342895 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02056547 = queryNorm
                0.46638384 = fieldWeight in 4335, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4335)
          0.5 = coord(1/2)
        0.0050450475 = weight(_text_:in in 4335) [ClassicSimilarity], result of:
          0.0050450475 = score(doc=4335,freq=2.0), product of:
            0.027974274 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02056547 = queryNorm
            0.18034597 = fieldWeight in 4335, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=4335)
      0.18181819 = coord(4/22)
    
    Date
    28. 6.1996 14:29:37
  12. Mönnich, M.: Elektronisches Publizieren von Hochschulschriften : Formate und Datenbanken (2000) 0.01
    0.0081841145 = product of:
      0.06001684 = sum of:
        0.027065476 = weight(_text_:und in 4709) [ClassicSimilarity], result of:
          0.027065476 = score(doc=4709,freq=6.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.5937934 = fieldWeight in 4709, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4709)
        0.027065476 = weight(_text_:und in 4709) [ClassicSimilarity], result of:
          0.027065476 = score(doc=4709,freq=6.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.5937934 = fieldWeight in 4709, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4709)
        0.0058858884 = weight(_text_:in in 4709) [ClassicSimilarity], result of:
          0.0058858884 = score(doc=4709,freq=2.0), product of:
            0.027974274 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02056547 = queryNorm
            0.21040362 = fieldWeight in 4709, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.109375 = fieldNorm(doc=4709)
      0.13636364 = coord(3/22)
    
    Series
    Zeitschrift für Bibliothekswesen und Bibliographie: Sonderh.80
    Source
    Wissenschaft online: Elektronisches Publizieren in Bibliothek und Hochschule. Hrsg. B. Tröger
  13. Hrusa, H.; Kirschner, C.; Neumayer, F.: Datenimport aus der TU Publikationsdatenbank in den Aleph-Bibliothekskatalog (2005) 0.01
    0.0077734157 = product of:
      0.042753786 = sum of:
        0.014974878 = weight(_text_:und in 3772) [ClassicSimilarity], result of:
          0.014974878 = score(doc=3772,freq=10.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.328536 = fieldWeight in 3772, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3772)
        0.014974878 = weight(_text_:und in 3772) [ClassicSimilarity], result of:
          0.014974878 = score(doc=3772,freq=10.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.328536 = fieldWeight in 3772, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3772)
        0.008434889 = product of:
          0.016869778 = sum of:
            0.016869778 = weight(_text_:29 in 3772) [ClassicSimilarity], result of:
              0.016869778 = score(doc=3772,freq=2.0), product of:
                0.072342895 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02056547 = queryNorm
                0.23319192 = fieldWeight in 3772, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3772)
          0.5 = coord(1/2)
        0.0043691397 = weight(_text_:in in 3772) [ClassicSimilarity], result of:
          0.0043691397 = score(doc=3772,freq=6.0), product of:
            0.027974274 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02056547 = queryNorm
            0.1561842 = fieldWeight in 3772, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3772)
      0.18181819 = coord(4/22)
    
    Abstract
    An der UB TU Wien existiert seit den 1920er Jahren eine umfangreiche Sammlung von Sonderdrucken der Universitätsangehörigen. Diese wurde nicht systematisch angelegt, sondern entstand durch freiwillige Mitarbeit der Institutsangehörigen, die die Sonderdrucke an die Bibliothek weitergaben. Die Sammlung umfasst etwa 20.000 Sonderdrucke, die in einer eigenen Kartei verzeichnet wurden. Bibliotheksbenutzer finden im Nominalkatalog der Bibliothek nur einen Sammeleintrag unter dem Namen des Autors. Seit der Einführung eines EDV-gestützten Bibliothekskatalogs und dem damit verbundenen Abbruch des Kartenkatalogs wurde mehrfach versucht, die einzelnen Sonderdrucke in unseren Online-Katalog zu integrieren. Mit der Einführung des Bibliothekssystems Aleph 500 im Jahr 1999 wurde mit der Katalogisierung der aktuellen Sonderdrucke begonnen - sie sind nun im Gesamtkatalog und im Katalog der UB TU Wien nachgewiesen. Auf diese Weise entstanden zwischen 1999 und 2004 etwa 4.000 Einträge von Sonderdrucken, die von unseren Bibliotheksbenutzern häufig nachgefragt und zur Lesesaalbenutzung bestellt werden.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.2, S.21-29
  14. Behrens-Neumann, R.: Aus der 56. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. April 2009 in Wien : ein Bericht (2009) 0.01
    0.0076469714 = product of:
      0.04205834 = sum of:
        0.014765427 = weight(_text_:und in 3041) [ClassicSimilarity], result of:
          0.014765427 = score(doc=3041,freq=14.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.32394084 = fieldWeight in 3041, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3041)
        0.014765427 = weight(_text_:und in 3041) [ClassicSimilarity], result of:
          0.014765427 = score(doc=3041,freq=14.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.32394084 = fieldWeight in 3041, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3041)
        0.005561643 = weight(_text_:in in 3041) [ClassicSimilarity], result of:
          0.005561643 = score(doc=3041,freq=14.0), product of:
            0.027974274 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02056547 = queryNorm
            0.19881277 = fieldWeight in 3041, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3041)
        0.0069658435 = product of:
          0.013931687 = sum of:
            0.013931687 = weight(_text_:22 in 3041) [ClassicSimilarity], result of:
              0.013931687 = score(doc=3041,freq=2.0), product of:
                0.072016776 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02056547 = queryNorm
                0.19345059 = fieldWeight in 3041, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3041)
          0.5 = coord(1/2)
      0.18181819 = coord(4/22)
    
    Abstract
    Am 23. April 2009 fand die 56. Sitzung der Arbeitsgemeinschaft der Verbundsysteme auf Einladung der Österreichischen Bibliothekenverbund und Service G.m.b.H. (OBVSG) in Wien statt.
    Content
    Darin auch ein Abschnitt zu CrissCross: "Ziel des Projekts ist die Schaffung eines multilingualen, thesaurusbasierten und benutzerorientierten Recherchevokabulars zu heterogen erschlossenen Dokurrenten für die Nutzer des deutschen wissenschaftlichen Bibliothekswesens. Dazu werden die Sachschlagwörter der SWD mit den Notationen der Dewey Dezimalklassifikation verbunden sowie mit ihren Äquivalenten in LCSH und Rameau verknüpft. Das Projektende ist nach Verlängerung des Projektantrags April 2010. In dem Berichtszeitraum wurde die Vergabe von DDC-Notationen für SWD-Terme in dem Katalogisierungsclient WinIBW fortgeführt. Änderungen in dem Redaktionsverfahren der SWD, das im ONS-Projekt eingeführt worden ist, haben sich auf die Arbeitsweise und den Workflow des CrissCross-Projektes ausgewirkt und mussten entsprechend angepasst werden. Nach wie vor steht DNB in Kontakt mit den Betreibern der MACS-Datenbank, die als Arbeitsumgebung für die Verlinkung der multilingualen Terme genutzt werden soll. Im Berichtszeitraum wurden keine größeren IT-Aktivitäten notwendig. Ab April 2009 wird die eigentliche Verlinkungsarbeit beginnen und dann sind auch begleitende IT-Maßnahmen zu erwarten."
    Date
    22. 8.2009 13:11:01
    Footnote
    Darin Abschnitte zu: - Umstieg auf MARC21 - Auswirkungen von RDA auf MARC21 - Gemeinsame Normdatei (GND) - Normdateien und Onlineschnittstelle - vascoda - Kataloganreicherung
  15. DFG und Mellon-Foundation fördern internationalen Datenaustausch (2006) 0.01
    0.0072615067 = product of:
      0.053251047 = sum of:
        0.025574472 = weight(_text_:und in 5070) [ClassicSimilarity], result of:
          0.025574472 = score(doc=5070,freq=42.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.561082 = fieldWeight in 5070, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5070)
        0.025574472 = weight(_text_:und in 5070) [ClassicSimilarity], result of:
          0.025574472 = score(doc=5070,freq=42.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.561082 = fieldWeight in 5070, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5070)
        0.0021021033 = weight(_text_:in in 5070) [ClassicSimilarity], result of:
          0.0021021033 = score(doc=5070,freq=2.0), product of:
            0.027974274 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02056547 = queryNorm
            0.07514416 = fieldWeight in 5070, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5070)
      0.13636364 = coord(3/22)
    
    Abstract
    Die Deutsche Forschungsgemeinschaft (DFG) und die Andrew W. Mellon Foundation unterstützen die Einführung des international gebräuchlichen Datenaustauschformats MARC 21 im deutschsprachigen Bibliothekswesen. Der Daten- und Informationsaustausch zwischen den Bibliotheken der deutschsprachigen Länder und denen der übrigen Welt wird dadurch wesentlich erleichtert.
    Content
    "Der aktuelle Speicherort einer Publikation verliert angesichts der steigenden Zahl an digital vorliegenden und über das World Wide Weh verfügbaren Publikationen seine Bedeutung. Entscheidend für die Forschung sind Aufindbarkeit und schnelle Nutzungsmöglichkeit der Informationen. Global zu arbeiten, Daten, Informationen und Texte zu tauschen ist zur täglichen Routine für Wissenschaftler und Bibliothekare geworden. Deutschsprachige und ausländische Bibliotheken verwenden derzeit noch unterschiedliche Standards bei der Speicherung und dem Austausch von Katalogdaten. Die von der Deutschen Forschungsgemeinschaft und der Andrew W. Mellon Foundation geförderten Projekte verfolgen das Ziel, die Daten deutschsprachiger Bibliotheken weltweit sichtbar zu machen. Das Interesse von Wissenschaftlern ist nicht auf ihre jeweilige eigene nationale und kulturelle Umgebung beschränkt. Sie benötigen Informationen über Dokumente und Daten aus der ganzen Welt. Gleichzeitig wollen sie die eigenen Forschungsergebnisse in der internationalen Forschungsgemeinschaft zur Diskussion stellen. Sprachraumübergreifende Standards für Metadaten und deren reibungsloser gegenseitiger Austausch sind Voraussetzung für die wissenschaftliche Kommunikation und für den individuellen Erfolg des einzelnen Forschers. Die Deutsche Bibliothek pflegt seit vielen Jahren Kooperationsbeziehungen auf nationaler und internationaler Ebene. Dazu gehören die Entwicklung und Anwendung von gemeinsamen Regeln und Standards sowie Produktion und Vertrieb von bibliografischen Dienstleistungen und die Pflege kooperativ geführter Datenbanken, insbesondere für Normdaten. Einen weiteren Schwerpunkt bilden Entwicklung und Anwendung moderner Technologien für die Langzeitarchivierung der Bestände im Rahmen internationaler Kooperationen, unabhängig davon, ob die Publikationen auf Papier, Mikrofilm oder digital vorliegen."
  16. Oehlschläger, S.: Arbeitsgemeinschaft der Verbundsysteme : Aus der 46. Sitzung am 21. und 22. April 2004 im Bibliotheksservice-Zentrum Baden-Württemberg in Konstanz (2004) 0.01
    0.0072344393 = product of:
      0.039789416 = sum of:
        0.015130063 = weight(_text_:und in 2434) [ClassicSimilarity], result of:
          0.015130063 = score(doc=2434,freq=30.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.33194062 = fieldWeight in 2434, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2434)
        0.015130063 = weight(_text_:und in 2434) [ClassicSimilarity], result of:
          0.015130063 = score(doc=2434,freq=30.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.33194062 = fieldWeight in 2434, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2434)
        0.0046532038 = weight(_text_:in in 2434) [ClassicSimilarity], result of:
          0.0046532038 = score(doc=2434,freq=20.0), product of:
            0.027974274 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02056547 = queryNorm
            0.16633868 = fieldWeight in 2434, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2434)
        0.00487609 = product of:
          0.00975218 = sum of:
            0.00975218 = weight(_text_:22 in 2434) [ClassicSimilarity], result of:
              0.00975218 = score(doc=2434,freq=2.0), product of:
                0.072016776 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02056547 = queryNorm
                0.1354154 = fieldWeight in 2434, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2434)
          0.5 = coord(1/2)
      0.18181819 = coord(4/22)
    
    Content
    "Die verbundübergreifende Fernleihe für Monografien steht kurz vor ihrer flächendeckenden Einführung. Voraussetzung hierfür ist ein funktionierendes Online-Fernleih-System in jedem Verbund. Dies ist prototypisch realisiert. Die Arbeitsgemeinschaft der Verbundsysteme geht davon aus, dass ab dem 1. Januar 2005 der Echtbetrieb aufgenommen werden kann und die Leistungen nach der neuen Leihverkehrsordnung abgerechnet werden können. Zur Klärung von Detailfragen trifft sich im Juni die Arbeitsgruppe Verbundübergreifende Fernleihe. Bereits in der letzten Sitzung wurde festgelegt, dass die jeweiligen Bibliotheken über die Festlegung des Leitwegs entscheiden sollen, und die Verbundzentralen nur dann eingreifen werden, wenn Probleme entstehen sollten. Die individuelle Leitwegsteuerung, sowohl innerhalb des Verbundes als auch bei der Festlegung der Reihenfolge der anzugehenden Verbünde hat in einigen Verbünden hohe Priorität. Traditionell gewachsene Beziehungen müssen von den Bestellsystemen abgebildet werden können. Eine lokale Zusammenarbeit wird auch über Verbundgrenzen hinaus möglich sein. Im Hinblick auf die Verrechnung verbundübergreifender Fernleihen haben sich die Verbünde auf einen einheitlichen Verrechnungszeitraum geeinigt. Voraussetzung ist außerdem, dass die Unterhaltsträger die notwendigen Rahmenbedingungen für die Abrechnung schaffen und die neue Leihverkehrsordnung in allen Bundesländern rechtzeitig in Kraft gesetzt wird."
    - Projekt Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) Das Projekt Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) stand zum Zeitpunkt der Sitzung der Arbeitsgemeinschaft kurz vor seinem Abschluss. Im Rahmen der Veranstaltung des Standardisierungsausschusses beim 2. Leipziger Kongress für Information und Bibliothek wurden die wesentlichen Projektergebnisse vorgestellt. Aufgrund der vorliegenden Informationen gehen die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme davon aus, dass das finanzielle Argument bei der anstehenden Entscheidung nicht mehr im Vordergrund stehen kann. Auch wenn davon ausgegangen wird, dass eine klare Umstiegsentscheidung durch den Standardisierungsausschuss derzeit politisch nicht durchsetzbar sei, sehen die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme die Entwicklung durch die Projektergebnisse positiv. Durch die Diskussion wurden Defizite des deutschen Regelwerks und der Verbundpraxis offen gelegt und verschiedene Neuerungen angestoßen. Zur Verbesserung des Datentausches untereinander sehen die Verbundzentralen unabhängig von einer Entscheidung des Standardisierungsausschusses die Notwendigkeit, ihre Datenbestände zu homogenisieren und Hierarchien abzubauen bzw. die Verknüpfungsstrukturen zu vereinfachen. Auch die Entwicklung der Functional Requirements for Bibliographic Records (FRBR) muss in diese Überlegungen einbezogen werden. Die Formate müssen dahingehend entwickelt werden, dass alle relevanten Informationen im Titelsatz transportiert werden können. Es wird eine Konvergenz von Regelwerk und Format angestrebt.
    - Elektronischer DDC-Dienst Im Fall der deutschen Übersetzung der Dewey Decimal Classification (DDC) wurde die Idee einer Normdatei DDC-Deutsch zugunsten eines zentralen elektronischen DDC-Dienstes bei Der Deutschen Bibliothek aufgegeben. Dieser Dienst hält die übersetzten Daten bereit und stellt sie in drei verschiedenen Ausprägungen zur Verfügung: 1. Zentrales Such- und Browsingtool für Benutzer 2. Klassifikationswerkzeug für Sacherschließer 3. SOAP-Schnittstelle für den elektronischen Datenaustausch. Um die DDC künftig gewinnbringend in der Benutzung einsetzen zu können, werden Konkordanzen zu anderen Klassifikationen, insbesondere aber zur weit verbreiteten Regensburger Verbundklassifikation (RVK) benötigt. Mithilfe dieser Konkordanzen können Benutzer im OPAL Der Deutschen Bibliothek nach DDC-Notationen suchen und würden zusätzlich Ergebnisse aus den Verbünden angezeigt bekommen, die bislang nicht mit der DDC erschlossen sind. Der GBV plant eine Grunderschließung seiner Verbunddatenbank mit der DDC in 5 Ebenen. Ziel ist es, bis Ende 2005 alle Verbunddaten mit der DDC zu verbinden und damit ein bedeutendes Recherchetool zu erhalten.
  17. Syré, L.: AACR2: Stellungnahme der AG Regionalbibliographie (2002) 0.01
    0.0072067464 = product of:
      0.039637104 = sum of:
        0.014807556 = weight(_text_:und in 841) [ClassicSimilarity], result of:
          0.014807556 = score(doc=841,freq=22.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.3248651 = fieldWeight in 841, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=841)
        0.014807556 = weight(_text_:und in 841) [ClassicSimilarity], result of:
          0.014807556 = score(doc=841,freq=22.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.3248651 = fieldWeight in 841, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=841)
        0.004449314 = weight(_text_:in in 841) [ClassicSimilarity], result of:
          0.004449314 = score(doc=841,freq=14.0), product of:
            0.027974274 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02056547 = queryNorm
            0.15905021 = fieldWeight in 841, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=841)
        0.005572675 = product of:
          0.01114535 = sum of:
            0.01114535 = weight(_text_:22 in 841) [ClassicSimilarity], result of:
              0.01114535 = score(doc=841,freq=2.0), product of:
                0.072016776 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02056547 = queryNorm
                0.15476047 = fieldWeight in 841, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=841)
          0.5 = coord(1/2)
      0.18181819 = coord(4/22)
    
    Content
    "Die Mitglieder der Arbeitsgruppe Regionalbibliographie in der Arbeitsgemeinschaft der Regionalbibliotheken (DBV Sektion 4) haben auf ihrer Jahrestagung am 22. und 23. April 2002 in Bautzen einen etwaigen Umstieg von RAK auf AACR2 beraten und sich einstimmig dagegen ausgesprochen. - Begründung - Der personelle, technische und finanzielle Aufwand für den Umstieg wäre für die Landes- und Regionalbibliographien gewaltig. Diejenigen Bibliographien, die ihre eigenen Datenbanken unterhalten, müssten diese sowohl vollständig EDV-technisch (z.B. hinsichtlich des Datenformats) anpassen als auch sämtliche Änderungen (z.B. bei Zeitschriftenaufnahmen, bei der Ansetzung von Körperschaften) nachführen. Dies ist umso schwerwiegender, als nicht alle Bibliographie- Datenbanken über entsprechende eigene Normdateien verfügen. Alle Landes- und Regionalbibliographien, also auch diejenigen, die in die Verbunddatenbanken integriert sind, wären überdies vom zusätzlichen Schulungsaufwand für das neue Regelwerk sowie von Revisionsarbeiten an den Normdateien betroffen. Weitere Nachteile wären Inkonsistenzen im Datenbestand bzw. Qualitätsverluste bei der Konvertierung der Altdaten. Diesen schwerwiegenden Nachteilen steht kein ersichtlicher Vorteil bei Erstellung oder Benutzung der Landes- und Regionalbibliographien gegenüber: Der Rationalisierungseffekt ist unbedeutend, da in Regionalbibliographien ganz überwiegend unselbstständige deutschsprachige Titel verzeichnet werden, für die keine Katalogisate aus AACR-Ländern genutzt werden können. Auch für die Benutzer der Datenbanken steht keine Verbesserung der Rechercheergebnisse zu erwarten. Die Landes- und Regionalbibliographien sehen sich derzeit einer Vielzahl von Aufgaben und neuen Herausforderungen gegenüber, die sie mit bestenfalls stagnierendem Personalstand zu erfüllen haben: Neben einer stetig wachsenden Titelzahl sind dies z.B. die neuen Publikationsformen im WWW, der Aufbau eines gemeinsamen Suchinstruments ("Virtuelle Deutsche Landesbibliographie° in KVK-Technik) und die Integration der noch konventionell vorliegenden älteren Bibliographienachweise in die Datenbanken. In dieser Situation wäre es kontraproduktiv, wenn enorme Ressourcen für einen Regelwerks- und Formatwechsel ohne praktischen Nutzen abgezogen würden. Die AG Regionalbibliographie lehnt daher einen Umstieg auf AACR2 ab. Sie empfiehlt stattdessen, das bestehende Regelwerk weiterzuentwickeln sowie alternative und zeitgemäße Methoden zu erarbeiten, um die internationale Zusammenarbeit zu verbessern (z.B. durch das Projekt "Virtuelle internationale Normdatei")."
  18. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.01
    0.00704379 = product of:
      0.038740844 = sum of:
        0.014499363 = weight(_text_:und in 632) [ClassicSimilarity], result of:
          0.014499363 = score(doc=632,freq=54.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.3181036 = fieldWeight in 632, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.014499363 = weight(_text_:und in 632) [ClassicSimilarity], result of:
          0.014499363 = score(doc=632,freq=54.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.3181036 = fieldWeight in 632, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.0048165233 = weight(_text_:in in 632) [ClassicSimilarity], result of:
          0.0048165233 = score(doc=632,freq=42.0), product of:
            0.027974274 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02056547 = queryNorm
            0.17217688 = fieldWeight in 632, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.004925595 = product of:
          0.00985119 = sum of:
            0.00985119 = weight(_text_:22 in 632) [ClassicSimilarity], result of:
              0.00985119 = score(doc=632,freq=4.0), product of:
                0.072016776 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02056547 = queryNorm
                0.13679022 = fieldWeight in 632, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=632)
          0.5 = coord(1/2)
      0.18181819 = coord(4/22)
    
    Abstract
    Am 23. und 24. November 2005 hat die Arbeitsgemeinschaft der Verbundsysteme ihre 49. Sitzung auf Einladung des Hochschulbibliothekszentrums NordrheinWestfalen (HBZ) in Köln durchgeführt.
    Content
    "Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung Matchkey Bei der Verwendung von Meta-Suchmaschinen zur parallelen Recherche in bibliografischen Datenbanken kommt es häufig vor, dass derselbe Titel mehrmals in der Trefferliste auftaucht. In dieser Situation könnte ein so genannter Matchkey Abhilfe schaffen, der jeden Datensatz aus den vorhandenen bibliografischen Daten heraus eindeutig identifiziert. Ein solcher Algorithmus geht von einem bibliografischen Datensatz aus und generiert einen Schlüssel (Matchkey), der wiederum in den Datensatz integriert werden kann. Der Schlüssel muss sortierfähig sein, so dass die Trefferliste nach dem Grad der Ähnlichkeit sortiert werden kann. Eine wichtige Voraussetzung für die erfolgreiche Anwendung des Matchkey ist die Beseitigung der Hausregeln in den Verbünden und Bibliotheken. Bisher hat Die Deutsche Bibliothek das Thema analysiert und strebt nun die Formulierung und Bereitstellung eines ersten Algorithmus an, um eine Implementierung zu Testzwecken voraussichtlich im März/April 2006 zu ermöglichen. Ein klares Ergebnis soll bis Ende 2006 vorliegen.
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum Das HBZ hat seinen am 15. November frei geschalteten Dreiländer-Katalog (Deutschland, Österreich, Schweiz) vorgestellt, dessen Ziel der Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum ist. Der Katalog entstand in Kooperation des HBZ mit dem Bibliotheksverbund Bayern (BVB) und dem Österreichischen Bibliothekenverbund (OBV); die Integration weiterer Bibliotheksbestände aus anderen Regionen ist in Arbeit. Realisiert wurde das Projekt mittels der Suchmaschinentechnologie des HBZ, die Antwortzeiten in Bruchteilen von Sekunden, Ranking und Kategorisierung der Treffermengen ermöglicht. Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben beschlossen, sich die für die Literaturversorgung relevanten Verbunddaten (Titeldaten mit Nachweisen) für den Aufbau verbundbezogener, nicht kommerzieller Dienste auf Gegenseitigkeit kostenfrei zur Verfügung zu stellen. Normdateien Online-Schnittstelle Ziel der Online-Kommunikation mit Normdateien ist es, die Arbeit mit den zentralen Normdateien dadurch zu vereinfachen, dass Änderungen an Normdaten in den zentral bei Der Deutschen Bibliothek gehaltenen Dateien mit dem eigenen Client erfolgen können. Ferner sollen alle Änderungen an den Normdateien zeitnah in die Normdaten-Spiegel der Verbundsysteme transportiert werden (Replikation). Das Verfahren soll sich auf alle bei Der Deutschen Bibliothek geführten Normdaten erstrecken. Als standardisiertes Kommunikationsprotokoll soll Z39.50 SR Extended Services Update genutzt werden. Für die Replikation ist OAI vorgesehen, als Austauschformat zunächst MAB2 bzw. MABXML. Die existierenden Implementierungen erfüllen an mehreren wichtigen Stellen nicht die Anforderungen. Eine Konversion in und aus einem neutralen Transportformat, wie für die Online-Kommunikation mit Normdateien benötigt, ist an der gegenwärtigen Pica-Schnittstelle nicht vorgesehen und lässt sich nur realisieren, wenn wesentliche Veränderungen vorgenommen werden. OCLC PICA plant, diese Veränderungen im 1. Quartal 2006 vorzunehmen. Nach der aktuellen Projektplanung soll die Online-Kommunikation zu Beginn des Jahres 2007 starten.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."
  19. Boßmeyer, C.: Internationale bibliographische Standards und ihre Auswirkungen auf die deutschen Bibliotheken (1989) 0.01
    0.0070149563 = product of:
      0.05144301 = sum of:
        0.02319898 = weight(_text_:und in 19) [ClassicSimilarity], result of:
          0.02319898 = score(doc=19,freq=6.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.5089658 = fieldWeight in 19, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=19)
        0.02319898 = weight(_text_:und in 19) [ClassicSimilarity], result of:
          0.02319898 = score(doc=19,freq=6.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.5089658 = fieldWeight in 19, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=19)
        0.0050450475 = weight(_text_:in in 19) [ClassicSimilarity], result of:
          0.0050450475 = score(doc=19,freq=2.0), product of:
            0.027974274 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02056547 = queryNorm
            0.18034597 = fieldWeight in 19, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=19)
      0.13636364 = coord(3/22)
    
    Series
    Zeitschrift für Bibliothekswesen und Bibliographie: Sonderh.48
    Source
    4. Deutscher Bibliothekskongreß / 78. Deutscher Bibliothekartag in Berlin 1988: Reden und Vorträge. Hrsg.: B. Dankert u.a
  20. Oehlschläger, S.: Aus der 47. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 3. und 4. November 2004 in Wien (2005) 0.01
    0.0070070326 = product of:
      0.03853868 = sum of:
        0.015784906 = weight(_text_:und in 3124) [ClassicSimilarity], result of:
          0.015784906 = score(doc=3124,freq=64.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.34630734 = fieldWeight in 3124, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3124)
        0.015784906 = weight(_text_:und in 3124) [ClassicSimilarity], result of:
          0.015784906 = score(doc=3124,freq=64.0), product of:
            0.04558063 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02056547 = queryNorm
            0.34630734 = fieldWeight in 3124, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3124)
        0.003485944 = weight(_text_:in in 3124) [ClassicSimilarity], result of:
          0.003485944 = score(doc=3124,freq=22.0), product of:
            0.027974274 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02056547 = queryNorm
            0.12461249 = fieldWeight in 3124, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3124)
        0.0034829217 = product of:
          0.0069658435 = sum of:
            0.0069658435 = weight(_text_:22 in 3124) [ClassicSimilarity], result of:
              0.0069658435 = score(doc=3124,freq=2.0), product of:
                0.072016776 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02056547 = queryNorm
                0.09672529 = fieldWeight in 3124, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3124)
          0.5 = coord(1/2)
      0.18181819 = coord(4/22)
    
    Abstract
    Am 3. und 4. November 2004 hat die Arbeitsgemeinschaft der Verbundsysteme anlässlich ihrer 47. Sitzung erstmals in Wien getagt. Sie war dort zu Gast bei der Österreichischen Bibliothekenverbund und Service Ges.m.b.H., der Zentrale des Österreichischen Bibliotheksverbundes.
    Content
    Darin: "Weiteres Vorgehen nach Abschluss des Projekts Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) Nach Abschluss des Projekts "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" innerhalb der vorgesehenen Laufzeit im Mai 2004 wurde in der B. Sitzung des Standardisierungsausschusses am 26. Mai 2004 der Entwurf des Projektberichts diskutiert. Dabei wurde noch kein Beschluss zum weiteren Vorgehen gefasst, sondern festgestellt, dass nach Aussage der Studie einem Umstieg keine grundsätzlichen Hindernisse entgegenstehen, stattdessen Vorteile eines Umstiegs aufgezeigt werden. Der Abschlussbericht Der Deutschen Bibliothek bestätigt diese Einschätzung und fasst als wichtigste Ergebnisse zusammen, dass sich im Hinblick auf Format und Regelwerk keine Aspekte ergeben haben, die gegen einen Umstieg sprechen, sondern vielmehr die große Chance besteht, weltweit verbreitete Standards auch in Deutschland einzuführen. In der Sitzung des Standardisierungsausschusses wurde aber auch deutlich, dass selbst die Befürworter eines Umstiegs trotz der vorliegenden Ergebnisse der Studie zurzeit keine Möglichkeit sehen, einen Umstieg generell durchzusetzen. Gleichzeitig erkannten die Mitglieder des Standardisierungsausschusses, dass durch die Studie in vielen Fällen Defizite des deutschen Regelwerks und der Verbundpraxis offen gelegt werden und streben daher die Beseitigung dieser Defizite im Einklang mit internationalen Regeln an. Für die weitere Arbeit ist eine klare Richtungsangabe für alle Beteiligten erforderlich. Der Vorsitzende der Arbeitsgemeinschaft der Verbundsysteme und die Leiterin der Arbeitsstelle für Standardisierung hatten zugesagt, einen Vorschlag zur weiteren Vorgehensweise als Diskussionsgrundlage für die nächste Sitzung des Standardisierungsausschusses am 15. Dezember 2004 zu erarbeiten. Hierzu wurden vor dem Hintergrund der Projektergebnisse Vorschläge aus dem Kreis der Arbeitsgemeinschaft und des Standardisierungsausschusses erbeten. Am 14. September 2004 traf sich eine Arbeitsgruppe bestehend aus Vertretern der Arbeitsgemeinschaft und der Arbeitsstelle für Standardisierung, um die Vorschläge aus dem Kreis der Arbeitsgemeinschaft der Verbundsysteme mit den Vorschlägen der anderen Mitglieder des Standardisierungsausschusses abzugleichen. Neben diesen Vorschlägen wurden die Empfehlungen zum weiteren Vorgehen unabhängig von einem Umstieg aus dem Abschlussbericht des Umstiegsprojekts an die Deutsche Forschungsgemeinschaft herangezogen. Die Arbeitsgruppe hat ein Vorschlagspapier vorgelegt, das zunächst den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme zur Verfügung gestellt und bei der Sitzung ausführlich diskutiert, modifiziert und abschließend gebilligt wurde. Das überarbeitete Papier wurde dem Standardisierungsausschuss rechtzeitig zu seiner nächsten Sitzung übersandt. Das Papier enthält neben Vorschlägen für das künftige Regelwerk insbesondere konkrete Aussagen über die Zusammenarbeit der Verbundsysteme. Die wesentlichen Punkte werden im folgenden Absatz kurz vorgestellt.
    Zusammenarbeit der Verbundsysteme Im Rahmen der Diskussion um das weitere Vorgehen nach Abschluss des Projekts Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) haben sich die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme darauf geeinigt, ihre Datenstrukturen zu vereinheitlichen als Voraussetzung für eine Verbesserung von Datentausch und Fremddatennutzung. Die Arbeitsgemeinschaft der Verbundsysteme hat erkannt, dass die gemeinsamen Zielvorstellungen am ökonomischsten mit der verpflichtenden Anwendung von MARC21 als Transportformat zu erreichen sind. Die Alternative "Weiterentwicklung von MAB2 zu MAB3" würde vor dem Hintergrund, dass MARC21 für die Übernahme ausländischer Fremddaten sowie für die Lieferung deutscher Daten an ausländische Kataloge und Portale ohnehin bedient werden müsste, in erheblichem Maß künftig dauerhaft zusätzliche Kapazitäten binden, die von den Unterhaltsträgern bewilligt werden müssten, was bei der derzeitigen Haushaltslage eher unwahrscheinlich erscheint. Zudem wird eine notwendige Weiterentwicklung von MAB2 zu MAB3 - konsequent wiederholbare Kategorien und Subfield-Verwendung - sich strukturell faktisch nicht mehr von einem MARC-Format unterscheiden. Eine Weiterentwicklung des bisherigen deutschen Datenaustauschformats MAB2 zu MAB3 wird daher nicht befürwortet. Für die Planungssicherheit der Bibliotheken und der Softwarehersteller ist die weitere Versorgung mit MAB2-Daten für einen Zeitrahmen von ca. 10 Jahren zu gewährleisten. Dazu ist für eine Übergangszeit auf der einen Seite die weitere Pflege von MAB2 einschließlich der für eine automatisierte Konvertierung von und nach MARC21 notwendigen Anpassung erforderlich und auf der anderen Seite die Implementierung entsprechender Programme bei den Datenlieferanten. Die weitere Pflege von MAB2 soll dabei auf unabdingbar notwendige und zugleich mit MARC21 kompatible Anpassungen beschränkt bleiben. Zur Realisierung ihrer strategischen Ziele hat die Arbeitsgemeinschaft der Verbundsysteme folgende Einzelmaßnahmen beschlossen: Entwicklung einheitlicher Verbundrichtlinien und Formulierung eines gemeinsamen Qualitätsstandards sowie Reduzierung des Datenmodells auf zwei Hierarchiestufen. Als eine der ersten Maßnahmen ist die Erstellung einer Konkordanz MAB2 zu MARC21 geplant. Zwischenzeitlich hat sich auch die Expertengruppe MABAusschuss in einem Positionspapier für MARC21 als Transportformat ausgesprochen und ist bereit, diese Konkordanz zu erstellen.
    Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben weiterhin ihre Absicht bekräftigt, ihre Verbunddaten gegenseitig zum Zweck der Datenübernahme, Fernleihe und Einbindung in Portale über Z 39.50 zu nutzen. Neuerwerbungen sollen künftig kooperativ katalogisiert werden, damit nicht Kapazitäten dadurch gebunden werden, dass die gleiche Titelaufnahme mehrfach erstellt werden muss. Eine Arbeitsgruppe unter Federführung des GBV wird ein Konzept und einen Projektplan mit einzelnen Arbeitsschritten sowie bis Ende 2005 ein prototypisches Verfahren zu entwickeln. Die gegenseitige Nutzung von Fremddatenangeboten (unter Beachtung lizenzrechtlicher Rahmenbedingungen) sowie die Bereitstellung von Datensätzen und ihre Anreicherung durch Abstracts, Inhaltsverzeichnisse, Rezensionen u. ä. sind seit langem bestehende Anforderungen, deren Realisierung mit der Vereinheitlichung der Datenstrukturen und der einheitlichen Anwendung von MARC21 als Transportformat erreicht wird. Notwendige Voraussetzung zur Anreicherung von Daten ist die Entwicklung eines Match-Key-Algorith-mus. Hierzu ist ein gesondertes Projekt unter Federführung Der Deutschen Bibliothek geplant. Die Arbeitsgemeinschaft der Verbundsysteme hat den Standardisierungsausschuss gebeten, dafür Sorge zu tragen, dass das künftige deutsche Regelwerk für die Formalerschließung ihre Ziele einer Vereinheitlichung der Datenstrukturen und eines verbesserten Datentauschs mit Fremddatennutzung effektiv unterstützt. Dazu dürfen keine den AACR widersprechenden Regelungen für das Regelwerk verabschiedet werden. Außerdem dürfen strukturrelevante Aspekte im Regelwerk künftig keine Kann-Bestimmungen mehr sein. Um international übereinstimmende Entitäten zu erhalten, plädiert die Arbeitsgemeinschaft der Verbundsysteme nachdrücklich dafür, bei Verwendung einer Normdatei Individualisierung als obligatorische Bestimmung einzuführen. Eine Übereinstimmung der Entitäten bei Titeln, Personen- und Körperschaftsnamen muss erklärtes Regelwerksziel sein. Hierfür sind international übliche Regelungen einzuführen. Dringend erforderlich ist auch die Vereinheitlichung und Integration der Sonderregeln in das Regelwerk. Die Arbeitsgemeinschaft der Verbundsysteme schlägt dem Standardisierungsausschuss darüber hinaus vor, Aspekte der Functional Requirements for Bibliographic Records (FRBR) im Regelwerk in Übereinstimmung mit der internationalen Entwicklung zu berücksichtigen und durch geeignete Untersuchungen auf Expertenebene zu untermauern."
    Date
    22. 1.2005 18:53:53

Authors

Years

Languages

Types

  • a 277
  • m 29
  • s 19
  • el 16
  • l 5
  • x 5
  • n 3
  • r 3
  • b 2
  • ? 1
  • More… Less…