Search (164 results, page 1 of 9)

  • × theme_ss:"Datenformate"
  1. Concise UNIMARC Classification Format : Draft 5 (20000125) (2000) 0.12
    0.12165199 = product of:
      0.18247798 = sum of:
        0.07207332 = weight(_text_:im in 4421) [ClassicSimilarity], result of:
          0.07207332 = score(doc=4421,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.49970993 = fieldWeight in 4421, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.125 = fieldNorm(doc=4421)
        0.11040466 = product of:
          0.16560699 = sum of:
            0.0830764 = weight(_text_:online in 4421) [ClassicSimilarity], result of:
              0.0830764 = score(doc=4421,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.5364998 = fieldWeight in 4421, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.125 = fieldNorm(doc=4421)
            0.08253059 = weight(_text_:retrieval in 4421) [ClassicSimilarity], result of:
              0.08253059 = score(doc=4421,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.5347345 = fieldWeight in 4421, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.125 = fieldNorm(doc=4421)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Theme
    Klassifikationssysteme im Online-Retrieval
  2. Woods, E.W.; IFLA Section on classification and Indexing and Indexing and Information Technology; Joint Working Group on a Classification Format: Requirements for a format of classification data : Final report, July 1996 (1996) 0.09
    0.091239 = product of:
      0.1368585 = sum of:
        0.054054987 = weight(_text_:im in 3008) [ClassicSimilarity], result of:
          0.054054987 = score(doc=3008,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.37478244 = fieldWeight in 3008, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.09375 = fieldNorm(doc=3008)
        0.0828035 = product of:
          0.12420525 = sum of:
            0.062307306 = weight(_text_:online in 3008) [ClassicSimilarity], result of:
              0.062307306 = score(doc=3008,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.40237486 = fieldWeight in 3008, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3008)
            0.06189794 = weight(_text_:retrieval in 3008) [ClassicSimilarity], result of:
              0.06189794 = score(doc=3008,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.40105087 = fieldWeight in 3008, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3008)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Theme
    Klassifikationssysteme im Online-Retrieval
  3. Guenther, R.S.: Bringing the Library of Congress into the computer age : converting LCC to machine-readable form (1996) 0.08
    0.0760325 = product of:
      0.11404874 = sum of:
        0.045045823 = weight(_text_:im in 4578) [ClassicSimilarity], result of:
          0.045045823 = score(doc=4578,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.3123187 = fieldWeight in 4578, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.078125 = fieldNorm(doc=4578)
        0.06900292 = product of:
          0.103504375 = sum of:
            0.051922753 = weight(_text_:online in 4578) [ClassicSimilarity], result of:
              0.051922753 = score(doc=4578,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.33531237 = fieldWeight in 4578, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4578)
            0.051581617 = weight(_text_:retrieval in 4578) [ClassicSimilarity], result of:
              0.051581617 = score(doc=4578,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.33420905 = fieldWeight in 4578, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4578)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Theme
    Klassifikationssysteme im Online-Retrieval
  4. Guenther, R.S.: ¬The USMARC Format for Classification Data : development and implementation (1992) 0.07
    0.068472974 = product of:
      0.10270946 = sum of:
        0.03603666 = weight(_text_:im in 2996) [ClassicSimilarity], result of:
          0.03603666 = score(doc=2996,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.24985497 = fieldWeight in 2996, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=2996)
        0.066672795 = product of:
          0.10000919 = sum of:
            0.058743894 = weight(_text_:online in 2996) [ClassicSimilarity], result of:
              0.058743894 = score(doc=2996,freq=4.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.37936267 = fieldWeight in 2996, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2996)
            0.041265294 = weight(_text_:retrieval in 2996) [ClassicSimilarity], result of:
              0.041265294 = score(doc=2996,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.26736724 = fieldWeight in 2996, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2996)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Abstract
    This paper discusses the newly developed USMARC Format for Classification Data. It reviews its potential uses within an online system and its development as one of the USMARC standards for representing bibliographic and related information in machine-readable form. It provides a summary of the fields in the format, and considers the prospects for its implementation.
    Theme
    Klassifikationssysteme im Online-Retrieval
  5. Guenther, R.S.: ¬The development and implementation of the USMARC format for classification data (1992) 0.07
    0.068472974 = product of:
      0.10270946 = sum of:
        0.03603666 = weight(_text_:im in 8865) [ClassicSimilarity], result of:
          0.03603666 = score(doc=8865,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.24985497 = fieldWeight in 8865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=8865)
        0.066672795 = product of:
          0.10000919 = sum of:
            0.058743894 = weight(_text_:online in 8865) [ClassicSimilarity], result of:
              0.058743894 = score(doc=8865,freq=4.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.37936267 = fieldWeight in 8865, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0625 = fieldNorm(doc=8865)
            0.041265294 = weight(_text_:retrieval in 8865) [ClassicSimilarity], result of:
              0.041265294 = score(doc=8865,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.26736724 = fieldWeight in 8865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0625 = fieldNorm(doc=8865)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Abstract
    This paper discusses the newly developed USMARC Format for Classification Data. It reviews its potential uses within an online system and its development as one of the USMARC standards. It provides a summary of the fields in the format and considers the prospects for its implementation. The papaer describes an experiment currently being conducted at the Library of Congress to create USMARC classification records and use a classification database in classifying materials in the social sciences
    Theme
    Klassifikationssysteme im Online-Retrieval
  6. Guenther, R.S.: ¬The Library of Congress Classification in the USMARC format (1994) 0.06
    0.059913844 = product of:
      0.089870766 = sum of:
        0.031532075 = weight(_text_:im in 8864) [ClassicSimilarity], result of:
          0.031532075 = score(doc=8864,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.2186231 = fieldWeight in 8864, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8864)
        0.058338694 = product of:
          0.08750804 = sum of:
            0.051400907 = weight(_text_:online in 8864) [ClassicSimilarity], result of:
              0.051400907 = score(doc=8864,freq=4.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.33194235 = fieldWeight in 8864, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=8864)
            0.03610713 = weight(_text_:retrieval in 8864) [ClassicSimilarity], result of:
              0.03610713 = score(doc=8864,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.23394634 = fieldWeight in 8864, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=8864)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Abstract
    The paper reviews the development of the USMARC Format for Classification Data, a standard for communication of classification data in machine-readable form. It considers the uses for online classification schedules, both for technical services and reference functions and gives an overview of the format specification details of data elements used and of the structure of the records. The paper describes an experiment conducted at the Library of Congress to test the format as well as the development of the classification database encompassing the LCC schedules. Features of the classification system are given. The LoC will complete its conversion of the LCC in mid-1995
    Theme
    Klassifikationssysteme im Online-Retrieval
  7. Guenther, R.S.: Automating the Library of Congress Classification Scheme : implementation of the USMARC format for classification data (1996) 0.06
    0.059913844 = product of:
      0.089870766 = sum of:
        0.031532075 = weight(_text_:im in 5578) [ClassicSimilarity], result of:
          0.031532075 = score(doc=5578,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.2186231 = fieldWeight in 5578, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5578)
        0.058338694 = product of:
          0.08750804 = sum of:
            0.051400907 = weight(_text_:online in 5578) [ClassicSimilarity], result of:
              0.051400907 = score(doc=5578,freq=4.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.33194235 = fieldWeight in 5578, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5578)
            0.03610713 = weight(_text_:retrieval in 5578) [ClassicSimilarity], result of:
              0.03610713 = score(doc=5578,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.23394634 = fieldWeight in 5578, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5578)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Potential uses for classification data in machine readable form and reasons for the development of a standard, the USMARC Format for Classification Data, which allows for classification data to interact with other USMARC bibliographic and authority data are discussed. The development, structure, content, and use of the standard is reviewed with implementation decisions for the Library of Congress Classification scheme noted. The author examines the implementation of USMARC classification at LC, the conversion of the schedules, and the functionality of the software being used. Problems in the effort are explored, and enhancements desired for the online classification system are considered.
    Theme
    Klassifikationssysteme im Online-Retrieval
  8. Paulus, W.; Weishaupt, K.: Bibliotheksdaten werden mehr wert : LibLink wertet bibliothekarische Dienstleistung auf (1996) 0.06
    0.057831556 = product of:
      0.08674733 = sum of:
        0.063704416 = weight(_text_:im in 5228) [ClassicSimilarity], result of:
          0.063704416 = score(doc=5228,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.44168535 = fieldWeight in 5228, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.078125 = fieldNorm(doc=5228)
        0.023042914 = product of:
          0.06912874 = sum of:
            0.06912874 = weight(_text_:22 in 5228) [ClassicSimilarity], result of:
              0.06912874 = score(doc=5228,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.38690117 = fieldWeight in 5228, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5228)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Die maschinenlesbaren Katalogdaten der Bibliotheken wurden bisher hauptsächlich intern genutzt. Die im Institut Arbeit und Technik entwickelte Software LibLink ermöglich es, diese Daten auch im wissenschaftlichen Kontext zu verwenden
    Date
    29. 9.1996 18:58:22
  9. Klien, P.; Labner, J.: Originalschriftliche Eingabe nichtlateinischer Zeichen im österreichischen Bibliothekenverbund (2004) 0.05
    0.050182126 = product of:
      0.075273186 = sum of:
        0.04767202 = weight(_text_:im in 2197) [ClassicSimilarity], result of:
          0.04767202 = score(doc=2197,freq=14.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.33052707 = fieldWeight in 2197, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=2197)
        0.027601166 = product of:
          0.041401748 = sum of:
            0.0207691 = weight(_text_:online in 2197) [ClassicSimilarity], result of:
              0.0207691 = score(doc=2197,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.13412495 = fieldWeight in 2197, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2197)
            0.020632647 = weight(_text_:retrieval in 2197) [ClassicSimilarity], result of:
              0.020632647 = score(doc=2197,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.13368362 = fieldWeight in 2197, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2197)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Das Phänomen der Globalisierung betrifft zunehmend auch die bibliothekarische WeIt. Parallel zu den derzeit geführten Diskussionen über die Anpassung von internationalen Regelwerken und Austauschformaten wächst auch der Wunsch, fremdsprachige Katalogisate zumindest teilweise in Originalschrift eingeben zu können. Dieses Bestreben wird noch dadurch gefördert, dass in zunehmenden Maße die Voraussetzungen auf technischer Ebene gewährleistet werden. Zum einen sind nun die Windows-Betriebssysteme NT / 2000 / XP "unicodefähig", zum anderen unterstützt auch die neue Generation der integrierten Bibliothekssysteme immer öfter den Unicode-Standard, der für alle Schriftzeichen weltweit eine eindeutige Codierung vorsieht. Diese wachsende Akzeptanz des Unicode-Standards und die Verfügbarkeit unterstützender Programme zählen übrigens zu den bedeutendsten weltweiten Trends in der gegenwärtigen Softwaretechnologie. Auch im MAB-Ausschuss (MAB ist das Maschinelle Austauschformat für Bibliotheken) wurde diesen Entwicklungen Rechnung getragen und ein neues MAB-Feld zur Darstellung von Originalschrift und Umschrift bei der Verwendung von Unicode / ISO 10646 geschaffen. Ersten diesbezüglichen Überlegungen im November 2001 folgte ein Entwurf für ein neues MABFeld 671 der erst unlängst (Februar 2004) freigegeben wurde. Die aktualisierte MAB2 Online-Kurzreferenz-Version kann unter ftp://ftp.ddb.de~ pubtmab/erw-mab txt eingesehen werden. Für den Österreichischen Bibliothekenverbund bedeutete der Releasewechsel auf die ALEPH 500 Version 14.2 (Sommer 2001) die Möglichkeit, Unicode im vollen Umfang nutzen zu können. Vor allem die Fachbereichsbibliothek für Ostasienwissenschaften an der Universität Wien zeigte in der Folge nachdrückliches Interesse daran, japanische und koreanische Originalschriften in den Verbundkatalog einbringen zu können. Die aus diesem Anlass vorgenommene und im folgenden beschriebene Implementierung nutzen mittlerweile auch die Fachbereichsbibiiothek für Byzantinistik und Neogräzistik an der Universität Wien (Griechisch) sowie demnächst die Bibliothek des jüdischen Museums Wien (Hebräisch).
    - Zielsetzung - Bevor mit der Ausarbeitung einer Lösung für originalschriftliche Eingaben im Österreichischen Bibliothekenverbund begonnen werden konnte, waren bestimmte Rahmenbedingungen festzulegen. Hohe Priorität sollte einer ökonomischen Katalogisierung eingeräumt werden (effiziente Arbeitsabläufe, einfache und übersichtliche Kategorienstrukturen, unterstützende Satzschablonen). Auch von systembibliothekarischer und systemadministrativer Seite her sollte der Aufwand möglichst gering gehalten werden (z.B. Anpassungsumfang bei der Parametrisierung, Anzahl der zu ändernden Tabellen). Weiters wurden Aleph 500-Anwender, die außerhalb des Österreichischen Bibliothekenverbundes das MAB-Format verwenden, in die Diskussion miteingebunden, um eine möglichst einheitliche Lösung zu finden (Import- und Exportschnittstellen müssten dann von der Herstellerfirma Ex Libris nur einmal adaptiert werden). Außerdem wurde vorerst festgelegt, dass die neu hinzukommenden originalschriftlichen Texte lediglich für die Anzeige dienen sollten. Indexierung und Retrieval sind hingegen hier nicht vorgesehen. Basis für die zu implementierende Lösung war nahe liegender Weise der vorliegende MAB-Entwurf (schließlich ist das im Österreichischen Bibliothekenverbund verwendete Internformat bis auf einige kleinere Adaptionen und eine durchgängige Subfieldstruktur nahezu ident mit dem MABFormat). Dennoch sahen wir keine Notwendigkeit, uns um jeden Preis an diesen Entwurf halten zu müssen, falls er sich als unnötig kompliziert und ineffizient erweisen sollte.
  10. Oehlschläger, S.: Arbeitsgemeinschaft der Verbundsysteme : Aus der 46. Sitzung am 21. und 22. April 2004 im Bibliotheksservice-Zentrum Baden-Württemberg in Konstanz (2004) 0.05
    0.04855896 = product of:
      0.07283844 = sum of:
        0.044593092 = weight(_text_:im in 2434) [ClassicSimilarity], result of:
          0.044593092 = score(doc=2434,freq=16.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.30917975 = fieldWeight in 2434, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2434)
        0.02824535 = product of:
          0.042368025 = sum of:
            0.018172964 = weight(_text_:online in 2434) [ClassicSimilarity], result of:
              0.018172964 = score(doc=2434,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.11735933 = fieldWeight in 2434, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2434)
            0.024195058 = weight(_text_:22 in 2434) [ClassicSimilarity], result of:
              0.024195058 = score(doc=2434,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.1354154 = fieldWeight in 2434, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2434)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Content
    "Die verbundübergreifende Fernleihe für Monografien steht kurz vor ihrer flächendeckenden Einführung. Voraussetzung hierfür ist ein funktionierendes Online-Fernleih-System in jedem Verbund. Dies ist prototypisch realisiert. Die Arbeitsgemeinschaft der Verbundsysteme geht davon aus, dass ab dem 1. Januar 2005 der Echtbetrieb aufgenommen werden kann und die Leistungen nach der neuen Leihverkehrsordnung abgerechnet werden können. Zur Klärung von Detailfragen trifft sich im Juni die Arbeitsgruppe Verbundübergreifende Fernleihe. Bereits in der letzten Sitzung wurde festgelegt, dass die jeweiligen Bibliotheken über die Festlegung des Leitwegs entscheiden sollen, und die Verbundzentralen nur dann eingreifen werden, wenn Probleme entstehen sollten. Die individuelle Leitwegsteuerung, sowohl innerhalb des Verbundes als auch bei der Festlegung der Reihenfolge der anzugehenden Verbünde hat in einigen Verbünden hohe Priorität. Traditionell gewachsene Beziehungen müssen von den Bestellsystemen abgebildet werden können. Eine lokale Zusammenarbeit wird auch über Verbundgrenzen hinaus möglich sein. Im Hinblick auf die Verrechnung verbundübergreifender Fernleihen haben sich die Verbünde auf einen einheitlichen Verrechnungszeitraum geeinigt. Voraussetzung ist außerdem, dass die Unterhaltsträger die notwendigen Rahmenbedingungen für die Abrechnung schaffen und die neue Leihverkehrsordnung in allen Bundesländern rechtzeitig in Kraft gesetzt wird."
    - Projekt Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) Das Projekt Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) stand zum Zeitpunkt der Sitzung der Arbeitsgemeinschaft kurz vor seinem Abschluss. Im Rahmen der Veranstaltung des Standardisierungsausschusses beim 2. Leipziger Kongress für Information und Bibliothek wurden die wesentlichen Projektergebnisse vorgestellt. Aufgrund der vorliegenden Informationen gehen die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme davon aus, dass das finanzielle Argument bei der anstehenden Entscheidung nicht mehr im Vordergrund stehen kann. Auch wenn davon ausgegangen wird, dass eine klare Umstiegsentscheidung durch den Standardisierungsausschuss derzeit politisch nicht durchsetzbar sei, sehen die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme die Entwicklung durch die Projektergebnisse positiv. Durch die Diskussion wurden Defizite des deutschen Regelwerks und der Verbundpraxis offen gelegt und verschiedene Neuerungen angestoßen. Zur Verbesserung des Datentausches untereinander sehen die Verbundzentralen unabhängig von einer Entscheidung des Standardisierungsausschusses die Notwendigkeit, ihre Datenbestände zu homogenisieren und Hierarchien abzubauen bzw. die Verknüpfungsstrukturen zu vereinfachen. Auch die Entwicklung der Functional Requirements for Bibliographic Records (FRBR) muss in diese Überlegungen einbezogen werden. Die Formate müssen dahingehend entwickelt werden, dass alle relevanten Informationen im Titelsatz transportiert werden können. Es wird eine Konvergenz von Regelwerk und Format angestrebt.
    - Elektronischer DDC-Dienst Im Fall der deutschen Übersetzung der Dewey Decimal Classification (DDC) wurde die Idee einer Normdatei DDC-Deutsch zugunsten eines zentralen elektronischen DDC-Dienstes bei Der Deutschen Bibliothek aufgegeben. Dieser Dienst hält die übersetzten Daten bereit und stellt sie in drei verschiedenen Ausprägungen zur Verfügung: 1. Zentrales Such- und Browsingtool für Benutzer 2. Klassifikationswerkzeug für Sacherschließer 3. SOAP-Schnittstelle für den elektronischen Datenaustausch. Um die DDC künftig gewinnbringend in der Benutzung einsetzen zu können, werden Konkordanzen zu anderen Klassifikationen, insbesondere aber zur weit verbreiteten Regensburger Verbundklassifikation (RVK) benötigt. Mithilfe dieser Konkordanzen können Benutzer im OPAL Der Deutschen Bibliothek nach DDC-Notationen suchen und würden zusätzlich Ergebnisse aus den Verbünden angezeigt bekommen, die bislang nicht mit der DDC erschlossen sind. Der GBV plant eine Grunderschließung seiner Verbunddatenbank mit der DDC in 5 Ebenen. Ziel ist es, bis Ende 2005 alle Verbunddaten mit der DDC zu verbinden und damit ein bedeutendes Recherchetool zu erhalten.
  11. Hrusa, H.; Kirschner, C.; Neumayer, F.: Datenimport aus der TU Publikationsdatenbank in den Aleph-Bibliothekskatalog (2005) 0.04
    0.04295969 = product of:
      0.064439535 = sum of:
        0.054054987 = weight(_text_:im in 3772) [ClassicSimilarity], result of:
          0.054054987 = score(doc=3772,freq=8.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.37478244 = fieldWeight in 3772, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=3772)
        0.010384551 = product of:
          0.031153653 = sum of:
            0.031153653 = weight(_text_:online in 3772) [ClassicSimilarity], result of:
              0.031153653 = score(doc=3772,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.20118743 = fieldWeight in 3772, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3772)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    An der UB TU Wien existiert seit den 1920er Jahren eine umfangreiche Sammlung von Sonderdrucken der Universitätsangehörigen. Diese wurde nicht systematisch angelegt, sondern entstand durch freiwillige Mitarbeit der Institutsangehörigen, die die Sonderdrucke an die Bibliothek weitergaben. Die Sammlung umfasst etwa 20.000 Sonderdrucke, die in einer eigenen Kartei verzeichnet wurden. Bibliotheksbenutzer finden im Nominalkatalog der Bibliothek nur einen Sammeleintrag unter dem Namen des Autors. Seit der Einführung eines EDV-gestützten Bibliothekskatalogs und dem damit verbundenen Abbruch des Kartenkatalogs wurde mehrfach versucht, die einzelnen Sonderdrucke in unseren Online-Katalog zu integrieren. Mit der Einführung des Bibliothekssystems Aleph 500 im Jahr 1999 wurde mit der Katalogisierung der aktuellen Sonderdrucke begonnen - sie sind nun im Gesamtkatalog und im Katalog der UB TU Wien nachgewiesen. Auf diese Weise entstanden zwischen 1999 und 2004 etwa 4.000 Einträge von Sonderdrucken, die von unseren Bibliotheksbenutzern häufig nachgefragt und zur Lesesaalbenutzung bestellt werden.
  12. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.04
    0.04215273 = product of:
      0.06322909 = sum of:
        0.02758482 = weight(_text_:im in 632) [ClassicSimilarity], result of:
          0.02758482 = score(doc=632,freq=12.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.19125536 = fieldWeight in 632, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.03564427 = product of:
          0.053466406 = sum of:
            0.029025706 = weight(_text_:online in 632) [ClassicSimilarity], result of:
              0.029025706 = score(doc=632,freq=10.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.18744534 = fieldWeight in 632, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=632)
            0.0244407 = weight(_text_:22 in 632) [ClassicSimilarity], result of:
              0.0244407 = score(doc=632,freq=4.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.13679022 = fieldWeight in 632, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=632)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Content
    "Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung Matchkey Bei der Verwendung von Meta-Suchmaschinen zur parallelen Recherche in bibliografischen Datenbanken kommt es häufig vor, dass derselbe Titel mehrmals in der Trefferliste auftaucht. In dieser Situation könnte ein so genannter Matchkey Abhilfe schaffen, der jeden Datensatz aus den vorhandenen bibliografischen Daten heraus eindeutig identifiziert. Ein solcher Algorithmus geht von einem bibliografischen Datensatz aus und generiert einen Schlüssel (Matchkey), der wiederum in den Datensatz integriert werden kann. Der Schlüssel muss sortierfähig sein, so dass die Trefferliste nach dem Grad der Ähnlichkeit sortiert werden kann. Eine wichtige Voraussetzung für die erfolgreiche Anwendung des Matchkey ist die Beseitigung der Hausregeln in den Verbünden und Bibliotheken. Bisher hat Die Deutsche Bibliothek das Thema analysiert und strebt nun die Formulierung und Bereitstellung eines ersten Algorithmus an, um eine Implementierung zu Testzwecken voraussichtlich im März/April 2006 zu ermöglichen. Ein klares Ergebnis soll bis Ende 2006 vorliegen.
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum Das HBZ hat seinen am 15. November frei geschalteten Dreiländer-Katalog (Deutschland, Österreich, Schweiz) vorgestellt, dessen Ziel der Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum ist. Der Katalog entstand in Kooperation des HBZ mit dem Bibliotheksverbund Bayern (BVB) und dem Österreichischen Bibliothekenverbund (OBV); die Integration weiterer Bibliotheksbestände aus anderen Regionen ist in Arbeit. Realisiert wurde das Projekt mittels der Suchmaschinentechnologie des HBZ, die Antwortzeiten in Bruchteilen von Sekunden, Ranking und Kategorisierung der Treffermengen ermöglicht. Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben beschlossen, sich die für die Literaturversorgung relevanten Verbunddaten (Titeldaten mit Nachweisen) für den Aufbau verbundbezogener, nicht kommerzieller Dienste auf Gegenseitigkeit kostenfrei zur Verfügung zu stellen. Normdateien Online-Schnittstelle Ziel der Online-Kommunikation mit Normdateien ist es, die Arbeit mit den zentralen Normdateien dadurch zu vereinfachen, dass Änderungen an Normdaten in den zentral bei Der Deutschen Bibliothek gehaltenen Dateien mit dem eigenen Client erfolgen können. Ferner sollen alle Änderungen an den Normdateien zeitnah in die Normdaten-Spiegel der Verbundsysteme transportiert werden (Replikation). Das Verfahren soll sich auf alle bei Der Deutschen Bibliothek geführten Normdaten erstrecken. Als standardisiertes Kommunikationsprotokoll soll Z39.50 SR Extended Services Update genutzt werden. Für die Replikation ist OAI vorgesehen, als Austauschformat zunächst MAB2 bzw. MABXML. Die existierenden Implementierungen erfüllen an mehreren wichtigen Stellen nicht die Anforderungen. Eine Konversion in und aus einem neutralen Transportformat, wie für die Online-Kommunikation mit Normdateien benötigt, ist an der gegenwärtigen Pica-Schnittstelle nicht vorgesehen und lässt sich nur realisieren, wenn wesentliche Veränderungen vorgenommen werden. OCLC PICA plant, diese Veränderungen im 1. Quartal 2006 vorzunehmen. Nach der aktuellen Projektplanung soll die Online-Kommunikation zu Beginn des Jahres 2007 starten.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."
  13. Oehlschläger, S.: Aus der 52. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 24. und 25. April 2007 in Berlin (2007) 0.04
    0.04173405 = product of:
      0.062601075 = sum of:
        0.050362762 = weight(_text_:im in 465) [ClassicSimilarity], result of:
          0.050362762 = score(doc=465,freq=40.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.34918293 = fieldWeight in 465, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
        0.012238312 = product of:
          0.036714934 = sum of:
            0.036714934 = weight(_text_:online in 465) [ClassicSimilarity], result of:
              0.036714934 = score(doc=465,freq=16.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.23710167 = fieldWeight in 465, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=465)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Content
    "Umstieg auf MARC 21 Das Projekt Umstieg auf MARC 21 gliedert sich in mehrere Arbeitspakete: einerseits die Entwicklung einer Konkordanz von MAB2 nach MARC 21 und die Beantragung von Veränderungen im MARC-21-Format, andererseits die Entwicklung eines Editionssystems, eine Übersetzung von MARC Concise und die Erstellung einer Expertise zur Verwendung von MARCXML. Seit der letzten Sitzung der Arbeitsgemeinschaft der Verbundsysteme gelang es den Projektbeteiligten, diese Arbeitspakete in großen Teilen abzuschließen bzw. weiter voranzubringen. Kooperative Neukatalogisierung Ziel des Projektes Kooperative Neukatalogisierung ist es, dass jeder Titel in den Verbünden, bei der Deutschen Nationalbibliothek und in der ZDB nur noch einmal nach einheitlichen Regeln erfasst und erschlossen wird. Damit soll einerseits die Eigenkatalogisierungsquote in den Verbünden gesenkt werden und andererseits sollen die Daten schneller als bisher zur Verfügung stehen. Die AG Kooperative Neukatalogisierung unter dem Vorsitz von Frau Dr. Block (GBV) hat nach intensiver Arbeit ein Papier vorgelegt, in dem der Stand der Arbeiten dokumentiert und die gemeinsam von der Arbeitsgruppe getroffenen Vereinbarungen zusammengefasst sind. Die Arbeitsgemeinschaft der Verbundsysteme dankte der Arbeitsgruppe für ihre gute Arbeit und verabschiedete das Papier einstimmig.
    Catalogue Enrichment Die Arbeitsgruppe Catalogue Enrichment unter Federführung des hbz hat im Berichtszeitraum nicht getagt. Der Vorsitzende der AGV berichtet, dass das Projekt insgesamt eine gute Dynamik erreicht habe. Ursprünglich war man von dem Gedanken eines Referenzservers ausgegangen. Die Idee dabei war es, einen Server aufzusetzen, an den alle angereicherten Daten geliefert werden sollten. Dabei sollte automatisch abgeglichen werden, ob irgendwo bereits Daten vorliegen. Nunmehr müsse geprüft werden, ob ein zentraler Server in dieser Form noch benötigt werde. Normdaten-Onlineschnittstelle Im Projekt Online-Normschnittstelle konnten die Hersteller-Funktionstests mit der Deutschen Nationalbibliothek mittlerweile erfolgreich abgeschlossen werden, und die Funktionstests mit den Anwendern stehen unmittelbar bevor. Nach dem entsprechend angepassten Zeitplan für die Projekte Online-Normschnittstelle und Online-Redaktionsverfahren für Normdaten ist der Beginn der "produktiven Phase", d.h. der Einsatz im Echtbetrieb der Normdatei, für das zweite Halbjahr 2007 vorgesehen. Die Zeitplanung für die Einführung ist entscheidend von den Ergebnissen der Anwendertests abhängig. Das Online-Updateverfahren (Z39,50-Update und zeitnahe Replikation Ober °Al in die Bibliotheksverbünde) soil dabeizuerst in der Personennamendatei (PND) eingesetzt werden. Füreinen Einführungszeitraum von zwei Monaten sollen Redaktionsverfahren und Teilnehmerkreis zunächst weitgehend unverändert bleiben (noch keine Einbeziehung der Katalogisierer). Der Einführungszeitraum soll dazu genutzt werden, etwaige noch nicht erkannte Funktionsschwächen zu beseitigen, die für das volle Online-Redaktionsverfahren notwendigen Formaterweiterungen und Umsetzungen vorzunehmen und in den Bibliotheksverbünden und Bibliotheken die notwendigen Geschäftsgangsänderungen zu planen und durchzuführen. Im Anschluss sollen dann für die PND der Teilnehmerkreis am Online-Kommunikationsverfahren auf alle Katalogisierer in den teilnehmenden Bibliotheksverbünden ausgeweitet und das Online-Redaktionsverfahren eingesetzt werden.
    DDC-vascoda Für den Sucheinstieg bei vascoda wird bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungsjahr) kombiniert werden kann, angeboten. Die Suche kann zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Da in vascoda die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument eingeführt ist und bereits nennenswerte Bestände mit der DDC erschlossen sind, bietet sich die Möglichkeit, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Im Berichtszeitraum wurde in der vascoda AG Betrieb und mit dem hbz als Portalbetreiber die konzeptionelle und technische Einbindung des DDC-Browsings im vascoda-Portal diskutiert und beschlossen. Die Navigation mit DDC wird ähnlich wie die Navigation über die Fachcluster auf der linken Seite der Trefferliste integriert, beim Navigieren im Baum werden synchron die passenden Ressourcen aus der Suchmaschine in der mittleren Spalte eingeblendet. Wegen hoher Arbeitsbelastung im hbz wird dieses Feature wahrscheinlich nicht Teil des vascoda-Relaunches im Juni 2007 sein, sondern erst im 2. Halbjahr 2007 integriert werden. Weiter wurde ein Angebot implementiert für Fachportale und andere Institutionen, die mit DDC erschließen, aber nicht die technischen Möglichkeiten haben, ein eigenes Browsing zu entwickeln. Das Verfahren sieht vor, dass die DNB einen Dienst anbietet, der ein HTML-Snippet mit der gewünschten Browsing-Struktur generiert (ähnlich wie MelvilSearch), die in die Oberfläche des Fachportals integriert werden kann. Der Dienst wird voraussichtlich im 2. Quartal 2007 in Betrieb genommen werden können. In Zusammenarbeit mit der SUB Göttingen wurde ein Workshop zum Thema Lizenzfragen für DDC in Bezug auf Fachportale und andere Online-Angebote abgehalten. Die Ergebnisse wurden im vascoda-Newsletter veröffentlicht.
    kim - Kompetenzzentrum Interoperable Metadaten Projektziel ist der Aufbau eines Kompetenzzentrums Interoperable Metadaten (KIM), das im deutschsprachigen Raum den Ausbau der Kompetenzen für die Themen interoperable Metadaten, Metadatenaustausch und Formate fördern soll. Strukturierte Beschreibungen (Metadaten) verschiedener Datenbestände werden als "interoperabel" bezeichnet, wenn in ihnen über einheitliche Suchverfahren recherchiert oder sie sinnvoll in die Datenverwaltung integriert werden können. Interoperabilität wird erreicht, indem man sich in kontrollierten institutionellen Zusammenhängen an technische Spezifikationen hält. Eine zentrale Aufgabe des "Kompetenzzentrum Interoperable Metadaten" als DCMI-Affiliate in Deutschland (nach Projektende im deutschsprachigen Raum mit Partnern aus Österreich und der Schweiz) besteht dabei in der Bildung einer Kernarbeitsgruppe mit weiteren spezifischen Arbeitsgruppen, die durch die Begutachtung bereits existierender Anwendungsprofile ein gemeinsames Verständnis für "good practice" in der Anwendung sowohl des Dublin-Core-Modells als auch des Semantic-Web-Modells entwickelt. Dieses Verständnis bildet die Grundlage für die Entwicklung von Zertifizierungsverfahren, Ausbildungsangeboten und Beratungsdiensten im Bereich interoperable Metadaten.
    CrissCross Ziel des Projekts ist die Schaffung eines multilingualen, thesaurusbasierten und benutzerorientierten Recherchevokabulars zu heterogen erschlossenen Dokumenten für die Nutzer des deutschen wissenschaftlichen Bibliothekswesens. Dazu werden die Sachschlagwörter der SWD mit den Notationen der Dewey Dezimalklassifikation verbunden sowie mit ihren Äquivalenten in LCSH und Rameau verknüpft. Projektpartner sind die Fakultät für Informations- und Kommunikationswissenschaften der Fachhochschule Köln und die Deutsche Nationalbibliothek. Das Projekt hat am 1. Februar 2006 begonnen und soll zum 31. Januar 2008 abgeschlossen sein. Im Berichtszeitraum wurde die Arbeitsumgebung im Pica/Iltis-System der Deutschen Nationalbibliothek und im Tool für die DDC-Notationsvergabe "MelvilClass" verwendet, um DDC-Notationen an SWD-Schlagwörtern zu erfassen. Die bisherigen Erfahrungen zeigen, dass die intellektuelle Vergabe sehr viel aufwändiger als gedacht ist. Dementsprechend wird neu über maschinelle Verfahren nachgedacht, wie ein maschineller Abgleich zwischen den SWD-Termen und den DDC-Registerbegriffen. Bei Übereinstimmung soll eine automatisch generierte Vorschlags-Notation im SWD-Satz gespeichert werden. Inwiefern durch die unterschiedliche Begriffsbildung Übereinstimmungen zwischen den Vokabularien existieren, welche Vorbereitungen ev. notwendig sind (z.B. MILOS) und welchen Nutzen automatische generierte Vorschlagsnotationen haben, muss noch weiter fachlich geprüft werden. Die aufwändige intellektuelle Verlinkung der SWD-Schlagwörter zur DDC soll sich in Zukunft auf relevante, d.h. häufig verwendete, Schlagwörter beziehen. Hierzu werden entsprechende Auswertungen in der DNB-Datenbank gemacht. Die LCSH/Rameau-Tupels aus dem MACS Projekt konnten noch nicht nach Pica / Iltis geladen werden, da die Aktualisierungen in MACS noch nicht abgeschlossen sind."
  14. Regelwerksumstellung : Stellungnahme zu dem Beschluss des Standardisierungsausschusses bei der Deutschen Bibliothek, einen Umstieg von den deutschen auf internationale Regelwerke und Formate (AACR und MARC) anzustreben (2002) 0.04
    0.040218417 = product of:
      0.060327623 = sum of:
        0.027307581 = weight(_text_:im in 635) [ClassicSimilarity], result of:
          0.027307581 = score(doc=635,freq=6.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18933317 = fieldWeight in 635, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=635)
        0.033020042 = product of:
          0.049530063 = sum of:
            0.031476498 = weight(_text_:online in 635) [ClassicSimilarity], result of:
              0.031476498 = score(doc=635,freq=6.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.20327234 = fieldWeight in 635, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=635)
            0.018053565 = weight(_text_:retrieval in 635) [ClassicSimilarity], result of:
              0.018053565 = score(doc=635,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.11697317 = fieldWeight in 635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=635)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Content
    "Die unterzeichneten Arbeitsgemeinschaften zeigen sich besonders besorgt über die Art einer derartigen Entscheidungsfindung, die Aufgabenstellungen der verschiedenen Bibliothekstypen nicht einbezieht, die Interessen der Spezialbibliotheken nicht berücksichtigt, keine ergebnisoffene Diskussion führt und die Bibliotheken vor vollendete Tatsachen stellt. Eine zukunftsfähige Weiterentwicklung eines Katalogisierungsregelwerks müsste nicht nur auf das Retrieval in Online-Katalogen und Dokumentenmanagement-Systemen abheben, Schnittstellen zu weitergehenden Erschließungsformen, Objekten und digitalen Dokumenten enthalten, sondern auch die Einbettung von Metadaten in nichtbibliothekarische Standards ermöglichen. Der geplante Umstieg von RAK auf AACR entspricht nicht diesen Anforderungen. Er träfe unsere Spezialbibliotheken in unterschiedlicher Weise: - Etliche kleinere Spezialbibliotheken sind immer noch damit beschäftigt, ihre Kataloge in Online-Kataloge zu transferieren und zumindest die Daten ihrer Spezialbestände retrospektiv zu erfassen. Sie würden mitten im Umstellungsprozess entscheidend behindert. - Andere Bibliotheken sind mit der Ergänzung der Online-Kataloge um Sekundärinformationen und Value-Added-Information, Digitalisierung von Dokumenten und ihre Einbettung dieser Dokumente in Workflow- oder Wissensmanagement-Anwendungen der sie tragenden Institution beschäftigt. Bei diesen neuen Herausforderungen gibt das avisierte Regelwerk keine Hilfestellung. - Wiederum andere Bibliotheken stehen im laufenden Betrieb vor Herausforderungen im Kontext der neuen Verwaltungssteuerung, der Erweiterung der Informationsvermittlung, der Integrierung der Medienbestände in Intranet- und Internet-Strukturen, und veränderten Organisationsstrukturen der Trägerinstitution. Gerade personell mit dem allernötigsten ausgestattet, haben sie weder die Sachmittel noch die personellen Möglichkeiten, ihre Arbeit auf eine allgemeine Regelwerksumstellung, wie sie mit dem Wechsel von RAK zu AACR avisiert ist, die weder ihre Sacharbeit noch ihre Dienstleistung effizienter macht, zu konzentrieren.
  15. Süle, G.: ¬Die Vereinheitlichung von Datenformaten im internationalen Bereich (1991) 0.04
    0.03641011 = product of:
      0.109230325 = sum of:
        0.109230325 = weight(_text_:im in 4418) [ClassicSimilarity], result of:
          0.109230325 = score(doc=4418,freq=6.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.7573327 = fieldWeight in 4418, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.109375 = fieldNorm(doc=4418)
      0.33333334 = coord(1/3)
    
    Source
    Wissenschaftliche Information im europäischen Rahmen: 23. Arbeits- und Fortbildungstagung der ASpB / Sektion 5 im DBV, 13.-16.3.1991 in München
  16. Gömpel, R.; Frodl, C.: LIBER MARC Harmonization Task Force : Formataktivitäten in Europa (2004) 0.04
    0.03557051 = product of:
      0.053355765 = sum of:
        0.04729811 = weight(_text_:im in 2355) [ClassicSimilarity], result of:
          0.04729811 = score(doc=2355,freq=18.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.32793462 = fieldWeight in 2355, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2355)
        0.006057655 = product of:
          0.018172964 = sum of:
            0.018172964 = weight(_text_:online in 2355) [ClassicSimilarity], result of:
              0.018172964 = score(doc=2355,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.11735933 = fieldWeight in 2355, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2355)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Einleitung Die LIBER MARC Harmonization Task Force, deren Arbeitsschwerpunkt auf der Untersuchung und Diskussion von Formataktivitäten auf europäischer Ebene liegt, wurde durch die Initiative des früheren LIBERPräsidenten, Professor Dr. Elmar Mittler, Staats- und Universitätsbibliothek Göttingen, ins Leben gerufen. Im Mai 2001 bat Professor Mittler Frau Dr. Elisabeth Niggemann, Generaldirektorin Der Deutschen Bibliothek, an einem Treffen des MARC Harmonization Coordinating Committee in Ottawa, Kanada, teilzunehmen. Aufgrund des großen Interesses wurde im Rahmen der LIBER-Jahrestagung 2001 in London die LIBER MARC Harmonization Task Force ins Leben gerufen. Am 14. Januar 2002 hielt die Gruppe ihr erstesTreffen in der Deutschen Bibliothek Frankfurt am Main ab. Sie setzte sich zum Ziel, zunächst einen Überblick über Formataktivitäten in Europa zu erarbeiten und langfristig den europäischen Einfluss in der Bibliothekswelt weltweit zu stärken. Die Gruppe traf sich zum zweiten Mal am Rande der IFLA-Konferenz in Glasgow 2002 und erarbeitete einen ersten Entwurf eines Empfehlungspapiers an LIBER. Dieser Bericht wurde im Lauf des Jahres 2003 weiter ausgearbeitet und an LIBER übergeben. Der Bericht beinhaltet einen Überblick über Formataktivitäten und gibt Empfehlungen zum Gebrauch und zur Entwicklung der bibliografischen Austausch formate in den europäischen Ländern. Der Originalbericht enthält darüber hinaus Praxisberichte über Migrationsprojekte in verschiedenen Ländern. Grundlage für die Aussagen dieses Berichts ist eine Befragung unter den Mitgliedern der Conference of European National Librarians (CENL). Katalogisierungsfragen, die beim ersten Treffen ebenfalls in die Diskussion einbezogen waren, wurden an die IFLA Cataloguing Section weitergegeben, die diese im Rahmen des ist IFLA Meeting of Experts an an International Cataloguing Code im Juli 2003 in Frankfurt am Main behandelte. Nächste Treffen sind im Rahmen der IFLA-Konferenzen in Buenos Aires (2004) und Seoul (2006) geplant. Überblick über Formataktivitäten in Europa Ergebnisse der Befragung bei den CENL-Mitgliedern Im Oktober 2002 sollten mit Hilfe eines Online-Fragebogens Informationen über die Anwendung von Datenformaten und Katalogisierungsregelwerken sowie über das Interesse an der Bildung einer MARC21-Interessengruppe ermittelt werden. Der Fragebogen wurde an alle 41 CENL-Mitglieder versandt. 27 Fragebögen wurden bis zum Stichtag zurückgesandt, was einer Rücklaufquote von 66 % entspricht.
    Bibliografische Datenformate Die am weitesten verbreiteten lokalen Datenformate sind UNIMARC und MARC21, dabei erreichen lokale MARC-Anpassungen (zum Beispiel danMARC2, MARC21-Fin, NORMABC) die höchste Quote. Daneben gibt es einige lokal verbreitete Formate wie MAB2 (im Sinne einer »Fremdsprache«) und OCLC/PICA (im Sinne einer »hybriden Sprache«), ihre Verbreitung ist jedoch wesentlich niedriger als MARC. Für den Datenaustausch sind UNIMARC und MARC21 die am weitesten verbreiteten Datenformate (31 %),gefolgt von lokalen (9,28%) und anderen Formaten (3,9 %). Katalogisierungsregelwerke Die in der Anwendung am weitesten verbreiteten Regelwerke sind nationale Regelwerke (14 Antworten), gefolgt von lokalen AACR2-Anwendungen (8) und AACR2 (6). Nur drei Bibliotheken verwenden Anpassungen oder Kurzversionen von nationalen Katalogisierungsregelwerken. Die Mehrzahl der Antwortenden sieht die Harmonisierung von Katalogisierungsregelwerken als sehr wichtig (15 Antworten) bzw. wichtig (12 Antworten) an.
  17. Schaffner, V.: FRBR in MAB2 und Primo - ein kafkaesker Prozess? : Möglichkeiten der FRBRisierung von MAB2-Datensätzen in Primo exemplarisch dargestellt an Datensätzen zu Franz Kafkas "Der Process" (2011) 0.03
    0.034039166 = product of:
      0.051058747 = sum of:
        0.044135712 = weight(_text_:im in 907) [ClassicSimilarity], result of:
          0.044135712 = score(doc=907,freq=12.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.30600858 = fieldWeight in 907, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=907)
        0.006923034 = product of:
          0.0207691 = sum of:
            0.0207691 = weight(_text_:online in 907) [ClassicSimilarity], result of:
              0.0207691 = score(doc=907,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.13412495 = fieldWeight in 907, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.03125 = fieldNorm(doc=907)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    FRBR (Functional Requirements for Bibliographic Records) ist ein logisches Denkmodell für bibliographische Datensätze, welches zur benutzerfreundlicheren Gestaltung von Browsing in Online-Bibliothekskatalogen herangezogen werden kann. Im Österreichischen Bibliothekenverbund (OBV) werden bibliographische Datensätze nach den Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken (RAK-WB) erstellt und liegen im Datenformat MAB2 (Maschinelles Austauschformat für Bibliotheken) vor. Mit der Software Primo von Ex Libris, die 2009 implementiert wurde, besteht die Möglichkeit bibliographische Datensätze für die Anzeige neu aufzubereiten. Wie ausgehend von MAB2-Daten eine möglichst FRBR-konforme Datenpräsentation in Primo geleistet werden kann und welche Probleme sich dabei ergeben, ist die zentrale Fragestellung dieser Master Thesis. Exemplarisch dargestellt wird dies anhand von Datensätzen des Österreichischen Bibliothekenverbundes zu Franz Kafkas "Der Process". Im Fokus stehen drei Aspekte, welche im Zusammenhang mit FRBR, MAB2 und Primo als besonders problematisch und diskussionswürdig erscheinen: das Konzept des "Werkes", Expressionen als praxistaugliche Entitäten und Aggregate bzw. mehrbändig begrenzte Werke. Nach einer Einführung in das FRBR-Modell wird versucht einen idealen FRBRBaum zu Kafkas "Der Process" in seinen unterschiedlichen Ausprägungen (Übersetzungen, Verfilmungen, Textvarianten, Aggregate etc.) darzustellen: Schon hier werden erste Grenzen des Modells sichtbar. Daran anschließend werden Datensätze des OBV einer Analyse unterzogen, um die FRBRTauglichkeit von MAB2 und die Möglichkeit der FRBR keys in Primo zu beleuchten. Folgende Einschränkungen wurden deutlich: Die derzeitige Herangehensweise und Praxis der Formalerschließung ist nicht auf FRBR vorbereitet. Die vorliegenden Metadaten sind zu inkonsistent, um ein maschinelles Extrahieren für eine FRBR-konforme Datenpräsentation zu ermöglichen. Die Möglichkeiten des Werkclusterings und der Facettierung in Primo bieten darüber hinaus zwar einen Mehrwert für das Browsing in Trefferlisten, jedoch nur bedingt im FRBR-Sinne.
    Content
    Master Thesis im Rahmen des Universitätslehrganges Library and Information Studies MSc an der Universität Wien in Kooperation mit der Österreichischen Nationalbibliothek. Vgl. auch: http://eprints.rclis.org/16193/1/Master%20Thesis_Schaffner%20Verena.pdf.
  18. Oehlschläger, S.: Aus der 48. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 12. und 13. November 2004 in Göttingen (2005) 0.03
    0.03373781 = product of:
      0.05060671 = sum of:
        0.029795013 = weight(_text_:im in 3556) [ClassicSimilarity], result of:
          0.029795013 = score(doc=3556,freq=14.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.20657942 = fieldWeight in 3556, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
        0.020811696 = product of:
          0.031217543 = sum of:
            0.012980688 = weight(_text_:online in 3556) [ClassicSimilarity], result of:
              0.012980688 = score(doc=3556,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.08382809 = fieldWeight in 3556, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3556)
            0.018236855 = weight(_text_:retrieval in 3556) [ClassicSimilarity], result of:
              0.018236855 = score(doc=3556,freq=4.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.11816074 = fieldWeight in 3556, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3556)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Content
    Enthält u.a. folgende Aussagen aus einzelnen Bibliotheken oder Verbünden: MARC21 als Austauschformat Die Expertengruppe Datenformate des Standardisierungsausschusses hat am 11. April 2005 getagt, dabei wurden die Arbeitspakete aus einem von der Arbeitsstelle für Standardisierung Der Deutschen Bibliothek vorgelegten Projektund Zeitplan in überschaubare Einheiten aufgegliedert. Ziel ist es, das bestehende MARC21 weitgehend zu übernehmen. Sollten nationale Abweichungen von MARC21 dennoch notwendig sein, so müssen diese einheitlich für alle Verbünde gelten. Bibliotheksservicezentrum Baden-Württemberg (BSZ) SWBPIus "Catalogue enrichment", die Anreicherung von Katalogdaten durch ergänzende Materialien, wie z. B. Rezensionen und Inhaltsverzeichnisse, wird als eine der wichtigsten Möglichkeiten diskutiert, die Nutzung von OPACs zu erleichtern und zu verbessern. Ganz im Trend liegt daher die Anwendung SWBplus, in der das BSZ weiterführende Texte zu Titeln in Verbund- und lokalen OPACs auflegt. Nach ca. 2.500 Dokumenten im Jahr 2003 ist der Bestand mittlerweile bei 12.300 angelangt. Mit 6.900 haben dabei die Inhaltsverzeichnisse die Rezensionen anteilsmäßig überholt. Erreicht wurde dies durch die Mitarbeit der Universitätsbibliotheken Konstanz und Heidelberg, die Inhaltsverzeichnisse scannen und an das BSZ liefern. In diese Kooperation werden nun auch die Universitätsbibliothek Mannheim, die Bibliotheken der PH Ludwigsburg und PH Freiburg sowie die Bibliothek des Bundesgerichtshofs in Karlsruhe eintreten. Vorbereitet wird zudem die Zusammenarbeit mit dem Bibliotheksverbund Bayern, so dass Inhaltsverzeichnisse auch aus Bayern in die Datenbank eingebracht und gemeinsam genutzt werden können. Fehlertolerante Suche in OPACs Gemeinsam mit der Bibliothek der Fachhochschule Konstanz und der Firma exorbyte führt das BSZ derzeit einen Test durch, in dem OPAC-Nutzer bei Unsicherheiten hinsichtlich der Schreibweise von Suchbegriffen unterstützt werden. Dazu wurde dem Horizon-WebPac der FH Konstanz die RechercheSoftware Matchmaker vorgeschaltet, die dem Nutzer neben exakten auch näherungsweise Treffer sowie Alternativen zu den Suchbegriffen anbietet. Sucht man dort nun z. B. nach "Pronnstein", so findet man dennoch unter den ersten Treffern die bekannte mathematische Formelsammlung von Ilja Bronstejn. In einer Befragung, die den Test begleitet, fanden ca. 70% der Nutzer den Einsatz dieser Technologie hilfreich und gaben an, auch die Alternativvorschläge zu nutzen. Weitere Informationen stehen unter der Adresse http://cms.bsz-bw.de/cms/entwicki/ftolsuche/ zur Verfügung. Interessenten an einem Einsatz der Software melden sich bitte beim BSZ, das die Einführung koordiniert.
    Die Deutsche Bibliothek Retrieval von Content In dem Projekt wird angestrebt, Verfahren zu entwickeln und einzuführen, die automatisch und ohne intellektuelle Bearbeitung für das Content-Retrieval ausreichend Sucheinstiege bieten. Dabei kann es sich um die Suche nach Inhalten von Volltexten, digitalen Abbildern, Audiofiles, Videofiles etc. von in Der Deutschen Bibliothek archivierten digitalen Ressourcen oder digitalen Surrogaten archivierter analoger Ressourcen (z. B. OCR-Ergebnisse) handeln. Inhalte, die in elektronischer Form vorhanden sind, aber dem InternetBenutzer Der Deutschen Bibliothek bisher nicht oder nur eingeschränkt zur Verfügung stehen, sollen in möglichst großem Umfang und mit möglichst großem Komfort nutzbar gemacht werden. Darüber hinaus sollen Inhalte benutzt werden, die für ein in ILTIS katalogisiertes Objekt beschreibenden Charakter haben, um auf das beschriebene Objekt zu verweisen. Die höchste Priorität liegt dabei auf der Erschließung von Inhalten in Textformaten. In einem ersten Schritt wurde der Volltext aller Zeitschriften, die im Projekt "Exilpresse digital" digitalisiert wurden, für eine erweiterte Suche genutzt. In einem nächsten Schritt soll die PSI-Software für die Volltextindexierung von Abstracts evaluiert werden. MILOS Mit dem Einsatz von MILOS eröffnet sich die Möglichkeit, nicht oder wenig sachlich erschlossene Bestände automatisch mit ergänzenden Inhaltserschließungsinformationen zu versehen, der Schwerpunkt liegt dabei auf der Freitext-Indexierung. Das bereits in einigen Bibliotheken eingesetzte System, das inzwischen von Der Deutschen Bibliothek für Deutschland lizenziert wurde, wurde in eine UNIX-Version überführt und angepasst. Inzwischen wurde nahezu der gesamte Bestand rückwirkend behandelt, die Daten werden im Gesamt-OPAC für die Recherche zur Verfügung stehen. Die in einer XMLStruktur abgelegten Indexeinträge werden dabei vollständig indexiert und zugänglich gemacht. Ein weiterer Entwicklungsschritt wird in dem Einsatz von MILOS im Online-Verfahren liegen.
    Hessisches BibliotheksinformationsSystem (HEBIS) Personennamendatei (PND) Vor dem Hintergrund der Harmonisierungsbestrebungen bei den Normdateien hat der HeBIS-Verbundrat nach erneuter Diskussion mehrheitlich entschieden, künftig neben SWD und GKD auch die PND als in HeBIS integrierte Normdatei obligatorisch zu nutzen. Im Zuge der wachsenden Vernetzung der regionalen Verbundsysteme kommt der Homogenität der Datensätze eine zunehmend wichtigere Bedeutung zu. Konkret wird dies speziell für HeBIS mit dem Produktionsbeginn des HeBIS-Portals und der integrierten verbundübergreifenden Fernleihe. Nur wenn die Verfasserrecherche in den einzelnen Verbunddatenbanken auf weitgehend einheitliche Datensätze einschließlich Verweisungsformen trifft, kann der Benutzer gute Trefferergebnisse erwarten und damit seine Chancen erhöhen, die gewünschte Literatur über Fernleihe bestellen zu können. Das Gesamtkonzept ist ausgelegt auf eine pragmatische und aufwandsreduzierte Vorgehensweise. Mit der Umsetzung wurde begonnen. Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (HBZ) FAST-Suchmaschine Das HBZ hat die Suchmaschinentechnologie des norwegischen Herstellers FAST lizenziert. Ziel ist es, die Produkte des HBZ mit Hilfe innovativer Suchmaschinentechnologien in einer neuen Ausrichtung zu präsentieren. Die Präsentation soll einen schnellen Recherche-Zugang zu den NRWVerbunddaten mittels FAST-Suchmaschinentechnologie mit folgenden Eigenschaften beinhalten: - Eine Web-Oberfläche, um für Laien eine schnelle Literatursuche anbieten zu können. - Eine Web-Oberfläche, um für Expertinnen und Experten eine schnelle Literatur-Suche anbieten zu können. - Präsentation von Zusatzfunktionen, die in gängigen Bibliothekskatalogen so nicht vorhanden sind. - Schaffung einer Zugriffsmöglichkeit für den KVK auf die Verbunddaten mit sehr kurzen Antwortzeiten Digitale Bibliothek Die Mehrzahl der Bibliotheken ist inzwischen auf Release 5 umgezogen. Einige befinden sich noch im Bearbeitungsstatus. Von den letzten drei Bibliotheken liegen inzwischen die Umzugsanträge vor. Durch die Umstrukturierung der RLB Koblenz zum LBZ Rheinland-Pfalz werden die Einzelsichten der RLB Koblenz, PLB Speyer und der Bipontina in Zweibrücken mit den Büchereistellen Koblenz und Neustadt zu einer Sicht verschmolzen.
  19. Springer: Neues Online-Tool zum Herunterladen (2011) 0.03
    0.032443807 = product of:
      0.04866571 = sum of:
        0.031532075 = weight(_text_:im in 4716) [ClassicSimilarity], result of:
          0.031532075 = score(doc=4716,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.2186231 = fieldWeight in 4716, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4716)
        0.017133636 = product of:
          0.051400907 = sum of:
            0.051400907 = weight(_text_:online in 4716) [ClassicSimilarity], result of:
              0.051400907 = score(doc=4716,freq=4.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.33194235 = fieldWeight in 4716, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4716)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Content
    "Mit nur wenigen Klicks können die einzelnen Listen der fachgebietsbezogenen Springer eBook-Sammlungen mit den gewünschten bibliografischen Angaben heruntergeladen werden. Das neue Online-Tool ist unter www.springer.com/marc zu finden. Neben den MARC Records können die Bibliothekare die komplette oder eine individuell zusammengestellte Liste zu den Springer-eBooks auswählen. Jeder Eintrag einer solchen Liste enthält die wesentlichen bibliografischen Angaben sowie die URL zu dem entsprechenden Buch, das sich auf der Plattform von SpringerLink befindet. Springer ist der größte eBookVerlag im wissenschaftlichen STM-Bereich. Die Inhalte von Büchern und Zeitschriften werden den Nutzern über SpringerLink zur Verfügung gestellt."
  20. Ansorge, K.: Das was 2007 (2007) 0.03
    0.030086657 = product of:
      0.045129985 = sum of:
        0.03901083 = weight(_text_:im in 2405) [ClassicSimilarity], result of:
          0.03901083 = score(doc=2405,freq=24.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.27047595 = fieldWeight in 2405, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2405)
        0.006119156 = product of:
          0.018357467 = sum of:
            0.018357467 = weight(_text_:online in 2405) [ClassicSimilarity], result of:
              0.018357467 = score(doc=2405,freq=4.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.11855084 = fieldWeight in 2405, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2405)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Content
    Darin u.a: "Netzpublikationen - Die DNB hat mit Inkrafttreten des Gesetzes über die Deutsche Nationalbibliothek im Jahr 2006 den Auftrag der Sammlung, Erschließung, Verzeichnung und Archivierung von Netzpublikationen erhalten. Zum Sammelgebiet Netzpublikationen gehören alle Darstellungen in Schrift, Bild und Ton, die in öffentlichen Netzen zugänglich gemacht werden. Die Abgabepflicht umfasst sowohl Internetveröffentlichungen mit Entsprechungen zum Printbereich als auch webspezifische Medienwerke." "Kataloganreicherung - In Gesprächen mit dem Deutschen Bibliotheksverband und dem Börsenverein des Deutschen Buchhandels hatte sich die DNB bereiterklärt, die Rolle eines zentralen Dienstleisters bei der Verbreitung digitaler Zusatzinformationen zu bibliografischen Daten zu übernehmen. Für die Anreicherung der Daten der Deutschen Nationalbibliografie mit qualitativ hochwertigen Zusatzinformationen (recherchierbare PDF-Dokumente) konnten im Jahr 2007 die Weichen gestellt werden. Seit Jahresbeginn 2008 werden die Inhaltsverzeichnisse der jährlich rund 75.000 monografischen Neuerscheinungen des Verlagsbuchhandels gescannt und als ergänzende bibliografische Daten über das Internet und die Datendienste der DNB angeboten. Im Rahmen der bestehenden Kooperation mit der MVB Marketing- und Verlagsservice des Buchhandels GmbH werden zukünftig neben den Daten des VLB (Verzeichnis Lieferbarer Bücher) auch die entstehenden Zusatzinformationen ausgetauscht."
    "Standardisierung - Auch 2007 ist die Arbeitsstelle für Standardisierung (AfS) auf dem Weg zur Internationalisierung der deutschen Regelwerke, Formate und Normdateien entscheidende Schritte vorangekommen. Im Mittelpunkt der Vorbereitungen für den Format-umstieg standen eine Konkordanz von MAB2 nach MARC 21 und die Festlegung neuer Felder, die für den Umstieg auf nationaler Ebene notwendig sind. Neben einer Vielzahl anderer Aktivitäten hat die DNB zwei Veranstaltungen zum Format-umstieg durchgeführt. In Zusammenarbeit mit den Expertengruppen des Standardisierungsausschusses wurden drei Stellungnahmen zu Entwürfen des Regelwerkes »Resource Description and Access (RDA)« erarbeitet; es fand eine Beteiligung an der internationalen Diskussion zu wichtigen Grundlagen statt. Der Erfüllung des Wunsches nach Einführung der Onlinekommunikation mit Normdateien ist die DNB im vergangenen Jahr deutlich nähergekommen: Änderungen an Normdaten sollen gleichzeitig in die zentral bei der DNB gehaltenen Dateien und in der Verbunddatenbank vollzogen werden. Seit Anfang September ist die erste Stufe der Onlinekommunikation im produktiven Einsatz: Die PND-Redaktionen in den Aleph-Verbünden arbeiten online zusammen. Das neue Verfahren wird sich auf alle bei der DNB geführten Normdaten erstrecken und in einem gestuften Verfahren eingeführt werden. Die DNB war in zahlreichen Standardisierungsgremien zur Weiterentwicklung von Metadatenstandards wie z.B. Dublin Core und ONIX (Online Information eXchange) sowie bei den Entwicklungsarbeiten für The European Library beteiligt. Die Projektarbeiten im Projekt KIM - Kompetenzzentrum Interoperable Metadaten wurden maßgeblich unterstützt. Im Rahmen der Arbeiten zum Gesetz über die Deutsche Nationalbibliothek wurde ein Metadatenkernset für die Übermittlung von Metadaten an die DNB entwickelt und in einer ersten Stufe mit einem ONIX-Mapping versehen. Innerhalb des Projektes »Virtual International Authority File - VIAF« entwickelten die Library of Congress (LoC), die DNB und OCLC - zunächst für Personennamen - gemeinsam eine virtuelle, internationale Normdatei, in der die Normdatensätze der nationalen Normdateien im Web frei zugänglich miteinander verbunden werden sollen. Die bisherigen Projektergebnisse haben die Machbarkeit einer internationalen Normdatei eindrucksvoll unter Beweis gestellt. Darum haben die Projektpartner in einem neuen Abkommen, das auch die Bibliothèque Nationale de France einschließt, im Oktober 2007 ihr Engagement für den VIAF nochmals bekräftigt und damit eine Konsolidierungs- und Erweiterungsphase eingeleitet."
    "DDC-Deutsch - Bereits im Jahr 2006 wurde die Dewey-Dezimalklassifikation (DDC) für die inhaltliche Erschließung der in den Reihen B (Monografien und Periodika außerhalb des Verlagsbuchhandels) und H (Hochschulschriften) der Deutschen Nationalbibliografie angezeigten Publikationen eingeführt. Mit Heft 1/2007 hat die DDC auch in der Reihe A (Monografien und Periodika des Verlagsbuchhandels) Einzug gehalten. Die dort angezeigten Publikationen werden zusätzlich wie bisher vollständig mit RSWK Schlagwortketten erschlossen. Die DNB wird damit zum größten europäischen Lieferanten von Dewey-Notationen und nimmt nach der LoC weltweit die zweite Stelle ein. Durch die Integration der Daten der DNB in den WorldCat werden Sichtbarkeit und Nutzungsmöglichkeiten dieses Angebots auch über den deutschsprachigen Raum hinaus verbessert. Um den Informationsaustausch unter den europäischen DDC-Anwendern zu verbessern, europäische Belange in der Klassifikation stärker durchzusetzen und die Verbreitung in Europa gemeinsam mit OCLC zu koordinieren, wurde die EDUG (European DDC Users' Group) gegründet."
    "CrissCross - Ende Januar 2006 startete das von der DNB und der Fachhochschule Köln gemeinsam betriebene und von der DFG geförderte Projekt CrissCross. Das Projekt soll ein multilinguales, thesaurusbasiertes und benutzergerechtes Recherchevokabular schaffen. Hierzu werden die Sachschlagwörter der Schlagwortnormdatei (SWD) mit den DDC-Notationen verbunden. Die Multilingualität wird durch die Verknüpfung mit ihren Äquivalenten in den beiden umfassenden Schlagwortnormdateien Library of Congress Subject Headings (LCSH) und Rameau (Répertoire d'autorité-matière encyclopédique et alphabétique unifié) erreicht. Die im Rahmen des Projekts erarbeiteten Festlegungen zur methodischen Vorgehensweise bei der Verknüpfung der DDC mit den SWD-Sachschlagwörtern wurden weiter präzisiert und fortentwickelt. Für die zweite Komponente des Projekts, die Anreicherung der in der Datenbank des MACS-Projekts vorliegenden Verbindungen zwischen LCSH und Rameau um den äquivalenten SWD-Terminus, wurde eine Vervollständigung und eine Verbesserung der Datenbasis erreicht und Tests der Verlinkung durchgeführt."

Authors

Years

Languages

  • e 88
  • d 70
  • pl 1
  • sp 1
  • More… Less…

Types

  • a 133
  • m 12
  • s 12
  • el 8
  • x 4
  • b 2
  • n 2
  • l 1
  • r 1
  • More… Less…