Search (217 results, page 1 of 11)

  • × theme_ss:"Datenformate"
  1. Xu, A.; Hess, K.; Akerman, L.: From MARC to BIBFRAME 2.0 : Crosswalks (2018) 0.03
    0.03269929 = product of:
      0.17439622 = sum of:
        0.026127389 = weight(_text_:web in 5172) [ClassicSimilarity], result of:
          0.026127389 = score(doc=5172,freq=4.0), product of:
            0.10247572 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031400457 = queryNorm
            0.25496176 = fieldWeight in 5172, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5172)
        0.14292318 = weight(_text_:2.0 in 5172) [ClassicSimilarity], result of:
          0.14292318 = score(doc=5172,freq=12.0), product of:
            0.18211427 = queryWeight, product of:
              5.799733 = idf(docFreq=363, maxDocs=44218)
              0.031400457 = queryNorm
            0.7847994 = fieldWeight in 5172, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              5.799733 = idf(docFreq=363, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5172)
        0.005345665 = weight(_text_:information in 5172) [ClassicSimilarity], result of:
          0.005345665 = score(doc=5172,freq=2.0), product of:
            0.055122808 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.031400457 = queryNorm
            0.09697737 = fieldWeight in 5172, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5172)
      0.1875 = coord(3/16)
    
    Abstract
    One of the big challenges facing academic libraries today is to increase the relevance of the libraries to their user communities. If the libraries can increase the visibility of their resources on the open web, it will increase the chances of the libraries to reach to their user communities via the user's first search experience. BIBFRAME and library Linked Data will enable libraries to publish their resources in a way that the Web understands, consume Linked Data to enrich their resources relevant to the libraries' user communities, and visualize networks across collections. However, one of the important steps for transitioning to BIBFRAME and library Linked Data involves crosswalks, mapping MARC fields and subfields across data models and performing necessary data reformatting to be in compliance with the specifications of the new model, which is currently BIBFRAME 2.0. This article looks into how the Library of Congress has mapped library bibliographic data from the MARC format to the BIBFRAME 2.0 model and vocabulary published and updated since April 2016, available from http://www.loc.gov/bibframe/docs/index.html based on the recently released conversion specifications and converter, developed by the Library of Congress with input from many community members. The BIBFRAME 2.0 standard and conversion tools will enable libraries to transform bibliographic data from MARC into BIBFRAME 2.0, which introduces a Linked Data model as the improved method of bibliographic control for the future, and make bibliographic information more useful within and beyond library communities.
    Object
    BIBFRAME 2.0
  2. Cantrall, D.: From MARC to Mosaic : progressing toward data interchangeability at the Oregon State Archives (1994) 0.03
    0.03118084 = product of:
      0.12472336 = sum of:
        0.04767549 = weight(_text_:wide in 8470) [ClassicSimilarity], result of:
          0.04767549 = score(doc=8470,freq=2.0), product of:
            0.13912784 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.031400457 = queryNorm
            0.342674 = fieldWeight in 8470, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8470)
        0.025864797 = weight(_text_:web in 8470) [ClassicSimilarity], result of:
          0.025864797 = score(doc=8470,freq=2.0), product of:
            0.10247572 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031400457 = queryNorm
            0.25239927 = fieldWeight in 8470, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8470)
        0.012962549 = weight(_text_:information in 8470) [ClassicSimilarity], result of:
          0.012962549 = score(doc=8470,freq=6.0), product of:
            0.055122808 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.031400457 = queryNorm
            0.23515764 = fieldWeight in 8470, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8470)
        0.038220525 = weight(_text_:software in 8470) [ClassicSimilarity], result of:
          0.038220525 = score(doc=8470,freq=2.0), product of:
            0.124570385 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031400457 = queryNorm
            0.30681872 = fieldWeight in 8470, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8470)
      0.25 = coord(4/16)
    
    Abstract
    Explains the technology used by the Oregon State Archives to relaize the goal of data interchangeability given the prescribed nature of the MARC format. Describes an emergent model of learning and information delivery focusing on the example of World Wide Web, accessed most often by the software client Mosaic, which is the fastest growing segment of the Internet information highway. Also describes The Data Magician, a flexible program which allows for many combinations of input and output formats, and will read unconventional formats such as MARC communications format. Oregon State Archives, using Mosaic and The Data Magician, are consequently able to present valuable electronic information to a variety of users
  3. Johnson, B.C.: XML and MARC : which is "right"? (2001) 0.03
    0.029859368 = product of:
      0.11943747 = sum of:
        0.04767549 = weight(_text_:wide in 5423) [ClassicSimilarity], result of:
          0.04767549 = score(doc=5423,freq=2.0), product of:
            0.13912784 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.031400457 = queryNorm
            0.342674 = fieldWeight in 5423, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5423)
        0.036578346 = weight(_text_:web in 5423) [ClassicSimilarity], result of:
          0.036578346 = score(doc=5423,freq=4.0), product of:
            0.10247572 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031400457 = queryNorm
            0.35694647 = fieldWeight in 5423, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5423)
        0.012962549 = weight(_text_:information in 5423) [ClassicSimilarity], result of:
          0.012962549 = score(doc=5423,freq=6.0), product of:
            0.055122808 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.031400457 = queryNorm
            0.23515764 = fieldWeight in 5423, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5423)
        0.022221092 = weight(_text_:retrieval in 5423) [ClassicSimilarity], result of:
          0.022221092 = score(doc=5423,freq=2.0), product of:
            0.09498371 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.031400457 = queryNorm
            0.23394634 = fieldWeight in 5423, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5423)
      0.25 = coord(4/16)
    
    Abstract
    This article explores recent discussions about appropriate mark-up conventions for library information intended for use on the World Wide Web. In particular, the question of whether the MARC 21 format will continue to be useful and whether the time is right for a full-fledged conversion effort to XML is explored. The author concludes that the MARC format will be relevant well into the future, and its use will not hamper access to bibliographic information via the web. Early XML exploratory efforts carried out at the Stanford University's Lane Medical Library are reported on. Although these efforts are a promising start, much more consultation and investigation is needed to arrive at broadly acceptable standards for XML library information encoding and retrieval.
  4. Kaiser, M.; Lieder, H.J.; Majcen, K.; Vallant, H.: New ways of sharing and using authority information : the LEAF project (2003) 0.03
    0.025738467 = product of:
      0.06863591 = sum of:
        0.01702696 = weight(_text_:wide in 1166) [ClassicSimilarity], result of:
          0.01702696 = score(doc=1166,freq=2.0), product of:
            0.13912784 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.031400457 = queryNorm
            0.122383565 = fieldWeight in 1166, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1166)
        0.018474855 = weight(_text_:web in 1166) [ClassicSimilarity], result of:
          0.018474855 = score(doc=1166,freq=8.0), product of:
            0.10247572 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031400457 = queryNorm
            0.18028519 = fieldWeight in 1166, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1166)
        0.0069183228 = product of:
          0.0138366455 = sum of:
            0.0138366455 = weight(_text_:online in 1166) [ClassicSimilarity], result of:
              0.0138366455 = score(doc=1166,freq=6.0), product of:
                0.09529729 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031400457 = queryNorm
                0.14519453 = fieldWeight in 1166, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1166)
          0.5 = coord(1/2)
        0.004629482 = weight(_text_:information in 1166) [ClassicSimilarity], result of:
          0.004629482 = score(doc=1166,freq=6.0), product of:
            0.055122808 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.031400457 = queryNorm
            0.083984874 = fieldWeight in 1166, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1166)
        0.007936104 = weight(_text_:retrieval in 1166) [ClassicSimilarity], result of:
          0.007936104 = score(doc=1166,freq=2.0), product of:
            0.09498371 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.031400457 = queryNorm
            0.08355226 = fieldWeight in 1166, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1166)
        0.013650188 = weight(_text_:software in 1166) [ClassicSimilarity], result of:
          0.013650188 = score(doc=1166,freq=2.0), product of:
            0.124570385 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031400457 = queryNorm
            0.10957812 = fieldWeight in 1166, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1166)
      0.375 = coord(6/16)
    
    Abstract
    This article presents an overview of the LEAF project (Linking and Exploring Authority Files)1, which has set out to provide a framework for international, collaborative work in the sector of authority data with respect to authority control. Elaborating the virtues of authority control in today's Web environment is an almost futile exercise, since so much has been said and written about it in the last few years.2 The World Wide Web is generally understood to be poorly structured-both with regard to content and to locating required information. Highly structured databases might be viewed as small islands of precision within this chaotic environment. Though the Web in general or any particular structured database would greatly benefit from increased authority control, it should be noted that our following considerations only refer to authority control with regard to databases of "memory institutions" (i.e., libraries, archives, and museums). Moreover, when talking about authority records, we exclusively refer to personal name authority records that describe a specific person. Although different types of authority records could indeed be used in similar ways to the ones presented in this article, discussing those different types is outside the scope of both the LEAF project and this article. Personal name authority records-as are all other "authorities"-are maintained as separate records and linked to various kinds of descriptive records. Name authority records are usually either kept in independent databases or in separate tables in the database containing the descriptive records. This practice points at a crucial benefit: by linking any number of descriptive records to an authorized name record, the records related to this entity are collocated in the database. Variant forms of the authorized name are referenced in the authority records and thus ensure the consistency of the database while enabling search and retrieval operations that produce accurate results. On one hand, authority control may be viewed as a positive prerequisite of a consistent catalogue; on the other, the creation of new authority records is a very time consuming and expensive undertaking. As a consequence, various models of providing access to existing authority records have emerged: the Library of Congress and the French National Library (Bibliothèque nationale de France), for example, make their authority records available to all via a web-based search service.3 In Germany, the Personal Name Authority File (PND, Personennamendatei4) maintained by the German National Library (Die Deutsche Bibliothek, Frankfurt/Main) offers a different approach to shared access: within a closed network, participating institutions have online access to their pooled data. The number of recent projects and initiatives that have addressed the issue of authority control in one way or another is considerable.5 Two important current initiatives should be mentioned here: The Name Authority Cooperative (NACO) and Virtual International Authority File (VIAF).
    NACO was established in 1976 and is hosted by the Library of Congress. At the beginning of 2003, nearly 400 institutions were involved in this undertaking, including 43 institutions from outside the United States.6 Despite the enormous success of NACO and the impressive annual growth of the initiative, there are requirements for participation that form an obstacle for many institutions: they have to follow the Anglo-American Cataloguing Rules (AACR2) and employ the MARC217 data format. Participating institutions also have to belong to either OCLC (Online Computer Library Center) or RLG (Research Libraries Group) in order to be able to contribute records, and they have to provide a specified minimum number of authority records per year. A recent proof of concept project of the Library of Congress, OCLC and the German National Library-Virtual International Authority File (VIAF)8-will, in its first phase, test automatic linking of the records of the Library of Congress Name Authority File (LCNAF) and the German Personal Name Authority File by using matching algorithms and software developed by OCLC. The results are expected to form the basis of a "Virtual International Authority File". The project will then test the maintenance of the virtual authority file by employing the Open Archives Initiative Protocol for Metadata Harvesting (OAI-PMH)9 to harvest the metadata for new, updated, and deleted records. When using the "Virtual International Authority File" a cataloguer will be able to check the system to see whether the authority record he wants to establish already exists. The final phase of the project will test possibilities for displaying records in the preferred language and script of the end user. Currently, there are still some clear limitations associated with the ways in which authority records are used by memory institutions. One of the main problems has to do with limited access: generally only large institutions or those that are part of a library network have unlimited online access to permanently updated authority records. Smaller institutions outside these networks usually have to fall back on less efficient ways of obtaining authority data, or have no access at all. Cross-domain sharing of authority data between libraries, archives, museums and other memory institutions simply does not happen at present. Public users are, by and large, not even aware that such things as name authority records exist and are excluded from access to these information resources.
  5. Oehlschläger, S.: Aus der 48. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 12. und 13. November 2004 in Göttingen (2005) 0.02
    0.02368559 = product of:
      0.075793885 = sum of:
        0.013063694 = weight(_text_:web in 3556) [ClassicSimilarity], result of:
          0.013063694 = score(doc=3556,freq=4.0), product of:
            0.10247572 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031400457 = queryNorm
            0.12748088 = fieldWeight in 3556, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
        0.028208269 = weight(_text_:benutzer in 3556) [ClassicSimilarity], result of:
          0.028208269 = score(doc=3556,freq=2.0), product of:
            0.17907447 = queryWeight, product of:
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.031400457 = queryNorm
            0.15752256 = fieldWeight in 3556, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
        0.003994295 = product of:
          0.00798859 = sum of:
            0.00798859 = weight(_text_:online in 3556) [ClassicSimilarity], result of:
              0.00798859 = score(doc=3556,freq=2.0), product of:
                0.09529729 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031400457 = queryNorm
                0.08382809 = fieldWeight in 3556, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3556)
          0.5 = coord(1/2)
        0.011223346 = weight(_text_:retrieval in 3556) [ClassicSimilarity], result of:
          0.011223346 = score(doc=3556,freq=4.0), product of:
            0.09498371 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.031400457 = queryNorm
            0.11816074 = fieldWeight in 3556, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
        0.019304283 = weight(_text_:software in 3556) [ClassicSimilarity], result of:
          0.019304283 = score(doc=3556,freq=4.0), product of:
            0.124570385 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031400457 = queryNorm
            0.15496688 = fieldWeight in 3556, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
      0.3125 = coord(5/16)
    
    Content
    Enthält u.a. folgende Aussagen aus einzelnen Bibliotheken oder Verbünden: MARC21 als Austauschformat Die Expertengruppe Datenformate des Standardisierungsausschusses hat am 11. April 2005 getagt, dabei wurden die Arbeitspakete aus einem von der Arbeitsstelle für Standardisierung Der Deutschen Bibliothek vorgelegten Projektund Zeitplan in überschaubare Einheiten aufgegliedert. Ziel ist es, das bestehende MARC21 weitgehend zu übernehmen. Sollten nationale Abweichungen von MARC21 dennoch notwendig sein, so müssen diese einheitlich für alle Verbünde gelten. Bibliotheksservicezentrum Baden-Württemberg (BSZ) SWBPIus "Catalogue enrichment", die Anreicherung von Katalogdaten durch ergänzende Materialien, wie z. B. Rezensionen und Inhaltsverzeichnisse, wird als eine der wichtigsten Möglichkeiten diskutiert, die Nutzung von OPACs zu erleichtern und zu verbessern. Ganz im Trend liegt daher die Anwendung SWBplus, in der das BSZ weiterführende Texte zu Titeln in Verbund- und lokalen OPACs auflegt. Nach ca. 2.500 Dokumenten im Jahr 2003 ist der Bestand mittlerweile bei 12.300 angelangt. Mit 6.900 haben dabei die Inhaltsverzeichnisse die Rezensionen anteilsmäßig überholt. Erreicht wurde dies durch die Mitarbeit der Universitätsbibliotheken Konstanz und Heidelberg, die Inhaltsverzeichnisse scannen und an das BSZ liefern. In diese Kooperation werden nun auch die Universitätsbibliothek Mannheim, die Bibliotheken der PH Ludwigsburg und PH Freiburg sowie die Bibliothek des Bundesgerichtshofs in Karlsruhe eintreten. Vorbereitet wird zudem die Zusammenarbeit mit dem Bibliotheksverbund Bayern, so dass Inhaltsverzeichnisse auch aus Bayern in die Datenbank eingebracht und gemeinsam genutzt werden können. Fehlertolerante Suche in OPACs Gemeinsam mit der Bibliothek der Fachhochschule Konstanz und der Firma exorbyte führt das BSZ derzeit einen Test durch, in dem OPAC-Nutzer bei Unsicherheiten hinsichtlich der Schreibweise von Suchbegriffen unterstützt werden. Dazu wurde dem Horizon-WebPac der FH Konstanz die RechercheSoftware Matchmaker vorgeschaltet, die dem Nutzer neben exakten auch näherungsweise Treffer sowie Alternativen zu den Suchbegriffen anbietet. Sucht man dort nun z. B. nach "Pronnstein", so findet man dennoch unter den ersten Treffern die bekannte mathematische Formelsammlung von Ilja Bronstejn. In einer Befragung, die den Test begleitet, fanden ca. 70% der Nutzer den Einsatz dieser Technologie hilfreich und gaben an, auch die Alternativvorschläge zu nutzen. Weitere Informationen stehen unter der Adresse http://cms.bsz-bw.de/cms/entwicki/ftolsuche/ zur Verfügung. Interessenten an einem Einsatz der Software melden sich bitte beim BSZ, das die Einführung koordiniert.
    Die Deutsche Bibliothek Retrieval von Content In dem Projekt wird angestrebt, Verfahren zu entwickeln und einzuführen, die automatisch und ohne intellektuelle Bearbeitung für das Content-Retrieval ausreichend Sucheinstiege bieten. Dabei kann es sich um die Suche nach Inhalten von Volltexten, digitalen Abbildern, Audiofiles, Videofiles etc. von in Der Deutschen Bibliothek archivierten digitalen Ressourcen oder digitalen Surrogaten archivierter analoger Ressourcen (z. B. OCR-Ergebnisse) handeln. Inhalte, die in elektronischer Form vorhanden sind, aber dem InternetBenutzer Der Deutschen Bibliothek bisher nicht oder nur eingeschränkt zur Verfügung stehen, sollen in möglichst großem Umfang und mit möglichst großem Komfort nutzbar gemacht werden. Darüber hinaus sollen Inhalte benutzt werden, die für ein in ILTIS katalogisiertes Objekt beschreibenden Charakter haben, um auf das beschriebene Objekt zu verweisen. Die höchste Priorität liegt dabei auf der Erschließung von Inhalten in Textformaten. In einem ersten Schritt wurde der Volltext aller Zeitschriften, die im Projekt "Exilpresse digital" digitalisiert wurden, für eine erweiterte Suche genutzt. In einem nächsten Schritt soll die PSI-Software für die Volltextindexierung von Abstracts evaluiert werden. MILOS Mit dem Einsatz von MILOS eröffnet sich die Möglichkeit, nicht oder wenig sachlich erschlossene Bestände automatisch mit ergänzenden Inhaltserschließungsinformationen zu versehen, der Schwerpunkt liegt dabei auf der Freitext-Indexierung. Das bereits in einigen Bibliotheken eingesetzte System, das inzwischen von Der Deutschen Bibliothek für Deutschland lizenziert wurde, wurde in eine UNIX-Version überführt und angepasst. Inzwischen wurde nahezu der gesamte Bestand rückwirkend behandelt, die Daten werden im Gesamt-OPAC für die Recherche zur Verfügung stehen. Die in einer XMLStruktur abgelegten Indexeinträge werden dabei vollständig indexiert und zugänglich gemacht. Ein weiterer Entwicklungsschritt wird in dem Einsatz von MILOS im Online-Verfahren liegen.
    Hessisches BibliotheksinformationsSystem (HEBIS) Personennamendatei (PND) Vor dem Hintergrund der Harmonisierungsbestrebungen bei den Normdateien hat der HeBIS-Verbundrat nach erneuter Diskussion mehrheitlich entschieden, künftig neben SWD und GKD auch die PND als in HeBIS integrierte Normdatei obligatorisch zu nutzen. Im Zuge der wachsenden Vernetzung der regionalen Verbundsysteme kommt der Homogenität der Datensätze eine zunehmend wichtigere Bedeutung zu. Konkret wird dies speziell für HeBIS mit dem Produktionsbeginn des HeBIS-Portals und der integrierten verbundübergreifenden Fernleihe. Nur wenn die Verfasserrecherche in den einzelnen Verbunddatenbanken auf weitgehend einheitliche Datensätze einschließlich Verweisungsformen trifft, kann der Benutzer gute Trefferergebnisse erwarten und damit seine Chancen erhöhen, die gewünschte Literatur über Fernleihe bestellen zu können. Das Gesamtkonzept ist ausgelegt auf eine pragmatische und aufwandsreduzierte Vorgehensweise. Mit der Umsetzung wurde begonnen. Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (HBZ) FAST-Suchmaschine Das HBZ hat die Suchmaschinentechnologie des norwegischen Herstellers FAST lizenziert. Ziel ist es, die Produkte des HBZ mit Hilfe innovativer Suchmaschinentechnologien in einer neuen Ausrichtung zu präsentieren. Die Präsentation soll einen schnellen Recherche-Zugang zu den NRWVerbunddaten mittels FAST-Suchmaschinentechnologie mit folgenden Eigenschaften beinhalten: - Eine Web-Oberfläche, um für Laien eine schnelle Literatursuche anbieten zu können. - Eine Web-Oberfläche, um für Expertinnen und Experten eine schnelle Literatur-Suche anbieten zu können. - Präsentation von Zusatzfunktionen, die in gängigen Bibliothekskatalogen so nicht vorhanden sind. - Schaffung einer Zugriffsmöglichkeit für den KVK auf die Verbunddaten mit sehr kurzen Antwortzeiten Digitale Bibliothek Die Mehrzahl der Bibliotheken ist inzwischen auf Release 5 umgezogen. Einige befinden sich noch im Bearbeitungsstatus. Von den letzten drei Bibliotheken liegen inzwischen die Umzugsanträge vor. Durch die Umstrukturierung der RLB Koblenz zum LBZ Rheinland-Pfalz werden die Einzelsichten der RLB Koblenz, PLB Speyer und der Bipontina in Zweibrücken mit den Büchereistellen Koblenz und Neustadt zu einer Sicht verschmolzen.
  6. Salgáné, M.M.: Our electronic era and bibliographic informations computer-related bibliographic data formats, metadata formats and BDML (2005) 0.02
    0.019886991 = product of:
      0.079547964 = sum of:
        0.027243135 = weight(_text_:wide in 3005) [ClassicSimilarity], result of:
          0.027243135 = score(doc=3005,freq=2.0), product of:
            0.13912784 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.031400457 = queryNorm
            0.1958137 = fieldWeight in 3005, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.03125 = fieldNorm(doc=3005)
        0.020901911 = weight(_text_:web in 3005) [ClassicSimilarity], result of:
          0.020901911 = score(doc=3005,freq=4.0), product of:
            0.10247572 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031400457 = queryNorm
            0.2039694 = fieldWeight in 3005, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=3005)
        0.009562616 = weight(_text_:information in 3005) [ClassicSimilarity], result of:
          0.009562616 = score(doc=3005,freq=10.0), product of:
            0.055122808 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.031400457 = queryNorm
            0.1734784 = fieldWeight in 3005, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=3005)
        0.021840302 = weight(_text_:software in 3005) [ClassicSimilarity], result of:
          0.021840302 = score(doc=3005,freq=2.0), product of:
            0.124570385 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031400457 = queryNorm
            0.17532499 = fieldWeight in 3005, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=3005)
      0.25 = coord(4/16)
    
    Abstract
    Using new communication technologies libraries must face continuously new questions, possibilities and expectations. This study discusses library-related aspects of our electronic era and how computer-related data formats affect bibliographic dataprocessing to give a summary of the most important results. First bibliographic formats for the exchange of bibliographic and related information in the machine-readable form between different types of computer systems were created more than 30 years ago. The evolution of information technologies leads to the improvement of computer systems. In addition to the development of computers and media types Internet has a great influence on data structure as well. Since the introduction of MARC bibliographic format, technology of data exchange between computers and between different computer systems has reached a very sophisticated stage and has contributed to the creation of new standards in this field. Today libraries work with this new infrastructure that induces many challenges. One of the most significant challenges is moving from a relatively homogenous bibliographic environment to a diverse one. Despite these challenges such changes are achievable and necessary to exploit possibilities of new metadata and technologies like the Internet and XML (Extensible Markup Language). XML is an open standard, a universal language for data on the Web. XML is nearly six-years-old standard designed for the description and computer-based management of (semi)-structured data and structured texts. XML gives developers the power to deliver structured data from a wide variety of applications and it is also an ideal format from server-to-server transfer of structured data. XML also isn't limited for Internet use and is an especially valuable tool in the field of library. In fact, XML's main strength - organizing information - makes it perfect for exchanging data between different systems. Tools that work with the XML can be used to process XML records without incurring additional costs associated with one's own software development. In addition, XML is also a suitable format for library web services. The Department of Computer-related Graphic Design and Library and Information Sciences of Debrecen University launched the BDML (Bibliographic Description Markup Language) development project in order to standardize bibliogrphic description with the help of XML.
    Source
    Librarianship in the information age: Proceedings of the 13th BOBCATSSS Symposium, 31 January - 2 February 2005 in Budapest, Hungary. Eds.: Marte Langeland u.a
  7. Oehlschläger, S.: Arbeitsgemeinschaft der Verbundsysteme : Aus der 46. Sitzung am 21. und 22. April 2004 im Bibliotheksservice-Zentrum Baden-Württemberg in Konstanz (2004) 0.02
    0.018157143 = product of:
      0.07262857 = sum of:
        0.05584952 = weight(_text_:benutzer in 2434) [ClassicSimilarity], result of:
          0.05584952 = score(doc=2434,freq=4.0), product of:
            0.17907447 = queryWeight, product of:
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.031400457 = queryNorm
            0.31187874 = fieldWeight in 2434, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2434)
        0.0055920132 = product of:
          0.0111840265 = sum of:
            0.0111840265 = weight(_text_:online in 2434) [ClassicSimilarity], result of:
              0.0111840265 = score(doc=2434,freq=2.0), product of:
                0.09529729 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031400457 = queryNorm
                0.11735933 = fieldWeight in 2434, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2434)
          0.5 = coord(1/2)
        0.0037419656 = weight(_text_:information in 2434) [ClassicSimilarity], result of:
          0.0037419656 = score(doc=2434,freq=2.0), product of:
            0.055122808 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.031400457 = queryNorm
            0.06788416 = fieldWeight in 2434, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2434)
        0.0074450746 = product of:
          0.014890149 = sum of:
            0.014890149 = weight(_text_:22 in 2434) [ClassicSimilarity], result of:
              0.014890149 = score(doc=2434,freq=2.0), product of:
                0.10995905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031400457 = queryNorm
                0.1354154 = fieldWeight in 2434, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2434)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Content
    "Die verbundübergreifende Fernleihe für Monografien steht kurz vor ihrer flächendeckenden Einführung. Voraussetzung hierfür ist ein funktionierendes Online-Fernleih-System in jedem Verbund. Dies ist prototypisch realisiert. Die Arbeitsgemeinschaft der Verbundsysteme geht davon aus, dass ab dem 1. Januar 2005 der Echtbetrieb aufgenommen werden kann und die Leistungen nach der neuen Leihverkehrsordnung abgerechnet werden können. Zur Klärung von Detailfragen trifft sich im Juni die Arbeitsgruppe Verbundübergreifende Fernleihe. Bereits in der letzten Sitzung wurde festgelegt, dass die jeweiligen Bibliotheken über die Festlegung des Leitwegs entscheiden sollen, und die Verbundzentralen nur dann eingreifen werden, wenn Probleme entstehen sollten. Die individuelle Leitwegsteuerung, sowohl innerhalb des Verbundes als auch bei der Festlegung der Reihenfolge der anzugehenden Verbünde hat in einigen Verbünden hohe Priorität. Traditionell gewachsene Beziehungen müssen von den Bestellsystemen abgebildet werden können. Eine lokale Zusammenarbeit wird auch über Verbundgrenzen hinaus möglich sein. Im Hinblick auf die Verrechnung verbundübergreifender Fernleihen haben sich die Verbünde auf einen einheitlichen Verrechnungszeitraum geeinigt. Voraussetzung ist außerdem, dass die Unterhaltsträger die notwendigen Rahmenbedingungen für die Abrechnung schaffen und die neue Leihverkehrsordnung in allen Bundesländern rechtzeitig in Kraft gesetzt wird."
    - Projekt Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) Das Projekt Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) stand zum Zeitpunkt der Sitzung der Arbeitsgemeinschaft kurz vor seinem Abschluss. Im Rahmen der Veranstaltung des Standardisierungsausschusses beim 2. Leipziger Kongress für Information und Bibliothek wurden die wesentlichen Projektergebnisse vorgestellt. Aufgrund der vorliegenden Informationen gehen die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme davon aus, dass das finanzielle Argument bei der anstehenden Entscheidung nicht mehr im Vordergrund stehen kann. Auch wenn davon ausgegangen wird, dass eine klare Umstiegsentscheidung durch den Standardisierungsausschuss derzeit politisch nicht durchsetzbar sei, sehen die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme die Entwicklung durch die Projektergebnisse positiv. Durch die Diskussion wurden Defizite des deutschen Regelwerks und der Verbundpraxis offen gelegt und verschiedene Neuerungen angestoßen. Zur Verbesserung des Datentausches untereinander sehen die Verbundzentralen unabhängig von einer Entscheidung des Standardisierungsausschusses die Notwendigkeit, ihre Datenbestände zu homogenisieren und Hierarchien abzubauen bzw. die Verknüpfungsstrukturen zu vereinfachen. Auch die Entwicklung der Functional Requirements for Bibliographic Records (FRBR) muss in diese Überlegungen einbezogen werden. Die Formate müssen dahingehend entwickelt werden, dass alle relevanten Informationen im Titelsatz transportiert werden können. Es wird eine Konvergenz von Regelwerk und Format angestrebt.
    - Elektronischer DDC-Dienst Im Fall der deutschen Übersetzung der Dewey Decimal Classification (DDC) wurde die Idee einer Normdatei DDC-Deutsch zugunsten eines zentralen elektronischen DDC-Dienstes bei Der Deutschen Bibliothek aufgegeben. Dieser Dienst hält die übersetzten Daten bereit und stellt sie in drei verschiedenen Ausprägungen zur Verfügung: 1. Zentrales Such- und Browsingtool für Benutzer 2. Klassifikationswerkzeug für Sacherschließer 3. SOAP-Schnittstelle für den elektronischen Datenaustausch. Um die DDC künftig gewinnbringend in der Benutzung einsetzen zu können, werden Konkordanzen zu anderen Klassifikationen, insbesondere aber zur weit verbreiteten Regensburger Verbundklassifikation (RVK) benötigt. Mithilfe dieser Konkordanzen können Benutzer im OPAL Der Deutschen Bibliothek nach DDC-Notationen suchen und würden zusätzlich Ergebnisse aus den Verbünden angezeigt bekommen, die bislang nicht mit der DDC erschlossen sind. Der GBV plant eine Grunderschließung seiner Verbunddatenbank mit der DDC in 5 Ebenen. Ziel ist es, bis Ende 2005 alle Verbunddaten mit der DDC zu verbinden und damit ein bedeutendes Recherchetool zu erhalten.
  8. Simmons, P.: Microcomputer software for ISO 2709 record conversion (1989) 0.02
    0.017581692 = product of:
      0.14065354 = sum of:
        0.017106129 = weight(_text_:information in 2) [ClassicSimilarity], result of:
          0.017106129 = score(doc=2,freq=2.0), product of:
            0.055122808 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.031400457 = queryNorm
            0.3103276 = fieldWeight in 2, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.125 = fieldNorm(doc=2)
        0.12354741 = weight(_text_:software in 2) [ClassicSimilarity], result of:
          0.12354741 = score(doc=2,freq=4.0), product of:
            0.124570385 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031400457 = queryNorm
            0.99178797 = fieldWeight in 2, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.125 = fieldNorm(doc=2)
      0.125 = coord(2/16)
    
    Source
    Microcomputers for information management. 6(1989), S.197-205
    Theme
    Bibliographische Software
  9. Miller, D.R.: XML: Libraries' strategic opportunity (2001) 0.02
    0.016606284 = product of:
      0.08856685 = sum of:
        0.03405392 = weight(_text_:wide in 1467) [ClassicSimilarity], result of:
          0.03405392 = score(doc=1467,freq=2.0), product of:
            0.13912784 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.031400457 = queryNorm
            0.24476713 = fieldWeight in 1467, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1467)
        0.045253962 = weight(_text_:web in 1467) [ClassicSimilarity], result of:
          0.045253962 = score(doc=1467,freq=12.0), product of:
            0.10247572 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031400457 = queryNorm
            0.4416067 = fieldWeight in 1467, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1467)
        0.009258964 = weight(_text_:information in 1467) [ClassicSimilarity], result of:
          0.009258964 = score(doc=1467,freq=6.0), product of:
            0.055122808 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.031400457 = queryNorm
            0.16796975 = fieldWeight in 1467, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1467)
      0.1875 = coord(3/16)
    
    Abstract
    XML (eXtensible Markup Language) is fast gaining favor as the universal format for data and document exchange -- in effect becoming the lingua franca of the Information Age. Currently, "library information" is at a particular disadvantage on the rapidly evolving World Wide Web. Why? Despite libraries'explorations of web catalogs, scanning projects, digital data repositories, and creation of web pages galore, there remains a digital divide. The core of libraries' data troves are stored in proprietary formats of integrated library systems (ILS) and in the complex and arcane MARC formats -- both restricted chiefly to the province of technical services and systems librarians. Even they are hard-pressed to extract and integrate this wealth of data with resources from outside this rarefied environment. Segregation of library information underlies many difficulties: producing standard bibliographic citations from MARC data, automatically creating new materials lists (including new web resources) on a particular topic, exchanging data with our vendors, and even migrating from one ILS to another. Why do we continue to hobble our potential by embracing these self-imposed limitations? Most ILSs began in libraries, which soon recognized the pitfalls of do-it-yourself solutions. Thus, we wisely anticipated the necessity for standards. However, with the advent of the web, we soon found "our" collections and a flood of new resources appearing in digital format on opposite sides of the divide. If we do not act quickly to integrate library resources with mainstream web resources, we are in grave danger of becoming marginalized
  10. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.02
    0.016032107 = product of:
      0.08550457 = sum of:
        0.04815952 = weight(_text_:wide in 3742) [ClassicSimilarity], result of:
          0.04815952 = score(doc=3742,freq=4.0), product of:
            0.13912784 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.031400457 = queryNorm
            0.34615302 = fieldWeight in 3742, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3742)
        0.031999387 = weight(_text_:web in 3742) [ClassicSimilarity], result of:
          0.031999387 = score(doc=3742,freq=6.0), product of:
            0.10247572 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031400457 = queryNorm
            0.3122631 = fieldWeight in 3742, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3742)
        0.005345665 = weight(_text_:information in 3742) [ClassicSimilarity], result of:
          0.005345665 = score(doc=3742,freq=2.0), product of:
            0.055122808 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.031400457 = queryNorm
            0.09697737 = fieldWeight in 3742, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3742)
      0.1875 = coord(3/16)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  11. Regelwerksumstellung : Stellungnahme zu dem Beschluss des Standardisierungsausschusses bei der Deutschen Bibliothek, einen Umstieg von den deutschen auf internationale Regelwerke und Formate (AACR und MARC) anzustreben (2002) 0.02
    0.016007435 = product of:
      0.06402974 = sum of:
        0.039491575 = weight(_text_:benutzer in 635) [ClassicSimilarity], result of:
          0.039491575 = score(doc=635,freq=2.0), product of:
            0.17907447 = queryWeight, product of:
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.031400457 = queryNorm
            0.22053158 = fieldWeight in 635, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.02734375 = fieldNorm(doc=635)
        0.009685652 = product of:
          0.019371305 = sum of:
            0.019371305 = weight(_text_:online in 635) [ClassicSimilarity], result of:
              0.019371305 = score(doc=635,freq=6.0), product of:
                0.09529729 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031400457 = queryNorm
                0.20327234 = fieldWeight in 635, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=635)
          0.5 = coord(1/2)
        0.0037419656 = weight(_text_:information in 635) [ClassicSimilarity], result of:
          0.0037419656 = score(doc=635,freq=2.0), product of:
            0.055122808 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.031400457 = queryNorm
            0.06788416 = fieldWeight in 635, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=635)
        0.011110546 = weight(_text_:retrieval in 635) [ClassicSimilarity], result of:
          0.011110546 = score(doc=635,freq=2.0), product of:
            0.09498371 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.031400457 = queryNorm
            0.11697317 = fieldWeight in 635, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.02734375 = fieldNorm(doc=635)
      0.25 = coord(4/16)
    
    Content
    "Die unterzeichneten Arbeitsgemeinschaften zeigen sich besonders besorgt über die Art einer derartigen Entscheidungsfindung, die Aufgabenstellungen der verschiedenen Bibliothekstypen nicht einbezieht, die Interessen der Spezialbibliotheken nicht berücksichtigt, keine ergebnisoffene Diskussion führt und die Bibliotheken vor vollendete Tatsachen stellt. Eine zukunftsfähige Weiterentwicklung eines Katalogisierungsregelwerks müsste nicht nur auf das Retrieval in Online-Katalogen und Dokumentenmanagement-Systemen abheben, Schnittstellen zu weitergehenden Erschließungsformen, Objekten und digitalen Dokumenten enthalten, sondern auch die Einbettung von Metadaten in nichtbibliothekarische Standards ermöglichen. Der geplante Umstieg von RAK auf AACR entspricht nicht diesen Anforderungen. Er träfe unsere Spezialbibliotheken in unterschiedlicher Weise: - Etliche kleinere Spezialbibliotheken sind immer noch damit beschäftigt, ihre Kataloge in Online-Kataloge zu transferieren und zumindest die Daten ihrer Spezialbestände retrospektiv zu erfassen. Sie würden mitten im Umstellungsprozess entscheidend behindert. - Andere Bibliotheken sind mit der Ergänzung der Online-Kataloge um Sekundärinformationen und Value-Added-Information, Digitalisierung von Dokumenten und ihre Einbettung dieser Dokumente in Workflow- oder Wissensmanagement-Anwendungen der sie tragenden Institution beschäftigt. Bei diesen neuen Herausforderungen gibt das avisierte Regelwerk keine Hilfestellung. - Wiederum andere Bibliotheken stehen im laufenden Betrieb vor Herausforderungen im Kontext der neuen Verwaltungssteuerung, der Erweiterung der Informationsvermittlung, der Integrierung der Medienbestände in Intranet- und Internet-Strukturen, und veränderten Organisationsstrukturen der Trägerinstitution. Gerade personell mit dem allernötigsten ausgestattet, haben sie weder die Sachmittel noch die personellen Möglichkeiten, ihre Arbeit auf eine allgemeine Regelwerksumstellung, wie sie mit dem Wechsel von RAK zu AACR avisiert ist, die weder ihre Sacharbeit noch ihre Dienstleistung effizienter macht, zu konzentrieren.
    Aus Sicht unserer Arbeitsgemeinschaften ist die weltweite Vereinheitlichung bibliothekarischer Standards nur dann wissenschaftspolitisch vertretbar und bibliothekarisch wünschbar, wenn die regionalen und fachlichen Differenzierungen nicht verloren gehen, die für die Optimierung der Dienstleistungen unserer Spezialbibliotheken unabdingbar sind. Eine Regelwerksumstellung produziert Kosten und bindet Kapazitäten, die für andere Zwecke dringend benötigt werden. Da für unsere Spezialbibliotheken die Katalogisierung nur eine untergeordnete, rein funktionale Aufgabe ist, die Arbeitskraft hingegen auf die wesentlichen Aufgaben konzentriert werden muss, die unsere Spezialbibliotheken ausmachen (vor allem die zeit- und arbeitsplatznahe Informationsbereitstellung, Informationsvermittlung bis hin zu persönlichen Beratungsgesprächen), ist zusätzlicher Aufwand auf diesem Gebiet besonders kritisch zu würdigen. Er ist gegenüber unseren Bibliotheksträgern nur dann zu rechtfertigen, wenn dem ein entsprechender Nutzen gegenübersteht. Dies ist aus unserer Sicht weder für unsere Bibliotheken noch für deren Benutzer der Fall. Da die institutionellen Träger unserer Spezialbibliotheken angesichts des fehlenden Nutzens kaum von Sonderaufwendungen finanzieller oder personeller Art zu überzeugen sein werden, ist davon ausgehen, dass mit der in dieser Form vorgesehenen Regelwerksumstellung bei einer großen Zahl der Spezialbibliotheken keine Umstellung erfolgen wird und somit in Zukunft die gerade sehr mühsam erreichte und weitgehende einheitliche Anwendung von Katalogisierungsregeln nicht mehr existieren wird. Wir appellieren daher an die Beteiligten, den Umstieg auf AACR zurückzustellen und die Regelwerksarbeit zukunftsorientiert an oben skizzierten Anforderungen bibliothekarischer Praxis zu orientieren, dabei die Bedürfnisse der Spezialbibliotheken einzubeziehen und die Frage der Implementation von Regelwerksänderungen besonders sorgfältig zu bedenken. - Arbeitsgemeinschaft für juristisches Bibliotheks- und Dokumentationswesen (AjBD) - Arbeitsgemeinschaft katholisch-theologischer Bibliotheken (AKThB) Arbeitsgemeinschaft der Kunst- und Museumsbibliotheken (AKMB) - Arbeitsgemeinschaft der Parlaments- und Behördenbibliotheken (APBB) - Verband kirchlich-wissenschaftlicher Bibliotheken (VkwB) in der Arbeitsgemeinschaft der Archive und Bibliotheken in der evangelischen Kirche (AABevK)."
  12. UNIMARC and CDS/ISIS : Proceedings of the Workshops held in Budapest, 21.-22. June 1993 and Barcelona, 26. August 1993 (1994) 0.01
    0.014329889 = product of:
      0.076426074 = sum of:
        0.0074839313 = weight(_text_:information in 8779) [ClassicSimilarity], result of:
          0.0074839313 = score(doc=8779,freq=2.0), product of:
            0.055122808 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.031400457 = queryNorm
            0.13576832 = fieldWeight in 8779, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8779)
        0.05405199 = weight(_text_:software in 8779) [ClassicSimilarity], result of:
          0.05405199 = score(doc=8779,freq=4.0), product of:
            0.124570385 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031400457 = queryNorm
            0.43390724 = fieldWeight in 8779, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8779)
        0.014890149 = product of:
          0.029780298 = sum of:
            0.029780298 = weight(_text_:22 in 8779) [ClassicSimilarity], result of:
              0.029780298 = score(doc=8779,freq=2.0), product of:
                0.10995905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031400457 = queryNorm
                0.2708308 = fieldWeight in 8779, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=8779)
          0.5 = coord(1/2)
      0.1875 = coord(3/16)
    
    Content
    Enthält die Beiträge: CAMPOS, F.: UNIMARC: state of the art on the universal format for international exchange; HOLT, B.: The maintenance of UNIMARC; WILLER, M.: UNIMARC / Authorities format; HOPKINSON, A.: CDS/ISIS as a tool for implementing UNIMARC; BERKE, S. u. M. SIPOS: The comprehensive information system of the National Széchényi Library and the Hungarian MARC format; SHRAIBERG, Y.: Application of the CDS/ISIS software package and UNIMARC format in the automated systems of the Russian National Public Library for Science and Technology and other libraries of the Russian Federation; STOKLASOVA, B.: Exchange formats in the Czech Republic: past, present and future
    Theme
    Bibliographische Software
  13. Guenther, R.S.: Automating the Library of Congress Classification Scheme : implementation of the USMARC format for classification data (1996) 0.01
    0.014298417 = product of:
      0.07625822 = sum of:
        0.015816603 = product of:
          0.031633206 = sum of:
            0.031633206 = weight(_text_:online in 5578) [ClassicSimilarity], result of:
              0.031633206 = score(doc=5578,freq=4.0), product of:
                0.09529729 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031400457 = queryNorm
                0.33194235 = fieldWeight in 5578, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5578)
          0.5 = coord(1/2)
        0.022221092 = weight(_text_:retrieval in 5578) [ClassicSimilarity], result of:
          0.022221092 = score(doc=5578,freq=2.0), product of:
            0.09498371 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.031400457 = queryNorm
            0.23394634 = fieldWeight in 5578, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5578)
        0.038220525 = weight(_text_:software in 5578) [ClassicSimilarity], result of:
          0.038220525 = score(doc=5578,freq=2.0), product of:
            0.124570385 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031400457 = queryNorm
            0.30681872 = fieldWeight in 5578, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5578)
      0.1875 = coord(3/16)
    
    Abstract
    Potential uses for classification data in machine readable form and reasons for the development of a standard, the USMARC Format for Classification Data, which allows for classification data to interact with other USMARC bibliographic and authority data are discussed. The development, structure, content, and use of the standard is reviewed with implementation decisions for the Library of Congress Classification scheme noted. The author examines the implementation of USMARC classification at LC, the conversion of the schedules, and the functionality of the software being used. Problems in the effort are explored, and enhancements desired for the online classification system are considered.
    Theme
    Klassifikationssysteme im Online-Retrieval
  14. Martin, P.: Conventions and notations for knowledge representation and retrieval (2000) 0.01
    0.013870672 = product of:
      0.07397692 = sum of:
        0.022169823 = weight(_text_:web in 5070) [ClassicSimilarity], result of:
          0.022169823 = score(doc=5070,freq=2.0), product of:
            0.10247572 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031400457 = queryNorm
            0.21634221 = fieldWeight in 5070, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=5070)
        0.01904665 = weight(_text_:retrieval in 5070) [ClassicSimilarity], result of:
          0.01904665 = score(doc=5070,freq=2.0), product of:
            0.09498371 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.031400457 = queryNorm
            0.20052543 = fieldWeight in 5070, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=5070)
        0.032760452 = weight(_text_:software in 5070) [ClassicSimilarity], result of:
          0.032760452 = score(doc=5070,freq=2.0), product of:
            0.124570385 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031400457 = queryNorm
            0.2629875 = fieldWeight in 5070, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=5070)
      0.1875 = coord(3/16)
    
    Abstract
    Much research has focused on the problem of knowledge accessibility, sharing and reuse. Specific languages (e.g. KIF, CG, RDF) and ontologies have been proposed. Common characteristics, conventions or ontological distinctions are beginning to emerge. Since knowledge providers (humans and software agents) must follow common conventions for the knowledge to be widely accessed and re-used, we propose lexical, structural, semantic and ontological conventions based on various knowledge representation projects and our own research. These are minimal conventions that can be followed by most and cover the most common knowledge representation cases. However, agreement and refinements are still required. We also show that a notation can be both readable and expressive by quickly presenting two new notations -- Formalized English (FE) and Frame-CG (FCG) - derived from the CG linear form [9] and Frame-Logics [4]. These notations support the above conventions, and are implemented in our Web-based knowledge representation and document indexation tool, WebKB¹ [7]
  15. Mönnich, M.: Elektronisches Publizieren von Hochschulschriften : Formate und Datenbanken (2000) 0.01
    0.013247783 = product of:
      0.21196453 = sum of:
        0.21196453 = sum of:
          0.044736106 = weight(_text_:online in 4709) [ClassicSimilarity], result of:
            0.044736106 = score(doc=4709,freq=2.0), product of:
              0.09529729 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.031400457 = queryNorm
              0.46943733 = fieldWeight in 4709, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.109375 = fieldNorm(doc=4709)
          0.16722843 = weight(_text_:publizieren in 4709) [ClassicSimilarity], result of:
            0.16722843 = score(doc=4709,freq=4.0), product of:
              0.15493481 = queryWeight, product of:
                4.934158 = idf(docFreq=864, maxDocs=44218)
                0.031400457 = queryNorm
              1.079347 = fieldWeight in 4709, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.934158 = idf(docFreq=864, maxDocs=44218)
                0.109375 = fieldNorm(doc=4709)
      0.0625 = coord(1/16)
    
    Source
    Wissenschaft online: Elektronisches Publizieren in Bibliothek und Hochschule. Hrsg. B. Tröger
  16. Woods, E.W.; IFLA Section on classification and Indexing and Indexing and Information Technology; Joint Working Group on a Classification Format: Requirements for a format of classification data : Final report, July 1996 (1996) 0.01
    0.013142908 = product of:
      0.07009551 = sum of:
        0.019172618 = product of:
          0.038345236 = sum of:
            0.038345236 = weight(_text_:online in 3008) [ClassicSimilarity], result of:
              0.038345236 = score(doc=3008,freq=2.0), product of:
                0.09529729 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031400457 = queryNorm
                0.40237486 = fieldWeight in 3008, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3008)
          0.5 = coord(1/2)
        0.012829596 = weight(_text_:information in 3008) [ClassicSimilarity], result of:
          0.012829596 = score(doc=3008,freq=2.0), product of:
            0.055122808 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.031400457 = queryNorm
            0.23274569 = fieldWeight in 3008, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.09375 = fieldNorm(doc=3008)
        0.0380933 = weight(_text_:retrieval in 3008) [ClassicSimilarity], result of:
          0.0380933 = score(doc=3008,freq=2.0), product of:
            0.09498371 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.031400457 = queryNorm
            0.40105087 = fieldWeight in 3008, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.09375 = fieldNorm(doc=3008)
      0.1875 = coord(3/16)
    
    Theme
    Klassifikationssysteme im Online-Retrieval
  17. Oehlschläger, S.: Treffpunkt Standardisierung : Eine Veranstaltung des Standardisierungsausschusses beim 2. Leipziger Kongress für Information und Bibliothek (2004) 0.01
    0.012209204 = product of:
      0.09767363 = sum of:
        0.09026646 = weight(_text_:benutzer in 2790) [ClassicSimilarity], result of:
          0.09026646 = score(doc=2790,freq=8.0), product of:
            0.17907447 = queryWeight, product of:
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.031400457 = queryNorm
            0.5040722 = fieldWeight in 2790, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.03125 = fieldNorm(doc=2790)
        0.007407171 = weight(_text_:information in 2790) [ClassicSimilarity], result of:
          0.007407171 = score(doc=2790,freq=6.0), product of:
            0.055122808 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.031400457 = queryNorm
            0.1343758 = fieldWeight in 2790, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=2790)
      0.125 = coord(2/16)
    
    Abstract
    Treffpunkt Standardisierung - Projekte, Konzepte und Kooperationen - lautete der Titel der Veranstaltung des Standardisierungsausschusses beim 2. Leipziger Kongress für Information und Bibliothek »Information Macht Bildung«, die vom Vorsitzenden Berndt Dugall moderiert wurde. Den größten Raum innerhalb der Veranstaltung nahm der Themenkomplex »Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)« ein. Zunächst stellte die Projektbearbeiterin Luise Hoffmann die Ausgangslage des Projektes sowie bisher vorliegende Ergebnisse aus dem von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projekt vor und ging dabei auf einige Projektschwerpunkte ein: Luise Hoffmann stellte einige Punkte aus dem Regelwerks- und Formatabgleich sowie der Untersuchung über die Konsequenzen eines Umstiegs auf die laufende Katalogisierung vor und ging dann ausführlicher auf mögliche Auswirkungen eines Umstiegs auf die Informationsversorgung des Benutzers ein, einen Aspekt, dem im DFG-Antrag eine besondere, hervorgehobene Bedeutung beigemessen wird. In erster Linie wurden die Strategien der Benutzer zur Literatursuche untersucht. Ziel war es, herauszufinden, ob und welche Auswirkungen ein Umstieg auf die Benutzung des örtlichen Bibliothekskatalogs haben würde. Hierzu wurde zunächst die Suchstrategie von Benutzern ermittelt, um anschließend analysieren zu können, ob diese Strategie in einem AACR-MARC-basierten Katalog erfolgreicher oder weniger erfolgreich gewesen wäre. Da die zunehmende Literaturrecherche im Internet möglicherweise das Suchverhalten in einem OPAC beeinflusst, wurde zusätzlich die Suchstrategie im Internet erfragt. Zur Ermittlung der Suchstrategie wurde ein Fragebogen entworfen und in Der Deutschen Bibliothek getestet. Anhand der Deutschen Bibliotheksstatistik wurden Bibliotheken unter den Gesichtspunkten der Nutzerfrequenz und der Bestandsgröße ausgewählt und angefragt, ob sie bereit wären, den Fragebogen in ihrer Bibliothek auszulegen. Nachdem sich zehn Bibliotheken bereit erklärt hatten, wurden für die endgültige Befragung einige spezielle Fragen zu Suchbegriffen an die jeweiligen Bibliotheks-OPACs angepasst, da Formulierungen und Bezeichnungen wie Person, Autor, Verfasser u. dgl. in den Bibliothekskatalogen voneinander abweichen können. Als erstes Ergebnis nach Auswertung der Fragebögen aus drei Universitätsbibliotheken konnte festgestellt werden, dass Benutzer überwiegend unter Titelstichwörtern und Personen suchen und dabei Namensformen verwenden, die ihnen geläufig sind. Ein großer Teil der Benutzer weiß der Umfrage zufolge nicht, wie man den Band eines mehrbändigen Werkes sucht, und fast die Hälfte aller Befragten sucht nach Aufsätzen von Sammelwerken. Benutzer unterscheiden überwiegend bei ihrer Suche nicht, ob sie in einem deutschen oder einem ausländischen Katalog recherchieren. Um zu einheitlichen Suchergebnissen bei der Suche in deutschen und ausländischen Katalogen zu gelangen, sollte eine Annäherung der Standards angestrebt werden.
  18. Croissant, C.R.: MARC21 und die anglo-amerikanische Katalogisierungspraxis (2004) 0.01
    0.010057854 = product of:
      0.08046283 = sum of:
        0.06769984 = weight(_text_:benutzer in 1764) [ClassicSimilarity], result of:
          0.06769984 = score(doc=1764,freq=2.0), product of:
            0.17907447 = queryWeight, product of:
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.031400457 = queryNorm
            0.37805414 = fieldWeight in 1764, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.046875 = fieldNorm(doc=1764)
        0.012762985 = product of:
          0.02552597 = sum of:
            0.02552597 = weight(_text_:22 in 1764) [ClassicSimilarity], result of:
              0.02552597 = score(doc=1764,freq=2.0), product of:
                0.10995905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031400457 = queryNorm
                0.23214069 = fieldWeight in 1764, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1764)
          0.5 = coord(1/2)
      0.125 = coord(2/16)
    
    Abstract
    Das MARC21-Datenformat wird aus der Sicht eines praktizierenden AACR2/MARC-Katalogisierers vorgeführt. Der Autor gibt zunächst eine allgemeine Einführung in das MARC21 Bibliographic Format. Der zweite Abschnitt der Arbeit ist der Erschließung von mehrteiligen bzw. mehrbändigen Werken gewidmet. Die Behandlung von mehrteiligen bzw. mehrbändigen Werken, in der AACR2-Welt "Analyse" genannt, ist nämlich der Punkt, an dem die anglo-amerikanische und die deutsche Katalogisierungspraxis am weitesten auseinandergehen. Die verschiedenen Formen der "Analyse" werden erläutert im Hinblick auf die Frage, inwiefern diese Praxen den Bedürfnissen der Benutzer gerecht werden. Auf eine kurze Behandlung der besonderen Problematik der fortlaufenden Sammelwerke folgt dann eine Einführung in das MARC21 Authorities Format für Normdatensätze. Die Rolle der verschiedenen Arten von Normdatensätzen bei der Katalogisierung wird auch besprochen. DerAufsatz schließt mit einem Kommentar über verschiedene Aspekte der Verlinkung von Datensätzen.
    Date
    13. 8.2004 21:22:06
  19. Guenther, R.S.: ¬The USMARC Format for Classification Data : development and implementation (1992) 0.01
    0.0097546335 = product of:
      0.052024715 = sum of:
        0.018076118 = product of:
          0.036152236 = sum of:
            0.036152236 = weight(_text_:online in 2996) [ClassicSimilarity], result of:
              0.036152236 = score(doc=2996,freq=4.0), product of:
                0.09529729 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031400457 = queryNorm
                0.37936267 = fieldWeight in 2996, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2996)
          0.5 = coord(1/2)
        0.008553064 = weight(_text_:information in 2996) [ClassicSimilarity], result of:
          0.008553064 = score(doc=2996,freq=2.0), product of:
            0.055122808 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.031400457 = queryNorm
            0.1551638 = fieldWeight in 2996, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=2996)
        0.025395533 = weight(_text_:retrieval in 2996) [ClassicSimilarity], result of:
          0.025395533 = score(doc=2996,freq=2.0), product of:
            0.09498371 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.031400457 = queryNorm
            0.26736724 = fieldWeight in 2996, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=2996)
      0.1875 = coord(3/16)
    
    Abstract
    This paper discusses the newly developed USMARC Format for Classification Data. It reviews its potential uses within an online system and its development as one of the USMARC standards for representing bibliographic and related information in machine-readable form. It provides a summary of the fields in the format, and considers the prospects for its implementation.
    Theme
    Klassifikationssysteme im Online-Retrieval
  20. Guenther, R.S.: ¬The development and implementation of the USMARC format for classification data (1992) 0.01
    0.0097546335 = product of:
      0.052024715 = sum of:
        0.018076118 = product of:
          0.036152236 = sum of:
            0.036152236 = weight(_text_:online in 8865) [ClassicSimilarity], result of:
              0.036152236 = score(doc=8865,freq=4.0), product of:
                0.09529729 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031400457 = queryNorm
                0.37936267 = fieldWeight in 8865, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0625 = fieldNorm(doc=8865)
          0.5 = coord(1/2)
        0.008553064 = weight(_text_:information in 8865) [ClassicSimilarity], result of:
          0.008553064 = score(doc=8865,freq=2.0), product of:
            0.055122808 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.031400457 = queryNorm
            0.1551638 = fieldWeight in 8865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=8865)
        0.025395533 = weight(_text_:retrieval in 8865) [ClassicSimilarity], result of:
          0.025395533 = score(doc=8865,freq=2.0), product of:
            0.09498371 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.031400457 = queryNorm
            0.26736724 = fieldWeight in 8865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=8865)
      0.1875 = coord(3/16)
    
    Abstract
    This paper discusses the newly developed USMARC Format for Classification Data. It reviews its potential uses within an online system and its development as one of the USMARC standards. It provides a summary of the fields in the format and considers the prospects for its implementation. The papaer describes an experiment currently being conducted at the Library of Congress to create USMARC classification records and use a classification database in classifying materials in the social sciences
    Source
    Information technology and libraries. 11(1992) no.2, S.120-131
    Theme
    Klassifikationssysteme im Online-Retrieval

Authors

Years

Languages

  • e 152
  • d 55
  • f 7
  • pl 1
  • sp 1
  • More… Less…

Types

  • a 175
  • m 21
  • s 11
  • el 10
  • n 4
  • x 4
  • b 2
  • ? 1
  • l 1
  • More… Less…