Search (107 results, page 1 of 6)

  • × theme_ss:"Datenformate"
  1. Johnson, B.C.: XML and MARC : which is "right"? (2001) 0.06
    0.05810751 = product of:
      0.15495336 = sum of:
        0.046277866 = weight(_text_:world in 5423) [ClassicSimilarity], result of:
          0.046277866 = score(doc=5423,freq=2.0), product of:
            0.15567686 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.04050213 = queryNorm
            0.29726875 = fieldWeight in 5423, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5423)
        0.061494615 = weight(_text_:wide in 5423) [ClassicSimilarity], result of:
          0.061494615 = score(doc=5423,freq=2.0), product of:
            0.17945516 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.04050213 = queryNorm
            0.342674 = fieldWeight in 5423, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5423)
        0.047180872 = weight(_text_:web in 5423) [ClassicSimilarity], result of:
          0.047180872 = score(doc=5423,freq=4.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.35694647 = fieldWeight in 5423, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5423)
      0.375 = coord(3/8)
    
    Abstract
    This article explores recent discussions about appropriate mark-up conventions for library information intended for use on the World Wide Web. In particular, the question of whether the MARC 21 format will continue to be useful and whether the time is right for a full-fledged conversion effort to XML is explored. The author concludes that the MARC format will be relevant well into the future, and its use will not hamper access to bibliographic information via the web. Early XML exploratory efforts carried out at the Stanford University's Lane Medical Library are reported on. Although these efforts are a promising start, much more consultation and investigation is needed to arrive at broadly acceptable standards for XML library information encoding and retrieval.
  2. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.06
    0.056302994 = product of:
      0.15014131 = sum of:
        0.0467477 = weight(_text_:world in 3742) [ClassicSimilarity], result of:
          0.0467477 = score(doc=3742,freq=4.0), product of:
            0.15567686 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.04050213 = queryNorm
            0.30028677 = fieldWeight in 3742, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3742)
        0.062118948 = weight(_text_:wide in 3742) [ClassicSimilarity], result of:
          0.062118948 = score(doc=3742,freq=4.0), product of:
            0.17945516 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.04050213 = queryNorm
            0.34615302 = fieldWeight in 3742, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3742)
        0.041274663 = weight(_text_:web in 3742) [ClassicSimilarity], result of:
          0.041274663 = score(doc=3742,freq=6.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.3122631 = fieldWeight in 3742, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3742)
      0.375 = coord(3/8)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  3. Cantrall, D.: From MARC to Mosaic : progressing toward data interchangeability at the Oregon State Archives (1994) 0.05
    0.0529254 = product of:
      0.1411344 = sum of:
        0.046277866 = weight(_text_:world in 8470) [ClassicSimilarity], result of:
          0.046277866 = score(doc=8470,freq=2.0), product of:
            0.15567686 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.04050213 = queryNorm
            0.29726875 = fieldWeight in 8470, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8470)
        0.061494615 = weight(_text_:wide in 8470) [ClassicSimilarity], result of:
          0.061494615 = score(doc=8470,freq=2.0), product of:
            0.17945516 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.04050213 = queryNorm
            0.342674 = fieldWeight in 8470, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8470)
        0.033361915 = weight(_text_:web in 8470) [ClassicSimilarity], result of:
          0.033361915 = score(doc=8470,freq=2.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.25239927 = fieldWeight in 8470, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8470)
      0.375 = coord(3/8)
    
    Abstract
    Explains the technology used by the Oregon State Archives to relaize the goal of data interchangeability given the prescribed nature of the MARC format. Describes an emergent model of learning and information delivery focusing on the example of World Wide Web, accessed most often by the software client Mosaic, which is the fastest growing segment of the Internet information highway. Also describes The Data Magician, a flexible program which allows for many combinations of input and output formats, and will read unconventional formats such as MARC communications format. Oregon State Archives, using Mosaic and The Data Magician, are consequently able to present valuable electronic information to a variety of users
  4. Oeltjen, W.: Dokumentenstrukturen manipulieren und visualisieren : über das Arbeiten mit der logischen Struktur (1998) 0.05
    0.0529254 = product of:
      0.1411344 = sum of:
        0.046277866 = weight(_text_:world in 6616) [ClassicSimilarity], result of:
          0.046277866 = score(doc=6616,freq=2.0), product of:
            0.15567686 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.04050213 = queryNorm
            0.29726875 = fieldWeight in 6616, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6616)
        0.061494615 = weight(_text_:wide in 6616) [ClassicSimilarity], result of:
          0.061494615 = score(doc=6616,freq=2.0), product of:
            0.17945516 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.04050213 = queryNorm
            0.342674 = fieldWeight in 6616, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6616)
        0.033361915 = weight(_text_:web in 6616) [ClassicSimilarity], result of:
          0.033361915 = score(doc=6616,freq=2.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.25239927 = fieldWeight in 6616, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6616)
      0.375 = coord(3/8)
    
    Abstract
    Thema dieses Beitrages sind Dokumentenstrukturen und zwar aus zwei Blickrichtungen: aus der Sicht der Autoren, die ein Dokument mit Computerunterstützung erstellen und die Dokumentenstruktur manipulieren und aus der Sicht der Lesenden, die ein Dokument lesen und die Struktur des Dokumentes wahrnehmen. Bei der Dokumentenstruktur wird unterschieden zwischen der logischen Struktur und der grafischen Struktur eines Dokumentes. Diese Trennung ermöglicht das Manipulieren und Visualisieren der logischen Struktur. Welche Bedeutung das für die Autoren und für die Benutzenden des Dokumentes hat, soll in dem Beitrag u.a. am Beispiel der Auszeichnungssprache HTML, der Dokumentenbeschreibungssprache des World-Wide Web, erörtert werden
  5. Miller, D.R.: XML: Libraries' strategic opportunity (2001) 0.05
    0.05075682 = product of:
      0.13535152 = sum of:
        0.03305562 = weight(_text_:world in 1467) [ClassicSimilarity], result of:
          0.03305562 = score(doc=1467,freq=2.0), product of:
            0.15567686 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.04050213 = queryNorm
            0.21233483 = fieldWeight in 1467, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1467)
        0.043924723 = weight(_text_:wide in 1467) [ClassicSimilarity], result of:
          0.043924723 = score(doc=1467,freq=2.0), product of:
            0.17945516 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.04050213 = queryNorm
            0.24476713 = fieldWeight in 1467, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1467)
        0.058371186 = weight(_text_:web in 1467) [ClassicSimilarity], result of:
          0.058371186 = score(doc=1467,freq=12.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.4416067 = fieldWeight in 1467, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1467)
      0.375 = coord(3/8)
    
    Abstract
    XML (eXtensible Markup Language) is fast gaining favor as the universal format for data and document exchange -- in effect becoming the lingua franca of the Information Age. Currently, "library information" is at a particular disadvantage on the rapidly evolving World Wide Web. Why? Despite libraries'explorations of web catalogs, scanning projects, digital data repositories, and creation of web pages galore, there remains a digital divide. The core of libraries' data troves are stored in proprietary formats of integrated library systems (ILS) and in the complex and arcane MARC formats -- both restricted chiefly to the province of technical services and systems librarians. Even they are hard-pressed to extract and integrate this wealth of data with resources from outside this rarefied environment. Segregation of library information underlies many difficulties: producing standard bibliographic citations from MARC data, automatically creating new materials lists (including new web resources) on a particular topic, exchanging data with our vendors, and even migrating from one ILS to another. Why do we continue to hobble our potential by embracing these self-imposed limitations? Most ILSs began in libraries, which soon recognized the pitfalls of do-it-yourself solutions. Thus, we wisely anticipated the necessity for standards. However, with the advent of the web, we soon found "our" collections and a flood of new resources appearing in digital format on opposite sides of the divide. If we do not act quickly to integrate library resources with mainstream web resources, we are in grave danger of becoming marginalized
  6. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.04
    0.03780385 = product of:
      0.100810274 = sum of:
        0.03305562 = weight(_text_:world in 6617) [ClassicSimilarity], result of:
          0.03305562 = score(doc=6617,freq=2.0), product of:
            0.15567686 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.04050213 = queryNorm
            0.21233483 = fieldWeight in 6617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6617)
        0.043924723 = weight(_text_:wide in 6617) [ClassicSimilarity], result of:
          0.043924723 = score(doc=6617,freq=2.0), product of:
            0.17945516 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.04050213 = queryNorm
            0.24476713 = fieldWeight in 6617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6617)
        0.023829939 = weight(_text_:web in 6617) [ClassicSimilarity], result of:
          0.023829939 = score(doc=6617,freq=2.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.18028519 = fieldWeight in 6617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6617)
      0.375 = coord(3/8)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
  7. Xu, A.; Hess, K.; Akerman, L.: From MARC to BIBFRAME 2.0 : Crosswalks (2018) 0.03
    0.03146898 = product of:
      0.12587592 = sum of:
        0.033700623 = weight(_text_:web in 5172) [ClassicSimilarity], result of:
          0.033700623 = score(doc=5172,freq=4.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.25496176 = fieldWeight in 5172, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5172)
        0.0921753 = product of:
          0.1843506 = sum of:
            0.1843506 = weight(_text_:2.0 in 5172) [ClassicSimilarity], result of:
              0.1843506 = score(doc=5172,freq=12.0), product of:
                0.23490155 = queryWeight, product of:
                  5.799733 = idf(docFreq=363, maxDocs=44218)
                  0.04050213 = queryNorm
                0.7847994 = fieldWeight in 5172, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  5.799733 = idf(docFreq=363, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5172)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    One of the big challenges facing academic libraries today is to increase the relevance of the libraries to their user communities. If the libraries can increase the visibility of their resources on the open web, it will increase the chances of the libraries to reach to their user communities via the user's first search experience. BIBFRAME and library Linked Data will enable libraries to publish their resources in a way that the Web understands, consume Linked Data to enrich their resources relevant to the libraries' user communities, and visualize networks across collections. However, one of the important steps for transitioning to BIBFRAME and library Linked Data involves crosswalks, mapping MARC fields and subfields across data models and performing necessary data reformatting to be in compliance with the specifications of the new model, which is currently BIBFRAME 2.0. This article looks into how the Library of Congress has mapped library bibliographic data from the MARC format to the BIBFRAME 2.0 model and vocabulary published and updated since April 2016, available from http://www.loc.gov/bibframe/docs/index.html based on the recently released conversion specifications and converter, developed by the Library of Congress with input from many community members. The BIBFRAME 2.0 standard and conversion tools will enable libraries to transform bibliographic data from MARC into BIBFRAME 2.0, which introduces a Linked Data model as the improved method of bibliographic control for the future, and make bibliographic information more useful within and beyond library communities.
    Object
    BIBFRAME 2.0
  8. Helmkamp, K.; Oehlschläger, S.: ¬Die Internationalisierung deutscher Standards : auf dem Weg von MAB2 zu MARC 21. "Access" - der Schlüssel zum Erfolg (2006) 0.03
    0.0264627 = product of:
      0.0705672 = sum of:
        0.023138933 = weight(_text_:world in 4873) [ClassicSimilarity], result of:
          0.023138933 = score(doc=4873,freq=2.0), product of:
            0.15567686 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.04050213 = queryNorm
            0.14863437 = fieldWeight in 4873, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4873)
        0.030747307 = weight(_text_:wide in 4873) [ClassicSimilarity], result of:
          0.030747307 = score(doc=4873,freq=2.0), product of:
            0.17945516 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.04050213 = queryNorm
            0.171337 = fieldWeight in 4873, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4873)
        0.016680958 = weight(_text_:web in 4873) [ClassicSimilarity], result of:
          0.016680958 = score(doc=4873,freq=2.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.12619963 = fieldWeight in 4873, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4873)
      0.375 = coord(3/8)
    
    Abstract
    Seit einigen Jahren ist der Begriff "Access" oder "Zugang" in aller Munde. Er bezieht sich auf den Zugang zu Informationsressourcen im World Wide Web und stellt eine zentrale Voraussetzung für den Erfolg oder Misserfolg in der modernen Gesellschaft dar. Viele Lebensbereiche sind auf einen ungehinderten Zugang zu digitalen Ressourcen angewiesen. Für ein Wirtschaftsunternehmen ist es im 21. Jahrhundert nicht mehr nur wichtig, über traditionelle Produktionsfaktoren, wie Maschinen oder Kapital, zu verfügen, von gleicher Bedeutung ist der Zugang auf Informationen, die intern und extern zur Verfügung stehen, und die Grundlage für ein umfassendes Wissensmanagement bilden. Damit kann der Innovationsprozess beschleunigt und das eigene Risiko vermindert werden, beispielsweise wenn bei der Produktentwicklung die Zeit bis zur Markteinführung verringert und damit ein wesentlicher Vorteil gegenüber den Konkurrenten erzielt wird. Auch die Welt der Wissenschaft hat sich in den letzten Jahrzehnten sehr verändert. Das Interesse von Wissenschaftlern ist nicht auf ihre jeweilige eigene nationale und kulturelle Umgebung beschränkt. Sie benötigen Informationen über Dokumente und Daten aus der ganzen Welt. Gleichzeitig wollen sie die eigenen Forschungsergebnisse in der internationalen Forschungsgemeinschaft zur Diskussion stellen. Schließlich ist der Zugang zu digitalen und konventionellen Ressourcen eine Voraussetzung für den Erfolg in dynamischen und global agierenden Gesellschaften und Systemen. Diese sind davon abhängig, dass Wissen ständig neu generiert und organisiert wird, und propagieren das lebenslange Lernen. Das Konzept des lebenslangen Lernens richtet sich an den Einzelnen, der seine Informationskompetenz ständig erweitern soll. Dadurch wird das Bedürfnis nach Bildungsangeboten im weitesten Sinne und folglich nach einem ungehinderten Zugang zu ihnen geweckt. All dies zeigt, dass ein reibungsloser Metadatenaustausch auf der Grundlage von sprachraumübergreifenden Standards eine wichtige Voraussetzung für Erfolge in ganz unterschiedlichen Bereichen ist. Daraus erwachsen wichtige Aufgaben für Bibliothekarinnen und Bibliothekare, die Daten über Dokumente bereitstellen und den Nachweis und Zugang zu ihnen garantieren. Deutschsprachige und ausländische Bibliotheken verwenden derzeit noch unterschiedliche Standards bei der Speicherung und dem Austausch von Katalogdaten. Während in Deutschland und Österreich das Maschinelle Austauschformat für Bibliotheken MAB2 verwendet wird, ist das Format Machine Readable Cataloguing MARC 21 der weltweit am weitesten verbreitete Standard.
  9. Kaiser, M.; Lieder, H.J.; Majcen, K.; Vallant, H.: New ways of sharing and using authority information : the LEAF project (2003) 0.02
    0.023370039 = product of:
      0.062320106 = sum of:
        0.01652781 = weight(_text_:world in 1166) [ClassicSimilarity], result of:
          0.01652781 = score(doc=1166,freq=2.0), product of:
            0.15567686 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.04050213 = queryNorm
            0.10616741 = fieldWeight in 1166, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1166)
        0.021962361 = weight(_text_:wide in 1166) [ClassicSimilarity], result of:
          0.021962361 = score(doc=1166,freq=2.0), product of:
            0.17945516 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.04050213 = queryNorm
            0.122383565 = fieldWeight in 1166, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1166)
        0.023829939 = weight(_text_:web in 1166) [ClassicSimilarity], result of:
          0.023829939 = score(doc=1166,freq=8.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.18028519 = fieldWeight in 1166, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1166)
      0.375 = coord(3/8)
    
    Abstract
    This article presents an overview of the LEAF project (Linking and Exploring Authority Files)1, which has set out to provide a framework for international, collaborative work in the sector of authority data with respect to authority control. Elaborating the virtues of authority control in today's Web environment is an almost futile exercise, since so much has been said and written about it in the last few years.2 The World Wide Web is generally understood to be poorly structured-both with regard to content and to locating required information. Highly structured databases might be viewed as small islands of precision within this chaotic environment. Though the Web in general or any particular structured database would greatly benefit from increased authority control, it should be noted that our following considerations only refer to authority control with regard to databases of "memory institutions" (i.e., libraries, archives, and museums). Moreover, when talking about authority records, we exclusively refer to personal name authority records that describe a specific person. Although different types of authority records could indeed be used in similar ways to the ones presented in this article, discussing those different types is outside the scope of both the LEAF project and this article. Personal name authority records-as are all other "authorities"-are maintained as separate records and linked to various kinds of descriptive records. Name authority records are usually either kept in independent databases or in separate tables in the database containing the descriptive records. This practice points at a crucial benefit: by linking any number of descriptive records to an authorized name record, the records related to this entity are collocated in the database. Variant forms of the authorized name are referenced in the authority records and thus ensure the consistency of the database while enabling search and retrieval operations that produce accurate results. On one hand, authority control may be viewed as a positive prerequisite of a consistent catalogue; on the other, the creation of new authority records is a very time consuming and expensive undertaking. As a consequence, various models of providing access to existing authority records have emerged: the Library of Congress and the French National Library (Bibliothèque nationale de France), for example, make their authority records available to all via a web-based search service.3 In Germany, the Personal Name Authority File (PND, Personennamendatei4) maintained by the German National Library (Die Deutsche Bibliothek, Frankfurt/Main) offers a different approach to shared access: within a closed network, participating institutions have online access to their pooled data. The number of recent projects and initiatives that have addressed the issue of authority control in one way or another is considerable.5 Two important current initiatives should be mentioned here: The Name Authority Cooperative (NACO) and Virtual International Authority File (VIAF).
  10. DFG und Mellon-Foundation fördern internationalen Datenaustausch (2006) 0.02
    0.019245084 = product of:
      0.07698034 = sum of:
        0.03305562 = weight(_text_:world in 5070) [ClassicSimilarity], result of:
          0.03305562 = score(doc=5070,freq=2.0), product of:
            0.15567686 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.04050213 = queryNorm
            0.21233483 = fieldWeight in 5070, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5070)
        0.043924723 = weight(_text_:wide in 5070) [ClassicSimilarity], result of:
          0.043924723 = score(doc=5070,freq=2.0), product of:
            0.17945516 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.04050213 = queryNorm
            0.24476713 = fieldWeight in 5070, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5070)
      0.25 = coord(2/8)
    
    Content
    "Der aktuelle Speicherort einer Publikation verliert angesichts der steigenden Zahl an digital vorliegenden und über das World Wide Weh verfügbaren Publikationen seine Bedeutung. Entscheidend für die Forschung sind Aufindbarkeit und schnelle Nutzungsmöglichkeit der Informationen. Global zu arbeiten, Daten, Informationen und Texte zu tauschen ist zur täglichen Routine für Wissenschaftler und Bibliothekare geworden. Deutschsprachige und ausländische Bibliotheken verwenden derzeit noch unterschiedliche Standards bei der Speicherung und dem Austausch von Katalogdaten. Die von der Deutschen Forschungsgemeinschaft und der Andrew W. Mellon Foundation geförderten Projekte verfolgen das Ziel, die Daten deutschsprachiger Bibliotheken weltweit sichtbar zu machen. Das Interesse von Wissenschaftlern ist nicht auf ihre jeweilige eigene nationale und kulturelle Umgebung beschränkt. Sie benötigen Informationen über Dokumente und Daten aus der ganzen Welt. Gleichzeitig wollen sie die eigenen Forschungsergebnisse in der internationalen Forschungsgemeinschaft zur Diskussion stellen. Sprachraumübergreifende Standards für Metadaten und deren reibungsloser gegenseitiger Austausch sind Voraussetzung für die wissenschaftliche Kommunikation und für den individuellen Erfolg des einzelnen Forschers. Die Deutsche Bibliothek pflegt seit vielen Jahren Kooperationsbeziehungen auf nationaler und internationaler Ebene. Dazu gehören die Entwicklung und Anwendung von gemeinsamen Regeln und Standards sowie Produktion und Vertrieb von bibliografischen Dienstleistungen und die Pflege kooperativ geführter Datenbanken, insbesondere für Normdaten. Einen weiteren Schwerpunkt bilden Entwicklung und Anwendung moderner Technologien für die Langzeitarchivierung der Bestände im Rahmen internationaler Kooperationen, unabhängig davon, ob die Publikationen auf Papier, Mikrofilm oder digital vorliegen."
  11. Helmkamp, K.; Oehlschläger, S.: Standardisierung : Ein Meilenstein auf dem Weg zur Internationalisierung; Im Jahr 2007 erfolgt der Umstieg auf MARC 21 (2006) 0.02
    0.018901926 = product of:
      0.050405137 = sum of:
        0.01652781 = weight(_text_:world in 65) [ClassicSimilarity], result of:
          0.01652781 = score(doc=65,freq=2.0), product of:
            0.15567686 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.04050213 = queryNorm
            0.10616741 = fieldWeight in 65, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
        0.021962361 = weight(_text_:wide in 65) [ClassicSimilarity], result of:
          0.021962361 = score(doc=65,freq=2.0), product of:
            0.17945516 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.04050213 = queryNorm
            0.122383565 = fieldWeight in 65, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
        0.011914969 = weight(_text_:web in 65) [ClassicSimilarity], result of:
          0.011914969 = score(doc=65,freq=2.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.09014259 = fieldWeight in 65, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
      0.375 = coord(3/8)
    
    Content
    "Mit der steigenden Zahl von digitalen und digitalisierten Dokumenten, die im World Wide Web zur Verfügung stehen, verliert der aktuelle Speicherort einer Publikation seine Bedeutung. Entscheidend für die Forschung sind vielmehr Auffindbarkeit und schnelle Nutzungsmöglichkeit von Informationen. Global in elektronischen Umgebungen zu arbeiten, Daten, Informationen, Texte zu tauschen und zu mischen, ist zur täglichen Routine für Wissenschaftler und Bibliothekare geworden. Das Interesse von Wissenschaftlern ist nicht auf ihre jeweilige eigene nationale und kulturelle Umgebung beschränkt. Sie benötigen Informationen über Dokumente und Daten aus der ganzen Welt. Gleichzeitig wollen sie die eigenen Forschungsergebnisse in der internationalen Forschungsgemeinschaft zur Diskussion stellen. Sprachraumübergreifende Standards für Metadaten und ein reibungsloser Metadatenaustausch sind Voraussetzung für die wissenschaftliche Kommunikation und für den individuellen Erfolg des einzelnen Forschers. Deutschsprachige und ausländische Bibliotheken verwenden derzeit noch unterschiedliche Standards bei der Speicherung und dem Austausch von Katalogdaten. Während in Deutschland und Österreich das Maschinelle Austauschformat für Bibliotheken MAB2 verwendet wird, ist das Format Machine Readable Cataloguing MARC 21 der weltweit am weitesten verbreitete Standard. Der Standardisierungsausschuss hat in seiner 9. Sitzung am 15. Dezember 2004 wegweisende Beschlüsse zur Internationalisierung der deutschen Standards gefasst.' Diese sehen als ersten Meilenstein die flächendeckende Einführung von MARC 21 als Austauschformat vor. Die Verbundsysteme als größte Datenproduzenten haben sich verpflichtet, MARC 21 einheitlich, das heißt ohne verbundspezifische Besonderheiten, einzuführen und anzuwenden. Gleichzeitig werden die bisher unterschiedlichen Verbundrichtlinien vereinheitlicht. Die Einführung von MARC 21 bildet zusammen mit den Bestrebungen zur Verbesserung der Zusammenarbeit der Verbundsysteme einen entscheidenden Schritt, die Voraussetzungen für Fremddatenübernahme und Datentausch für die deutschen Bibliotheken sowohl auf nationaler als auch auf internationaler Ebene erheblich zu verbessern.
  12. Tennant, R.: ¬A bibliographic metadata infrastructure for the twenty-first century (2004) 0.02
    0.017292444 = product of:
      0.069169775 = sum of:
        0.0381279 = weight(_text_:web in 2845) [ClassicSimilarity], result of:
          0.0381279 = score(doc=2845,freq=2.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.2884563 = fieldWeight in 2845, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=2845)
        0.031041874 = product of:
          0.062083747 = sum of:
            0.062083747 = weight(_text_:22 in 2845) [ClassicSimilarity], result of:
              0.062083747 = score(doc=2845,freq=4.0), product of:
                0.14183156 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04050213 = queryNorm
                0.4377287 = fieldWeight in 2845, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2845)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    The current library bibliographic infrastructure was constructed in the early days of computers - before the Web, XML, and a variety of other technological advances that now offer new opportunities. General requirements of a modern metadata infrastructure for libraries are identified, including such qualities as versatility, extensibility, granularity, and openness. A new kind of metadata infrastructure is then proposed that exhibits at least some of those qualities. Some key challenges that must be overcome to implement a change of this magnitude are identified.
    Date
    9.12.2005 19:22:38
    Source
    Library hi tech. 22(2004) no.2, S.175-181
  13. Doerr, M.; Gradmann, S.; Hennicke, S.; Isaac, A.; Meghini, C.; Van de Sompel, H.: ¬The Europeana Data Model (EDM) (2010) 0.02
    0.017065667 = product of:
      0.06826267 = sum of:
        0.03966674 = weight(_text_:world in 3967) [ClassicSimilarity], result of:
          0.03966674 = score(doc=3967,freq=2.0), product of:
            0.15567686 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.04050213 = queryNorm
            0.25480178 = fieldWeight in 3967, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.046875 = fieldNorm(doc=3967)
        0.028595924 = weight(_text_:web in 3967) [ClassicSimilarity], result of:
          0.028595924 = score(doc=3967,freq=2.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.21634221 = fieldWeight in 3967, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=3967)
      0.25 = coord(2/8)
    
    Abstract
    The Europeana Data Model (EDM) is a new approach towards structuring and representing data delivered to Europeana by the various contributing cultural heritage institutions. The model aims at greater expressivity and flexibility in comparison to the current Europeana Semantic Elements (ESE), which it is destined to replace. The design principles underlying the EDM are based on the core principles and best practices of the Semantic Web and Linked Data efforts to which Europeana wants to contribute. The model itself builds upon established standards like RDF(S), OAI-ORE, SKOS, and Dublin Core. It acts as a common top-level ontology which retains original data models and information perspectives while at the same time enabling interoperability. The paper elaborates on the aforementioned aspects and the design principles which drove the development of the EDM.
    Content
    Vortrag im Rahmen der Session 93. Cataloguing der WORLD LIBRARY AND INFORMATION CONGRESS: 76TH IFLA GENERAL CONFERENCE AND ASSEMBLY, 10-15 August 2010, Gothenburg, Sweden - 149. Information Technology, Cataloguing, Classification and Indexing with Knowledge Management
  14. Oehlschläger, S.: Aus der 48. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 12. und 13. November 2004 in Göttingen (2005) 0.02
    0.01583283 = product of:
      0.06333132 = sum of:
        0.04648101 = weight(_text_:recherche in 3556) [ClassicSimilarity], result of:
          0.04648101 = score(doc=3556,freq=4.0), product of:
            0.21953142 = queryWeight, product of:
              5.4202437 = idf(docFreq=531, maxDocs=44218)
              0.04050213 = queryNorm
            0.21172827 = fieldWeight in 3556, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.4202437 = idf(docFreq=531, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
        0.016850311 = weight(_text_:web in 3556) [ClassicSimilarity], result of:
          0.016850311 = score(doc=3556,freq=4.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.12748088 = fieldWeight in 3556, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
      0.25 = coord(2/8)
    
    Content
    Die Deutsche Bibliothek Retrieval von Content In dem Projekt wird angestrebt, Verfahren zu entwickeln und einzuführen, die automatisch und ohne intellektuelle Bearbeitung für das Content-Retrieval ausreichend Sucheinstiege bieten. Dabei kann es sich um die Suche nach Inhalten von Volltexten, digitalen Abbildern, Audiofiles, Videofiles etc. von in Der Deutschen Bibliothek archivierten digitalen Ressourcen oder digitalen Surrogaten archivierter analoger Ressourcen (z. B. OCR-Ergebnisse) handeln. Inhalte, die in elektronischer Form vorhanden sind, aber dem InternetBenutzer Der Deutschen Bibliothek bisher nicht oder nur eingeschränkt zur Verfügung stehen, sollen in möglichst großem Umfang und mit möglichst großem Komfort nutzbar gemacht werden. Darüber hinaus sollen Inhalte benutzt werden, die für ein in ILTIS katalogisiertes Objekt beschreibenden Charakter haben, um auf das beschriebene Objekt zu verweisen. Die höchste Priorität liegt dabei auf der Erschließung von Inhalten in Textformaten. In einem ersten Schritt wurde der Volltext aller Zeitschriften, die im Projekt "Exilpresse digital" digitalisiert wurden, für eine erweiterte Suche genutzt. In einem nächsten Schritt soll die PSI-Software für die Volltextindexierung von Abstracts evaluiert werden. MILOS Mit dem Einsatz von MILOS eröffnet sich die Möglichkeit, nicht oder wenig sachlich erschlossene Bestände automatisch mit ergänzenden Inhaltserschließungsinformationen zu versehen, der Schwerpunkt liegt dabei auf der Freitext-Indexierung. Das bereits in einigen Bibliotheken eingesetzte System, das inzwischen von Der Deutschen Bibliothek für Deutschland lizenziert wurde, wurde in eine UNIX-Version überführt und angepasst. Inzwischen wurde nahezu der gesamte Bestand rückwirkend behandelt, die Daten werden im Gesamt-OPAC für die Recherche zur Verfügung stehen. Die in einer XMLStruktur abgelegten Indexeinträge werden dabei vollständig indexiert und zugänglich gemacht. Ein weiterer Entwicklungsschritt wird in dem Einsatz von MILOS im Online-Verfahren liegen.
    Hessisches BibliotheksinformationsSystem (HEBIS) Personennamendatei (PND) Vor dem Hintergrund der Harmonisierungsbestrebungen bei den Normdateien hat der HeBIS-Verbundrat nach erneuter Diskussion mehrheitlich entschieden, künftig neben SWD und GKD auch die PND als in HeBIS integrierte Normdatei obligatorisch zu nutzen. Im Zuge der wachsenden Vernetzung der regionalen Verbundsysteme kommt der Homogenität der Datensätze eine zunehmend wichtigere Bedeutung zu. Konkret wird dies speziell für HeBIS mit dem Produktionsbeginn des HeBIS-Portals und der integrierten verbundübergreifenden Fernleihe. Nur wenn die Verfasserrecherche in den einzelnen Verbunddatenbanken auf weitgehend einheitliche Datensätze einschließlich Verweisungsformen trifft, kann der Benutzer gute Trefferergebnisse erwarten und damit seine Chancen erhöhen, die gewünschte Literatur über Fernleihe bestellen zu können. Das Gesamtkonzept ist ausgelegt auf eine pragmatische und aufwandsreduzierte Vorgehensweise. Mit der Umsetzung wurde begonnen. Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (HBZ) FAST-Suchmaschine Das HBZ hat die Suchmaschinentechnologie des norwegischen Herstellers FAST lizenziert. Ziel ist es, die Produkte des HBZ mit Hilfe innovativer Suchmaschinentechnologien in einer neuen Ausrichtung zu präsentieren. Die Präsentation soll einen schnellen Recherche-Zugang zu den NRWVerbunddaten mittels FAST-Suchmaschinentechnologie mit folgenden Eigenschaften beinhalten: - Eine Web-Oberfläche, um für Laien eine schnelle Literatursuche anbieten zu können. - Eine Web-Oberfläche, um für Expertinnen und Experten eine schnelle Literatur-Suche anbieten zu können. - Präsentation von Zusatzfunktionen, die in gängigen Bibliothekskatalogen so nicht vorhanden sind. - Schaffung einer Zugriffsmöglichkeit für den KVK auf die Verbunddaten mit sehr kurzen Antwortzeiten Digitale Bibliothek Die Mehrzahl der Bibliotheken ist inzwischen auf Release 5 umgezogen. Einige befinden sich noch im Bearbeitungsstatus. Von den letzten drei Bibliotheken liegen inzwischen die Umzugsanträge vor. Durch die Umstrukturierung der RLB Koblenz zum LBZ Rheinland-Pfalz werden die Einzelsichten der RLB Koblenz, PLB Speyer und der Bipontina in Zweibrücken mit den Büchereistellen Koblenz und Neustadt zu einer Sicht verschmolzen.
  15. Salgáné, M.M.: Our electronic era and bibliographic informations computer-related bibliographic data formats, metadata formats and BDML (2005) 0.02
    0.015525069 = product of:
      0.062100276 = sum of:
        0.03513978 = weight(_text_:wide in 3005) [ClassicSimilarity], result of:
          0.03513978 = score(doc=3005,freq=2.0), product of:
            0.17945516 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.04050213 = queryNorm
            0.1958137 = fieldWeight in 3005, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.03125 = fieldNorm(doc=3005)
        0.026960498 = weight(_text_:web in 3005) [ClassicSimilarity], result of:
          0.026960498 = score(doc=3005,freq=4.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.2039694 = fieldWeight in 3005, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=3005)
      0.25 = coord(2/8)
    
    Abstract
    Using new communication technologies libraries must face continuously new questions, possibilities and expectations. This study discusses library-related aspects of our electronic era and how computer-related data formats affect bibliographic dataprocessing to give a summary of the most important results. First bibliographic formats for the exchange of bibliographic and related information in the machine-readable form between different types of computer systems were created more than 30 years ago. The evolution of information technologies leads to the improvement of computer systems. In addition to the development of computers and media types Internet has a great influence on data structure as well. Since the introduction of MARC bibliographic format, technology of data exchange between computers and between different computer systems has reached a very sophisticated stage and has contributed to the creation of new standards in this field. Today libraries work with this new infrastructure that induces many challenges. One of the most significant challenges is moving from a relatively homogenous bibliographic environment to a diverse one. Despite these challenges such changes are achievable and necessary to exploit possibilities of new metadata and technologies like the Internet and XML (Extensible Markup Language). XML is an open standard, a universal language for data on the Web. XML is nearly six-years-old standard designed for the description and computer-based management of (semi)-structured data and structured texts. XML gives developers the power to deliver structured data from a wide variety of applications and it is also an ideal format from server-to-server transfer of structured data. XML also isn't limited for Internet use and is an especially valuable tool in the field of library. In fact, XML's main strength - organizing information - makes it perfect for exchanging data between different systems. Tools that work with the XML can be used to process XML records without incurring additional costs associated with one's own software development. In addition, XML is also a suitable format for library web services. The Department of Computer-related Graphic Design and Library and Information Sciences of Debrecen University launched the BDML (Bibliographic Description Markup Language) development project in order to standardize bibliogrphic description with the help of XML.
  16. MacCallum, S.H.: Harmonization of USMARC, CANMARC, and UKMARC (2000) 0.02
    0.015116599 = product of:
      0.060466398 = sum of:
        0.0467477 = weight(_text_:world in 185) [ClassicSimilarity], result of:
          0.0467477 = score(doc=185,freq=4.0), product of:
            0.15567686 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.04050213 = queryNorm
            0.30028677 = fieldWeight in 185, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.0390625 = fieldNorm(doc=185)
        0.013718699 = product of:
          0.027437398 = sum of:
            0.027437398 = weight(_text_:22 in 185) [ClassicSimilarity], result of:
              0.027437398 = score(doc=185,freq=2.0), product of:
                0.14183156 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04050213 = queryNorm
                0.19345059 = fieldWeight in 185, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=185)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Date
    10. 9.2000 17:38:22
    Footnote
    Beitrag in einem Themenheft "What in the World...Cataloging on an International Scale": papers from the ALCTS preconference, June 26, 1998 "What in the World...Cataloging on an International Scale". ALCTS Preconference, Washington, D.C.
  17. Krauch, S.: Bibliographische Datenformate (1994) 0.01
    0.013146814 = product of:
      0.10517451 = sum of:
        0.10517451 = weight(_text_:recherche in 3034) [ClassicSimilarity], result of:
          0.10517451 = score(doc=3034,freq=2.0), product of:
            0.21953142 = queryWeight, product of:
              5.4202437 = idf(docFreq=531, maxDocs=44218)
              0.04050213 = queryNorm
            0.47908637 = fieldWeight in 3034, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4202437 = idf(docFreq=531, maxDocs=44218)
              0.0625 = fieldNorm(doc=3034)
      0.125 = coord(1/8)
    
    Abstract
    Datenformate dienen als Grundlage für die Strukturierung von bibliographischen Daten in EDV-Systemen. Ihr Einfluß auf wesentliche Funktionen wie Recherche, Anzeige und Ausgabe wird häufig unterschätzt und insbesondere bei der Auswahl eines EDV-Systems nicht genügend berücksichtigt. Der hier vorliegende, aus 2 Teilen bestehende Beitrag will dise Zusammenhänge erläutern und ihre Problematik diskutieren
  18. Guenther, R.S.: Using the Metadata Object Description Schema (MODS) for resource description : guidelines and applications (2004) 0.01
    0.013142023 = product of:
      0.052568093 = sum of:
        0.033361915 = weight(_text_:web in 2837) [ClassicSimilarity], result of:
          0.033361915 = score(doc=2837,freq=2.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.25239927 = fieldWeight in 2837, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2837)
        0.01920618 = product of:
          0.03841236 = sum of:
            0.03841236 = weight(_text_:22 in 2837) [ClassicSimilarity], result of:
              0.03841236 = score(doc=2837,freq=2.0), product of:
                0.14183156 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04050213 = queryNorm
                0.2708308 = fieldWeight in 2837, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2837)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    This paper describes the Metadata Object Description Schema (MODS), its accompanying documentation and some of its applications. It reviews the MODS user guidelines provided by the Library of Congress and how they enable a user of the schema to consistently apply MODS as a metadata scheme. Because the schema itself could not fully document appropriate usage, the guidelines provide element definitions, history, relationships with other elements, usage conventions, and examples. Short descriptions of some MODS applications are given and a more detailed discussion of its use in the Library of Congress's Minerva project for Web archiving is given.
    Source
    Library hi tech. 22(2004) no.1, S.89-98
  19. McCallum, S.H.: Machine Readable Cataloging (MARC): 1975-2007 (2009) 0.01
    0.011264591 = product of:
      0.045058362 = sum of:
        0.028595924 = weight(_text_:web in 3841) [ClassicSimilarity], result of:
          0.028595924 = score(doc=3841,freq=2.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.21634221 = fieldWeight in 3841, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=3841)
        0.016462438 = product of:
          0.032924876 = sum of:
            0.032924876 = weight(_text_:22 in 3841) [ClassicSimilarity], result of:
              0.032924876 = score(doc=3841,freq=2.0), product of:
                0.14183156 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04050213 = queryNorm
                0.23214069 = fieldWeight in 3841, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3841)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    This entry describes the development of the MARC Communications format. After a brief overview of the initial 10 years it describes the succeeding phases of development up to the present. This takes the reader through the expansion of the format for all types of bibliographic data and for a multiple character scripts. At the same time a large business community was developing that offered products based on the format to the library community. The introduction of the Internet in the 1990s and the Web technology brought new opportunities and challenges and the format was adapted to this new environment. There has been a great deal of international adoption of the format that has continued into the 2000s. More recently new syntaxes for MARC 21 and models are being explored.
    Date
    27. 8.2011 14:22:38
  20. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.01
    0.010641905 = product of:
      0.04256762 = sum of:
        0.032867033 = weight(_text_:recherche in 632) [ClassicSimilarity], result of:
          0.032867033 = score(doc=632,freq=2.0), product of:
            0.21953142 = queryWeight, product of:
              5.4202437 = idf(docFreq=531, maxDocs=44218)
              0.04050213 = queryNorm
            0.14971448 = fieldWeight in 632, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4202437 = idf(docFreq=531, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.009700585 = product of:
          0.01940117 = sum of:
            0.01940117 = weight(_text_:22 in 632) [ClassicSimilarity], result of:
              0.01940117 = score(doc=632,freq=4.0), product of:
                0.14183156 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04050213 = queryNorm
                0.13679022 = fieldWeight in 632, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=632)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Content
    "Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung Matchkey Bei der Verwendung von Meta-Suchmaschinen zur parallelen Recherche in bibliografischen Datenbanken kommt es häufig vor, dass derselbe Titel mehrmals in der Trefferliste auftaucht. In dieser Situation könnte ein so genannter Matchkey Abhilfe schaffen, der jeden Datensatz aus den vorhandenen bibliografischen Daten heraus eindeutig identifiziert. Ein solcher Algorithmus geht von einem bibliografischen Datensatz aus und generiert einen Schlüssel (Matchkey), der wiederum in den Datensatz integriert werden kann. Der Schlüssel muss sortierfähig sein, so dass die Trefferliste nach dem Grad der Ähnlichkeit sortiert werden kann. Eine wichtige Voraussetzung für die erfolgreiche Anwendung des Matchkey ist die Beseitigung der Hausregeln in den Verbünden und Bibliotheken. Bisher hat Die Deutsche Bibliothek das Thema analysiert und strebt nun die Formulierung und Bereitstellung eines ersten Algorithmus an, um eine Implementierung zu Testzwecken voraussichtlich im März/April 2006 zu ermöglichen. Ein klares Ergebnis soll bis Ende 2006 vorliegen.
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."

Years

Languages

  • e 72
  • d 29
  • f 2
  • da 1
  • pl 1
  • sp 1
  • More… Less…

Types

  • a 91
  • el 7
  • s 6
  • m 4
  • b 2
  • n 2
  • x 2
  • More… Less…