Search (76 results, page 2 of 4)

  • × theme_ss:"Datenformate"
  • × year_i:[2000 TO 2010}
  1. Eden, B.L.: Metadata and librarianship : will MARC survive? (2004) 0.01
    0.009380745 = product of:
      0.03752298 = sum of:
        0.017463064 = weight(_text_:information in 4750) [ClassicSimilarity], result of:
          0.017463064 = score(doc=4750,freq=6.0), product of:
            0.0742611 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.042302497 = queryNorm
            0.23515764 = fieldWeight in 4750, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4750)
        0.020059915 = product of:
          0.04011983 = sum of:
            0.04011983 = weight(_text_:22 in 4750) [ClassicSimilarity], result of:
              0.04011983 = score(doc=4750,freq=2.0), product of:
                0.14813614 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042302497 = queryNorm
                0.2708308 = fieldWeight in 4750, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4750)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Metadata schema and standards are now a part of the information landscape. Librarianship has slowly realized that MARC is only one of a proliferation of metadata standards, and that MARC has many pros and cons related to its age, original conception, and biases. Should librarianship continue to promote the MARC standard? Are there better metadata standards out there that are more robust, user-friendly, and dynamic in the organization and presentation of information? This special issue examines current initiatives that are actively incorporating MARC standards and concepts into new metadata schemata, while also predicting a future where MARC may not be the metadata schema of choice for the organization and description of information.
    Source
    Library hi tech. 22(2004) no.1, S.6-7
  2. Carvalho, J.R. de; Cordeiro, M.I.; Lopes, A.; Vieira, M.: Meta-information about MARC : an XML framework for validation, explanation and help systems (2004) 0.01
    0.008579612 = product of:
      0.034318447 = sum of:
        0.014258532 = weight(_text_:information in 2848) [ClassicSimilarity], result of:
          0.014258532 = score(doc=2848,freq=4.0), product of:
            0.0742611 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.042302497 = queryNorm
            0.1920054 = fieldWeight in 2848, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2848)
        0.020059915 = product of:
          0.04011983 = sum of:
            0.04011983 = weight(_text_:22 in 2848) [ClassicSimilarity], result of:
              0.04011983 = score(doc=2848,freq=2.0), product of:
                0.14813614 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042302497 = queryNorm
                0.2708308 = fieldWeight in 2848, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2848)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    This article proposes a schema for meta-information about MARC that can express at a fairly comprehensive level the syntactic and semantic aspects of MARC formats in XML, including not only rules but also all texts and examples that are conveyed by MARC documentation. It can be thought of as an XML version of the MARC or UNIMARC manuals, for both machine and human usage. The article explains how such a schema can be the central piece of a more complete framework, to be used in conjunction with "slim" record formats, providing a rich environment for the automated processing of bibliographic data.
    Source
    Library hi tech. 22(2004) no.2, S.131-137
  3. Avram, H.D.: Machine Readable Cataloging (MARC): 1961-1974 (2009) 0.01
    0.008579612 = product of:
      0.034318447 = sum of:
        0.014258532 = weight(_text_:information in 3844) [ClassicSimilarity], result of:
          0.014258532 = score(doc=3844,freq=4.0), product of:
            0.0742611 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.042302497 = queryNorm
            0.1920054 = fieldWeight in 3844, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3844)
        0.020059915 = product of:
          0.04011983 = sum of:
            0.04011983 = weight(_text_:22 in 3844) [ClassicSimilarity], result of:
              0.04011983 = score(doc=3844,freq=2.0), product of:
                0.14813614 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042302497 = queryNorm
                0.2708308 = fieldWeight in 3844, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3844)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    The MARC Program of the Library of Congress, led during its formative years by the author of this entry, was a landmark in the history of automation. Technical procedures, standards, and formatting for the catalog record were experimented with and developed in modern form in this project. The project began when computers were mainframe, slow, and limited in storage. So little was known then about many aspects of automation of library information resources that the MARC project can be seen as a pioneering effort with immeasurable impact.
    Date
    27. 8.2011 14:22:53
    Source
    Encyclopedia of library and information sciences. 3rd ed. Ed.: M.J. Bates
  4. Tell, B.: On MARC and natural text searching : a review of Pauline Cochrane's inspirational thinking grafted onto a Swedish spy on library matters (2000) 0.01
    0.007353953 = product of:
      0.029415812 = sum of:
        0.012221599 = weight(_text_:information in 1183) [ClassicSimilarity], result of:
          0.012221599 = score(doc=1183,freq=4.0), product of:
            0.0742611 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.042302497 = queryNorm
            0.16457605 = fieldWeight in 1183, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=1183)
        0.017194213 = product of:
          0.034388427 = sum of:
            0.034388427 = weight(_text_:22 in 1183) [ClassicSimilarity], result of:
              0.034388427 = score(doc=1183,freq=2.0), product of:
                0.14813614 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042302497 = queryNorm
                0.23214069 = fieldWeight in 1183, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1183)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    The following discussion is in appreciation of the invaluable inspirations Pauline Cochrane, by her acumen and perspicacity, has implanted into my thinking regarding various applications of library and information science, especially those involving machine-readable records and subject categorization. It is indeed an honor for me at my age to be offered to contribute to Pauline's Festschrift when instead I should be concerned about my forthcoming obituary. In the following, I must give some Background to what formed my thinking before my involvement in the field and thus before I encountered Pauline.
    Date
    22. 9.1997 19:16:05
    Imprint
    Urbana-Champaign, IL : Illinois University at Urbana-Champaign, Graduate School of Library and Information Science
  5. Khurshid, Z.: From MARC to MARC 21 and beyond : some reflections on MARC and the Arabic language (2002) 0.01
    0.0069049955 = product of:
      0.055239964 = sum of:
        0.055239964 = weight(_text_:world in 4792) [ClassicSimilarity], result of:
          0.055239964 = score(doc=4792,freq=2.0), product of:
            0.16259687 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.042302497 = queryNorm
            0.33973572 = fieldWeight in 4792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.0625 = fieldNorm(doc=4792)
      0.125 = coord(1/8)
    
    Abstract
    The paper aims to review major developments in the MARC format, including a brief description of metadata schemes and cross-walks. It also offers an assessment of how well MARC works for Arabic script materials, a description of the degree to which MARC is used in Saudi Arabia, and the prospects for the use of XML versions of MARC in the Arab world.
  6. Kurth, M.; Ruddy, D.; Rupp, N.: Repurposing MARC metadata : using digital project experience to develop a metadata management design (2004) 0.01
    0.006459047 = product of:
      0.025836188 = sum of:
        0.008641975 = weight(_text_:information in 4748) [ClassicSimilarity], result of:
          0.008641975 = score(doc=4748,freq=2.0), product of:
            0.0742611 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.042302497 = queryNorm
            0.116372846 = fieldWeight in 4748, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=4748)
        0.017194213 = product of:
          0.034388427 = sum of:
            0.034388427 = weight(_text_:22 in 4748) [ClassicSimilarity], result of:
              0.034388427 = score(doc=4748,freq=2.0), product of:
                0.14813614 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042302497 = queryNorm
                0.23214069 = fieldWeight in 4748, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4748)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Metadata and information technology staff in libraries that are building digital collections typically extract and manipulate MARC metadata sets to provide access to digital content via non-MARC schemes. Metadata processing in these libraries involves defining the relationships between metadata schemes, moving metadata between schemes, and coordinating the intellectual activity and physical resources required to create and manipulate metadata. Actively managing the non-MARC metadata resources used to build digital collections is something most of these libraries have only begun to do. This article proposes strategies for managing MARC metadata repurposing efforts as the first step in a coordinated approach to library metadata management. Guided by lessons learned from Cornell University library mapping and transformation activities, the authors apply the literature of data resource management to library metadata management and propose a model for managing MARC metadata repurposing processes through the implementation of a metadata management design.
    Source
    Library hi tech. 22(2004) no.2, S.144-152
  7. Oehlschläger, S.: Aus der 48. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 12. und 13. November 2004 in Göttingen (2005) 0.01
    0.006289834 = product of:
      0.025159337 = sum of:
        0.017599327 = weight(_text_:web in 3556) [ClassicSimilarity], result of:
          0.017599327 = score(doc=3556,freq=4.0), product of:
            0.13805464 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.042302497 = queryNorm
            0.12748088 = fieldWeight in 3556, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
        0.00756001 = product of:
          0.01512002 = sum of:
            0.01512002 = weight(_text_:retrieval in 3556) [ClassicSimilarity], result of:
              0.01512002 = score(doc=3556,freq=4.0), product of:
                0.12796146 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.042302497 = queryNorm
                0.11816074 = fieldWeight in 3556, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3556)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Content
    Die Deutsche Bibliothek Retrieval von Content In dem Projekt wird angestrebt, Verfahren zu entwickeln und einzuführen, die automatisch und ohne intellektuelle Bearbeitung für das Content-Retrieval ausreichend Sucheinstiege bieten. Dabei kann es sich um die Suche nach Inhalten von Volltexten, digitalen Abbildern, Audiofiles, Videofiles etc. von in Der Deutschen Bibliothek archivierten digitalen Ressourcen oder digitalen Surrogaten archivierter analoger Ressourcen (z. B. OCR-Ergebnisse) handeln. Inhalte, die in elektronischer Form vorhanden sind, aber dem InternetBenutzer Der Deutschen Bibliothek bisher nicht oder nur eingeschränkt zur Verfügung stehen, sollen in möglichst großem Umfang und mit möglichst großem Komfort nutzbar gemacht werden. Darüber hinaus sollen Inhalte benutzt werden, die für ein in ILTIS katalogisiertes Objekt beschreibenden Charakter haben, um auf das beschriebene Objekt zu verweisen. Die höchste Priorität liegt dabei auf der Erschließung von Inhalten in Textformaten. In einem ersten Schritt wurde der Volltext aller Zeitschriften, die im Projekt "Exilpresse digital" digitalisiert wurden, für eine erweiterte Suche genutzt. In einem nächsten Schritt soll die PSI-Software für die Volltextindexierung von Abstracts evaluiert werden. MILOS Mit dem Einsatz von MILOS eröffnet sich die Möglichkeit, nicht oder wenig sachlich erschlossene Bestände automatisch mit ergänzenden Inhaltserschließungsinformationen zu versehen, der Schwerpunkt liegt dabei auf der Freitext-Indexierung. Das bereits in einigen Bibliotheken eingesetzte System, das inzwischen von Der Deutschen Bibliothek für Deutschland lizenziert wurde, wurde in eine UNIX-Version überführt und angepasst. Inzwischen wurde nahezu der gesamte Bestand rückwirkend behandelt, die Daten werden im Gesamt-OPAC für die Recherche zur Verfügung stehen. Die in einer XMLStruktur abgelegten Indexeinträge werden dabei vollständig indexiert und zugänglich gemacht. Ein weiterer Entwicklungsschritt wird in dem Einsatz von MILOS im Online-Verfahren liegen.
    Hessisches BibliotheksinformationsSystem (HEBIS) Personennamendatei (PND) Vor dem Hintergrund der Harmonisierungsbestrebungen bei den Normdateien hat der HeBIS-Verbundrat nach erneuter Diskussion mehrheitlich entschieden, künftig neben SWD und GKD auch die PND als in HeBIS integrierte Normdatei obligatorisch zu nutzen. Im Zuge der wachsenden Vernetzung der regionalen Verbundsysteme kommt der Homogenität der Datensätze eine zunehmend wichtigere Bedeutung zu. Konkret wird dies speziell für HeBIS mit dem Produktionsbeginn des HeBIS-Portals und der integrierten verbundübergreifenden Fernleihe. Nur wenn die Verfasserrecherche in den einzelnen Verbunddatenbanken auf weitgehend einheitliche Datensätze einschließlich Verweisungsformen trifft, kann der Benutzer gute Trefferergebnisse erwarten und damit seine Chancen erhöhen, die gewünschte Literatur über Fernleihe bestellen zu können. Das Gesamtkonzept ist ausgelegt auf eine pragmatische und aufwandsreduzierte Vorgehensweise. Mit der Umsetzung wurde begonnen. Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (HBZ) FAST-Suchmaschine Das HBZ hat die Suchmaschinentechnologie des norwegischen Herstellers FAST lizenziert. Ziel ist es, die Produkte des HBZ mit Hilfe innovativer Suchmaschinentechnologien in einer neuen Ausrichtung zu präsentieren. Die Präsentation soll einen schnellen Recherche-Zugang zu den NRWVerbunddaten mittels FAST-Suchmaschinentechnologie mit folgenden Eigenschaften beinhalten: - Eine Web-Oberfläche, um für Laien eine schnelle Literatursuche anbieten zu können. - Eine Web-Oberfläche, um für Expertinnen und Experten eine schnelle Literatur-Suche anbieten zu können. - Präsentation von Zusatzfunktionen, die in gängigen Bibliothekskatalogen so nicht vorhanden sind. - Schaffung einer Zugriffsmöglichkeit für den KVK auf die Verbunddaten mit sehr kurzen Antwortzeiten Digitale Bibliothek Die Mehrzahl der Bibliotheken ist inzwischen auf Release 5 umgezogen. Einige befinden sich noch im Bearbeitungsstatus. Von den letzten drei Bibliotheken liegen inzwischen die Umzugsanträge vor. Durch die Umstrukturierung der RLB Koblenz zum LBZ Rheinland-Pfalz werden die Einzelsichten der RLB Koblenz, PLB Speyer und der Bipontina in Zweibrücken mit den Büchereistellen Koblenz und Neustadt zu einer Sicht verschmolzen.
  8. MARC and metadata : METS, MODS, and MARCXML: current and future implications (2004) 0.01
    0.0057314043 = product of:
      0.045851234 = sum of:
        0.045851234 = product of:
          0.09170247 = sum of:
            0.09170247 = weight(_text_:22 in 2840) [ClassicSimilarity], result of:
              0.09170247 = score(doc=2840,freq=2.0), product of:
                0.14813614 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042302497 = queryNorm
                0.61904186 = fieldWeight in 2840, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=2840)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Source
    Library hi tech. 22(2004) no.1
  9. Winkler, J.: 1st IFLA Meeting of Experts on an International Cataloguing Code (IME ICC) : 28.-30. Juli 2003, Die Deutsche Bibliothek, Frankfurt am Main (2003) 0.01
    0.005588705 = product of:
      0.02235482 = sum of:
        0.017262489 = weight(_text_:world in 2269) [ClassicSimilarity], result of:
          0.017262489 = score(doc=2269,freq=2.0), product of:
            0.16259687 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.042302497 = queryNorm
            0.10616741 = fieldWeight in 2269, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2269)
        0.0050923326 = weight(_text_:information in 2269) [ClassicSimilarity], result of:
          0.0050923326 = score(doc=2269,freq=4.0), product of:
            0.0742611 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.042302497 = queryNorm
            0.068573356 = fieldWeight in 2269, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2269)
      0.25 = coord(2/8)
    
    Content
    "Im Vorfeld der 69. IFLA-Generalkonferenz, die unter dem Titel "Bibliothek als Portal: Medien - Information - Kultur" vom 1. bis 9. August 2003 in Berlin tagte, stand in Frankfurt am Main an der Deutschen Bibliothek auf Einladung der Sektion Katalogisierung der IFLA ein Treffen von Regelwerksexperten aus Europa, Amerika und Australien im Zeichen intensiver Beratungen über Möglichkeiten und Wege zur internationalen Harmonisierung von Strukturen, Regeln und Arbeitsverfahren im Katalogisierungsbereich. Barbara Tillett, leitende Bibliothekarin der Library of Congress, sorgte als Vorsitzende einer Planungsgruppe gemeinsam mit ihren deutschen Kolleginnen Renate Gömpel (DDB), Monika Münnich (UB Heidelberg), Clau dia Fabian (BSB) und Susanne Oehlschläger (DDB) für die hervorragende Vorbereitung und Organisation des Frankfurter Expertentreffens. 52 Bibliothekarinnen und Bibliothekare nahmen an der Frankfurter Konferenz teil: neben den von den Regelwerksgremien der europäischen Teilnehmerländer nominierten Regelwerksexperten hochrangige Katalogisierungsexperten aus den Vereinigten Staaten und Australien. Die Sektion Katalogisierung der IFLA räumt seit Jahren dem Ziel, die Möglichkeiten zum internationalen Austausch von Kataloginformationen entscheidend zu verbessern, höchste Priorität ein. Einigkeit besteht dar über, dass diese Zielvorstellung nur über gemeinsame Standards für den Inhalt von bibliographischen Datensätzen und Normdatensätzen und gemeinsame Standards für den Zugriff auf diese Daten zu erreichen ist. In diesem Sinne war Frankfurt mit Blick auf die Praxis der Katalogisierung in Europa als Auftakt kommenderTagungen mit ähnlich großräumigen Perspektiven im Umfeld der IFLA-Konferenzen 2004 in Buenos Aires, 2006 in Seoul sowie 2007 in Durban gedacht.
    In der Vorbereitungsphase der Konferenz erstellten die Regelwerksgremien der Teilnehmerländer unter Verwendung eines vorgegebenen Fragenkatalogs Präsentationen der in Europa aktuell in Verwendung stehenden Regelwerkel als Grundlage einer vergleichenden Untersuchung von Gemeinsamkeiten und Unterschieden sowie als Ausgangspunkt für mögliche Annäherungen an das erklärte Fernziel einer möglichst weitgehenden Vereinheitlichung der Katalogisierungspraxis im Rahmen international verbindlicher Vereinbarungen. Auf die Vielzahl der in Verwendung stehenden Regelwerke konnte im Rahmen der Tagung nicht eingegangen werden. Doch waren im Programm des ersten Tages beispielhaft die AACR-Anwender und die Vertretungen Frankreichs, Spaniens, Russlands, Italiens, Kroatiens und Deutschlands, das gemeinsam mit Österreich für die RAK-Anwendung stand, zu kurzen Vorstellungen ihrer Regelwerksgremien aufgefordert. Im wesentlichen galt das Programm des ersten Tages der breiten Information über Grundsätze und Standards der internationalen Zusammenarbeit sowie der Vorbereitung der auf fünf Arbeitsgruppen verteilten Behandlung der Themen "Personal names", "Corporate bodies", "Seriality", "Multipart structures" und "Uniform titles and GMDs (General material designations)". John D. Byrum, Chair der IFLA ISBD Review Group, betonte die Bedeutung der "International Standard Bibliographic Descriptions" (ISBDs), die sich als international gültiger Standard für die bibliographische Beschreibung längst bewährt haben und auch künftig als unverzichtbar für den Datentausch und die gemeinsame Datennutzung gesehen werden. Priorität in der ISBD Review Group hat derzeit die generelle Revision der verschiedenen ISBD-Ausgaben mit Blick auf die Konzentration der Inhalte und die beabsichtigte Einbeziehung der FRBR-Terminologie in die ISBD. Patrick Le Boeuf, Chair der IFLA Working Group an FRBR, erläuterte sodann in seinem höchst anregenden und mit Esprit und Verve präsentierten Vortrag "Brave new FRBR world" die Begrifflichkeit und das Grundmuster der "Functional Requirements for Bibliographic Records".3 Dabei handelt es sich nicht um ein Modell zur Abbildung von Daten, sondern um ein Modell zur Darstellung von Beziehungen zwischen Entitäten und ihren möglichen Attributen. Offen blieb, ob und wie sich der hohe Abstraktionsgrad des Modells mit seinen Schlüsselbegriffen "work", "expression", "manifestation" und "item" über Standards und Regelwerke in der täglichen Praxis des Bibliotheksbetriebs umsetzen lässt und behaupten kann. Barbara Tillett schließlich widmete ihren Vortrag dem Projekt VIAF (The Virtual International Authority File), das OCLC, die Library of Congress und Die Deutsche Bibliothek gemeinsam verfolgen, um die Möglichkeiten der Erstellung und des Austauschs von Normdaten in international vernetzter Zusammenarbeit zu erproben.
  10. Mönch, C.; Aalberg, T.: Automatic conversion from MARC to FRBR (2003) 0.01
    0.0053825392 = product of:
      0.021530157 = sum of:
        0.007201646 = weight(_text_:information in 2422) [ClassicSimilarity], result of:
          0.007201646 = score(doc=2422,freq=2.0), product of:
            0.0742611 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.042302497 = queryNorm
            0.09697737 = fieldWeight in 2422, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2422)
        0.014328511 = product of:
          0.028657023 = sum of:
            0.028657023 = weight(_text_:22 in 2422) [ClassicSimilarity], result of:
              0.028657023 = score(doc=2422,freq=2.0), product of:
                0.14813614 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042302497 = queryNorm
                0.19345059 = fieldWeight in 2422, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2422)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Catalogs have for centuries been the main tool that enabled users to search for items in a library by author, title, or subject. A catalog can be interpreted as a set of bibliographic records, where each record acts as a surrogate for a publication. Every record describes a specific publication and contains the data that is used to create the indexes of search systems and the information that is presented to the user. Bibliographic records are often captured and exchanged by the use of the MARC format. Although there are numerous rdquodialectsrdquo of the MARC format in use, they are usually crafted on the same basis and are interoperable with each other -to a certain extent. The data model of a MARC-based catalog, however, is rdquo[...] extremely non-normalized with excessive replication of datardquo [1]. For instance, a literary work that exists in numerous editions and translations is likely to yield a large result set because each edition or translation is represented by an individual record, that is unrelated to other records that describe the same work.
    Source
    Research and advanced technology for digital libraries : 7th European Conference, proceedings / ECDL 2003, Trondheim, Norway, August 17-22, 2003
  11. Burd, B.: Java und XML für Dummies (2003) 0.01
    0.005279798 = product of:
      0.042238384 = sum of:
        0.042238384 = weight(_text_:web in 1694) [ClassicSimilarity], result of:
          0.042238384 = score(doc=1694,freq=4.0), product of:
            0.13805464 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.042302497 = queryNorm
            0.3059541 = fieldWeight in 1694, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=1694)
      0.125 = coord(1/8)
    
    Abstract
    Barry Budd erklärt, wie XML in Verbindung mit Java optimal funktionieren und Daten zwischen Anwendungen transferieren kann. Das Buch ist nicht nur für Anfänger interessant. Insbesondere Javabewanderte Web-Entwickler finden hier einen geradlinigen und lockeren Einstieg in die Zusammenarbeit von Java und XML. Die ersten 30 Seiten widmen sich der Programmiertheorie, der Installation von Java und den zusätzlich nötigen XMLrelevanten Klassen. Im zweiten Teil erfährt der Leser alles über die lineare Untersuchung von XML-Dateien und die Programmierung mit SAX. Es folgt der holistische Ansatz mit DOM und dessen Java-optimierter, eleganterer Alternative JDOM. XSL, die Anzeige von XML-Daten im Web und Java API for XML-Binding (JAXB) mit der man aus XML-Dokumenten maßgeschneiderte Java-Klassen dateien erstellen kann. Teil drei zeigt Spezialwerkzeuge für Webservices Soap, UDDI, WSDL, Java API for XML Messaging (JAXM) und die Arbeit mit XML-Registraren. Zu den Techniken erfährt der Leser sinnvolle Einsatzszenarien. Der Autor verdeutlicht die Theorie mit Code-Beispielen, die in Teilen für eigene Projekte verwendbar sind.
  12. MARC and metadata : METS, MODS, and MARCXML: current and future implications (2004) 0.01
    0.005014979 = product of:
      0.04011983 = sum of:
        0.04011983 = product of:
          0.08023966 = sum of:
            0.08023966 = weight(_text_:22 in 7196) [ClassicSimilarity], result of:
              0.08023966 = score(doc=7196,freq=2.0), product of:
                0.14813614 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042302497 = queryNorm
                0.5416616 = fieldWeight in 7196, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=7196)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Source
    Library hi tech. 22(2004) no.1
  13. Geißelmann, F.: Arbeitsergebnisse der Arbeitsgruppe Codes (2000) 0.01
    0.005014979 = product of:
      0.04011983 = sum of:
        0.04011983 = product of:
          0.08023966 = sum of:
            0.08023966 = weight(_text_:22 in 4973) [ClassicSimilarity], result of:
              0.08023966 = score(doc=4973,freq=2.0), product of:
                0.14813614 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042302497 = queryNorm
                0.5416616 = fieldWeight in 4973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4973)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    26. 8.2000 19:22:35
  14. Weber, R.: "Functional requirements for bibliographic records" und Regelwerksentwicklung (2001) 0.01
    0.005014979 = product of:
      0.04011983 = sum of:
        0.04011983 = product of:
          0.08023966 = sum of:
            0.08023966 = weight(_text_:22 in 6838) [ClassicSimilarity], result of:
              0.08023966 = score(doc=6838,freq=2.0), product of:
                0.14813614 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042302497 = queryNorm
                0.5416616 = fieldWeight in 6838, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6838)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Source
    Dialog mit Bibliotheken. 13(2001) H.3, S.20-22
  15. MARC and metadata : METS, MODS, and MARCXML: current and future implications part 2 (2004) 0.01
    0.005014979 = product of:
      0.04011983 = sum of:
        0.04011983 = product of:
          0.08023966 = sum of:
            0.08023966 = weight(_text_:22 in 2841) [ClassicSimilarity], result of:
              0.08023966 = score(doc=2841,freq=2.0), product of:
                0.14813614 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042302497 = queryNorm
                0.5416616 = fieldWeight in 2841, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2841)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Source
    Library hi tech. 22(2004) no.2
  16. Neuböck, I.: Deutscher Bibliothekartag Leipzig 2007 : Standardisierungsausschuss (2007) 0.00
    0.0048136273 = product of:
      0.01925451 = sum of:
        0.014933523 = weight(_text_:web in 414) [ClassicSimilarity], result of:
          0.014933523 = score(doc=414,freq=2.0), product of:
            0.13805464 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.042302497 = queryNorm
            0.108171105 = fieldWeight in 414, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0234375 = fieldNorm(doc=414)
        0.0043209875 = weight(_text_:information in 414) [ClassicSimilarity], result of:
          0.0043209875 = score(doc=414,freq=2.0), product of:
            0.0742611 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.042302497 = queryNorm
            0.058186423 = fieldWeight in 414, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=414)
      0.25 = coord(2/8)
    
    Content
    "Der Bericht fand im größten Saal des Kongresszentrums in Leipzig statt und war bei Weitem überdimensioniert - das Interesse am Neuen Regelwerk und Neuem Format sowie die Aufregung darüber scheinen der Vergangenheit anzugehören. Zunächst erfolgte ein Bericht zum geplanten Umstieg auf das Format MARC21 von Reinhard Altenhöner und Reinhold Heuvelmann (DNB). Dazu gibt es ein eigenes Steuerungsgremium für den Umgang mit MARC in Bibliotheken, das sich MARBI (= Machine Readable Bibliographic Information Committee) nennt. Federführend in diesem Gremium ist die Library of Congress. An dieses Gremium werden Änderungswünsche für die deutsche und österreichische Konvertierung auf MARC21 geleitet und dort diskutiert bzw. genehmigt und umgesetzt. Eine Konkordanz von MAB2 zur MARC21 wurde erstellt. Daraus resultierende Änderungswünsche an MARC21 wurden an MARBI weitergeleitet: Folgende Anträge wurden bereits begutachtet und akzeptiert: 1. IDN-Verknüpfung - Zu PND, GKS, SWD - Zwischen Stück und Reihentitel 2. Sortierform für Bände 3. Kodierung für mehrteilige Werke 4. Sonstiges, wie RSWK-Ketten-Kennzeichnung der Institutionen, ... Bei den Kodierungen gab es Vorbehalte. DDC in MARC21 wurde zurückgestellt und soll in das MARC Classification-Format eingehen. Tendenz bei mehrbändigen Werken: Jeder Band soll ein vollständiger Datensatz sein. Y-Sätze gibt es nicht mehr. Darüber hinaus gibt es Überlegungen zu einer D-MARC für die Deutsche Anwendung von MARC21, aber auch Überlegungen zu MAR-/XML... Die D-MARC soll ca. 12 Gruppen umfassen, davon sollen sich 4 Blöcke mit Kodierungen befassen. Inwieweit MARC21 als Internformat oder lediglich als Austauschformat zum Einsatz kommt muss von den jeweiligen Verbünden entschieden werden. Ais Tendenz lässt sich festhalten, dass man weg von Kodierungen und hin zu textlichen Formulierungen geht.
    In weiterer Folge berichtet sie über die Stellungnahmen zu Part 1 - hier werden keine Hindernisse für eine Umsetzung gesehen. Bei Chapter 6-7 wurde festgehalten, dass die Angaben für Verweisungen zu allgemein gehalten wären und Verbünde schwer mit Kann-Bestimmungen umgehen könnten. Eine Begrenzung auf drei Autoren sei außerdem nicht mehr zeitgemäß. Die RDA-Deutsch soll wie folgt aussehen: - modularer Aufbau - Web-Produkt - Regeln für formale und inhaltliche Erschließung - verbundübergreifende Anwendungsrichtlinien Als vierte Vortragende gab Frau Christine Hengel einen Bericht zu den "Neuen Wegen" der Normdaten. Basis für die RDA ist ein konzeptionelles Modell für Normdaten, das von der IFLA-Arbeitsgruppe FRANAR erarbeitet wird. Dieses soll 2007 abgeschlossen sein. - Es wird gemeinsame Regeln für die Ansetzung von Personen und Körperschaften geben - sie beschäftigen sich mit: Normieren, Identifizieren, Anreichern, Sucheinstiegen. - Die neuen Regeln für die Ansetzung von Personen in den PND und SWD werden in die RDA einfließen - Es soll zu einer einheitliche Anwendung von kompatiblen Datenmodellen für die Bereiche Bibliotheken, Archive, Dokumentationen und Museen kommen - Forderung einer Online-Kommunikation mit Normdaten: dazu muss sich der Teilnehmerkreis von den Redaktionen bis hin zum Katalog stark erweitern. Das neue Redaktionsverfahren soll ab Mitte 2007 für die PND zum Einsatz kommen. Im Anschluss daran für die GKD. In der zweiten Hälfte des Jahres 2007 ist der Umstieg auf MARC21 geplant. Insgesamt war die Veranstaltung zu Recht schwach besucht; es gab wenig Neues, kaum Überraschendes und daher auch keine wirklich anregende Diskussion."
  17. Ansorge, K.: Das was 2007 (2007) 0.00
    0.004384234 = product of:
      0.017536936 = sum of:
        0.012444603 = weight(_text_:web in 2405) [ClassicSimilarity], result of:
          0.012444603 = score(doc=2405,freq=2.0), product of:
            0.13805464 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.042302497 = queryNorm
            0.09014259 = fieldWeight in 2405, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2405)
        0.0050923326 = weight(_text_:information in 2405) [ClassicSimilarity], result of:
          0.0050923326 = score(doc=2405,freq=4.0), product of:
            0.0742611 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.042302497 = queryNorm
            0.068573356 = fieldWeight in 2405, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2405)
      0.25 = coord(2/8)
    
    Content
    "Standardisierung - Auch 2007 ist die Arbeitsstelle für Standardisierung (AfS) auf dem Weg zur Internationalisierung der deutschen Regelwerke, Formate und Normdateien entscheidende Schritte vorangekommen. Im Mittelpunkt der Vorbereitungen für den Format-umstieg standen eine Konkordanz von MAB2 nach MARC 21 und die Festlegung neuer Felder, die für den Umstieg auf nationaler Ebene notwendig sind. Neben einer Vielzahl anderer Aktivitäten hat die DNB zwei Veranstaltungen zum Format-umstieg durchgeführt. In Zusammenarbeit mit den Expertengruppen des Standardisierungsausschusses wurden drei Stellungnahmen zu Entwürfen des Regelwerkes »Resource Description and Access (RDA)« erarbeitet; es fand eine Beteiligung an der internationalen Diskussion zu wichtigen Grundlagen statt. Der Erfüllung des Wunsches nach Einführung der Onlinekommunikation mit Normdateien ist die DNB im vergangenen Jahr deutlich nähergekommen: Änderungen an Normdaten sollen gleichzeitig in die zentral bei der DNB gehaltenen Dateien und in der Verbunddatenbank vollzogen werden. Seit Anfang September ist die erste Stufe der Onlinekommunikation im produktiven Einsatz: Die PND-Redaktionen in den Aleph-Verbünden arbeiten online zusammen. Das neue Verfahren wird sich auf alle bei der DNB geführten Normdaten erstrecken und in einem gestuften Verfahren eingeführt werden. Die DNB war in zahlreichen Standardisierungsgremien zur Weiterentwicklung von Metadatenstandards wie z.B. Dublin Core und ONIX (Online Information eXchange) sowie bei den Entwicklungsarbeiten für The European Library beteiligt. Die Projektarbeiten im Projekt KIM - Kompetenzzentrum Interoperable Metadaten wurden maßgeblich unterstützt. Im Rahmen der Arbeiten zum Gesetz über die Deutsche Nationalbibliothek wurde ein Metadatenkernset für die Übermittlung von Metadaten an die DNB entwickelt und in einer ersten Stufe mit einem ONIX-Mapping versehen. Innerhalb des Projektes »Virtual International Authority File - VIAF« entwickelten die Library of Congress (LoC), die DNB und OCLC - zunächst für Personennamen - gemeinsam eine virtuelle, internationale Normdatei, in der die Normdatensätze der nationalen Normdateien im Web frei zugänglich miteinander verbunden werden sollen. Die bisherigen Projektergebnisse haben die Machbarkeit einer internationalen Normdatei eindrucksvoll unter Beweis gestellt. Darum haben die Projektpartner in einem neuen Abkommen, das auch die Bibliothèque Nationale de France einschließt, im Oktober 2007 ihr Engagement für den VIAF nochmals bekräftigt und damit eine Konsolidierungs- und Erweiterungsphase eingeleitet."
    "DDC-vascoda - Das Projekt DDC-vascoda wurde 2007 abgeschlossen. Für den Sucheinstieg bei vascoda wurde bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungs-)Jahr kombiniert werden kann, angeboten. Die Suche konnte zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Vascoda verwendete die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument. Ziel des Projektes DDC-vascoda war es, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Weiterhin wurde ein HTML-Dienst entwickelt, der es Fachportalen und anderen Datenanbietern ermöglicht, ohne großen Programmieraufwand ein DDC-Browsing über die eigenen Daten bereitzustellen."
  18. Concise UNIMARC Classification Format : Draft 5 (20000125) (2000) 0.00
    0.0042765876 = product of:
      0.0342127 = sum of:
        0.0342127 = product of:
          0.0684254 = sum of:
            0.0684254 = weight(_text_:retrieval in 4421) [ClassicSimilarity], result of:
              0.0684254 = score(doc=4421,freq=2.0), product of:
                0.12796146 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.042302497 = queryNorm
                0.5347345 = fieldWeight in 4421, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.125 = fieldNorm(doc=4421)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Theme
    Klassifikationssysteme im Online-Retrieval
  19. Oehlschläger, S.: Aus der 52. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 24. und 25. April 2007 in Berlin (2007) 0.00
    0.0040113567 = product of:
      0.016045427 = sum of:
        0.012444603 = weight(_text_:web in 465) [ClassicSimilarity], result of:
          0.012444603 = score(doc=465,freq=2.0), product of:
            0.13805464 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.042302497 = queryNorm
            0.09014259 = fieldWeight in 465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
        0.003600823 = weight(_text_:information in 465) [ClassicSimilarity], result of:
          0.003600823 = score(doc=465,freq=2.0), product of:
            0.0742611 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.042302497 = queryNorm
            0.048488684 = fieldWeight in 465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
      0.25 = coord(2/8)
    
    Content
    DDC-vascoda Für den Sucheinstieg bei vascoda wird bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungsjahr) kombiniert werden kann, angeboten. Die Suche kann zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Da in vascoda die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument eingeführt ist und bereits nennenswerte Bestände mit der DDC erschlossen sind, bietet sich die Möglichkeit, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Im Berichtszeitraum wurde in der vascoda AG Betrieb und mit dem hbz als Portalbetreiber die konzeptionelle und technische Einbindung des DDC-Browsings im vascoda-Portal diskutiert und beschlossen. Die Navigation mit DDC wird ähnlich wie die Navigation über die Fachcluster auf der linken Seite der Trefferliste integriert, beim Navigieren im Baum werden synchron die passenden Ressourcen aus der Suchmaschine in der mittleren Spalte eingeblendet. Wegen hoher Arbeitsbelastung im hbz wird dieses Feature wahrscheinlich nicht Teil des vascoda-Relaunches im Juni 2007 sein, sondern erst im 2. Halbjahr 2007 integriert werden. Weiter wurde ein Angebot implementiert für Fachportale und andere Institutionen, die mit DDC erschließen, aber nicht die technischen Möglichkeiten haben, ein eigenes Browsing zu entwickeln. Das Verfahren sieht vor, dass die DNB einen Dienst anbietet, der ein HTML-Snippet mit der gewünschten Browsing-Struktur generiert (ähnlich wie MelvilSearch), die in die Oberfläche des Fachportals integriert werden kann. Der Dienst wird voraussichtlich im 2. Quartal 2007 in Betrieb genommen werden können. In Zusammenarbeit mit der SUB Göttingen wurde ein Workshop zum Thema Lizenzfragen für DDC in Bezug auf Fachportale und andere Online-Angebote abgehalten. Die Ergebnisse wurden im vascoda-Newsletter veröffentlicht.
    kim - Kompetenzzentrum Interoperable Metadaten Projektziel ist der Aufbau eines Kompetenzzentrums Interoperable Metadaten (KIM), das im deutschsprachigen Raum den Ausbau der Kompetenzen für die Themen interoperable Metadaten, Metadatenaustausch und Formate fördern soll. Strukturierte Beschreibungen (Metadaten) verschiedener Datenbestände werden als "interoperabel" bezeichnet, wenn in ihnen über einheitliche Suchverfahren recherchiert oder sie sinnvoll in die Datenverwaltung integriert werden können. Interoperabilität wird erreicht, indem man sich in kontrollierten institutionellen Zusammenhängen an technische Spezifikationen hält. Eine zentrale Aufgabe des "Kompetenzzentrum Interoperable Metadaten" als DCMI-Affiliate in Deutschland (nach Projektende im deutschsprachigen Raum mit Partnern aus Österreich und der Schweiz) besteht dabei in der Bildung einer Kernarbeitsgruppe mit weiteren spezifischen Arbeitsgruppen, die durch die Begutachtung bereits existierender Anwendungsprofile ein gemeinsames Verständnis für "good practice" in der Anwendung sowohl des Dublin-Core-Modells als auch des Semantic-Web-Modells entwickelt. Dieses Verständnis bildet die Grundlage für die Entwicklung von Zertifizierungsverfahren, Ausbildungsangeboten und Beratungsdiensten im Bereich interoperable Metadaten.
  20. Oehlschläger, S.: Arbeitsgemeinschaft der Verbundsysteme : Aus der 46. Sitzung am 21. und 22. April 2004 im Bibliotheksservice-Zentrum Baden-Württemberg in Konstanz (2004) 0.00
    0.0037677777 = product of:
      0.015071111 = sum of:
        0.0050411527 = weight(_text_:information in 2434) [ClassicSimilarity], result of:
          0.0050411527 = score(doc=2434,freq=2.0), product of:
            0.0742611 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.042302497 = queryNorm
            0.06788416 = fieldWeight in 2434, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2434)
        0.010029958 = product of:
          0.020059915 = sum of:
            0.020059915 = weight(_text_:22 in 2434) [ClassicSimilarity], result of:
              0.020059915 = score(doc=2434,freq=2.0), product of:
                0.14813614 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042302497 = queryNorm
                0.1354154 = fieldWeight in 2434, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2434)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Content
    - Projekt Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) Das Projekt Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) stand zum Zeitpunkt der Sitzung der Arbeitsgemeinschaft kurz vor seinem Abschluss. Im Rahmen der Veranstaltung des Standardisierungsausschusses beim 2. Leipziger Kongress für Information und Bibliothek wurden die wesentlichen Projektergebnisse vorgestellt. Aufgrund der vorliegenden Informationen gehen die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme davon aus, dass das finanzielle Argument bei der anstehenden Entscheidung nicht mehr im Vordergrund stehen kann. Auch wenn davon ausgegangen wird, dass eine klare Umstiegsentscheidung durch den Standardisierungsausschuss derzeit politisch nicht durchsetzbar sei, sehen die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme die Entwicklung durch die Projektergebnisse positiv. Durch die Diskussion wurden Defizite des deutschen Regelwerks und der Verbundpraxis offen gelegt und verschiedene Neuerungen angestoßen. Zur Verbesserung des Datentausches untereinander sehen die Verbundzentralen unabhängig von einer Entscheidung des Standardisierungsausschusses die Notwendigkeit, ihre Datenbestände zu homogenisieren und Hierarchien abzubauen bzw. die Verknüpfungsstrukturen zu vereinfachen. Auch die Entwicklung der Functional Requirements for Bibliographic Records (FRBR) muss in diese Überlegungen einbezogen werden. Die Formate müssen dahingehend entwickelt werden, dass alle relevanten Informationen im Titelsatz transportiert werden können. Es wird eine Konvergenz von Regelwerk und Format angestrebt.

Languages

  • e 47
  • d 28

Types

  • a 65
  • el 6
  • s 4
  • m 2
  • n 2
  • x 2
  • b 1
  • More… Less…