Search (200 results, page 1 of 10)

  • × theme_ss:"Datenformate"
  1. Krischker, U.: Formale Analyse (Erfassung) von Dokumenten (1990) 0.09
    0.09313852 = product of:
      0.18627705 = sum of:
        0.034168616 = weight(_text_:und in 1535) [ClassicSimilarity], result of:
          0.034168616 = score(doc=1535,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.39180204 = fieldWeight in 1535, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1535)
        0.09339812 = weight(_text_:methoden in 1535) [ClassicSimilarity], result of:
          0.09339812 = score(doc=1535,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.45804384 = fieldWeight in 1535, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0625 = fieldNorm(doc=1535)
        0.024541702 = weight(_text_:der in 1535) [ClassicSimilarity], result of:
          0.024541702 = score(doc=1535,freq=4.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.27922085 = fieldWeight in 1535, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1535)
        0.034168616 = weight(_text_:und in 1535) [ClassicSimilarity], result of:
          0.034168616 = score(doc=1535,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.39180204 = fieldWeight in 1535, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1535)
      0.5 = coord(4/8)
    
    Abstract
    Die formale Analyse von Dokumenten ist komplex und vielschichtig. Um sie beschreiben zu können, muß sie unter verschiedenen Gesichtspunkten betrachtet werden. Zu untersuchen ist, welchen Zweck die formale Analyse erfüllen soll, wem sie nützt und wer sie durchführt, welche Methoden zur Verfügung stehen, welche technischen Hilfsmittel eingesetzt werden können bzw. welche Verfahren es beim Einsatz von Datenverarbeitungsanlagen gibt.
    Footnote
    Allgemeine, d.h. nicht ausschließlich an bibliothekarischen Anwendungsbereichen orientierte, Darstellung der formalen Erfassung und bibliographischen Beschreibung von Dokumenten verschiedenster Typen.
    Source
    Grundlagen der praktischen Information und Dokumentation: ein Handbuch zur Einführung in die fachliche Informationsarbeit. 3. Aufl. Hrsg.: M. Buder u.a. Bd.1
  2. Syré, L.: AACR2: Stellungnahme der AG Regionalbibliographie (2002) 0.09
    0.08933438 = product of:
      0.14293501 = sum of:
        0.02833112 = weight(_text_:und in 841) [ClassicSimilarity], result of:
          0.02833112 = score(doc=841,freq=22.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3248651 = fieldWeight in 841, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=841)
        0.04669906 = weight(_text_:methoden in 841) [ClassicSimilarity], result of:
          0.04669906 = score(doc=841,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.22902192 = fieldWeight in 841, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.03125 = fieldNorm(doc=841)
        0.032465618 = weight(_text_:der in 841) [ClassicSimilarity], result of:
          0.032465618 = score(doc=841,freq=28.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.36937445 = fieldWeight in 841, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=841)
        0.02833112 = weight(_text_:und in 841) [ClassicSimilarity], result of:
          0.02833112 = score(doc=841,freq=22.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3248651 = fieldWeight in 841, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=841)
        0.007108088 = product of:
          0.021324264 = sum of:
            0.021324264 = weight(_text_:22 in 841) [ClassicSimilarity], result of:
              0.021324264 = score(doc=841,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.15476047 = fieldWeight in 841, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=841)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Content
    "Die Mitglieder der Arbeitsgruppe Regionalbibliographie in der Arbeitsgemeinschaft der Regionalbibliotheken (DBV Sektion 4) haben auf ihrer Jahrestagung am 22. und 23. April 2002 in Bautzen einen etwaigen Umstieg von RAK auf AACR2 beraten und sich einstimmig dagegen ausgesprochen. - Begründung - Der personelle, technische und finanzielle Aufwand für den Umstieg wäre für die Landes- und Regionalbibliographien gewaltig. Diejenigen Bibliographien, die ihre eigenen Datenbanken unterhalten, müssten diese sowohl vollständig EDV-technisch (z.B. hinsichtlich des Datenformats) anpassen als auch sämtliche Änderungen (z.B. bei Zeitschriftenaufnahmen, bei der Ansetzung von Körperschaften) nachführen. Dies ist umso schwerwiegender, als nicht alle Bibliographie- Datenbanken über entsprechende eigene Normdateien verfügen. Alle Landes- und Regionalbibliographien, also auch diejenigen, die in die Verbunddatenbanken integriert sind, wären überdies vom zusätzlichen Schulungsaufwand für das neue Regelwerk sowie von Revisionsarbeiten an den Normdateien betroffen. Weitere Nachteile wären Inkonsistenzen im Datenbestand bzw. Qualitätsverluste bei der Konvertierung der Altdaten. Diesen schwerwiegenden Nachteilen steht kein ersichtlicher Vorteil bei Erstellung oder Benutzung der Landes- und Regionalbibliographien gegenüber: Der Rationalisierungseffekt ist unbedeutend, da in Regionalbibliographien ganz überwiegend unselbstständige deutschsprachige Titel verzeichnet werden, für die keine Katalogisate aus AACR-Ländern genutzt werden können. Auch für die Benutzer der Datenbanken steht keine Verbesserung der Rechercheergebnisse zu erwarten. Die Landes- und Regionalbibliographien sehen sich derzeit einer Vielzahl von Aufgaben und neuen Herausforderungen gegenüber, die sie mit bestenfalls stagnierendem Personalstand zu erfüllen haben: Neben einer stetig wachsenden Titelzahl sind dies z.B. die neuen Publikationsformen im WWW, der Aufbau eines gemeinsamen Suchinstruments ("Virtuelle Deutsche Landesbibliographie° in KVK-Technik) und die Integration der noch konventionell vorliegenden älteren Bibliographienachweise in die Datenbanken. In dieser Situation wäre es kontraproduktiv, wenn enorme Ressourcen für einen Regelwerks- und Formatwechsel ohne praktischen Nutzen abgezogen würden. Die AG Regionalbibliographie lehnt daher einen Umstieg auf AACR2 ab. Sie empfiehlt stattdessen, das bestehende Regelwerk weiterzuentwickeln sowie alternative und zeitgemäße Methoden zu erarbeiten, um die internationale Zusammenarbeit zu verbessern (z.B. durch das Projekt "Virtuelle internationale Normdatei")."
  3. Neuböck, I.: Deutscher Bibliothekartag Leipzig 2007 : Standardisierungsausschuss (2007) 0.07
    0.0738113 = product of:
      0.1476226 = sum of:
        0.030049691 = weight(_text_:und in 414) [ClassicSimilarity], result of:
          0.030049691 = score(doc=414,freq=44.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.34457147 = fieldWeight in 414, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=414)
        0.026831528 = weight(_text_:der in 414) [ClassicSimilarity], result of:
          0.026831528 = score(doc=414,freq=34.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.30527312 = fieldWeight in 414, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=414)
        0.06069169 = weight(_text_:sprach in 414) [ClassicSimilarity], result of:
          0.06069169 = score(doc=414,freq=2.0), product of:
            0.2684176 = queryWeight, product of:
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.039347667 = queryNorm
            0.2261092 = fieldWeight in 414, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.0234375 = fieldNorm(doc=414)
        0.030049691 = weight(_text_:und in 414) [ClassicSimilarity], result of:
          0.030049691 = score(doc=414,freq=44.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.34457147 = fieldWeight in 414, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=414)
      0.5 = coord(4/8)
    
    Content
    "Der Bericht fand im größten Saal des Kongresszentrums in Leipzig statt und war bei Weitem überdimensioniert - das Interesse am Neuen Regelwerk und Neuem Format sowie die Aufregung darüber scheinen der Vergangenheit anzugehören. Zunächst erfolgte ein Bericht zum geplanten Umstieg auf das Format MARC21 von Reinhard Altenhöner und Reinhold Heuvelmann (DNB). Dazu gibt es ein eigenes Steuerungsgremium für den Umgang mit MARC in Bibliotheken, das sich MARBI (= Machine Readable Bibliographic Information Committee) nennt. Federführend in diesem Gremium ist die Library of Congress. An dieses Gremium werden Änderungswünsche für die deutsche und österreichische Konvertierung auf MARC21 geleitet und dort diskutiert bzw. genehmigt und umgesetzt. Eine Konkordanz von MAB2 zur MARC21 wurde erstellt. Daraus resultierende Änderungswünsche an MARC21 wurden an MARBI weitergeleitet: Folgende Anträge wurden bereits begutachtet und akzeptiert: 1. IDN-Verknüpfung - Zu PND, GKS, SWD - Zwischen Stück und Reihentitel 2. Sortierform für Bände 3. Kodierung für mehrteilige Werke 4. Sonstiges, wie RSWK-Ketten-Kennzeichnung der Institutionen, ... Bei den Kodierungen gab es Vorbehalte. DDC in MARC21 wurde zurückgestellt und soll in das MARC Classification-Format eingehen. Tendenz bei mehrbändigen Werken: Jeder Band soll ein vollständiger Datensatz sein. Y-Sätze gibt es nicht mehr. Darüber hinaus gibt es Überlegungen zu einer D-MARC für die Deutsche Anwendung von MARC21, aber auch Überlegungen zu MAR-/XML... Die D-MARC soll ca. 12 Gruppen umfassen, davon sollen sich 4 Blöcke mit Kodierungen befassen. Inwieweit MARC21 als Internformat oder lediglich als Austauschformat zum Einsatz kommt muss von den jeweiligen Verbünden entschieden werden. Ais Tendenz lässt sich festhalten, dass man weg von Kodierungen und hin zu textlichen Formulierungen geht.
    Als Vortragender zur RDA (Ressource Description Access) war wieder Gordon Dunsire eingeladen. Er gab wieder einen kurzen historischen Rückblick und eine Auflistung allgemeiner Kritikpunkte an der RDA. Von seiten Dunsires wurde klar dargestellt, dass Katalogregeln unabhängig vom Format sein müssen: RDA = nicht MARC21. Bei der RDA gehe es um Inhalte und nicht um Struktur. RDA basiert auf dem FRBR-Entitäten-Modell; eine deutsche Übersetzung der FRBR liegt vor und kann kostenfrei von der Homepage der Deutschen Nationalbibliothek runtergeladen werden. Die RDA soll 2009 fertiggestellt sein. Im Anschluss daran sprach Gudrun Henze zur "Internationalisierung des Deutschen Regelwerkes": AfS (Arbeitsstelle für Standardisierung) und AGV (Arbeitsgemeinschaft der Verbundsysteme) haben mittlerweile Ziele und Maßnahmen beschlossen: - Deutsch wird zur Ansetzungssprache - Entitäten sollen internationalen Standards entsprechen - Künftig soll es ein einheitliches Regelwerk geben, das die Sonderregeln bereits enthält - Individualisierung von Normdaten - flache Hierarchien - Anpassung der Splitregeln an die ISBD - Ansetzung der Einheitssachtitel hat hohe Priorität
    In weiterer Folge berichtet sie über die Stellungnahmen zu Part 1 - hier werden keine Hindernisse für eine Umsetzung gesehen. Bei Chapter 6-7 wurde festgehalten, dass die Angaben für Verweisungen zu allgemein gehalten wären und Verbünde schwer mit Kann-Bestimmungen umgehen könnten. Eine Begrenzung auf drei Autoren sei außerdem nicht mehr zeitgemäß. Die RDA-Deutsch soll wie folgt aussehen: - modularer Aufbau - Web-Produkt - Regeln für formale und inhaltliche Erschließung - verbundübergreifende Anwendungsrichtlinien Als vierte Vortragende gab Frau Christine Hengel einen Bericht zu den "Neuen Wegen" der Normdaten. Basis für die RDA ist ein konzeptionelles Modell für Normdaten, das von der IFLA-Arbeitsgruppe FRANAR erarbeitet wird. Dieses soll 2007 abgeschlossen sein. - Es wird gemeinsame Regeln für die Ansetzung von Personen und Körperschaften geben - sie beschäftigen sich mit: Normieren, Identifizieren, Anreichern, Sucheinstiegen. - Die neuen Regeln für die Ansetzung von Personen in den PND und SWD werden in die RDA einfließen - Es soll zu einer einheitliche Anwendung von kompatiblen Datenmodellen für die Bereiche Bibliotheken, Archive, Dokumentationen und Museen kommen - Forderung einer Online-Kommunikation mit Normdaten: dazu muss sich der Teilnehmerkreis von den Redaktionen bis hin zum Katalog stark erweitern. Das neue Redaktionsverfahren soll ab Mitte 2007 für die PND zum Einsatz kommen. Im Anschluss daran für die GKD. In der zweiten Hälfte des Jahres 2007 ist der Umstieg auf MARC21 geplant. Insgesamt war die Veranstaltung zu Recht schwach besucht; es gab wenig Neues, kaum Überraschendes und daher auch keine wirklich anregende Diskussion."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 60(2007) H.2, S.42-44
  4. Helmkamp, K.; Oehlschläger, S.: Standardisierung : Ein Meilenstein auf dem Weg zur Internationalisierung; Im Jahr 2007 erfolgt der Umstieg auf MARC 21 (2006) 0.07
    0.0691808 = product of:
      0.1383616 = sum of:
        0.036601286 = weight(_text_:und in 65) [ClassicSimilarity], result of:
          0.036601286 = score(doc=65,freq=94.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4196968 = fieldWeight in 65, product of:
              9.69536 = tf(freq=94.0), with freq of:
                94.0 = termFreq=94.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
        0.029186912 = weight(_text_:methoden in 65) [ClassicSimilarity], result of:
          0.029186912 = score(doc=65,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.1431387 = fieldWeight in 65, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
        0.035972122 = weight(_text_:der in 65) [ClassicSimilarity], result of:
          0.035972122 = score(doc=65,freq=88.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.40926933 = fieldWeight in 65, product of:
              9.380832 = tf(freq=88.0), with freq of:
                88.0 = termFreq=88.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
        0.036601286 = weight(_text_:und in 65) [ClassicSimilarity], result of:
          0.036601286 = score(doc=65,freq=94.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4196968 = fieldWeight in 65, product of:
              9.69536 = tf(freq=94.0), with freq of:
                94.0 = termFreq=94.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
      0.5 = coord(4/8)
    
    Abstract
    Die Vorbereitungen für den flächendeckenden Formatumstieg vom deutschen MAB2 zum internationalen Standard MARC 21 gehen in ihre Endphase. Ab Januar 2007 sollen die Verbundsysteme als größte Datenproduzenten das neue Datenformat einführen und anwenden. Ziel des Mammutprojekts ist die Verbesserung der Fremddatenübernahme und des Datenaustauschs für alle deutschen Bibliotheken auf nationaler und internationaler Ebene.
    Content
    "Mit der steigenden Zahl von digitalen und digitalisierten Dokumenten, die im World Wide Web zur Verfügung stehen, verliert der aktuelle Speicherort einer Publikation seine Bedeutung. Entscheidend für die Forschung sind vielmehr Auffindbarkeit und schnelle Nutzungsmöglichkeit von Informationen. Global in elektronischen Umgebungen zu arbeiten, Daten, Informationen, Texte zu tauschen und zu mischen, ist zur täglichen Routine für Wissenschaftler und Bibliothekare geworden. Das Interesse von Wissenschaftlern ist nicht auf ihre jeweilige eigene nationale und kulturelle Umgebung beschränkt. Sie benötigen Informationen über Dokumente und Daten aus der ganzen Welt. Gleichzeitig wollen sie die eigenen Forschungsergebnisse in der internationalen Forschungsgemeinschaft zur Diskussion stellen. Sprachraumübergreifende Standards für Metadaten und ein reibungsloser Metadatenaustausch sind Voraussetzung für die wissenschaftliche Kommunikation und für den individuellen Erfolg des einzelnen Forschers. Deutschsprachige und ausländische Bibliotheken verwenden derzeit noch unterschiedliche Standards bei der Speicherung und dem Austausch von Katalogdaten. Während in Deutschland und Österreich das Maschinelle Austauschformat für Bibliotheken MAB2 verwendet wird, ist das Format Machine Readable Cataloguing MARC 21 der weltweit am weitesten verbreitete Standard. Der Standardisierungsausschuss hat in seiner 9. Sitzung am 15. Dezember 2004 wegweisende Beschlüsse zur Internationalisierung der deutschen Standards gefasst.' Diese sehen als ersten Meilenstein die flächendeckende Einführung von MARC 21 als Austauschformat vor. Die Verbundsysteme als größte Datenproduzenten haben sich verpflichtet, MARC 21 einheitlich, das heißt ohne verbundspezifische Besonderheiten, einzuführen und anzuwenden. Gleichzeitig werden die bisher unterschiedlichen Verbundrichtlinien vereinheitlicht. Die Einführung von MARC 21 bildet zusammen mit den Bestrebungen zur Verbesserung der Zusammenarbeit der Verbundsysteme einen entscheidenden Schritt, die Voraussetzungen für Fremddatenübernahme und Datentausch für die deutschen Bibliotheken sowohl auf nationaler als auch auf internationaler Ebene erheblich zu verbessern.
    Für das Projekt »Umstieg auf MARC 21« konnten starke Partner gewonnen werden. Die Deutsche Forschungsgemeinschaft (DFG) und die Andrew W. Mellon Foundation, New York, unterstützen die Einführung des international gebräuchlichen Datenaustauschformats MARC 21 im deutschsprachigen Bibliothekswesen. Bis Januar 2007 sollen die Vorbereitungen zur Einführung von MARC 21 als einheitlichem Transportformat abgeschlossen sein. Die Vorarbeiten umfassen vor allem drei Teilbereiche: Erstellung einer Konkordanz MAB2 - MARC 21, Durchführung von Expertenworkshops sowie Aufbau und Pflege von Kontakten zu internationalen Gremien und Experten. Außerdem soll ein Editionssystem als Arbeitsplattform entwickelt werden, die das Format MARC 21 zur Anzeige, Pflege, Dokumentation und Druckausgabe bringt, und eine tabellarische Darstellung der Abbildung von MAB2 auf MARC 21 beinhaltet. Darüber hinaus soll eine Übersetzung des MARC-Concise-Formats ins Deutsche erstellt und in das Editionssystem eingebunden werden. Konkordanz MAB2 - MARC 21 Im Vorfeld der Arbeiten an der Konkordanz MAB2 - MARC 21 diskutierte die Expertengruppe Datenformate (früher Expertengruppe MAB-Ausschuss) anhand eines zuvor erstellten Fomatabgleichs wichtige Punkte, zum Beispiel mehrbändig begrenzte Werke sowie die Methoden und Techniken, Datensätze in den beiden Formaten zu verknüpfen. Auf dieser Basis wurden die Arbeiten am Kernstück des Formatumstiegs, der Konkordanz, aufgenommen, die regelmäßig mit der Expertengruppe Datenformate rückgekoppelt wird. Im Rahmen der Konkordanz wird ein Mapping der MAB2Kategorien auf ihr Pendant in MARC 21 durchgeführt. Dabei wird nicht nur dokumentiert, an welcher Stelle bibliografische Informationen aus MAB2 in MARC 21 stehen, sondern auch auf welche Weise sie transportiert werden. Die vorliegenden Ergebnisse werden sukzessive von der Expertengruppe Datenformate einer genauen Prüfung unterzogen. Ein besonderes Augenmerk liegt dabei auf Lücken, die eingehend untersucht und bewertet werden.
    Expertenworkshops Zur Erweiterung und Vertiefung von vorhandenen Kenntnissen über das Zielformat MARC 21 wurden schon in der Anfangsphase der Arbeiten für den Formatumstieg eine Reihe von Expertenworkshops geplant. Der erste Workshop wurde bereits im Juli 2005 in der Deutschen Nationalbibliothek mit Randall Barry von der Library of Congress durchgeführt, der seit vielen Jahren im Network Development and MARC Standards Office mit der Pflege, Weiterentwicklung und Dokumentation des Formats beschäftigt ist. Zu den Teilnehmern gehörten die Spezialisten für Normdaten und Datenformate der Deutschen Nationalbibliothek, die Expertengruppe Datenformate sowie weitere Fachleute und Hersteller von Bibliothekssoftware-Systemen. Ein zweiter Workshop hat Ende September 2006 an der Deutschen Nationalbibliothek stattgefunden. Als Expertin konnte Sally McCallum, die Leiterin der Abteilung Network Development and MARC Standards an der Library of Congress, gewonnen werden. Zu den weiteren Teilnehmern gehörten die Spezialisten der Deutschen Nationalbibliothek und die Expertengruppe Datenformate. Im Rahmen des Workshops wurden unter anderem auch die Ergebnisse der Konkordanz sowie das weitere Vorgehen im Hinblick auf die erkannten Lücken diskutiert. Das Ziel hierbei war, gemeinsame Lösungen zu finden und nötigenfalls Anträge zur Einrichtung neuer Felder in MARC 21 zu formulieren.
    Aufbau und Pflege von Kontakten zu internationalen Gremien und Experten Der Arbeitsschwerpunkt Aufbau und Pflege von Kontakten zu internationalen Gremien und Experten bezieht sich in erster Linie auf die Teilnahme an den Sitzungen des Machine Readable Bibliographic Information Committee (MARBI), zu dessen wichtigsten Aufgaben die Pflege und Weiterentwicklung des MARC-Formats und somit auch die Entscheidung über Änderungsanträge gehören. Kern von MARBI sind drei Ex-Officio-Vertreter der Library of Congress (LC), von Library and Archives Canada (LAC) und der British Library. Dazu kommen neun Mitglieder mit Stimmrecht aus verschiedenen Untergliederungen der ALA und von anderen großen Institutionen, Die Sitzungen von MARBI finden jeweils im Januar und Juni in Verbindung mit den Tagungen der American Library Association (ALA) statt und sind offen für interessierte Gäste und Zuhörer. Im Jahr 2006 nahmen Vertreter der Deutschen Nationalbibliothek und der Expertengruppe Datenformate an Sitzungen in San Antonio sowie New Orleans teil und nutzten dabei auch die Gelegenheit, im Rahmen von Arbeitstreffen mit MARC-21-Experten wichtige Details des geplanten Umstiegs intensiv und eingehend zu erörtern. Die Vorbereitungen für den Formatumstieg liegen im Wesentlichen im Zeitplan. Die Zusammenarbeit mit internationalen Gremien und Experten, insbesondere mit MARBI, wird im Jahr 2007 fortgeführt und intensiviert werden, weitere Workshops befinden sich bereits in der Planung. Im Herbst wird eine Arbeitsgruppe aus Vertretern der Verbünde eingesetzt, die den Umstieg auf der operativen Ebene konkret planen soll. Die Deutsche Nationalbibliothek als Träger des Projekts ist zuversichtlich, dass der Umstieg auf MARC 21 im Jahre 2007 als gut vorbereiteter, konzertierter und flächendeckender Schritt in allen Verbünden durchgeführt werden kann."
  5. Paulus, W.; Weishaupt, K.: Bibliotheksdaten werden mehr wert : LibLink wertet bibliothekarische Dienstleistung auf (1996) 0.07
    0.06790313 = product of:
      0.13580626 = sum of:
        0.021355385 = weight(_text_:und in 5228) [ClassicSimilarity], result of:
          0.021355385 = score(doc=5228,freq=2.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.24487628 = fieldWeight in 5228, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5228)
        0.021692004 = weight(_text_:der in 5228) [ClassicSimilarity], result of:
          0.021692004 = score(doc=5228,freq=2.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.2467987 = fieldWeight in 5228, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=5228)
        0.021355385 = weight(_text_:und in 5228) [ClassicSimilarity], result of:
          0.021355385 = score(doc=5228,freq=2.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.24487628 = fieldWeight in 5228, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5228)
        0.07140349 = product of:
          0.10710523 = sum of:
            0.053794574 = weight(_text_:29 in 5228) [ClassicSimilarity], result of:
              0.053794574 = score(doc=5228,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.38865322 = fieldWeight in 5228, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5228)
            0.05331066 = weight(_text_:22 in 5228) [ClassicSimilarity], result of:
              0.05331066 = score(doc=5228,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.38690117 = fieldWeight in 5228, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5228)
          0.6666667 = coord(2/3)
      0.5 = coord(4/8)
    
    Abstract
    Die maschinenlesbaren Katalogdaten der Bibliotheken wurden bisher hauptsächlich intern genutzt. Die im Institut Arbeit und Technik entwickelte Software LibLink ermöglich es, diese Daten auch im wissenschaftlichen Kontext zu verwenden
    Date
    29. 9.1996 18:58:22
  6. Wolters, C.: Wie muß man seine Daten formulieren bzw. strukturieren, damit ein Computer etwas Vernünftiges damit anfangen kann? : Mit einem Glossar von Carlos Saro (1991) 0.07
    0.06600452 = product of:
      0.13200904 = sum of:
        0.027012663 = weight(_text_:und in 4013) [ClassicSimilarity], result of:
          0.027012663 = score(doc=4013,freq=20.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3097467 = fieldWeight in 4013, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4013)
        0.04669906 = weight(_text_:methoden in 4013) [ClassicSimilarity], result of:
          0.04669906 = score(doc=4013,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.22902192 = fieldWeight in 4013, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.03125 = fieldNorm(doc=4013)
        0.031284653 = weight(_text_:der in 4013) [ClassicSimilarity], result of:
          0.031284653 = score(doc=4013,freq=26.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.35593814 = fieldWeight in 4013, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4013)
        0.027012663 = weight(_text_:und in 4013) [ClassicSimilarity], result of:
          0.027012663 = score(doc=4013,freq=20.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3097467 = fieldWeight in 4013, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4013)
      0.5 = coord(4/8)
    
    Abstract
    Die Dokumentationsabteilung im Institut für Museumskunde der Staatlichen Museen Preußischer Kulturbesitz (IfM) hat die Aufgabe, bundesweit Museen und museale Einrichtungen bei der Einführung der Informationstechnik mit Rat und Tat zu unterstützen. Hierbei arbeitet sie mit dem Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB) zusammen. Diese Aktivitäten liegen im Bereich einer professionell durchgeführten Rationalisierung; Computerisierung ist nicht Selbstzweck, sondern eine Möglichkeit, ohnehin durchzuführende Arbeiten in puncto Zeit und Kosten effizienter zu gestalten bzw. Dinge durchzuführen, für die man beim Einsatz konventioneller Methoden weder die Zeit noch das Geld hätte. Mit der Vermittlung der hierfür notwendigen Kenntnisse und Fertigkeiten ist ein kleines Institut wie das IfM wegen des rapide ansteigenden Beratungsbedarfs der Museen heute noch weit überfordert. Wir konzentrieren daher unsere Aktivitäten auf eine Zusammenarbeit mit den für die Museumsbetreuung zuständigen Einrichtungen in den Bundesländern. Wir haben die Hoffnung, daß mehr und mehr Bundesländer für diese Aufgabe eigene Dienstleistungsangebote entwickeln werden. Bevor das erreicht ist, versucht das HM interessierten Museen zumindest eine "Hilfe zur Selbsthilfe" anzubieten; auch wenn dieses oder jenes Bundesland noch nicht in der Lage ist, seine Museen auf diesem Gebiet professionell zu beraten, soll es einzelnen Museen zumindest erleichtert werden, sich hier selber schlau zu machen. Zum Inhalt: Zur Zeit der Großrechner waren sich noch alle Beteiligten darüber einig, daß man für den Einsatz der Informationstechnik professioneller Hilfe bedarf. Man war bereit, sich den Anforderungen der Maschine anzupassen, man versuchte, sich "computergerecht" zu verhalten. Die Einführung leicht zu bedienender und leistungsstarker Computer im Bürobereich hat diese Arbeitsbedingungen aber grundlegend verändert. Auch Leute, die von Computer noch nichts verstehen, können heute in wenigen Tagen lernen, mit Programmen für "Textverarbeitung" ganz selbstverständlich umzugehen. Sie erwarten daher, daß das bei einem Einsatz des Computers für die Inventarisierung genauso problemlos sei. Von einer solchen Benutzerfreundlichkeit der Programme sind wir im deutschen Museumswesen aber noch weit entfernt. Das hat einen einfachen Grund: In die eben erwähnten einfach zu handhabenden Programme wurde inzwischen hunderte oder gar tausende von "Mannjahren" investiert; ein erheblicher Teil dieser Mittel diente dazu, den Computer den spezifischen Bedürfnissen bestimmter Arbeitsplätze anzupassen, bzw. die daran arbeitenden Mitarbeiter auszubilden. Bis das auch für das Museum gilt, wird wohl noch einige Zeit vergehen; dieser Markt ist zu klein, als daß sich solche Investitionen auf rein kommerzieller Basis kurzfristig auszahlen könnten. Das Institut für Museumskunde versucht hier Hilfestellung zu geben. Das vorliegende Heft 33 der "Materialien" ist aus Beratungen und Kursen hervorgegangen. Es versucht, die für die Einführung der Informationstechnik im Museum unabdingbaren grundlegenden Computerkenntnisse für Museumsleute in Form eines Lern- und Lesebuchs zu vermitteln. Es schließt damit an Heft 30 (Jane Sunderland und Leonore Sarasan, Was muß man alles tun, um den Computer im Museum erfolgreich einzusetzen?) direkt an und soll zusammen mit ihm benutzt werden.
  7. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.06
    0.06382588 = product of:
      0.12765177 = sum of:
        0.021355385 = weight(_text_:und in 3742) [ClassicSimilarity], result of:
          0.021355385 = score(doc=3742,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.24487628 = fieldWeight in 3742, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3742)
        0.058373824 = weight(_text_:methoden in 3742) [ClassicSimilarity], result of:
          0.058373824 = score(doc=3742,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.2862774 = fieldWeight in 3742, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3742)
        0.026567172 = weight(_text_:der in 3742) [ClassicSimilarity], result of:
          0.026567172 = score(doc=3742,freq=12.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.30226544 = fieldWeight in 3742, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3742)
        0.021355385 = weight(_text_:und in 3742) [ClassicSimilarity], result of:
          0.021355385 = score(doc=3742,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.24487628 = fieldWeight in 3742, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3742)
      0.5 = coord(4/8)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  8. Hrusa, H.; Kirschner, C.; Neumayer, F.: Datenimport aus der TU Publikationsdatenbank in den Aleph-Bibliothekskatalog (2005) 0.06
    0.055613983 = product of:
      0.11122797 = sum of:
        0.028651254 = weight(_text_:und in 3772) [ClassicSimilarity], result of:
          0.028651254 = score(doc=3772,freq=10.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.328536 = fieldWeight in 3772, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3772)
        0.043166544 = weight(_text_:der in 3772) [ClassicSimilarity], result of:
          0.043166544 = score(doc=3772,freq=22.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.4911232 = fieldWeight in 3772, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3772)
        0.028651254 = weight(_text_:und in 3772) [ClassicSimilarity], result of:
          0.028651254 = score(doc=3772,freq=10.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.328536 = fieldWeight in 3772, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3772)
        0.010758916 = product of:
          0.032276746 = sum of:
            0.032276746 = weight(_text_:29 in 3772) [ClassicSimilarity], result of:
              0.032276746 = score(doc=3772,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.23319192 = fieldWeight in 3772, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3772)
          0.33333334 = coord(1/3)
      0.5 = coord(4/8)
    
    Abstract
    An der UB TU Wien existiert seit den 1920er Jahren eine umfangreiche Sammlung von Sonderdrucken der Universitätsangehörigen. Diese wurde nicht systematisch angelegt, sondern entstand durch freiwillige Mitarbeit der Institutsangehörigen, die die Sonderdrucke an die Bibliothek weitergaben. Die Sammlung umfasst etwa 20.000 Sonderdrucke, die in einer eigenen Kartei verzeichnet wurden. Bibliotheksbenutzer finden im Nominalkatalog der Bibliothek nur einen Sammeleintrag unter dem Namen des Autors. Seit der Einführung eines EDV-gestützten Bibliothekskatalogs und dem damit verbundenen Abbruch des Kartenkatalogs wurde mehrfach versucht, die einzelnen Sonderdrucke in unseren Online-Katalog zu integrieren. Mit der Einführung des Bibliothekssystems Aleph 500 im Jahr 1999 wurde mit der Katalogisierung der aktuellen Sonderdrucke begonnen - sie sind nun im Gesamtkatalog und im Katalog der UB TU Wien nachgewiesen. Auf diese Weise entstanden zwischen 1999 und 2004 etwa 4.000 Einträge von Sonderdrucken, die von unseren Bibliotheksbenutzern häufig nachgefragt und zur Lesesaalbenutzung bestellt werden.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.2, S.21-29
  9. Oehlschläger, S.: Aus der 47. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 3. und 4. November 2004 in Wien (2005) 0.05
    0.05342555 = product of:
      0.1068511 = sum of:
        0.030201074 = weight(_text_:und in 3124) [ClassicSimilarity], result of:
          0.030201074 = score(doc=3124,freq=64.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.34630734 = fieldWeight in 3124, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3124)
        0.04200639 = weight(_text_:der in 3124) [ClassicSimilarity], result of:
          0.04200639 = score(doc=3124,freq=120.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.47792363 = fieldWeight in 3124, product of:
              10.954452 = tf(freq=120.0), with freq of:
                120.0 = termFreq=120.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3124)
        0.030201074 = weight(_text_:und in 3124) [ClassicSimilarity], result of:
          0.030201074 = score(doc=3124,freq=64.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.34630734 = fieldWeight in 3124, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3124)
        0.004442555 = product of:
          0.013327665 = sum of:
            0.013327665 = weight(_text_:22 in 3124) [ClassicSimilarity], result of:
              0.013327665 = score(doc=3124,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.09672529 = fieldWeight in 3124, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3124)
          0.33333334 = coord(1/3)
      0.5 = coord(4/8)
    
    Abstract
    Am 3. und 4. November 2004 hat die Arbeitsgemeinschaft der Verbundsysteme anlässlich ihrer 47. Sitzung erstmals in Wien getagt. Sie war dort zu Gast bei der Österreichischen Bibliothekenverbund und Service Ges.m.b.H., der Zentrale des Österreichischen Bibliotheksverbundes.
    Content
    Darin: "Weiteres Vorgehen nach Abschluss des Projekts Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) Nach Abschluss des Projekts "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" innerhalb der vorgesehenen Laufzeit im Mai 2004 wurde in der B. Sitzung des Standardisierungsausschusses am 26. Mai 2004 der Entwurf des Projektberichts diskutiert. Dabei wurde noch kein Beschluss zum weiteren Vorgehen gefasst, sondern festgestellt, dass nach Aussage der Studie einem Umstieg keine grundsätzlichen Hindernisse entgegenstehen, stattdessen Vorteile eines Umstiegs aufgezeigt werden. Der Abschlussbericht Der Deutschen Bibliothek bestätigt diese Einschätzung und fasst als wichtigste Ergebnisse zusammen, dass sich im Hinblick auf Format und Regelwerk keine Aspekte ergeben haben, die gegen einen Umstieg sprechen, sondern vielmehr die große Chance besteht, weltweit verbreitete Standards auch in Deutschland einzuführen. In der Sitzung des Standardisierungsausschusses wurde aber auch deutlich, dass selbst die Befürworter eines Umstiegs trotz der vorliegenden Ergebnisse der Studie zurzeit keine Möglichkeit sehen, einen Umstieg generell durchzusetzen. Gleichzeitig erkannten die Mitglieder des Standardisierungsausschusses, dass durch die Studie in vielen Fällen Defizite des deutschen Regelwerks und der Verbundpraxis offen gelegt werden und streben daher die Beseitigung dieser Defizite im Einklang mit internationalen Regeln an. Für die weitere Arbeit ist eine klare Richtungsangabe für alle Beteiligten erforderlich. Der Vorsitzende der Arbeitsgemeinschaft der Verbundsysteme und die Leiterin der Arbeitsstelle für Standardisierung hatten zugesagt, einen Vorschlag zur weiteren Vorgehensweise als Diskussionsgrundlage für die nächste Sitzung des Standardisierungsausschusses am 15. Dezember 2004 zu erarbeiten. Hierzu wurden vor dem Hintergrund der Projektergebnisse Vorschläge aus dem Kreis der Arbeitsgemeinschaft und des Standardisierungsausschusses erbeten. Am 14. September 2004 traf sich eine Arbeitsgruppe bestehend aus Vertretern der Arbeitsgemeinschaft und der Arbeitsstelle für Standardisierung, um die Vorschläge aus dem Kreis der Arbeitsgemeinschaft der Verbundsysteme mit den Vorschlägen der anderen Mitglieder des Standardisierungsausschusses abzugleichen. Neben diesen Vorschlägen wurden die Empfehlungen zum weiteren Vorgehen unabhängig von einem Umstieg aus dem Abschlussbericht des Umstiegsprojekts an die Deutsche Forschungsgemeinschaft herangezogen. Die Arbeitsgruppe hat ein Vorschlagspapier vorgelegt, das zunächst den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme zur Verfügung gestellt und bei der Sitzung ausführlich diskutiert, modifiziert und abschließend gebilligt wurde. Das überarbeitete Papier wurde dem Standardisierungsausschuss rechtzeitig zu seiner nächsten Sitzung übersandt. Das Papier enthält neben Vorschlägen für das künftige Regelwerk insbesondere konkrete Aussagen über die Zusammenarbeit der Verbundsysteme. Die wesentlichen Punkte werden im folgenden Absatz kurz vorgestellt.
    Zusammenarbeit der Verbundsysteme Im Rahmen der Diskussion um das weitere Vorgehen nach Abschluss des Projekts Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) haben sich die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme darauf geeinigt, ihre Datenstrukturen zu vereinheitlichen als Voraussetzung für eine Verbesserung von Datentausch und Fremddatennutzung. Die Arbeitsgemeinschaft der Verbundsysteme hat erkannt, dass die gemeinsamen Zielvorstellungen am ökonomischsten mit der verpflichtenden Anwendung von MARC21 als Transportformat zu erreichen sind. Die Alternative "Weiterentwicklung von MAB2 zu MAB3" würde vor dem Hintergrund, dass MARC21 für die Übernahme ausländischer Fremddaten sowie für die Lieferung deutscher Daten an ausländische Kataloge und Portale ohnehin bedient werden müsste, in erheblichem Maß künftig dauerhaft zusätzliche Kapazitäten binden, die von den Unterhaltsträgern bewilligt werden müssten, was bei der derzeitigen Haushaltslage eher unwahrscheinlich erscheint. Zudem wird eine notwendige Weiterentwicklung von MAB2 zu MAB3 - konsequent wiederholbare Kategorien und Subfield-Verwendung - sich strukturell faktisch nicht mehr von einem MARC-Format unterscheiden. Eine Weiterentwicklung des bisherigen deutschen Datenaustauschformats MAB2 zu MAB3 wird daher nicht befürwortet. Für die Planungssicherheit der Bibliotheken und der Softwarehersteller ist die weitere Versorgung mit MAB2-Daten für einen Zeitrahmen von ca. 10 Jahren zu gewährleisten. Dazu ist für eine Übergangszeit auf der einen Seite die weitere Pflege von MAB2 einschließlich der für eine automatisierte Konvertierung von und nach MARC21 notwendigen Anpassung erforderlich und auf der anderen Seite die Implementierung entsprechender Programme bei den Datenlieferanten. Die weitere Pflege von MAB2 soll dabei auf unabdingbar notwendige und zugleich mit MARC21 kompatible Anpassungen beschränkt bleiben. Zur Realisierung ihrer strategischen Ziele hat die Arbeitsgemeinschaft der Verbundsysteme folgende Einzelmaßnahmen beschlossen: Entwicklung einheitlicher Verbundrichtlinien und Formulierung eines gemeinsamen Qualitätsstandards sowie Reduzierung des Datenmodells auf zwei Hierarchiestufen. Als eine der ersten Maßnahmen ist die Erstellung einer Konkordanz MAB2 zu MARC21 geplant. Zwischenzeitlich hat sich auch die Expertengruppe MABAusschuss in einem Positionspapier für MARC21 als Transportformat ausgesprochen und ist bereit, diese Konkordanz zu erstellen.
    Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben weiterhin ihre Absicht bekräftigt, ihre Verbunddaten gegenseitig zum Zweck der Datenübernahme, Fernleihe und Einbindung in Portale über Z 39.50 zu nutzen. Neuerwerbungen sollen künftig kooperativ katalogisiert werden, damit nicht Kapazitäten dadurch gebunden werden, dass die gleiche Titelaufnahme mehrfach erstellt werden muss. Eine Arbeitsgruppe unter Federführung des GBV wird ein Konzept und einen Projektplan mit einzelnen Arbeitsschritten sowie bis Ende 2005 ein prototypisches Verfahren zu entwickeln. Die gegenseitige Nutzung von Fremddatenangeboten (unter Beachtung lizenzrechtlicher Rahmenbedingungen) sowie die Bereitstellung von Datensätzen und ihre Anreicherung durch Abstracts, Inhaltsverzeichnisse, Rezensionen u. ä. sind seit langem bestehende Anforderungen, deren Realisierung mit der Vereinheitlichung der Datenstrukturen und der einheitlichen Anwendung von MARC21 als Transportformat erreicht wird. Notwendige Voraussetzung zur Anreicherung von Daten ist die Entwicklung eines Match-Key-Algorith-mus. Hierzu ist ein gesondertes Projekt unter Federführung Der Deutschen Bibliothek geplant. Die Arbeitsgemeinschaft der Verbundsysteme hat den Standardisierungsausschuss gebeten, dafür Sorge zu tragen, dass das künftige deutsche Regelwerk für die Formalerschließung ihre Ziele einer Vereinheitlichung der Datenstrukturen und eines verbesserten Datentauschs mit Fremddatennutzung effektiv unterstützt. Dazu dürfen keine den AACR widersprechenden Regelungen für das Regelwerk verabschiedet werden. Außerdem dürfen strukturrelevante Aspekte im Regelwerk künftig keine Kann-Bestimmungen mehr sein. Um international übereinstimmende Entitäten zu erhalten, plädiert die Arbeitsgemeinschaft der Verbundsysteme nachdrücklich dafür, bei Verwendung einer Normdatei Individualisierung als obligatorische Bestimmung einzuführen. Eine Übereinstimmung der Entitäten bei Titeln, Personen- und Körperschaftsnamen muss erklärtes Regelwerksziel sein. Hierfür sind international übliche Regelungen einzuführen. Dringend erforderlich ist auch die Vereinheitlichung und Integration der Sonderregeln in das Regelwerk. Die Arbeitsgemeinschaft der Verbundsysteme schlägt dem Standardisierungsausschuss darüber hinaus vor, Aspekte der Functional Requirements for Bibliographic Records (FRBR) im Regelwerk in Übereinstimmung mit der internationalen Entwicklung zu berücksichtigen und durch geeignete Untersuchungen auf Expertenebene zu untermauern."
    Date
    22. 1.2005 18:53:53
  10. SGML und XML : Anwendungen und Perspektiven (1999) 0.05
    0.053338178 = product of:
      0.14223514 = sum of:
        0.05593317 = weight(_text_:und in 1392) [ClassicSimilarity], result of:
          0.05593317 = score(doc=1392,freq=28.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.6413702 = fieldWeight in 1392, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1392)
        0.030368807 = weight(_text_:der in 1392) [ClassicSimilarity], result of:
          0.030368807 = score(doc=1392,freq=8.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.34551817 = fieldWeight in 1392, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1392)
        0.05593317 = weight(_text_:und in 1392) [ClassicSimilarity], result of:
          0.05593317 = score(doc=1392,freq=28.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.6413702 = fieldWeight in 1392, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1392)
      0.375 = coord(3/8)
    
    Abstract
    SGML und XML sind fundamentale Konzepte der heutigen und künftigen Speicherung, Verarbeitung und Verbreitung langlebiger Informationen, gerade im Hinblick auf die weltweite Vernetzung durch das Internet. Ausgehend von den technischen und ökonomischen Herausforderungen unserer Informationsgesellschaft, stellen die Autoren die wichtigen Entwicklungen dar und berichten über aktuelle Projekte mit SGML- und XML-Anwendungen in der Praxis. Das Buch wendet sich an das Management informationsverarbeitender und -produzierender Unternehmen, an die Technik-Verantwortlichen und SGML-/XML-Anwender sowie an Studierende informationsverarbeitender Fächer und der Informatik.
    Content
    Einführungen (Zukunft und Vergangenheit).- Charles Goldfarb: SGML-Philosophie und Zukunft.- Pam Genussa: SGML/XML und IETM.- Manfred Krüger: SGML - Der lange Weg.- Praxis heute.Zeitung/Zeitschrift.- Nachschlagewerke.- Technische Dokumentation.- Praxis - morgen.- Register.- Literatur.- Autorenliste.
  11. Oeltjen, W.: Dokumentenstrukturen manipulieren und visualisieren : über das Arbeiten mit der logischen Struktur (1998) 0.05
    0.053016692 = product of:
      0.14137785 = sum of:
        0.042281505 = weight(_text_:und in 6616) [ClassicSimilarity], result of:
          0.042281505 = score(doc=6616,freq=16.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4848303 = fieldWeight in 6616, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6616)
        0.056814834 = weight(_text_:der in 6616) [ClassicSimilarity], result of:
          0.056814834 = score(doc=6616,freq=28.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.6464053 = fieldWeight in 6616, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6616)
        0.042281505 = weight(_text_:und in 6616) [ClassicSimilarity], result of:
          0.042281505 = score(doc=6616,freq=16.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4848303 = fieldWeight in 6616, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6616)
      0.375 = coord(3/8)
    
    Abstract
    Thema dieses Beitrages sind Dokumentenstrukturen und zwar aus zwei Blickrichtungen: aus der Sicht der Autoren, die ein Dokument mit Computerunterstützung erstellen und die Dokumentenstruktur manipulieren und aus der Sicht der Lesenden, die ein Dokument lesen und die Struktur des Dokumentes wahrnehmen. Bei der Dokumentenstruktur wird unterschieden zwischen der logischen Struktur und der grafischen Struktur eines Dokumentes. Diese Trennung ermöglicht das Manipulieren und Visualisieren der logischen Struktur. Welche Bedeutung das für die Autoren und für die Benutzenden des Dokumentes hat, soll in dem Beitrag u.a. am Beispiel der Auszeichnungssprache HTML, der Dokumentenbeschreibungssprache des World-Wide Web, erörtert werden
    Series
    Fortschritte in der Wissensorganisation; Bd.5
    Source
    Herausforderungen an die Wissensorganisation: Visualisierung, multimediale Dokumente, Internetstrukturen. 5. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Berlin, 07.-10. Oktober 1997. Hrsg.: H. Czap u.a
  12. Oehlschläger, S.: Arbeitsgemeinschaft der Verbundsysteme : Aus der 46. Sitzung am 21. und 22. April 2004 im Bibliotheksservice-Zentrum Baden-Württemberg in Konstanz (2004) 0.05
    0.052500583 = product of:
      0.10500117 = sum of:
        0.028948167 = weight(_text_:und in 2434) [ClassicSimilarity], result of:
          0.028948167 = score(doc=2434,freq=30.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.33194062 = fieldWeight in 2434, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2434)
        0.04088526 = weight(_text_:der in 2434) [ClassicSimilarity], result of:
          0.04088526 = score(doc=2434,freq=58.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.4651681 = fieldWeight in 2434, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2434)
        0.028948167 = weight(_text_:und in 2434) [ClassicSimilarity], result of:
          0.028948167 = score(doc=2434,freq=30.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.33194062 = fieldWeight in 2434, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2434)
        0.006219577 = product of:
          0.018658731 = sum of:
            0.018658731 = weight(_text_:22 in 2434) [ClassicSimilarity], result of:
              0.018658731 = score(doc=2434,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.1354154 = fieldWeight in 2434, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2434)
          0.33333334 = coord(1/3)
      0.5 = coord(4/8)
    
    Content
    "Die verbundübergreifende Fernleihe für Monografien steht kurz vor ihrer flächendeckenden Einführung. Voraussetzung hierfür ist ein funktionierendes Online-Fernleih-System in jedem Verbund. Dies ist prototypisch realisiert. Die Arbeitsgemeinschaft der Verbundsysteme geht davon aus, dass ab dem 1. Januar 2005 der Echtbetrieb aufgenommen werden kann und die Leistungen nach der neuen Leihverkehrsordnung abgerechnet werden können. Zur Klärung von Detailfragen trifft sich im Juni die Arbeitsgruppe Verbundübergreifende Fernleihe. Bereits in der letzten Sitzung wurde festgelegt, dass die jeweiligen Bibliotheken über die Festlegung des Leitwegs entscheiden sollen, und die Verbundzentralen nur dann eingreifen werden, wenn Probleme entstehen sollten. Die individuelle Leitwegsteuerung, sowohl innerhalb des Verbundes als auch bei der Festlegung der Reihenfolge der anzugehenden Verbünde hat in einigen Verbünden hohe Priorität. Traditionell gewachsene Beziehungen müssen von den Bestellsystemen abgebildet werden können. Eine lokale Zusammenarbeit wird auch über Verbundgrenzen hinaus möglich sein. Im Hinblick auf die Verrechnung verbundübergreifender Fernleihen haben sich die Verbünde auf einen einheitlichen Verrechnungszeitraum geeinigt. Voraussetzung ist außerdem, dass die Unterhaltsträger die notwendigen Rahmenbedingungen für die Abrechnung schaffen und die neue Leihverkehrsordnung in allen Bundesländern rechtzeitig in Kraft gesetzt wird."
    - Projekt Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) Das Projekt Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) stand zum Zeitpunkt der Sitzung der Arbeitsgemeinschaft kurz vor seinem Abschluss. Im Rahmen der Veranstaltung des Standardisierungsausschusses beim 2. Leipziger Kongress für Information und Bibliothek wurden die wesentlichen Projektergebnisse vorgestellt. Aufgrund der vorliegenden Informationen gehen die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme davon aus, dass das finanzielle Argument bei der anstehenden Entscheidung nicht mehr im Vordergrund stehen kann. Auch wenn davon ausgegangen wird, dass eine klare Umstiegsentscheidung durch den Standardisierungsausschuss derzeit politisch nicht durchsetzbar sei, sehen die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme die Entwicklung durch die Projektergebnisse positiv. Durch die Diskussion wurden Defizite des deutschen Regelwerks und der Verbundpraxis offen gelegt und verschiedene Neuerungen angestoßen. Zur Verbesserung des Datentausches untereinander sehen die Verbundzentralen unabhängig von einer Entscheidung des Standardisierungsausschusses die Notwendigkeit, ihre Datenbestände zu homogenisieren und Hierarchien abzubauen bzw. die Verknüpfungsstrukturen zu vereinfachen. Auch die Entwicklung der Functional Requirements for Bibliographic Records (FRBR) muss in diese Überlegungen einbezogen werden. Die Formate müssen dahingehend entwickelt werden, dass alle relevanten Informationen im Titelsatz transportiert werden können. Es wird eine Konvergenz von Regelwerk und Format angestrebt.
    - Elektronischer DDC-Dienst Im Fall der deutschen Übersetzung der Dewey Decimal Classification (DDC) wurde die Idee einer Normdatei DDC-Deutsch zugunsten eines zentralen elektronischen DDC-Dienstes bei Der Deutschen Bibliothek aufgegeben. Dieser Dienst hält die übersetzten Daten bereit und stellt sie in drei verschiedenen Ausprägungen zur Verfügung: 1. Zentrales Such- und Browsingtool für Benutzer 2. Klassifikationswerkzeug für Sacherschließer 3. SOAP-Schnittstelle für den elektronischen Datenaustausch. Um die DDC künftig gewinnbringend in der Benutzung einsetzen zu können, werden Konkordanzen zu anderen Klassifikationen, insbesondere aber zur weit verbreiteten Regensburger Verbundklassifikation (RVK) benötigt. Mithilfe dieser Konkordanzen können Benutzer im OPAL Der Deutschen Bibliothek nach DDC-Notationen suchen und würden zusätzlich Ergebnisse aus den Verbünden angezeigt bekommen, die bislang nicht mit der DDC erschlossen sind. Der GBV plant eine Grunderschließung seiner Verbunddatenbank mit der DDC in 5 Ebenen. Ziel ist es, bis Ende 2005 alle Verbunddaten mit der DDC zu verbinden und damit ein bedeutendes Recherchetool zu erhalten.
  13. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.05
    0.05240469 = product of:
      0.10480938 = sum of:
        0.027741458 = weight(_text_:und in 632) [ClassicSimilarity], result of:
          0.027741458 = score(doc=632,freq=54.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3181036 = fieldWeight in 632, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.043043736 = weight(_text_:der in 632) [ClassicSimilarity], result of:
          0.043043736 = score(doc=632,freq=126.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.48972595 = fieldWeight in 632, product of:
              11.224972 = tf(freq=126.0), with freq of:
                126.0 = termFreq=126.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.027741458 = weight(_text_:und in 632) [ClassicSimilarity], result of:
          0.027741458 = score(doc=632,freq=54.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3181036 = fieldWeight in 632, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.0062827216 = product of:
          0.018848164 = sum of:
            0.018848164 = weight(_text_:22 in 632) [ClassicSimilarity], result of:
              0.018848164 = score(doc=632,freq=4.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.13679022 = fieldWeight in 632, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=632)
          0.33333334 = coord(1/3)
      0.5 = coord(4/8)
    
    Abstract
    Am 23. und 24. November 2005 hat die Arbeitsgemeinschaft der Verbundsysteme ihre 49. Sitzung auf Einladung des Hochschulbibliothekszentrums NordrheinWestfalen (HBZ) in Köln durchgeführt.
    Content
    "Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung Matchkey Bei der Verwendung von Meta-Suchmaschinen zur parallelen Recherche in bibliografischen Datenbanken kommt es häufig vor, dass derselbe Titel mehrmals in der Trefferliste auftaucht. In dieser Situation könnte ein so genannter Matchkey Abhilfe schaffen, der jeden Datensatz aus den vorhandenen bibliografischen Daten heraus eindeutig identifiziert. Ein solcher Algorithmus geht von einem bibliografischen Datensatz aus und generiert einen Schlüssel (Matchkey), der wiederum in den Datensatz integriert werden kann. Der Schlüssel muss sortierfähig sein, so dass die Trefferliste nach dem Grad der Ähnlichkeit sortiert werden kann. Eine wichtige Voraussetzung für die erfolgreiche Anwendung des Matchkey ist die Beseitigung der Hausregeln in den Verbünden und Bibliotheken. Bisher hat Die Deutsche Bibliothek das Thema analysiert und strebt nun die Formulierung und Bereitstellung eines ersten Algorithmus an, um eine Implementierung zu Testzwecken voraussichtlich im März/April 2006 zu ermöglichen. Ein klares Ergebnis soll bis Ende 2006 vorliegen.
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum Das HBZ hat seinen am 15. November frei geschalteten Dreiländer-Katalog (Deutschland, Österreich, Schweiz) vorgestellt, dessen Ziel der Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum ist. Der Katalog entstand in Kooperation des HBZ mit dem Bibliotheksverbund Bayern (BVB) und dem Österreichischen Bibliothekenverbund (OBV); die Integration weiterer Bibliotheksbestände aus anderen Regionen ist in Arbeit. Realisiert wurde das Projekt mittels der Suchmaschinentechnologie des HBZ, die Antwortzeiten in Bruchteilen von Sekunden, Ranking und Kategorisierung der Treffermengen ermöglicht. Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben beschlossen, sich die für die Literaturversorgung relevanten Verbunddaten (Titeldaten mit Nachweisen) für den Aufbau verbundbezogener, nicht kommerzieller Dienste auf Gegenseitigkeit kostenfrei zur Verfügung zu stellen. Normdateien Online-Schnittstelle Ziel der Online-Kommunikation mit Normdateien ist es, die Arbeit mit den zentralen Normdateien dadurch zu vereinfachen, dass Änderungen an Normdaten in den zentral bei Der Deutschen Bibliothek gehaltenen Dateien mit dem eigenen Client erfolgen können. Ferner sollen alle Änderungen an den Normdateien zeitnah in die Normdaten-Spiegel der Verbundsysteme transportiert werden (Replikation). Das Verfahren soll sich auf alle bei Der Deutschen Bibliothek geführten Normdaten erstrecken. Als standardisiertes Kommunikationsprotokoll soll Z39.50 SR Extended Services Update genutzt werden. Für die Replikation ist OAI vorgesehen, als Austauschformat zunächst MAB2 bzw. MABXML. Die existierenden Implementierungen erfüllen an mehreren wichtigen Stellen nicht die Anforderungen. Eine Konversion in und aus einem neutralen Transportformat, wie für die Online-Kommunikation mit Normdateien benötigt, ist an der gegenwärtigen Pica-Schnittstelle nicht vorgesehen und lässt sich nur realisieren, wenn wesentliche Veränderungen vorgenommen werden. OCLC PICA plant, diese Veränderungen im 1. Quartal 2006 vorzunehmen. Nach der aktuellen Projektplanung soll die Online-Kommunikation zu Beginn des Jahres 2007 starten.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."
    Footnote
    Daneben Berichte der einzelnen Mitglieder
  14. Croissant, C.R.: MARC21 und die anglo-amerikanische Katalogisierungspraxis (2004) 0.05
    0.05187344 = product of:
      0.10374688 = sum of:
        0.022193167 = weight(_text_:und in 1764) [ClassicSimilarity], result of:
          0.022193167 = score(doc=1764,freq=6.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.2544829 = fieldWeight in 1764, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1764)
        0.048698425 = weight(_text_:der in 1764) [ClassicSimilarity], result of:
          0.048698425 = score(doc=1764,freq=28.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.55406165 = fieldWeight in 1764, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1764)
        0.022193167 = weight(_text_:und in 1764) [ClassicSimilarity], result of:
          0.022193167 = score(doc=1764,freq=6.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.2544829 = fieldWeight in 1764, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1764)
        0.010662131 = product of:
          0.031986393 = sum of:
            0.031986393 = weight(_text_:22 in 1764) [ClassicSimilarity], result of:
              0.031986393 = score(doc=1764,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.23214069 = fieldWeight in 1764, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1764)
          0.33333334 = coord(1/3)
      0.5 = coord(4/8)
    
    Abstract
    Das MARC21-Datenformat wird aus der Sicht eines praktizierenden AACR2/MARC-Katalogisierers vorgeführt. Der Autor gibt zunächst eine allgemeine Einführung in das MARC21 Bibliographic Format. Der zweite Abschnitt der Arbeit ist der Erschließung von mehrteiligen bzw. mehrbändigen Werken gewidmet. Die Behandlung von mehrteiligen bzw. mehrbändigen Werken, in der AACR2-Welt "Analyse" genannt, ist nämlich der Punkt, an dem die anglo-amerikanische und die deutsche Katalogisierungspraxis am weitesten auseinandergehen. Die verschiedenen Formen der "Analyse" werden erläutert im Hinblick auf die Frage, inwiefern diese Praxen den Bedürfnissen der Benutzer gerecht werden. Auf eine kurze Behandlung der besonderen Problematik der fortlaufenden Sammelwerke folgt dann eine Einführung in das MARC21 Authorities Format für Normdatensätze. Die Rolle der verschiedenen Arten von Normdatensätzen bei der Katalogisierung wird auch besprochen. DerAufsatz schließt mit einem Kommentar über verschiedene Aspekte der Verlinkung von Datensätzen.
    Date
    13. 8.2004 21:22:06
    Source
    Bibliothek: Forschung und Praxis. 28(2004) H.1, S.11-35
  15. DFG und Mellon-Foundation fördern internationalen Datenaustausch (2006) 0.05
    0.050787866 = product of:
      0.13543431 = sum of:
        0.04893133 = weight(_text_:und in 5070) [ClassicSimilarity], result of:
          0.04893133 = score(doc=5070,freq=42.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.561082 = fieldWeight in 5070, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5070)
        0.037571654 = weight(_text_:der in 5070) [ClassicSimilarity], result of:
          0.037571654 = score(doc=5070,freq=24.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.42746788 = fieldWeight in 5070, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5070)
        0.04893133 = weight(_text_:und in 5070) [ClassicSimilarity], result of:
          0.04893133 = score(doc=5070,freq=42.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.561082 = fieldWeight in 5070, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5070)
      0.375 = coord(3/8)
    
    Abstract
    Die Deutsche Forschungsgemeinschaft (DFG) und die Andrew W. Mellon Foundation unterstützen die Einführung des international gebräuchlichen Datenaustauschformats MARC 21 im deutschsprachigen Bibliothekswesen. Der Daten- und Informationsaustausch zwischen den Bibliotheken der deutschsprachigen Länder und denen der übrigen Welt wird dadurch wesentlich erleichtert.
    Content
    "Der aktuelle Speicherort einer Publikation verliert angesichts der steigenden Zahl an digital vorliegenden und über das World Wide Weh verfügbaren Publikationen seine Bedeutung. Entscheidend für die Forschung sind Aufindbarkeit und schnelle Nutzungsmöglichkeit der Informationen. Global zu arbeiten, Daten, Informationen und Texte zu tauschen ist zur täglichen Routine für Wissenschaftler und Bibliothekare geworden. Deutschsprachige und ausländische Bibliotheken verwenden derzeit noch unterschiedliche Standards bei der Speicherung und dem Austausch von Katalogdaten. Die von der Deutschen Forschungsgemeinschaft und der Andrew W. Mellon Foundation geförderten Projekte verfolgen das Ziel, die Daten deutschsprachiger Bibliotheken weltweit sichtbar zu machen. Das Interesse von Wissenschaftlern ist nicht auf ihre jeweilige eigene nationale und kulturelle Umgebung beschränkt. Sie benötigen Informationen über Dokumente und Daten aus der ganzen Welt. Gleichzeitig wollen sie die eigenen Forschungsergebnisse in der internationalen Forschungsgemeinschaft zur Diskussion stellen. Sprachraumübergreifende Standards für Metadaten und deren reibungsloser gegenseitiger Austausch sind Voraussetzung für die wissenschaftliche Kommunikation und für den individuellen Erfolg des einzelnen Forschers. Die Deutsche Bibliothek pflegt seit vielen Jahren Kooperationsbeziehungen auf nationaler und internationaler Ebene. Dazu gehören die Entwicklung und Anwendung von gemeinsamen Regeln und Standards sowie Produktion und Vertrieb von bibliografischen Dienstleistungen und die Pflege kooperativ geführter Datenbanken, insbesondere für Normdaten. Einen weiteren Schwerpunkt bilden Entwicklung und Anwendung moderner Technologien für die Langzeitarchivierung der Bestände im Rahmen internationaler Kooperationen, unabhängig davon, ob die Publikationen auf Papier, Mikrofilm oder digital vorliegen."
  16. Behrens-Neumann, R.: Aus der 56. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. April 2009 in Wien : ein Bericht (2009) 0.05
    0.05067913 = product of:
      0.10135826 = sum of:
        0.028250515 = weight(_text_:und in 3041) [ClassicSimilarity], result of:
          0.028250515 = score(doc=3041,freq=14.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.32394084 = fieldWeight in 3041, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3041)
        0.035972122 = weight(_text_:der in 3041) [ClassicSimilarity], result of:
          0.035972122 = score(doc=3041,freq=22.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.40926933 = fieldWeight in 3041, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3041)
        0.028250515 = weight(_text_:und in 3041) [ClassicSimilarity], result of:
          0.028250515 = score(doc=3041,freq=14.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.32394084 = fieldWeight in 3041, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3041)
        0.00888511 = product of:
          0.02665533 = sum of:
            0.02665533 = weight(_text_:22 in 3041) [ClassicSimilarity], result of:
              0.02665533 = score(doc=3041,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.19345059 = fieldWeight in 3041, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3041)
          0.33333334 = coord(1/3)
      0.5 = coord(4/8)
    
    Abstract
    Am 23. April 2009 fand die 56. Sitzung der Arbeitsgemeinschaft der Verbundsysteme auf Einladung der Österreichischen Bibliothekenverbund und Service G.m.b.H. (OBVSG) in Wien statt.
    Content
    Darin auch ein Abschnitt zu CrissCross: "Ziel des Projekts ist die Schaffung eines multilingualen, thesaurusbasierten und benutzerorientierten Recherchevokabulars zu heterogen erschlossenen Dokurrenten für die Nutzer des deutschen wissenschaftlichen Bibliothekswesens. Dazu werden die Sachschlagwörter der SWD mit den Notationen der Dewey Dezimalklassifikation verbunden sowie mit ihren Äquivalenten in LCSH und Rameau verknüpft. Das Projektende ist nach Verlängerung des Projektantrags April 2010. In dem Berichtszeitraum wurde die Vergabe von DDC-Notationen für SWD-Terme in dem Katalogisierungsclient WinIBW fortgeführt. Änderungen in dem Redaktionsverfahren der SWD, das im ONS-Projekt eingeführt worden ist, haben sich auf die Arbeitsweise und den Workflow des CrissCross-Projektes ausgewirkt und mussten entsprechend angepasst werden. Nach wie vor steht DNB in Kontakt mit den Betreibern der MACS-Datenbank, die als Arbeitsumgebung für die Verlinkung der multilingualen Terme genutzt werden soll. Im Berichtszeitraum wurden keine größeren IT-Aktivitäten notwendig. Ab April 2009 wird die eigentliche Verlinkungsarbeit beginnen und dann sind auch begleitende IT-Maßnahmen zu erwarten."
    Date
    22. 8.2009 13:11:01
    Footnote
    Darin Abschnitte zu: - Umstieg auf MARC21 - Auswirkungen von RDA auf MARC21 - Gemeinsame Normdatei (GND) - Normdateien und Onlineschnittstelle - vascoda - Kataloganreicherung
  17. ZETA: Format und Konventionen für die Zeitschriften-Titelaufnahme in der Zeitschriftendatenbank (ZDB) (1993) 0.05
    0.049400575 = product of:
      0.09880115 = sum of:
        0.02562646 = weight(_text_:und in 4335) [ClassicSimilarity], result of:
          0.02562646 = score(doc=4335,freq=2.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.29385152 = fieldWeight in 4335, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4335)
        0.026030406 = weight(_text_:der in 4335) [ClassicSimilarity], result of:
          0.026030406 = score(doc=4335,freq=2.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.29615843 = fieldWeight in 4335, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4335)
        0.02562646 = weight(_text_:und in 4335) [ClassicSimilarity], result of:
          0.02562646 = score(doc=4335,freq=2.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.29385152 = fieldWeight in 4335, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4335)
        0.021517832 = product of:
          0.06455349 = sum of:
            0.06455349 = weight(_text_:29 in 4335) [ClassicSimilarity], result of:
              0.06455349 = score(doc=4335,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.46638384 = fieldWeight in 4335, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4335)
          0.33333334 = coord(1/3)
      0.5 = coord(4/8)
    
    Date
    28. 6.1996 14:29:37
  18. Helmkamp, K.; Oehlschläger, S.: Firmenworkshop Umstieg auf MARC 21 : Workshop an der Deutschen Nationalbibliothek am 26. September 2007 (2007) 0.05
    0.045768533 = product of:
      0.12204942 = sum of:
        0.039550725 = weight(_text_:und in 2407) [ClassicSimilarity], result of:
          0.039550725 = score(doc=2407,freq=14.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4535172 = fieldWeight in 2407, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2407)
        0.042947978 = weight(_text_:der in 2407) [ClassicSimilarity], result of:
          0.042947978 = score(doc=2407,freq=16.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.4886365 = fieldWeight in 2407, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2407)
        0.039550725 = weight(_text_:und in 2407) [ClassicSimilarity], result of:
          0.039550725 = score(doc=2407,freq=14.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4535172 = fieldWeight in 2407, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2407)
      0.375 = coord(3/8)
    
    Abstract
    Nach dem internationalen Workshop »MARC 21 - Experiences, Challenges and Visions« im Frühsommer dieses Jahres veranstaltete die Deutsche Nationalbibliothek (DNB) am 26. September 2007 in Frankfurt am Main im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projekts »Internationalisierung der deutschen Standards: Umstieg auf MARC 21« einen Workshop für Hersteller und Anbieter von Bibliothekssoftware unter Beteiligung von Mitgliedern der Expertengruppe Datenformate, von Experten der DNB und von weiteren Vertretern der Bibliotheksverbünde. Repräsentanten einzelner Bibliotheken, Verbünde und Hersteller folgten einer Einladung der Arbeitsstelle Datenformate und der Expertengruppe Formalerschließung und referierten über Voraussetzungen, Arbeitsvorhaben und Zeitfenster für den Umstieg. Außerdem wurden ausgewählte Aspekte des Formatumstiegs genauer betrachtet und ausführlich diskutiert.
  19. Hoffmann, L.: ¬Die Globalisierung macht vor der Katalogisierung nicht Halt : Mit AACR2 zum Global Player? (2003) 0.05
    0.04557906 = product of:
      0.09115812 = sum of:
        0.021355385 = weight(_text_:und in 1544) [ClassicSimilarity], result of:
          0.021355385 = score(doc=1544,freq=2.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.24487628 = fieldWeight in 1544, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1544)
        0.030677127 = weight(_text_:der in 1544) [ClassicSimilarity], result of:
          0.030677127 = score(doc=1544,freq=4.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.34902605 = fieldWeight in 1544, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=1544)
        0.021355385 = weight(_text_:und in 1544) [ClassicSimilarity], result of:
          0.021355385 = score(doc=1544,freq=2.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.24487628 = fieldWeight in 1544, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1544)
        0.01777022 = product of:
          0.05331066 = sum of:
            0.05331066 = weight(_text_:22 in 1544) [ClassicSimilarity], result of:
              0.05331066 = score(doc=1544,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.38690117 = fieldWeight in 1544, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1544)
          0.33333334 = coord(1/3)
      0.5 = coord(4/8)
    
    Date
    22. 3.2016 12:15:46
    Source
    4. BSZ-Kolloquium am 17. und 18. September an der Universität Stuttgart. Vorträge
  20. Sigrist, B.; Patzer, K.; Pagel, B.; Weber, R.: 400.000 laufende Zeitschriften in der ZDB : GKD- und ZDB-spezifische Probleme im Falle eines Umstiegs des deutschen Regelwerks und Formats auf AACR2 und MARC21 (2002) 0.04
    0.04462888 = product of:
      0.119010344 = sum of:
        0.039952267 = weight(_text_:und in 5974) [ClassicSimilarity], result of:
          0.039952267 = score(doc=5974,freq=28.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.45812157 = fieldWeight in 5974, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5974)
        0.039105818 = weight(_text_:der in 5974) [ClassicSimilarity], result of:
          0.039105818 = score(doc=5974,freq=26.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.4449227 = fieldWeight in 5974, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5974)
        0.039952267 = weight(_text_:und in 5974) [ClassicSimilarity], result of:
          0.039952267 = score(doc=5974,freq=28.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.45812157 = fieldWeight in 5974, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5974)
      0.375 = coord(3/8)
    
    Abstract
    Im Folgenden sollen die wichtigsten Auswirkungen des intendierten Regelwerks- und Formatumstiegs auf GKD und ZDB dargestellt werden. Außerdem werden Alternativen aufgezeigt, die eventuell gewährleisten könnten, dass die deutschen Körperschafts- und Zeitschriftendaten international zur Verfügung gestellt und genutzt werden könnten, ohne dass zwangsläufig ein Wechsel des Regelwerks damit verbunden wäre. Auch jetzt ist es bereits relativ einfach möglich, MAB-Daten in MARC anzubieten und für Austauschzwecke zur Verfügung zu stellen. Außerdem bleibt unbenommen, dass Angleichungen an AACR2 in der Neufassung der RAK berücksichtigt werden. Die SBB würde es begrüßen, wenn die Katalogisierung in Deutschland sich entsprechend der Ergebnisse der DFG-geförderten Machbarkeitsstudie an internationale Standards angleichen würde und damit die internationale Kooperation verbessert würde. Die ZDB ist der zentrale Nachweis der Periodika-Bestände (für Zeitschriften und Zeitungen) der deutschen Bibliotheken und die deutsche Normdatei für Zeitschriftenkatalogisierung sowie die Basis für Leihverkehr und Dokumentlieferdienste. Die Zentralredaktion Titel der ZDB garantiert die bibliographische Kontrolle und dadurch die Konsistenz der Daten, die für die Verknüpfung mit Lokaldaten zwingend erforderlich ist und nicht aufgegeben werden kann. Gleichzeitig basieren die Eintragungen der ZDB auf den Körperschaftsansetzungen aus der GKD. Ca. 50 % aller Zeitschriftentitel, zurzeit also 550.000 Sätze, sind mit einer Körperschaftsaufnahme verknüpft, die zumindest hinsichtlich der Bestimmung eventueller Splits eine Bedeutung hat.

Authors

Years

Languages

  • d 114
  • e 67
  • f 9
  • da 1
  • pl 1
  • sp 1
  • More… Less…

Types

  • a 161
  • m 18
  • s 13
  • el 8
  • x 6
  • b 2
  • l 2
  • n 2
  • r 1
  • More… Less…