Search (40 results, page 1 of 2)

  • × language_ss:"d"
  • × theme_ss:"Datenformate"
  • × type_ss:"a"
  1. Oehlschläger, S.: Aus der 48. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 12. und 13. November 2004 in Göttingen (2005) 0.03
    0.027978268 = product of:
      0.104918495 = sum of:
        0.02794118 = weight(_text_:suchmaschine in 3556) [ClassicSimilarity], result of:
          0.02794118 = score(doc=3556,freq=2.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.15617819 = fieldWeight in 3556, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
        0.044361472 = sum of:
          0.008049765 = weight(_text_:online in 3556) [ClassicSimilarity], result of:
            0.008049765 = score(doc=3556,freq=2.0), product of:
              0.096027054 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.031640913 = queryNorm
              0.08382809 = fieldWeight in 3556, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.01953125 = fieldNorm(doc=3556)
          0.03631171 = weight(_text_:recherche in 3556) [ClassicSimilarity], result of:
            0.03631171 = score(doc=3556,freq=4.0), product of:
              0.17150146 = queryWeight, product of:
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.031640913 = queryNorm
              0.21172827 = fieldWeight in 3556, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.01953125 = fieldNorm(doc=3556)
        0.01945211 = weight(_text_:software in 3556) [ClassicSimilarity], result of:
          0.01945211 = score(doc=3556,freq=4.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.15496688 = fieldWeight in 3556, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
        0.013163733 = weight(_text_:web in 3556) [ClassicSimilarity], result of:
          0.013163733 = score(doc=3556,freq=4.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.12748088 = fieldWeight in 3556, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
      0.26666668 = coord(4/15)
    
    Content
    Enthält u.a. folgende Aussagen aus einzelnen Bibliotheken oder Verbünden: MARC21 als Austauschformat Die Expertengruppe Datenformate des Standardisierungsausschusses hat am 11. April 2005 getagt, dabei wurden die Arbeitspakete aus einem von der Arbeitsstelle für Standardisierung Der Deutschen Bibliothek vorgelegten Projektund Zeitplan in überschaubare Einheiten aufgegliedert. Ziel ist es, das bestehende MARC21 weitgehend zu übernehmen. Sollten nationale Abweichungen von MARC21 dennoch notwendig sein, so müssen diese einheitlich für alle Verbünde gelten. Bibliotheksservicezentrum Baden-Württemberg (BSZ) SWBPIus "Catalogue enrichment", die Anreicherung von Katalogdaten durch ergänzende Materialien, wie z. B. Rezensionen und Inhaltsverzeichnisse, wird als eine der wichtigsten Möglichkeiten diskutiert, die Nutzung von OPACs zu erleichtern und zu verbessern. Ganz im Trend liegt daher die Anwendung SWBplus, in der das BSZ weiterführende Texte zu Titeln in Verbund- und lokalen OPACs auflegt. Nach ca. 2.500 Dokumenten im Jahr 2003 ist der Bestand mittlerweile bei 12.300 angelangt. Mit 6.900 haben dabei die Inhaltsverzeichnisse die Rezensionen anteilsmäßig überholt. Erreicht wurde dies durch die Mitarbeit der Universitätsbibliotheken Konstanz und Heidelberg, die Inhaltsverzeichnisse scannen und an das BSZ liefern. In diese Kooperation werden nun auch die Universitätsbibliothek Mannheim, die Bibliotheken der PH Ludwigsburg und PH Freiburg sowie die Bibliothek des Bundesgerichtshofs in Karlsruhe eintreten. Vorbereitet wird zudem die Zusammenarbeit mit dem Bibliotheksverbund Bayern, so dass Inhaltsverzeichnisse auch aus Bayern in die Datenbank eingebracht und gemeinsam genutzt werden können. Fehlertolerante Suche in OPACs Gemeinsam mit der Bibliothek der Fachhochschule Konstanz und der Firma exorbyte führt das BSZ derzeit einen Test durch, in dem OPAC-Nutzer bei Unsicherheiten hinsichtlich der Schreibweise von Suchbegriffen unterstützt werden. Dazu wurde dem Horizon-WebPac der FH Konstanz die RechercheSoftware Matchmaker vorgeschaltet, die dem Nutzer neben exakten auch näherungsweise Treffer sowie Alternativen zu den Suchbegriffen anbietet. Sucht man dort nun z. B. nach "Pronnstein", so findet man dennoch unter den ersten Treffern die bekannte mathematische Formelsammlung von Ilja Bronstejn. In einer Befragung, die den Test begleitet, fanden ca. 70% der Nutzer den Einsatz dieser Technologie hilfreich und gaben an, auch die Alternativvorschläge zu nutzen. Weitere Informationen stehen unter der Adresse http://cms.bsz-bw.de/cms/entwicki/ftolsuche/ zur Verfügung. Interessenten an einem Einsatz der Software melden sich bitte beim BSZ, das die Einführung koordiniert.
    Die Deutsche Bibliothek Retrieval von Content In dem Projekt wird angestrebt, Verfahren zu entwickeln und einzuführen, die automatisch und ohne intellektuelle Bearbeitung für das Content-Retrieval ausreichend Sucheinstiege bieten. Dabei kann es sich um die Suche nach Inhalten von Volltexten, digitalen Abbildern, Audiofiles, Videofiles etc. von in Der Deutschen Bibliothek archivierten digitalen Ressourcen oder digitalen Surrogaten archivierter analoger Ressourcen (z. B. OCR-Ergebnisse) handeln. Inhalte, die in elektronischer Form vorhanden sind, aber dem InternetBenutzer Der Deutschen Bibliothek bisher nicht oder nur eingeschränkt zur Verfügung stehen, sollen in möglichst großem Umfang und mit möglichst großem Komfort nutzbar gemacht werden. Darüber hinaus sollen Inhalte benutzt werden, die für ein in ILTIS katalogisiertes Objekt beschreibenden Charakter haben, um auf das beschriebene Objekt zu verweisen. Die höchste Priorität liegt dabei auf der Erschließung von Inhalten in Textformaten. In einem ersten Schritt wurde der Volltext aller Zeitschriften, die im Projekt "Exilpresse digital" digitalisiert wurden, für eine erweiterte Suche genutzt. In einem nächsten Schritt soll die PSI-Software für die Volltextindexierung von Abstracts evaluiert werden. MILOS Mit dem Einsatz von MILOS eröffnet sich die Möglichkeit, nicht oder wenig sachlich erschlossene Bestände automatisch mit ergänzenden Inhaltserschließungsinformationen zu versehen, der Schwerpunkt liegt dabei auf der Freitext-Indexierung. Das bereits in einigen Bibliotheken eingesetzte System, das inzwischen von Der Deutschen Bibliothek für Deutschland lizenziert wurde, wurde in eine UNIX-Version überführt und angepasst. Inzwischen wurde nahezu der gesamte Bestand rückwirkend behandelt, die Daten werden im Gesamt-OPAC für die Recherche zur Verfügung stehen. Die in einer XMLStruktur abgelegten Indexeinträge werden dabei vollständig indexiert und zugänglich gemacht. Ein weiterer Entwicklungsschritt wird in dem Einsatz von MILOS im Online-Verfahren liegen.
    Hessisches BibliotheksinformationsSystem (HEBIS) Personennamendatei (PND) Vor dem Hintergrund der Harmonisierungsbestrebungen bei den Normdateien hat der HeBIS-Verbundrat nach erneuter Diskussion mehrheitlich entschieden, künftig neben SWD und GKD auch die PND als in HeBIS integrierte Normdatei obligatorisch zu nutzen. Im Zuge der wachsenden Vernetzung der regionalen Verbundsysteme kommt der Homogenität der Datensätze eine zunehmend wichtigere Bedeutung zu. Konkret wird dies speziell für HeBIS mit dem Produktionsbeginn des HeBIS-Portals und der integrierten verbundübergreifenden Fernleihe. Nur wenn die Verfasserrecherche in den einzelnen Verbunddatenbanken auf weitgehend einheitliche Datensätze einschließlich Verweisungsformen trifft, kann der Benutzer gute Trefferergebnisse erwarten und damit seine Chancen erhöhen, die gewünschte Literatur über Fernleihe bestellen zu können. Das Gesamtkonzept ist ausgelegt auf eine pragmatische und aufwandsreduzierte Vorgehensweise. Mit der Umsetzung wurde begonnen. Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (HBZ) FAST-Suchmaschine Das HBZ hat die Suchmaschinentechnologie des norwegischen Herstellers FAST lizenziert. Ziel ist es, die Produkte des HBZ mit Hilfe innovativer Suchmaschinentechnologien in einer neuen Ausrichtung zu präsentieren. Die Präsentation soll einen schnellen Recherche-Zugang zu den NRWVerbunddaten mittels FAST-Suchmaschinentechnologie mit folgenden Eigenschaften beinhalten: - Eine Web-Oberfläche, um für Laien eine schnelle Literatursuche anbieten zu können. - Eine Web-Oberfläche, um für Expertinnen und Experten eine schnelle Literatur-Suche anbieten zu können. - Präsentation von Zusatzfunktionen, die in gängigen Bibliothekskatalogen so nicht vorhanden sind. - Schaffung einer Zugriffsmöglichkeit für den KVK auf die Verbunddaten mit sehr kurzen Antwortzeiten Digitale Bibliothek Die Mehrzahl der Bibliotheken ist inzwischen auf Release 5 umgezogen. Einige befinden sich noch im Bearbeitungsstatus. Von den letzten drei Bibliotheken liegen inzwischen die Umzugsanträge vor. Durch die Umstrukturierung der RLB Koblenz zum LBZ Rheinland-Pfalz werden die Einzelsichten der RLB Koblenz, PLB Speyer und der Bipontina in Zweibrücken mit den Büchereistellen Koblenz und Neustadt zu einer Sicht verschmolzen.
  2. Paulus, W.; Weishaupt, K.: Bibliotheksdaten werden mehr wert : LibLink wertet bibliothekarische Dienstleistung auf (1996) 0.01
    0.0101937875 = product of:
      0.0764534 = sum of:
        0.055018872 = weight(_text_:software in 5228) [ClassicSimilarity], result of:
          0.055018872 = score(doc=5228,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.43831247 = fieldWeight in 5228, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.078125 = fieldNorm(doc=5228)
        0.021434534 = product of:
          0.04286907 = sum of:
            0.04286907 = weight(_text_:22 in 5228) [ClassicSimilarity], result of:
              0.04286907 = score(doc=5228,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.38690117 = fieldWeight in 5228, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5228)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Die maschinenlesbaren Katalogdaten der Bibliotheken wurden bisher hauptsächlich intern genutzt. Die im Institut Arbeit und Technik entwickelte Software LibLink ermöglich es, diese Daten auch im wissenschaftlichen Kontext zu verwenden
    Date
    29. 9.1996 18:58:22
  3. Oehlschläger, S.: Aus der 52. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 24. und 25. April 2007 in Berlin (2007) 0.01
    0.009726687 = product of:
      0.048633434 = sum of:
        0.02794118 = weight(_text_:suchmaschine in 465) [ClassicSimilarity], result of:
          0.02794118 = score(doc=465,freq=2.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.15617819 = fieldWeight in 465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
        0.011384088 = product of:
          0.022768175 = sum of:
            0.022768175 = weight(_text_:online in 465) [ClassicSimilarity], result of:
              0.022768175 = score(doc=465,freq=16.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.23710167 = fieldWeight in 465, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=465)
          0.5 = coord(1/2)
        0.009308165 = weight(_text_:web in 465) [ClassicSimilarity], result of:
          0.009308165 = score(doc=465,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.09014259 = fieldWeight in 465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
      0.2 = coord(3/15)
    
    Content
    Catalogue Enrichment Die Arbeitsgruppe Catalogue Enrichment unter Federführung des hbz hat im Berichtszeitraum nicht getagt. Der Vorsitzende der AGV berichtet, dass das Projekt insgesamt eine gute Dynamik erreicht habe. Ursprünglich war man von dem Gedanken eines Referenzservers ausgegangen. Die Idee dabei war es, einen Server aufzusetzen, an den alle angereicherten Daten geliefert werden sollten. Dabei sollte automatisch abgeglichen werden, ob irgendwo bereits Daten vorliegen. Nunmehr müsse geprüft werden, ob ein zentraler Server in dieser Form noch benötigt werde. Normdaten-Onlineschnittstelle Im Projekt Online-Normschnittstelle konnten die Hersteller-Funktionstests mit der Deutschen Nationalbibliothek mittlerweile erfolgreich abgeschlossen werden, und die Funktionstests mit den Anwendern stehen unmittelbar bevor. Nach dem entsprechend angepassten Zeitplan für die Projekte Online-Normschnittstelle und Online-Redaktionsverfahren für Normdaten ist der Beginn der "produktiven Phase", d.h. der Einsatz im Echtbetrieb der Normdatei, für das zweite Halbjahr 2007 vorgesehen. Die Zeitplanung für die Einführung ist entscheidend von den Ergebnissen der Anwendertests abhängig. Das Online-Updateverfahren (Z39,50-Update und zeitnahe Replikation Ober °Al in die Bibliotheksverbünde) soil dabeizuerst in der Personennamendatei (PND) eingesetzt werden. Füreinen Einführungszeitraum von zwei Monaten sollen Redaktionsverfahren und Teilnehmerkreis zunächst weitgehend unverändert bleiben (noch keine Einbeziehung der Katalogisierer). Der Einführungszeitraum soll dazu genutzt werden, etwaige noch nicht erkannte Funktionsschwächen zu beseitigen, die für das volle Online-Redaktionsverfahren notwendigen Formaterweiterungen und Umsetzungen vorzunehmen und in den Bibliotheksverbünden und Bibliotheken die notwendigen Geschäftsgangsänderungen zu planen und durchzuführen. Im Anschluss sollen dann für die PND der Teilnehmerkreis am Online-Kommunikationsverfahren auf alle Katalogisierer in den teilnehmenden Bibliotheksverbünden ausgeweitet und das Online-Redaktionsverfahren eingesetzt werden.
    DDC-vascoda Für den Sucheinstieg bei vascoda wird bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungsjahr) kombiniert werden kann, angeboten. Die Suche kann zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Da in vascoda die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument eingeführt ist und bereits nennenswerte Bestände mit der DDC erschlossen sind, bietet sich die Möglichkeit, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Im Berichtszeitraum wurde in der vascoda AG Betrieb und mit dem hbz als Portalbetreiber die konzeptionelle und technische Einbindung des DDC-Browsings im vascoda-Portal diskutiert und beschlossen. Die Navigation mit DDC wird ähnlich wie die Navigation über die Fachcluster auf der linken Seite der Trefferliste integriert, beim Navigieren im Baum werden synchron die passenden Ressourcen aus der Suchmaschine in der mittleren Spalte eingeblendet. Wegen hoher Arbeitsbelastung im hbz wird dieses Feature wahrscheinlich nicht Teil des vascoda-Relaunches im Juni 2007 sein, sondern erst im 2. Halbjahr 2007 integriert werden. Weiter wurde ein Angebot implementiert für Fachportale und andere Institutionen, die mit DDC erschließen, aber nicht die technischen Möglichkeiten haben, ein eigenes Browsing zu entwickeln. Das Verfahren sieht vor, dass die DNB einen Dienst anbietet, der ein HTML-Snippet mit der gewünschten Browsing-Struktur generiert (ähnlich wie MelvilSearch), die in die Oberfläche des Fachportals integriert werden kann. Der Dienst wird voraussichtlich im 2. Quartal 2007 in Betrieb genommen werden können. In Zusammenarbeit mit der SUB Göttingen wurde ein Workshop zum Thema Lizenzfragen für DDC in Bezug auf Fachportale und andere Online-Angebote abgehalten. Die Ergebnisse wurden im vascoda-Newsletter veröffentlicht.
    kim - Kompetenzzentrum Interoperable Metadaten Projektziel ist der Aufbau eines Kompetenzzentrums Interoperable Metadaten (KIM), das im deutschsprachigen Raum den Ausbau der Kompetenzen für die Themen interoperable Metadaten, Metadatenaustausch und Formate fördern soll. Strukturierte Beschreibungen (Metadaten) verschiedener Datenbestände werden als "interoperabel" bezeichnet, wenn in ihnen über einheitliche Suchverfahren recherchiert oder sie sinnvoll in die Datenverwaltung integriert werden können. Interoperabilität wird erreicht, indem man sich in kontrollierten institutionellen Zusammenhängen an technische Spezifikationen hält. Eine zentrale Aufgabe des "Kompetenzzentrum Interoperable Metadaten" als DCMI-Affiliate in Deutschland (nach Projektende im deutschsprachigen Raum mit Partnern aus Österreich und der Schweiz) besteht dabei in der Bildung einer Kernarbeitsgruppe mit weiteren spezifischen Arbeitsgruppen, die durch die Begutachtung bereits existierender Anwendungsprofile ein gemeinsames Verständnis für "good practice" in der Anwendung sowohl des Dublin-Core-Modells als auch des Semantic-Web-Modells entwickelt. Dieses Verständnis bildet die Grundlage für die Entwicklung von Zertifizierungsverfahren, Ausbildungsangeboten und Beratungsdiensten im Bereich interoperable Metadaten.
  4. Croissant, C.R.: MARC21 und die anglo-amerikanische Katalogisierungspraxis (2004) 0.01
    0.0072044744 = product of:
      0.10806711 = sum of:
        0.10806711 = sum of:
          0.08234567 = weight(_text_:analyse in 1764) [ClassicSimilarity], result of:
            0.08234567 = score(doc=1764,freq=4.0), product of:
              0.16670908 = queryWeight, product of:
                5.268782 = idf(docFreq=618, maxDocs=44218)
                0.031640913 = queryNorm
              0.49394834 = fieldWeight in 1764, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.268782 = idf(docFreq=618, maxDocs=44218)
                0.046875 = fieldNorm(doc=1764)
          0.02572144 = weight(_text_:22 in 1764) [ClassicSimilarity], result of:
            0.02572144 = score(doc=1764,freq=2.0), product of:
              0.110801086 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.031640913 = queryNorm
              0.23214069 = fieldWeight in 1764, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1764)
      0.06666667 = coord(1/15)
    
    Abstract
    Das MARC21-Datenformat wird aus der Sicht eines praktizierenden AACR2/MARC-Katalogisierers vorgeführt. Der Autor gibt zunächst eine allgemeine Einführung in das MARC21 Bibliographic Format. Der zweite Abschnitt der Arbeit ist der Erschließung von mehrteiligen bzw. mehrbändigen Werken gewidmet. Die Behandlung von mehrteiligen bzw. mehrbändigen Werken, in der AACR2-Welt "Analyse" genannt, ist nämlich der Punkt, an dem die anglo-amerikanische und die deutsche Katalogisierungspraxis am weitesten auseinandergehen. Die verschiedenen Formen der "Analyse" werden erläutert im Hinblick auf die Frage, inwiefern diese Praxen den Bedürfnissen der Benutzer gerecht werden. Auf eine kurze Behandlung der besonderen Problematik der fortlaufenden Sammelwerke folgt dann eine Einführung in das MARC21 Authorities Format für Normdatensätze. Die Rolle der verschiedenen Arten von Normdatensätzen bei der Katalogisierung wird auch besprochen. DerAufsatz schließt mit einem Kommentar über verschiedene Aspekte der Verlinkung von Datensätzen.
    Date
    13. 8.2004 21:22:06
  5. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.01
    0.0068339114 = product of:
      0.051254332 = sum of:
        0.04367608 = sum of:
          0.017999824 = weight(_text_:online in 632) [ClassicSimilarity], result of:
            0.017999824 = score(doc=632,freq=10.0), product of:
              0.096027054 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.031640913 = queryNorm
              0.18744534 = fieldWeight in 632, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.01953125 = fieldNorm(doc=632)
          0.025676252 = weight(_text_:recherche in 632) [ClassicSimilarity], result of:
            0.025676252 = score(doc=632,freq=2.0), product of:
              0.17150146 = queryWeight, product of:
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.031640913 = queryNorm
              0.14971448 = fieldWeight in 632, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.01953125 = fieldNorm(doc=632)
        0.0075782523 = product of:
          0.015156505 = sum of:
            0.015156505 = weight(_text_:22 in 632) [ClassicSimilarity], result of:
              0.015156505 = score(doc=632,freq=4.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.13679022 = fieldWeight in 632, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=632)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Content
    "Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung Matchkey Bei der Verwendung von Meta-Suchmaschinen zur parallelen Recherche in bibliografischen Datenbanken kommt es häufig vor, dass derselbe Titel mehrmals in der Trefferliste auftaucht. In dieser Situation könnte ein so genannter Matchkey Abhilfe schaffen, der jeden Datensatz aus den vorhandenen bibliografischen Daten heraus eindeutig identifiziert. Ein solcher Algorithmus geht von einem bibliografischen Datensatz aus und generiert einen Schlüssel (Matchkey), der wiederum in den Datensatz integriert werden kann. Der Schlüssel muss sortierfähig sein, so dass die Trefferliste nach dem Grad der Ähnlichkeit sortiert werden kann. Eine wichtige Voraussetzung für die erfolgreiche Anwendung des Matchkey ist die Beseitigung der Hausregeln in den Verbünden und Bibliotheken. Bisher hat Die Deutsche Bibliothek das Thema analysiert und strebt nun die Formulierung und Bereitstellung eines ersten Algorithmus an, um eine Implementierung zu Testzwecken voraussichtlich im März/April 2006 zu ermöglichen. Ein klares Ergebnis soll bis Ende 2006 vorliegen.
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum Das HBZ hat seinen am 15. November frei geschalteten Dreiländer-Katalog (Deutschland, Österreich, Schweiz) vorgestellt, dessen Ziel der Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum ist. Der Katalog entstand in Kooperation des HBZ mit dem Bibliotheksverbund Bayern (BVB) und dem Österreichischen Bibliothekenverbund (OBV); die Integration weiterer Bibliotheksbestände aus anderen Regionen ist in Arbeit. Realisiert wurde das Projekt mittels der Suchmaschinentechnologie des HBZ, die Antwortzeiten in Bruchteilen von Sekunden, Ranking und Kategorisierung der Treffermengen ermöglicht. Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben beschlossen, sich die für die Literaturversorgung relevanten Verbunddaten (Titeldaten mit Nachweisen) für den Aufbau verbundbezogener, nicht kommerzieller Dienste auf Gegenseitigkeit kostenfrei zur Verfügung zu stellen. Normdateien Online-Schnittstelle Ziel der Online-Kommunikation mit Normdateien ist es, die Arbeit mit den zentralen Normdateien dadurch zu vereinfachen, dass Änderungen an Normdaten in den zentral bei Der Deutschen Bibliothek gehaltenen Dateien mit dem eigenen Client erfolgen können. Ferner sollen alle Änderungen an den Normdateien zeitnah in die Normdaten-Spiegel der Verbundsysteme transportiert werden (Replikation). Das Verfahren soll sich auf alle bei Der Deutschen Bibliothek geführten Normdaten erstrecken. Als standardisiertes Kommunikationsprotokoll soll Z39.50 SR Extended Services Update genutzt werden. Für die Replikation ist OAI vorgesehen, als Austauschformat zunächst MAB2 bzw. MABXML. Die existierenden Implementierungen erfüllen an mehreren wichtigen Stellen nicht die Anforderungen. Eine Konversion in und aus einem neutralen Transportformat, wie für die Online-Kommunikation mit Normdateien benötigt, ist an der gegenwärtigen Pica-Schnittstelle nicht vorgesehen und lässt sich nur realisieren, wenn wesentliche Veränderungen vorgenommen werden. OCLC PICA plant, diese Veränderungen im 1. Quartal 2006 vorzunehmen. Nach der aktuellen Projektplanung soll die Online-Kommunikation zu Beginn des Jahres 2007 starten.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."
  6. Oehlschläger, S.: Aus der 50. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 24. und 25. April 2006 in Köln (2006) 0.01
    0.0059669986 = product of:
      0.044752486 = sum of:
        0.03911765 = weight(_text_:suchmaschine in 5183) [ClassicSimilarity], result of:
          0.03911765 = score(doc=5183,freq=2.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.21864946 = fieldWeight in 5183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5183)
        0.0056348355 = product of:
          0.011269671 = sum of:
            0.011269671 = weight(_text_:online in 5183) [ClassicSimilarity], result of:
              0.011269671 = score(doc=5183,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.11735933 = fieldWeight in 5183, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5183)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Content
    - - Gemeinsamer Bibliotheksverbund (GBV) / Verbundzentrale des GBV (VZG) - - - WWW-Datenbanken - - - Virtuelle Fachbibliotheken - - - Verbundkatalog Internetquellen VKI - - - Öffentliche Bibliotheken im GBV - - Hessisches BibliotheksinformationsSystem (NeBIS) / Verbundzentrale - - - HeBIS-Portal - - - PND-Projekt - - - Catalogue Enrichment - - Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (HBZ) - - - Bibliographischer Werkzeugkasten - - - DigiAuskunft - - - Suchmaschine - - - Suchmaschinentechnologie - - - Verfügbarkeitsrecherche - - - Publikationssysteme/Digital Peer Publishing (DiPP) - - Kooperativer Bibliotheksverbund Berlin-Brandenburg (KOBV) / KOBV-Zentrale - - - KOBV-Portal - - - Inbetriebnahme des neuen KOBV-Index - - - KOBV-Konsortialportal - - - OPUS- und Archivierungsdienste - - - Zeitschriftenartikel im Volltext
    - - Österreichische Bibliothekenverbund und Service Ges.m.b.H. (OBVSG) Datenlieferung an die ZDB - - - ZDB als Fremddatenquelle/Normdatei - - - Österreichische Dissertationsdatenbank/eDoc - - - Anbindung weiterer Lokalsysteme - - - Retroerfassungsprojekt - - - Homepage /"Verbundportal" - - Zeitschriftendatenbank (ZDB) - - - ZDB-OPAC - - - Integration DDB in ZDB - - - Collection Management/ Kennzeichnung von Sondersommelgebietszeitschriften in der ZDB - - - Sigelverzeichnis online/Bibliotheksdatei der ZDB
  7. Hoffmann, L.: Bericht über die 3. Sitzung des Beirats des Projekts "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" am 20.10.2003 (2003) 0.00
    0.0048913797 = product of:
      0.036685348 = sum of:
        0.026980815 = sum of:
          0.006439812 = weight(_text_:online in 2036) [ClassicSimilarity], result of:
            0.006439812 = score(doc=2036,freq=2.0), product of:
              0.096027054 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.031640913 = queryNorm
              0.067062475 = fieldWeight in 2036, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.015625 = fieldNorm(doc=2036)
          0.020541003 = weight(_text_:recherche in 2036) [ClassicSimilarity], result of:
            0.020541003 = score(doc=2036,freq=2.0), product of:
              0.17150146 = queryWeight, product of:
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.031640913 = queryNorm
              0.11977159 = fieldWeight in 2036, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.015625 = fieldNorm(doc=2036)
        0.00970453 = product of:
          0.01940906 = sum of:
            0.01940906 = weight(_text_:analyse in 2036) [ClassicSimilarity], result of:
              0.01940906 = score(doc=2036,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.11642473 = fieldWeight in 2036, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2036)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Content
    "Stand des Projekts: Die Projektbearbeiterin berichtet über die 3 1/2 Monate, die seit der zweiten Beiratssitzung im Juli vergangen sind. Nach den Abschlussarbeiten der Projektteile Regelwerks- und Formatabgleich war der Zwischenbericht an die DFG anzufertigen, der am 20.8.2003 termingemäß abgegeben wurde. Die DFG hat mitgeteilt, dass keine Bemerkungen seitens der Gutachter eingegangen sind. Danach fanden Vorarbeiten zur Untersuchung der Auswirkungen eines Umstiegs auf den OPAC und den Benutzer, zur Befragung von amerikanischen Experten sowie zur Wirtschaftlichkeitsuntersuchung statt. Befragungen von Benutzern: Eine hohe Priorität im Gesamtprojekt hat die Untersuchung der Auswirkungen eines Umstiegs auf den OPAC und den Benutzer. Dazu soll zunächst die Suchstrategie von Benutzern ermittelt werden, um dann anschließend analysieren zu können, ob diese Suchstrategie in einem AACR-MARC-basierten Katalog erfolgreicher oder weniger erfolgreich wäre. Da die zunehmende Literatur-Recherche im Internet möglicherweise das Suchverhalten in einem OPAC beeinflusst, soll zusätzlich die Suchstrategie im Internet erfragt werden. Zur Ermittlung der Suchstrategie wurde ein Fragebogen entworfen und in Der Deutschen Bibliothek getestet. Dieser Pretest wurde in vier Durchgängen vorgenommen. Nach jedem Durchgang sind Kritik und Anmerkungen der Benutzer eingebracht worden. Im letzten Durchgang konnte der Fragebogen ohne Verständnisschwierigkeiten von den Benutzern alleine ausgefüllt werden. Anhand der Deutschen Bibliotheksstatistik wurden Bibliotheken unter den Gesichtspunkten der Nutzerfrequenz und des Bestands ausgewählt und angefragt, ob sie bereit sind, den Fragebogen in ihrer Bibliothek auszulegen. Nachdem sich zehn Bibliotheken bereit erklärt hatten, wurden für die endgültige Befragung - soweit in einer Bibliothek erforderlich - einige spezielle Fragen zu Suchbegriffen an die jeweiligen Bibliotheks-OPACs angepasst, da Formulierungen und Bezeichnungen wie Person, Autor, Verfasser u. dgl. in den Bibliothekskatalogen voneinander abweichen können. In der Diskussion wird auf weitere Möglichkeiten hingewiesen, z.B. anhand von Servermitschnitten von Benutzereingaben das Benutzerverhalten zu ermitteln. Da solche Mitschnitte nur bedingt als repräsentativ gelten können und als schwer auswertbar eingeschätzt werden, wird im folgenden davon ausgegangen, dass auf Benutzerumfragen nicht verzichtet werden solle. Frühere Benutzerumfragen wurden als veraltet und nicht zielgenau betrachtet.
    Es wurde angeregt, darüber hinaus zu fragen, wie die Aussichten sind, dass im Rahmen der Umsetzung der Functional Requirements in das MARCFormat Verknüpfungsstrukturen eingeführt werden könnten. Stand der Wirtschaftlichkeitsuntersuchung (Präsentation durch die Firma Kienbaum): Den Stand und das weitere Vorgehen der Wirtschaftlichkeitsuntersuchung haben Vertreter der Firma Kienbaum vorgestellt. Nach der Phase der Exploration hat die Phase der Kostenermittlung begonnen. In einem Workshop, zu dem Vertreter der DBV-Sektionen, der Arbeitsgemeinschaft der Verbundsysteme, der ekz, der nicht im DBV organisierten Spezialbibliotheken sowie der österreichischen Bibliotheken eingeladen worden sind, wurden gemeinsam Katalogisierungsprozesse definiert, die von einem Umstieg betroffen sein werden. In einem zweiten Schritt wurden diese Katalogisierungsprozesse nach Bibliothekstypen auf ihre Relevanz bewertet. Die so festgelegten Schätzwerte werden in einzelnen typischen Bibliotheken stichprobenartig konkretisiert und präzisiert. Dazu haben die DBV-Vorsitzenden Bibliotheken benannt, in denen vor Ort Kennzahlen ermittelt werden. Die Wirtschaftlichkeitsbetrachtung geht von folgenden Grundannahmen aus: Verzicht auf Hierarchien und Übernahme der AACR-Ansetzungen. Da es keine Entscheidung darüber gibt, ob bei einem Umstieg die Linkingfelder des MARC-Formats für Verknüpfungen genutzt werden und welche Ansetzungssprache anstelle von Englisch gewählt wird, werden diese Möglichkeiten als Varianten in einer Chancen-Risiko-Berechnung betrachtet. In der folgenden Diskussion wird u.a. hinsichtlich der Befragung einzelner Bibliotheken durch die Firma Kienbaum die Frage angesprochen, was passiert, wenn einzelne Bibliotheken keine konkreten Kennzahlen zur weiteren Berechnung vorlegen können. In diesen Fällen wird Kienbaum weitere Bibliotheken ansprechen. Wenn das auch nicht zum Erfolg führt, wird versucht, aus der Literatur zu nutzbaren Werten zu kommen. Falls erforderlich werden Annahmen mit einer Risikoabschätzung getroffen. Die Firma Kienbaum geht in der Wirtschaftlichkeitsberechnung davon aus, dass ein Umstieg im Zusammenhang mit einer ohnehin fälligen Systemumstellung erfolgt. Es wird diskutiert, ob diese Grundannahme durchgehend vorausgesetzt werden oder ob es nicht andere Zwänge zum Umstieg oder Nichtumstieg geben kann. Auf den Hinweis, dass die Berechnung des Ist-Standes auch Teil der Wirtschaftlichkeitsberechnung sein soll, stellt die Firma Kienbaum dar, dass die Analyse des Ist-Standes den größten Teil der Wirtschaftlichkeitsberechnung ausmacht. Die Berechnung der Kosten nach einem Umstieg geschieht mittels einer Differenzbetrachtung. Der Entwurf einer Erklärung des Beirats, den Herr Eversberg auf der zweiten Beiratssitzung als Tischvorlage verteilt hat und der dort nicht mehr besprochen werden konnte, wird diskutiert. Herr Eversberg schlägt in dem Papier vor, dass der Beirat die in der Vergangenheit aufgetretenen Missverständnisse zum Anlass nimmt, eine Erklärung abzugeben, die in einem Überblick die derzeitigen Aktivitäten der Standardisierungsarbeit darstellt und den Willen zum Konsens der daran Beteiligten betont. Es wird überlegt, wieweit der Beirat das geeignete Gremium für eine generelle Erklärung ist, die über den Betrachtungsumfang des Projekts hinausgeht. Als Ergebnis der Diskussion ist man sich aber einig, dass der Beirat durchaus die Umstiegsfrage in einen umfassenden Zusammenhang der Standardisierungsarbeit positionieren sollte. Die Erklärung soll gemeinsam mit dem ohnehin geplanten Bericht über die Beiratssitzung in geeigneter Weise veröffentlicht werden.
    Projekt "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" Erklärung des Beirats: Der Beirat des DFG-Projekts "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" hat die Notwendigkeit erkannt, seine Arbeit sowie das Projekt in einen umfassenden Zusammenhang mit anderen laufenden Aktivitäten der Standardisierungsarbeit zu stellen. Nicht erst das Internet hat Bibliotheken dazu veranlasst, sich um internationale Zusammenarbeit zu bemühen. Besonders auf dem Gebiet der Katalogisierung wurde schon lange vor der Einführung der elektronischen Datenverarbeitung an Konzepten und Normen gearbeitet, die den grenzüberschreitenden Datenaustausch erleichtern sollen. Gegenwärtig wird unter dem weltweiten Dach der IFLA verstärkt nach Wegen gesucht, zu einem internationalen Katalogregelwerk zu gelangen. Dabei ist sowohl der Tatsache Rechnung zu tragen, dass elektronische Medien in Bibliothekskatalogen in geeigneter Weise nachgewiesen werden, als auch der Tatsache, dass Online-Kataloge Benutzern ganz neue Zugriffsmöglichkeiten eröffnen. Zu den Schritten, die zur Zeit in Deutschland unternommen werden, gehören vor allem fünf Aktionsfelder: - Aktive Mitarbeit Der Deutschen Bibliothek bzw. der deutschen Vertreter in den betreffenden IFLA-Sektionen bei der internationalen Standardisierungsarbeit. - Durchführung des DFG-Projekts "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" bei Der Deutschen Bibliothek im Auftrag des Standardisierungsausschusses, in dem die Rahmenbedingungen und Konsequenzen eines Umstiegs untersucht werden. - Weiterentwicklung der RAK in Zusammenarbeit mit den Expertengruppen des Standardisierungsausschusses in Angleichung an internationale Regelwerke und unter Berücksichtigung der Projektergebnisse. - Zusammenarbeit Der Deutschen Bibliothek mit der Library of Congress und dem OCLC mit dem Ziel, zu verteilten, internationalen Normdateien zu gelangen (Projekt VIAF), die von möglichst vielen Einrichtungen gespeist und genutzt werden. Dies führt nicht nur zu effektiverer Normierungsarbeit, sondern erleichtert auch die weltweite und katalogübergreifende Suche des Benutzers. - Optimierung von Verfahren für die Datenkonversion, der Zusammenführung unterschiedlich strukturierter Daten und des Austauschs vorhandener Daten. Alle für die verschiedenen Aktivitäten Verantwortlichen werden zustimmen, dass breiter Konsens erreicht werden muss, weil nur so vor dem Hintergrund der föderalen Struktur mit verteilten Zuständigkeiten nachhaltige Erfolge erzielt werden können."
  8. Krischker, U.: Formale Analyse (Erfassung) von Dokumenten (1990) 0.00
    0.004482331 = product of:
      0.06723496 = sum of:
        0.06723496 = product of:
          0.13446993 = sum of:
            0.13446993 = weight(_text_:analyse in 1535) [ClassicSimilarity], result of:
              0.13446993 = score(doc=1535,freq=6.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.8066143 = fieldWeight in 1535, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1535)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Die formale Analyse von Dokumenten ist komplex und vielschichtig. Um sie beschreiben zu können, muß sie unter verschiedenen Gesichtspunkten betrachtet werden. Zu untersuchen ist, welchen Zweck die formale Analyse erfüllen soll, wem sie nützt und wer sie durchführt, welche Methoden zur Verfügung stehen, welche technischen Hilfsmittel eingesetzt werden können bzw. welche Verfahren es beim Einsatz von Datenverarbeitungsanlagen gibt.
  9. Krischker, U.: Formale Analyse von Dokumenten (1997) 0.00
    0.004339998 = product of:
      0.06509997 = sum of:
        0.06509997 = product of:
          0.13019994 = sum of:
            0.13019994 = weight(_text_:analyse in 3925) [ClassicSimilarity], result of:
              0.13019994 = score(doc=3925,freq=10.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.78100085 = fieldWeight in 3925, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3925)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Die formale Analyse von Dokumenten ist seit alters her eine der Hauptaufgaben der Bibliotheken und Archive, in neuerer Zeit auch der Dokumentationsstellen. Die gesammelten und ausgewerteten Dokumente müssen identifizierbar und wieder auffindbar sein. Die formale Analyse bietet die Möglichkeit, die formalen Charakteristika von Dokumenten zu beschreiben. Damit können die Dokumente unter mehreren, aber immer den formal gleichen Such- und Ordnungsmerkmalen in Katalogen, Datenbanken, Bibliographien o.ä. nachgewiesen werden. Hierzu werden nach festgelegten Regeln die verschiedenen formalen Charakteristika zu "Auswertungselementen" zusammengefaßt, die jeweils eine sinnvoll nicht weiter zu unterteilende Klasse zusammengehöriger Charakteristika bilden (z.B. ist ein Datum, bestehend aus Tag, Monat, Jahr nicht weiter zu unterteilen und bildet deshalb ein Auswertungselement). Alle bei der formalen Analyse ermittelten Auswertungselemente für die Beschreibung eines Dokumentes werden in festgelegter Form und Reihenfolge niedergeschrieben. Aus der vollständigen Menge von Auswertungselementen wird nur ein bestimmter Teil als Ordnungs- oder Suchmerkmale ausgewählt. Das Ergebnis der formalen Analyse wird gemeinhin "Titelaufnahme" oder "Fundstelle" oder "Zitat" genannt.
  10. Ungváry, R.; Király, P.: Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen (2021) 0.00
    0.0036598078 = product of:
      0.054897115 = sum of:
        0.054897115 = product of:
          0.10979423 = sum of:
            0.10979423 = weight(_text_:analyse in 371) [ClassicSimilarity], result of:
              0.10979423 = score(doc=371,freq=4.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.65859777 = fieldWeight in 371, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.0625 = fieldNorm(doc=371)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Király (2019a) beschreibt eine neuartige Methodologie der systematischen Analyse der Bewertung der Qualität von MARC-21-Datensätzen. In seiner Forschungsarbeit untersucht er die Gesamtkataloge von 16 wichtigen Nationalund Forschungsbibliotheken. Die Ergebnisse beleuchten einige typische Probleme und liefern hilfreiche Messgrößen für das Verständnis von qualitätsentscheidenden Strukturmerkmalen eines Katalogs. In dieser weiterführenden Studie wollen wir eine tiefergehende Analyse einer kleineren Menge von Katalogen durchführen.
  11. Nolte, A.: Zeit des Abschieds : Nach der Mark gehen nun auch RAK und MAB. Standardisierungsausschuss beschließt Umstieg auf MARC und AACR (2002) 0.00
    0.0029343402 = product of:
      0.0440151 = sum of:
        0.0440151 = weight(_text_:software in 573) [ClassicSimilarity], result of:
          0.0440151 = score(doc=573,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.35064998 = fieldWeight in 573, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0625 = fieldNorm(doc=573)
      0.06666667 = coord(1/15)
    
    Content
    Kritischer Beitrag zu den Beschlüssen des Standardierungsausschusses und den möglichen Konsequenzen für die Öffentlichen Bibliotheken: "Der Aufwand wird gewaltig: Umstellung der Kataloge, Umstellung der Software, Umstellung der Datenbanken Umschulung des Personals - da werden die Öffentlichen Bibliotheken so manche Millionen freischaufeln dürfen - wie gesagt, für null Nutzen."
  12. Krauch, S.: Bibliographische Datenformate (1994) 0.00
    0.0027388006 = product of:
      0.041082006 = sum of:
        0.041082006 = product of:
          0.08216401 = sum of:
            0.08216401 = weight(_text_:recherche in 3034) [ClassicSimilarity], result of:
              0.08216401 = score(doc=3034,freq=2.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.47908637 = fieldWeight in 3034, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3034)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Datenformate dienen als Grundlage für die Strukturierung von bibliographischen Daten in EDV-Systemen. Ihr Einfluß auf wesentliche Funktionen wie Recherche, Anzeige und Ausgabe wird häufig unterschätzt und insbesondere bei der Auswahl eines EDV-Systems nicht genügend berücksichtigt. Der hier vorliegende, aus 2 Teilen bestehende Beitrag will dise Zusammenhänge erläutern und ihre Problematik diskutieren
  13. Boiger, W.: Entwicklung und Implementierung eines MARC21-MARCXML-Konverters in der Programmiersprache Perl (2015) 0.00
    0.0025936149 = product of:
      0.03890422 = sum of:
        0.03890422 = weight(_text_:software in 2466) [ClassicSimilarity], result of:
          0.03890422 = score(doc=2466,freq=4.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.30993375 = fieldWeight in 2466, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2466)
      0.06666667 = coord(1/15)
    
    Abstract
    Aktuell befinden sich im Datenbestand des gemeinsamen Katalogs des Bibliotheksverbundes Bayern und des Kooperativen Bibliotheksverbundes Berlin-Brandenburg (B3Kat) etwa 25,6 Millionen Titeldatensätze. Die Bayerische Verbundzentrale veröffentlicht diese Daten seit 2011 im Zuge der bayerischen Open-Data-Initiative auf ihrer Webpräsenz. Zu den Nachnutzern dieser Daten gehören die Deutsche Digitale Bibliothek und das Projekt Culturegraph der DNB. Die Daten werden im weitverbreiteten Katalogdatenformat MARCXML publiziert. Zur Erzeugung der XML-Dateien verwendete die Verbundzentrale bis 2014 die Windows-Software MarcEdit. Anfang 2015 entwickelte der Verfasser im Rahmen der bayerischen Referendarsausbildung einen einfachen MARC-21-MARCXML-Konverter in Perl, der die Konvertierung wesentlich erleichert und den Einsatz von MarcEdit in der Verbundzentrale überflüssig macht. In der vorliegenden Arbeit, die zusammen mit dem Konverter verfasst wurde, wird zunächst die Notwendigkeit einer Perl-Implementierung motiviert. Im Anschluss werden die bibliographischen Datenformate MARC 21 und MARCXML beleuchtet und für die Konvertierung wesentliche Eigenschaften erläutert. Zum Schluss wird der Aufbau des Konverters im Detail beschrieben. Die Perl-Implementierung selbst ist Teil der Arbeit. Verwendung, Verbreitung und Veränderung der Software sind unter den Bedingungen der GNU Affero General Public License gestattet, entweder gemäß Version 3 der Lizenz oder (nach Ihrer Option) jeder späteren Version.[Sie finden die Datei mit der Perl-Implementierung in der rechten Spalte in der Kategorie Artikelwerkzeuge unter dem Punkt Zusatzdateien.]
  14. Neuböck, I.: Deutscher Bibliothekartag Leipzig 2007 : Standardisierungsausschuss (2007) 0.00
    0.0021332875 = product of:
      0.015999656 = sum of:
        0.004829859 = product of:
          0.009659718 = sum of:
            0.009659718 = weight(_text_:online in 414) [ClassicSimilarity], result of:
              0.009659718 = score(doc=414,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.100593716 = fieldWeight in 414, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=414)
          0.5 = coord(1/2)
        0.011169797 = weight(_text_:web in 414) [ClassicSimilarity], result of:
          0.011169797 = score(doc=414,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.108171105 = fieldWeight in 414, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0234375 = fieldNorm(doc=414)
      0.13333334 = coord(2/15)
    
    Content
    In weiterer Folge berichtet sie über die Stellungnahmen zu Part 1 - hier werden keine Hindernisse für eine Umsetzung gesehen. Bei Chapter 6-7 wurde festgehalten, dass die Angaben für Verweisungen zu allgemein gehalten wären und Verbünde schwer mit Kann-Bestimmungen umgehen könnten. Eine Begrenzung auf drei Autoren sei außerdem nicht mehr zeitgemäß. Die RDA-Deutsch soll wie folgt aussehen: - modularer Aufbau - Web-Produkt - Regeln für formale und inhaltliche Erschließung - verbundübergreifende Anwendungsrichtlinien Als vierte Vortragende gab Frau Christine Hengel einen Bericht zu den "Neuen Wegen" der Normdaten. Basis für die RDA ist ein konzeptionelles Modell für Normdaten, das von der IFLA-Arbeitsgruppe FRANAR erarbeitet wird. Dieses soll 2007 abgeschlossen sein. - Es wird gemeinsame Regeln für die Ansetzung von Personen und Körperschaften geben - sie beschäftigen sich mit: Normieren, Identifizieren, Anreichern, Sucheinstiegen. - Die neuen Regeln für die Ansetzung von Personen in den PND und SWD werden in die RDA einfließen - Es soll zu einer einheitliche Anwendung von kompatiblen Datenmodellen für die Bereiche Bibliotheken, Archive, Dokumentationen und Museen kommen - Forderung einer Online-Kommunikation mit Normdaten: dazu muss sich der Teilnehmerkreis von den Redaktionen bis hin zum Katalog stark erweitern. Das neue Redaktionsverfahren soll ab Mitte 2007 für die PND zum Einsatz kommen. Im Anschluss daran für die GKD. In der zweiten Hälfte des Jahres 2007 ist der Umstieg auf MARC21 geplant. Insgesamt war die Veranstaltung zu Recht schwach besucht; es gab wenig Neues, kaum Überraschendes und daher auch keine wirklich anregende Diskussion."
  15. Geißelmann, F.: Arbeitsergebnisse der Arbeitsgruppe Codes (2000) 0.00
    0.0020005566 = product of:
      0.030008348 = sum of:
        0.030008348 = product of:
          0.060016695 = sum of:
            0.060016695 = weight(_text_:22 in 4973) [ClassicSimilarity], result of:
              0.060016695 = score(doc=4973,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.5416616 = fieldWeight in 4973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4973)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Date
    26. 8.2000 19:22:35
  16. Weber, R.: "Functional requirements for bibliographic records" und Regelwerksentwicklung (2001) 0.00
    0.0020005566 = product of:
      0.030008348 = sum of:
        0.030008348 = product of:
          0.060016695 = sum of:
            0.060016695 = weight(_text_:22 in 6838) [ClassicSimilarity], result of:
              0.060016695 = score(doc=6838,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.5416616 = fieldWeight in 6838, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6838)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Source
    Dialog mit Bibliotheken. 13(2001) H.3, S.20-22
  17. Lobeck, M.A.: Zur Standardisierung von Daten-Feldern und -Inhalten : Überlegungen und Aktivitäten von Normenorganisationen (1987) 0.00
    0.001821454 = product of:
      0.02732181 = sum of:
        0.02732181 = product of:
          0.05464362 = sum of:
            0.05464362 = weight(_text_:online in 256) [ClassicSimilarity], result of:
              0.05464362 = score(doc=256,freq=4.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.569044 = fieldWeight in 256, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.09375 = fieldNorm(doc=256)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Source
    9. Online-Frühjahrstagung der Online-Benutzergruppe der DGD, Frankfurt am Main, 12.-14.5.1987: Vorträge
  18. Oehlschläger, S.: Arbeitsgemeinschaft der Verbundsysteme : Aus der 46. Sitzung am 21. und 22. April 2004 im Bibliotheksservice-Zentrum Baden-Württemberg in Konstanz (2004) 0.00
    0.0017515897 = product of:
      0.013136922 = sum of:
        0.0056348355 = product of:
          0.011269671 = sum of:
            0.011269671 = weight(_text_:online in 2434) [ClassicSimilarity], result of:
              0.011269671 = score(doc=2434,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.11735933 = fieldWeight in 2434, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2434)
          0.5 = coord(1/2)
        0.007502087 = product of:
          0.015004174 = sum of:
            0.015004174 = weight(_text_:22 in 2434) [ClassicSimilarity], result of:
              0.015004174 = score(doc=2434,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.1354154 = fieldWeight in 2434, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2434)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Content
    "Die verbundübergreifende Fernleihe für Monografien steht kurz vor ihrer flächendeckenden Einführung. Voraussetzung hierfür ist ein funktionierendes Online-Fernleih-System in jedem Verbund. Dies ist prototypisch realisiert. Die Arbeitsgemeinschaft der Verbundsysteme geht davon aus, dass ab dem 1. Januar 2005 der Echtbetrieb aufgenommen werden kann und die Leistungen nach der neuen Leihverkehrsordnung abgerechnet werden können. Zur Klärung von Detailfragen trifft sich im Juni die Arbeitsgruppe Verbundübergreifende Fernleihe. Bereits in der letzten Sitzung wurde festgelegt, dass die jeweiligen Bibliotheken über die Festlegung des Leitwegs entscheiden sollen, und die Verbundzentralen nur dann eingreifen werden, wenn Probleme entstehen sollten. Die individuelle Leitwegsteuerung, sowohl innerhalb des Verbundes als auch bei der Festlegung der Reihenfolge der anzugehenden Verbünde hat in einigen Verbünden hohe Priorität. Traditionell gewachsene Beziehungen müssen von den Bestellsystemen abgebildet werden können. Eine lokale Zusammenarbeit wird auch über Verbundgrenzen hinaus möglich sein. Im Hinblick auf die Verrechnung verbundübergreifender Fernleihen haben sich die Verbünde auf einen einheitlichen Verrechnungszeitraum geeinigt. Voraussetzung ist außerdem, dass die Unterhaltsträger die notwendigen Rahmenbedingungen für die Abrechnung schaffen und die neue Leihverkehrsordnung in allen Bundesländern rechtzeitig in Kraft gesetzt wird."
  19. Oeltjen, W.: Dokumentenstrukturen manipulieren und visualisieren : über das Arbeiten mit der logischen Struktur (1998) 0.00
    0.0017375242 = product of:
      0.026062861 = sum of:
        0.026062861 = weight(_text_:web in 6616) [ClassicSimilarity], result of:
          0.026062861 = score(doc=6616,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.25239927 = fieldWeight in 6616, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6616)
      0.06666667 = coord(1/15)
    
    Abstract
    Thema dieses Beitrages sind Dokumentenstrukturen und zwar aus zwei Blickrichtungen: aus der Sicht der Autoren, die ein Dokument mit Computerunterstützung erstellen und die Dokumentenstruktur manipulieren und aus der Sicht der Lesenden, die ein Dokument lesen und die Struktur des Dokumentes wahrnehmen. Bei der Dokumentenstruktur wird unterschieden zwischen der logischen Struktur und der grafischen Struktur eines Dokumentes. Diese Trennung ermöglicht das Manipulieren und Visualisieren der logischen Struktur. Welche Bedeutung das für die Autoren und für die Benutzenden des Dokumentes hat, soll in dem Beitrag u.a. am Beispiel der Auszeichnungssprache HTML, der Dokumentenbeschreibungssprache des World-Wide Web, erörtert werden
  20. Hoffmann, L.: Bericht über die Konstituierende Sitzung des Beirats für das Projekt "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" am 3. Februar 2003 (2003) 0.00
    0.0017232583 = product of:
      0.0129244365 = sum of:
        0.003219906 = product of:
          0.006439812 = sum of:
            0.006439812 = weight(_text_:online in 1789) [ClassicSimilarity], result of:
              0.006439812 = score(doc=1789,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.067062475 = fieldWeight in 1789, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1789)
          0.5 = coord(1/2)
        0.00970453 = product of:
          0.01940906 = sum of:
            0.01940906 = weight(_text_:analyse in 1789) [ClassicSimilarity], result of:
              0.01940906 = score(doc=1789,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.11642473 = fieldWeight in 1789, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1789)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Content
    Ein umfangreicher Fragebogen wurde entwickelt, der unter anderem verlässliche Daten zu folgenden Fragestellungen ermitteln soll: - Welche Bibliothekssysteme sind im Einsatz? - Welche Bibliothekssysteme sind auf MARC konfigurierbar? - Wie groß ist der Datenbestand insgesamt? - Wie hoch ist der Fremddatenanteil? - Welche Fremddaten werden genutzt? - In welchen Formaten und Regelwerken liegen diese Fremddaten vor? Werden die genutzten Fremddaten unverändert übernommen? - Wenn sie geändert werden, geschieht dies maschinell oder manuell? - Werden Dublettenprüfungen eingesetzt? Dieser Fragebogen wurde als Online-Fragebogen konzipiert und über die Vorsitzenden der Sektionen des Deutschen Bibliotheksverbandes verschickt. Gleichzeitig wurden Fragestellungen für die Expertengruppen des Standardisierungsausschusses (Expertengruppen Formalerschließung, PND, GKD sowie MAB-Ausschuss) entwickelt. Spezielle Fragen, die die Besonderheiten der fortlaufenden Sammelwerke und Zeitschriften betreffen, wurden an die Zeitschriftendatenbank (ZDB) und die Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB (AGDBT) gestellt. Gleichzeitig wurden diese Fragen auch externen Experten vorgelegt. Zu diesen Untersuchungsgegenständen gehören unter anderem: Vergleich von RAK und AACR unter folgenden Aspekten: - Ansetzung von persönlichen Namen - Individualisierung von Personennamen - Ansetzung von Gebietskörperschaften und Kongressen - Split entries bei fortlaufenden Sammelwerken - Transliterationen Vergleich von MAB und MARC unter folgenden Aspekten - Darstellung der Mehrbändigkeit - Darstellung der Nichtsortierzeichen - Verwendung von Pflichtcodes und Pflichtfeldern Der Vergleich beschränkt sich schwerpunktmäßig auf diejenigen Aspekte, die mit großer Wahrscheinlichkeit bei einer Migration zu Konflikten führen werden. Die Ergebnisse des Vergleichs werden auf ihre Konsequenzen untersucht und zwar jeweils auf die verschiedenen Migrationsszenarien bezogen. Für die Errechnung der Kosten eines Umstiegs wird sich das Projekt eines externen Unternehmensberaters bedienen. Dabei geht es nicht nur um die Kosten einer Neuanschaffung bzw. der Umrüstung eines EDV-Systems. Die Kosten werden differenziert je nach Migrationsmodell errechnet. Darüber hinaus werden Folgekosten wie Anpassungen von Schnittstellen an das MARCFormat sowie die Fortbildung von Mitarbeitern kalkuliert. Es werden aber auch die Kosten errechnet, die bei einem "Nicht"-Umstieg entstehen. Dazu gehören die Kosten, die entstehen, wenn ein neues SoftwareSystem bei seiner Installierung auf MAB aufgerüstet werden muss. Hier werden Kalkulationen über entgangene Fremddatennutzung, entgangene Kooperationen, Kosten für Anpassungen von MARC-Daten an das MAB-Format u.dgl. aufgestellt. Dabei wird nicht nur der internationale Datentausch betrachtet, sondern auch der Datentausch zwischen MAB-Datenbanken. Für die Untersuchung betriebwirtschaftlicher Aspekte im Hinblick auf die Finanzierung eines Umstiegs oder der verschiedenen Umstiegsvarianten sowie des Verbleibs bei den bisherigen Systemen sind erste Kontakte mit Experten auf dem Gebiet der Kostenrechnung im Bibliothekswesen aufgenommen worden. Es haben außerdem Vorgespräche in Der Deutschen Bibliothek für den formalen Ablauf einer-Ausschreibung sowohl im Inland wie auch in den USA stattgefunden. Der Beirat regte an, den Projektplan stärker in Abhängigkeit von den Umstiegsszenarien zu systematisieren und hat eine stärkere Einbeziehung der Nutzersicht und der Konsequenzen eines Umstiegs für Fernleihe, Dokumentlieferung und OPAC empfohlen. Insbesondere die Anliegen der wissenschaftlichen Nutzer aus der Sicht der DFG und die Bedeutung des internationalen Informationsaustauschs sollen stärker akzentuiert werden. Abschließend wurden die nächsten Schritte von Frau Hoffmann skizziert:
    In den nächsten Wochen werden der Rücklauf der Fragebögen aus den Bibliotheken sowie die Ergebnisse der Untersuchungen aus den Expertengruppen erwartet. Für die Besprechung und Analyse der Ergebnisse der Expertengruppen werden jeweils eigene Sitzungen der Expertengruppen stattfinden. Gleichzeitig wird für das Ausschreibungsverfahren zur Wirtschaftlichkeitsberechnung ein Leistungsverzeichnis entworfen. Die Ergebnisse der Befragungen einschließlich der vom Projekt vorgenommen Auswertung werden Gegenstand der nächsten Beiratssitzung am 7. Juli 2003 sein. Der Beirat begrüßt eine intensive Öffentlichkeitsarbeit während der Laufzeit des Projekts. Über das Projekt und seine Fortschritte wird regelmäßig in der Fachöffentlichkeit berichtet. Aktuelle Informationen werden auf der Homepage Der Deutschen Bibliothek und über Mailinglisten veröffentlicht. Darüber hinaus wird über das Projekt auch in Vorträgen auf Veranstaltungen informiert.