Search (71 results, page 1 of 4)

  • × theme_ss:"Datenformate"
  • × year_i:[2000 TO 2010}
  1. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.03
    0.025892043 = product of:
      0.12946022 = sum of:
        0.03456018 = weight(_text_:web in 3742) [ClassicSimilarity], result of:
          0.03456018 = score(doc=3742,freq=6.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.3122631 = fieldWeight in 3742, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3742)
        0.09490003 = weight(_text_:daten in 3742) [ClassicSimilarity], result of:
          0.09490003 = score(doc=3742,freq=10.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.58793324 = fieldWeight in 3742, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3742)
      0.2 = coord(2/10)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  2. DFG und Mellon-Foundation fördern internationalen Datenaustausch (2006) 0.03
    0.025844304 = product of:
      0.12922151 = sum of:
        0.04434036 = weight(_text_:forschung in 5070) [ClassicSimilarity], result of:
          0.04434036 = score(doc=5070,freq=2.0), product of:
            0.16498606 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03391332 = queryNorm
            0.26875216 = fieldWeight in 5070, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5070)
        0.08488116 = weight(_text_:daten in 5070) [ClassicSimilarity], result of:
          0.08488116 = score(doc=5070,freq=8.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.52586347 = fieldWeight in 5070, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5070)
      0.2 = coord(2/10)
    
    Abstract
    Die Deutsche Forschungsgemeinschaft (DFG) und die Andrew W. Mellon Foundation unterstützen die Einführung des international gebräuchlichen Datenaustauschformats MARC 21 im deutschsprachigen Bibliothekswesen. Der Daten- und Informationsaustausch zwischen den Bibliotheken der deutschsprachigen Länder und denen der übrigen Welt wird dadurch wesentlich erleichtert.
    Content
    "Der aktuelle Speicherort einer Publikation verliert angesichts der steigenden Zahl an digital vorliegenden und über das World Wide Weh verfügbaren Publikationen seine Bedeutung. Entscheidend für die Forschung sind Aufindbarkeit und schnelle Nutzungsmöglichkeit der Informationen. Global zu arbeiten, Daten, Informationen und Texte zu tauschen ist zur täglichen Routine für Wissenschaftler und Bibliothekare geworden. Deutschsprachige und ausländische Bibliotheken verwenden derzeit noch unterschiedliche Standards bei der Speicherung und dem Austausch von Katalogdaten. Die von der Deutschen Forschungsgemeinschaft und der Andrew W. Mellon Foundation geförderten Projekte verfolgen das Ziel, die Daten deutschsprachiger Bibliotheken weltweit sichtbar zu machen. Das Interesse von Wissenschaftlern ist nicht auf ihre jeweilige eigene nationale und kulturelle Umgebung beschränkt. Sie benötigen Informationen über Dokumente und Daten aus der ganzen Welt. Gleichzeitig wollen sie die eigenen Forschungsergebnisse in der internationalen Forschungsgemeinschaft zur Diskussion stellen. Sprachraumübergreifende Standards für Metadaten und deren reibungsloser gegenseitiger Austausch sind Voraussetzung für die wissenschaftliche Kommunikation und für den individuellen Erfolg des einzelnen Forschers. Die Deutsche Bibliothek pflegt seit vielen Jahren Kooperationsbeziehungen auf nationaler und internationaler Ebene. Dazu gehören die Entwicklung und Anwendung von gemeinsamen Regeln und Standards sowie Produktion und Vertrieb von bibliografischen Dienstleistungen und die Pflege kooperativ geführter Datenbanken, insbesondere für Normdaten. Einen weiteren Schwerpunkt bilden Entwicklung und Anwendung moderner Technologien für die Langzeitarchivierung der Bestände im Rahmen internationaler Kooperationen, unabhängig davon, ob die Publikationen auf Papier, Mikrofilm oder digital vorliegen."
  3. Burd, B.: Java und XML für Dummies (2003) 0.02
    0.021177197 = product of:
      0.10588598 = sum of:
        0.033861924 = weight(_text_:web in 1694) [ClassicSimilarity], result of:
          0.033861924 = score(doc=1694,freq=4.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.3059541 = fieldWeight in 1694, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=1694)
        0.072024055 = weight(_text_:daten in 1694) [ClassicSimilarity], result of:
          0.072024055 = score(doc=1694,freq=4.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.44620997 = fieldWeight in 1694, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=1694)
      0.2 = coord(2/10)
    
    Abstract
    Barry Budd erklärt, wie XML in Verbindung mit Java optimal funktionieren und Daten zwischen Anwendungen transferieren kann. Das Buch ist nicht nur für Anfänger interessant. Insbesondere Javabewanderte Web-Entwickler finden hier einen geradlinigen und lockeren Einstieg in die Zusammenarbeit von Java und XML. Die ersten 30 Seiten widmen sich der Programmiertheorie, der Installation von Java und den zusätzlich nötigen XMLrelevanten Klassen. Im zweiten Teil erfährt der Leser alles über die lineare Untersuchung von XML-Dateien und die Programmierung mit SAX. Es folgt der holistische Ansatz mit DOM und dessen Java-optimierter, eleganterer Alternative JDOM. XSL, die Anzeige von XML-Daten im Web und Java API for XML-Binding (JAXB) mit der man aus XML-Dokumenten maßgeschneiderte Java-Klassen dateien erstellen kann. Teil drei zeigt Spezialwerkzeuge für Webservices Soap, UDDI, WSDL, Java API for XML Messaging (JAXM) und die Arbeit mit XML-Registraren. Zu den Techniken erfährt der Leser sinnvolle Einsatzszenarien. Der Autor verdeutlicht die Theorie mit Code-Beispielen, die in Teilen für eigene Projekte verwendbar sind.
  4. Helmkamp, K.; Oehlschläger, S.: Standardisierung : Ein Meilenstein auf dem Weg zur Internationalisierung; Im Jahr 2007 erfolgt der Umstieg auf MARC 21 (2006) 0.02
    0.018647062 = product of:
      0.06215687 = sum of:
        0.0099766655 = weight(_text_:web in 65) [ClassicSimilarity], result of:
          0.0099766655 = score(doc=65,freq=2.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.09014259 = fieldWeight in 65, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
        0.02217018 = weight(_text_:forschung in 65) [ClassicSimilarity], result of:
          0.02217018 = score(doc=65,freq=2.0), product of:
            0.16498606 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03391332 = queryNorm
            0.13437608 = fieldWeight in 65, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
        0.030010024 = weight(_text_:daten in 65) [ClassicSimilarity], result of:
          0.030010024 = score(doc=65,freq=4.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.18592082 = fieldWeight in 65, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
      0.3 = coord(3/10)
    
    Content
    "Mit der steigenden Zahl von digitalen und digitalisierten Dokumenten, die im World Wide Web zur Verfügung stehen, verliert der aktuelle Speicherort einer Publikation seine Bedeutung. Entscheidend für die Forschung sind vielmehr Auffindbarkeit und schnelle Nutzungsmöglichkeit von Informationen. Global in elektronischen Umgebungen zu arbeiten, Daten, Informationen, Texte zu tauschen und zu mischen, ist zur täglichen Routine für Wissenschaftler und Bibliothekare geworden. Das Interesse von Wissenschaftlern ist nicht auf ihre jeweilige eigene nationale und kulturelle Umgebung beschränkt. Sie benötigen Informationen über Dokumente und Daten aus der ganzen Welt. Gleichzeitig wollen sie die eigenen Forschungsergebnisse in der internationalen Forschungsgemeinschaft zur Diskussion stellen. Sprachraumübergreifende Standards für Metadaten und ein reibungsloser Metadatenaustausch sind Voraussetzung für die wissenschaftliche Kommunikation und für den individuellen Erfolg des einzelnen Forschers. Deutschsprachige und ausländische Bibliotheken verwenden derzeit noch unterschiedliche Standards bei der Speicherung und dem Austausch von Katalogdaten. Während in Deutschland und Österreich das Maschinelle Austauschformat für Bibliotheken MAB2 verwendet wird, ist das Format Machine Readable Cataloguing MARC 21 der weltweit am weitesten verbreitete Standard. Der Standardisierungsausschuss hat in seiner 9. Sitzung am 15. Dezember 2004 wegweisende Beschlüsse zur Internationalisierung der deutschen Standards gefasst.' Diese sehen als ersten Meilenstein die flächendeckende Einführung von MARC 21 als Austauschformat vor. Die Verbundsysteme als größte Datenproduzenten haben sich verpflichtet, MARC 21 einheitlich, das heißt ohne verbundspezifische Besonderheiten, einzuführen und anzuwenden. Gleichzeitig werden die bisher unterschiedlichen Verbundrichtlinien vereinheitlicht. Die Einführung von MARC 21 bildet zusammen mit den Bestrebungen zur Verbesserung der Zusammenarbeit der Verbundsysteme einen entscheidenden Schritt, die Voraussetzungen für Fremddatenübernahme und Datentausch für die deutschen Bibliotheken sowohl auf nationaler als auch auf internationaler Ebene erheblich zu verbessern.
  5. Croissant, C.R.: MARC21 und die anglo-amerikanische Katalogisierungspraxis (2004) 0.01
    0.013398558 = product of:
      0.06699279 = sum of:
        0.05320843 = weight(_text_:forschung in 1764) [ClassicSimilarity], result of:
          0.05320843 = score(doc=1764,freq=2.0), product of:
            0.16498606 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03391332 = queryNorm
            0.32250258 = fieldWeight in 1764, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=1764)
        0.013784361 = product of:
          0.027568722 = sum of:
            0.027568722 = weight(_text_:22 in 1764) [ClassicSimilarity], result of:
              0.027568722 = score(doc=1764,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.23214069 = fieldWeight in 1764, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1764)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Date
    13. 8.2004 21:22:06
    Source
    Bibliothek: Forschung und Praxis. 28(2004) H.1, S.11-35
  6. Ansorge, K.: Das was 2007 (2007) 0.01
    0.01239111 = product of:
      0.06195555 = sum of:
        0.0099766655 = weight(_text_:web in 2405) [ClassicSimilarity], result of:
          0.0099766655 = score(doc=2405,freq=2.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.09014259 = fieldWeight in 2405, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2405)
        0.051978882 = weight(_text_:daten in 2405) [ClassicSimilarity], result of:
          0.051978882 = score(doc=2405,freq=12.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.3220243 = fieldWeight in 2405, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2405)
      0.2 = coord(2/10)
    
    Content
    Darin u.a: "Netzpublikationen - Die DNB hat mit Inkrafttreten des Gesetzes über die Deutsche Nationalbibliothek im Jahr 2006 den Auftrag der Sammlung, Erschließung, Verzeichnung und Archivierung von Netzpublikationen erhalten. Zum Sammelgebiet Netzpublikationen gehören alle Darstellungen in Schrift, Bild und Ton, die in öffentlichen Netzen zugänglich gemacht werden. Die Abgabepflicht umfasst sowohl Internetveröffentlichungen mit Entsprechungen zum Printbereich als auch webspezifische Medienwerke." "Kataloganreicherung - In Gesprächen mit dem Deutschen Bibliotheksverband und dem Börsenverein des Deutschen Buchhandels hatte sich die DNB bereiterklärt, die Rolle eines zentralen Dienstleisters bei der Verbreitung digitaler Zusatzinformationen zu bibliografischen Daten zu übernehmen. Für die Anreicherung der Daten der Deutschen Nationalbibliografie mit qualitativ hochwertigen Zusatzinformationen (recherchierbare PDF-Dokumente) konnten im Jahr 2007 die Weichen gestellt werden. Seit Jahresbeginn 2008 werden die Inhaltsverzeichnisse der jährlich rund 75.000 monografischen Neuerscheinungen des Verlagsbuchhandels gescannt und als ergänzende bibliografische Daten über das Internet und die Datendienste der DNB angeboten. Im Rahmen der bestehenden Kooperation mit der MVB Marketing- und Verlagsservice des Buchhandels GmbH werden zukünftig neben den Daten des VLB (Verzeichnis Lieferbarer Bücher) auch die entstehenden Zusatzinformationen ausgetauscht."
    "Standardisierung - Auch 2007 ist die Arbeitsstelle für Standardisierung (AfS) auf dem Weg zur Internationalisierung der deutschen Regelwerke, Formate und Normdateien entscheidende Schritte vorangekommen. Im Mittelpunkt der Vorbereitungen für den Format-umstieg standen eine Konkordanz von MAB2 nach MARC 21 und die Festlegung neuer Felder, die für den Umstieg auf nationaler Ebene notwendig sind. Neben einer Vielzahl anderer Aktivitäten hat die DNB zwei Veranstaltungen zum Format-umstieg durchgeführt. In Zusammenarbeit mit den Expertengruppen des Standardisierungsausschusses wurden drei Stellungnahmen zu Entwürfen des Regelwerkes »Resource Description and Access (RDA)« erarbeitet; es fand eine Beteiligung an der internationalen Diskussion zu wichtigen Grundlagen statt. Der Erfüllung des Wunsches nach Einführung der Onlinekommunikation mit Normdateien ist die DNB im vergangenen Jahr deutlich nähergekommen: Änderungen an Normdaten sollen gleichzeitig in die zentral bei der DNB gehaltenen Dateien und in der Verbunddatenbank vollzogen werden. Seit Anfang September ist die erste Stufe der Onlinekommunikation im produktiven Einsatz: Die PND-Redaktionen in den Aleph-Verbünden arbeiten online zusammen. Das neue Verfahren wird sich auf alle bei der DNB geführten Normdaten erstrecken und in einem gestuften Verfahren eingeführt werden. Die DNB war in zahlreichen Standardisierungsgremien zur Weiterentwicklung von Metadatenstandards wie z.B. Dublin Core und ONIX (Online Information eXchange) sowie bei den Entwicklungsarbeiten für The European Library beteiligt. Die Projektarbeiten im Projekt KIM - Kompetenzzentrum Interoperable Metadaten wurden maßgeblich unterstützt. Im Rahmen der Arbeiten zum Gesetz über die Deutsche Nationalbibliothek wurde ein Metadatenkernset für die Übermittlung von Metadaten an die DNB entwickelt und in einer ersten Stufe mit einem ONIX-Mapping versehen. Innerhalb des Projektes »Virtual International Authority File - VIAF« entwickelten die Library of Congress (LoC), die DNB und OCLC - zunächst für Personennamen - gemeinsam eine virtuelle, internationale Normdatei, in der die Normdatensätze der nationalen Normdateien im Web frei zugänglich miteinander verbunden werden sollen. Die bisherigen Projektergebnisse haben die Machbarkeit einer internationalen Normdatei eindrucksvoll unter Beweis gestellt. Darum haben die Projektpartner in einem neuen Abkommen, das auch die Bibliothèque Nationale de France einschließt, im Oktober 2007 ihr Engagement für den VIAF nochmals bekräftigt und damit eine Konsolidierungs- und Erweiterungsphase eingeleitet."
    "DDC-Deutsch - Bereits im Jahr 2006 wurde die Dewey-Dezimalklassifikation (DDC) für die inhaltliche Erschließung der in den Reihen B (Monografien und Periodika außerhalb des Verlagsbuchhandels) und H (Hochschulschriften) der Deutschen Nationalbibliografie angezeigten Publikationen eingeführt. Mit Heft 1/2007 hat die DDC auch in der Reihe A (Monografien und Periodika des Verlagsbuchhandels) Einzug gehalten. Die dort angezeigten Publikationen werden zusätzlich wie bisher vollständig mit RSWK Schlagwortketten erschlossen. Die DNB wird damit zum größten europäischen Lieferanten von Dewey-Notationen und nimmt nach der LoC weltweit die zweite Stelle ein. Durch die Integration der Daten der DNB in den WorldCat werden Sichtbarkeit und Nutzungsmöglichkeiten dieses Angebots auch über den deutschsprachigen Raum hinaus verbessert. Um den Informationsaustausch unter den europäischen DDC-Anwendern zu verbessern, europäische Belange in der Klassifikation stärker durchzusetzen und die Verbreitung in Europa gemeinsam mit OCLC zu koordinieren, wurde die EDUG (European DDC Users' Group) gegründet."
    "DDC-vascoda - Das Projekt DDC-vascoda wurde 2007 abgeschlossen. Für den Sucheinstieg bei vascoda wurde bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungs-)Jahr kombiniert werden kann, angeboten. Die Suche konnte zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Vascoda verwendete die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument. Ziel des Projektes DDC-vascoda war es, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Weiterhin wurde ein HTML-Dienst entwickelt, der es Fachportalen und anderen Datenanbietern ermöglicht, ohne großen Programmieraufwand ein DDC-Browsing über die eigenen Daten bereitzustellen."
  7. Tennant, R.: ¬A bibliographic metadata infrastructure for the twenty-first century (2004) 0.01
    0.011583474 = product of:
      0.05791737 = sum of:
        0.031925328 = weight(_text_:web in 2845) [ClassicSimilarity], result of:
          0.031925328 = score(doc=2845,freq=2.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.2884563 = fieldWeight in 2845, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=2845)
        0.025992041 = product of:
          0.051984083 = sum of:
            0.051984083 = weight(_text_:22 in 2845) [ClassicSimilarity], result of:
              0.051984083 = score(doc=2845,freq=4.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.4377287 = fieldWeight in 2845, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2845)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    The current library bibliographic infrastructure was constructed in the early days of computers - before the Web, XML, and a variety of other technological advances that now offer new opportunities. General requirements of a modern metadata infrastructure for libraries are identified, including such qualities as versatility, extensibility, granularity, and openness. A new kind of metadata infrastructure is then proposed that exhibits at least some of those qualities. Some key challenges that must be overcome to implement a change of this magnitude are identified.
    Date
    9.12.2005 19:22:38
    Source
    Library hi tech. 22(2004) no.2, S.175-181
  8. Helmkamp, K.; Oehlschläger, S.: ¬Die Internationalisierung deutscher Standards : auf dem Weg von MAB2 zu MARC 21. "Access" - der Schlüssel zum Erfolg (2006) 0.01
    0.011196272 = product of:
      0.05598136 = sum of:
        0.0139673315 = weight(_text_:web in 4873) [ClassicSimilarity], result of:
          0.0139673315 = score(doc=4873,freq=2.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.12619963 = fieldWeight in 4873, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4873)
        0.04201403 = weight(_text_:daten in 4873) [ClassicSimilarity], result of:
          0.04201403 = score(doc=4873,freq=4.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.26028913 = fieldWeight in 4873, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4873)
      0.2 = coord(2/10)
    
    Abstract
    Seit einigen Jahren ist der Begriff "Access" oder "Zugang" in aller Munde. Er bezieht sich auf den Zugang zu Informationsressourcen im World Wide Web und stellt eine zentrale Voraussetzung für den Erfolg oder Misserfolg in der modernen Gesellschaft dar. Viele Lebensbereiche sind auf einen ungehinderten Zugang zu digitalen Ressourcen angewiesen. Für ein Wirtschaftsunternehmen ist es im 21. Jahrhundert nicht mehr nur wichtig, über traditionelle Produktionsfaktoren, wie Maschinen oder Kapital, zu verfügen, von gleicher Bedeutung ist der Zugang auf Informationen, die intern und extern zur Verfügung stehen, und die Grundlage für ein umfassendes Wissensmanagement bilden. Damit kann der Innovationsprozess beschleunigt und das eigene Risiko vermindert werden, beispielsweise wenn bei der Produktentwicklung die Zeit bis zur Markteinführung verringert und damit ein wesentlicher Vorteil gegenüber den Konkurrenten erzielt wird. Auch die Welt der Wissenschaft hat sich in den letzten Jahrzehnten sehr verändert. Das Interesse von Wissenschaftlern ist nicht auf ihre jeweilige eigene nationale und kulturelle Umgebung beschränkt. Sie benötigen Informationen über Dokumente und Daten aus der ganzen Welt. Gleichzeitig wollen sie die eigenen Forschungsergebnisse in der internationalen Forschungsgemeinschaft zur Diskussion stellen. Schließlich ist der Zugang zu digitalen und konventionellen Ressourcen eine Voraussetzung für den Erfolg in dynamischen und global agierenden Gesellschaften und Systemen. Diese sind davon abhängig, dass Wissen ständig neu generiert und organisiert wird, und propagieren das lebenslange Lernen. Das Konzept des lebenslangen Lernens richtet sich an den Einzelnen, der seine Informationskompetenz ständig erweitern soll. Dadurch wird das Bedürfnis nach Bildungsangeboten im weitesten Sinne und folglich nach einem ungehinderten Zugang zu ihnen geweckt. All dies zeigt, dass ein reibungsloser Metadatenaustausch auf der Grundlage von sprachraumübergreifenden Standards eine wichtige Voraussetzung für Erfolge in ganz unterschiedlichen Bereichen ist. Daraus erwachsen wichtige Aufgaben für Bibliothekarinnen und Bibliothekare, die Daten über Dokumente bereitstellen und den Nachweis und Zugang zu ihnen garantieren. Deutschsprachige und ausländische Bibliotheken verwenden derzeit noch unterschiedliche Standards bei der Speicherung und dem Austausch von Katalogdaten. Während in Deutschland und Österreich das Maschinelle Austauschformat für Bibliotheken MAB2 verwendet wird, ist das Format Machine Readable Cataloguing MARC 21 der weltweit am weitesten verbreitete Standard.
  9. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.01
    0.011114505 = product of:
      0.055572525 = sum of:
        0.047450013 = weight(_text_:daten in 632) [ClassicSimilarity], result of:
          0.047450013 = score(doc=632,freq=10.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.29396662 = fieldWeight in 632, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.008122513 = product of:
          0.016245026 = sum of:
            0.016245026 = weight(_text_:22 in 632) [ClassicSimilarity], result of:
              0.016245026 = score(doc=632,freq=4.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.13679022 = fieldWeight in 632, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=632)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Content
    "Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung Matchkey Bei der Verwendung von Meta-Suchmaschinen zur parallelen Recherche in bibliografischen Datenbanken kommt es häufig vor, dass derselbe Titel mehrmals in der Trefferliste auftaucht. In dieser Situation könnte ein so genannter Matchkey Abhilfe schaffen, der jeden Datensatz aus den vorhandenen bibliografischen Daten heraus eindeutig identifiziert. Ein solcher Algorithmus geht von einem bibliografischen Datensatz aus und generiert einen Schlüssel (Matchkey), der wiederum in den Datensatz integriert werden kann. Der Schlüssel muss sortierfähig sein, so dass die Trefferliste nach dem Grad der Ähnlichkeit sortiert werden kann. Eine wichtige Voraussetzung für die erfolgreiche Anwendung des Matchkey ist die Beseitigung der Hausregeln in den Verbünden und Bibliotheken. Bisher hat Die Deutsche Bibliothek das Thema analysiert und strebt nun die Formulierung und Bereitstellung eines ersten Algorithmus an, um eine Implementierung zu Testzwecken voraussichtlich im März/April 2006 zu ermöglichen. Ein klares Ergebnis soll bis Ende 2006 vorliegen.
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."
  10. Oehlschläger, S.: Aus der 52. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 24. und 25. April 2007 in Berlin (2007) 0.01
    0.009346258 = product of:
      0.04673129 = sum of:
        0.0099766655 = weight(_text_:web in 465) [ClassicSimilarity], result of:
          0.0099766655 = score(doc=465,freq=2.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.09014259 = fieldWeight in 465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
        0.036754623 = weight(_text_:daten in 465) [ClassicSimilarity], result of:
          0.036754623 = score(doc=465,freq=6.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.22770557 = fieldWeight in 465, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
      0.2 = coord(2/10)
    
    Content
    "Umstieg auf MARC 21 Das Projekt Umstieg auf MARC 21 gliedert sich in mehrere Arbeitspakete: einerseits die Entwicklung einer Konkordanz von MAB2 nach MARC 21 und die Beantragung von Veränderungen im MARC-21-Format, andererseits die Entwicklung eines Editionssystems, eine Übersetzung von MARC Concise und die Erstellung einer Expertise zur Verwendung von MARCXML. Seit der letzten Sitzung der Arbeitsgemeinschaft der Verbundsysteme gelang es den Projektbeteiligten, diese Arbeitspakete in großen Teilen abzuschließen bzw. weiter voranzubringen. Kooperative Neukatalogisierung Ziel des Projektes Kooperative Neukatalogisierung ist es, dass jeder Titel in den Verbünden, bei der Deutschen Nationalbibliothek und in der ZDB nur noch einmal nach einheitlichen Regeln erfasst und erschlossen wird. Damit soll einerseits die Eigenkatalogisierungsquote in den Verbünden gesenkt werden und andererseits sollen die Daten schneller als bisher zur Verfügung stehen. Die AG Kooperative Neukatalogisierung unter dem Vorsitz von Frau Dr. Block (GBV) hat nach intensiver Arbeit ein Papier vorgelegt, in dem der Stand der Arbeiten dokumentiert und die gemeinsam von der Arbeitsgruppe getroffenen Vereinbarungen zusammengefasst sind. Die Arbeitsgemeinschaft der Verbundsysteme dankte der Arbeitsgruppe für ihre gute Arbeit und verabschiedete das Papier einstimmig.
    Catalogue Enrichment Die Arbeitsgruppe Catalogue Enrichment unter Federführung des hbz hat im Berichtszeitraum nicht getagt. Der Vorsitzende der AGV berichtet, dass das Projekt insgesamt eine gute Dynamik erreicht habe. Ursprünglich war man von dem Gedanken eines Referenzservers ausgegangen. Die Idee dabei war es, einen Server aufzusetzen, an den alle angereicherten Daten geliefert werden sollten. Dabei sollte automatisch abgeglichen werden, ob irgendwo bereits Daten vorliegen. Nunmehr müsse geprüft werden, ob ein zentraler Server in dieser Form noch benötigt werde. Normdaten-Onlineschnittstelle Im Projekt Online-Normschnittstelle konnten die Hersteller-Funktionstests mit der Deutschen Nationalbibliothek mittlerweile erfolgreich abgeschlossen werden, und die Funktionstests mit den Anwendern stehen unmittelbar bevor. Nach dem entsprechend angepassten Zeitplan für die Projekte Online-Normschnittstelle und Online-Redaktionsverfahren für Normdaten ist der Beginn der "produktiven Phase", d.h. der Einsatz im Echtbetrieb der Normdatei, für das zweite Halbjahr 2007 vorgesehen. Die Zeitplanung für die Einführung ist entscheidend von den Ergebnissen der Anwendertests abhängig. Das Online-Updateverfahren (Z39,50-Update und zeitnahe Replikation Ober °Al in die Bibliotheksverbünde) soil dabeizuerst in der Personennamendatei (PND) eingesetzt werden. Füreinen Einführungszeitraum von zwei Monaten sollen Redaktionsverfahren und Teilnehmerkreis zunächst weitgehend unverändert bleiben (noch keine Einbeziehung der Katalogisierer). Der Einführungszeitraum soll dazu genutzt werden, etwaige noch nicht erkannte Funktionsschwächen zu beseitigen, die für das volle Online-Redaktionsverfahren notwendigen Formaterweiterungen und Umsetzungen vorzunehmen und in den Bibliotheksverbünden und Bibliotheken die notwendigen Geschäftsgangsänderungen zu planen und durchzuführen. Im Anschluss sollen dann für die PND der Teilnehmerkreis am Online-Kommunikationsverfahren auf alle Katalogisierer in den teilnehmenden Bibliotheksverbünden ausgeweitet und das Online-Redaktionsverfahren eingesetzt werden.
    kim - Kompetenzzentrum Interoperable Metadaten Projektziel ist der Aufbau eines Kompetenzzentrums Interoperable Metadaten (KIM), das im deutschsprachigen Raum den Ausbau der Kompetenzen für die Themen interoperable Metadaten, Metadatenaustausch und Formate fördern soll. Strukturierte Beschreibungen (Metadaten) verschiedener Datenbestände werden als "interoperabel" bezeichnet, wenn in ihnen über einheitliche Suchverfahren recherchiert oder sie sinnvoll in die Datenverwaltung integriert werden können. Interoperabilität wird erreicht, indem man sich in kontrollierten institutionellen Zusammenhängen an technische Spezifikationen hält. Eine zentrale Aufgabe des "Kompetenzzentrum Interoperable Metadaten" als DCMI-Affiliate in Deutschland (nach Projektende im deutschsprachigen Raum mit Partnern aus Österreich und der Schweiz) besteht dabei in der Bildung einer Kernarbeitsgruppe mit weiteren spezifischen Arbeitsgruppen, die durch die Begutachtung bereits existierender Anwendungsprofile ein gemeinsames Verständnis für "good practice" in der Anwendung sowohl des Dublin-Core-Modells als auch des Semantic-Web-Modells entwickelt. Dieses Verständnis bildet die Grundlage für die Entwicklung von Zertifizierungsverfahren, Ausbildungsangeboten und Beratungsdiensten im Bereich interoperable Metadaten.
  11. Guenther, R.S.: Using the Metadata Object Description Schema (MODS) for resource description : guidelines and applications (2004) 0.01
    0.008803284 = product of:
      0.044016417 = sum of:
        0.027934663 = weight(_text_:web in 2837) [ClassicSimilarity], result of:
          0.027934663 = score(doc=2837,freq=2.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.25239927 = fieldWeight in 2837, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2837)
        0.016081754 = product of:
          0.03216351 = sum of:
            0.03216351 = weight(_text_:22 in 2837) [ClassicSimilarity], result of:
              0.03216351 = score(doc=2837,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.2708308 = fieldWeight in 2837, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2837)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    This paper describes the Metadata Object Description Schema (MODS), its accompanying documentation and some of its applications. It reviews the MODS user guidelines provided by the Library of Congress and how they enable a user of the schema to consistently apply MODS as a metadata scheme. Because the schema itself could not fully document appropriate usage, the guidelines provide element definitions, history, relationships with other elements, usage conventions, and examples. Short descriptions of some MODS applications are given and a more detailed discussion of its use in the Library of Congress's Minerva project for Web archiving is given.
    Source
    Library hi tech. 22(2004) no.1, S.89-98
  12. Oehlschläger, S.: Aus der 47. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 3. und 4. November 2004 in Wien (2005) 0.01
    0.008499621 = product of:
      0.042498108 = sum of:
        0.036754623 = weight(_text_:daten in 3124) [ClassicSimilarity], result of:
          0.036754623 = score(doc=3124,freq=6.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.22770557 = fieldWeight in 3124, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3124)
        0.005743484 = product of:
          0.011486968 = sum of:
            0.011486968 = weight(_text_:22 in 3124) [ClassicSimilarity], result of:
              0.011486968 = score(doc=3124,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.09672529 = fieldWeight in 3124, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3124)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Content
    Zusammenarbeit der Verbundsysteme Im Rahmen der Diskussion um das weitere Vorgehen nach Abschluss des Projekts Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) haben sich die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme darauf geeinigt, ihre Datenstrukturen zu vereinheitlichen als Voraussetzung für eine Verbesserung von Datentausch und Fremddatennutzung. Die Arbeitsgemeinschaft der Verbundsysteme hat erkannt, dass die gemeinsamen Zielvorstellungen am ökonomischsten mit der verpflichtenden Anwendung von MARC21 als Transportformat zu erreichen sind. Die Alternative "Weiterentwicklung von MAB2 zu MAB3" würde vor dem Hintergrund, dass MARC21 für die Übernahme ausländischer Fremddaten sowie für die Lieferung deutscher Daten an ausländische Kataloge und Portale ohnehin bedient werden müsste, in erheblichem Maß künftig dauerhaft zusätzliche Kapazitäten binden, die von den Unterhaltsträgern bewilligt werden müssten, was bei der derzeitigen Haushaltslage eher unwahrscheinlich erscheint. Zudem wird eine notwendige Weiterentwicklung von MAB2 zu MAB3 - konsequent wiederholbare Kategorien und Subfield-Verwendung - sich strukturell faktisch nicht mehr von einem MARC-Format unterscheiden. Eine Weiterentwicklung des bisherigen deutschen Datenaustauschformats MAB2 zu MAB3 wird daher nicht befürwortet. Für die Planungssicherheit der Bibliotheken und der Softwarehersteller ist die weitere Versorgung mit MAB2-Daten für einen Zeitrahmen von ca. 10 Jahren zu gewährleisten. Dazu ist für eine Übergangszeit auf der einen Seite die weitere Pflege von MAB2 einschließlich der für eine automatisierte Konvertierung von und nach MARC21 notwendigen Anpassung erforderlich und auf der anderen Seite die Implementierung entsprechender Programme bei den Datenlieferanten. Die weitere Pflege von MAB2 soll dabei auf unabdingbar notwendige und zugleich mit MARC21 kompatible Anpassungen beschränkt bleiben. Zur Realisierung ihrer strategischen Ziele hat die Arbeitsgemeinschaft der Verbundsysteme folgende Einzelmaßnahmen beschlossen: Entwicklung einheitlicher Verbundrichtlinien und Formulierung eines gemeinsamen Qualitätsstandards sowie Reduzierung des Datenmodells auf zwei Hierarchiestufen. Als eine der ersten Maßnahmen ist die Erstellung einer Konkordanz MAB2 zu MARC21 geplant. Zwischenzeitlich hat sich auch die Expertengruppe MABAusschuss in einem Positionspapier für MARC21 als Transportformat ausgesprochen und ist bereit, diese Konkordanz zu erstellen.
    Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben weiterhin ihre Absicht bekräftigt, ihre Verbunddaten gegenseitig zum Zweck der Datenübernahme, Fernleihe und Einbindung in Portale über Z 39.50 zu nutzen. Neuerwerbungen sollen künftig kooperativ katalogisiert werden, damit nicht Kapazitäten dadurch gebunden werden, dass die gleiche Titelaufnahme mehrfach erstellt werden muss. Eine Arbeitsgruppe unter Federführung des GBV wird ein Konzept und einen Projektplan mit einzelnen Arbeitsschritten sowie bis Ende 2005 ein prototypisches Verfahren zu entwickeln. Die gegenseitige Nutzung von Fremddatenangeboten (unter Beachtung lizenzrechtlicher Rahmenbedingungen) sowie die Bereitstellung von Datensätzen und ihre Anreicherung durch Abstracts, Inhaltsverzeichnisse, Rezensionen u. ä. sind seit langem bestehende Anforderungen, deren Realisierung mit der Vereinheitlichung der Datenstrukturen und der einheitlichen Anwendung von MARC21 als Transportformat erreicht wird. Notwendige Voraussetzung zur Anreicherung von Daten ist die Entwicklung eines Match-Key-Algorith-mus. Hierzu ist ein gesondertes Projekt unter Federführung Der Deutschen Bibliothek geplant. Die Arbeitsgemeinschaft der Verbundsysteme hat den Standardisierungsausschuss gebeten, dafür Sorge zu tragen, dass das künftige deutsche Regelwerk für die Formalerschließung ihre Ziele einer Vereinheitlichung der Datenstrukturen und eines verbesserten Datentauschs mit Fremddatennutzung effektiv unterstützt. Dazu dürfen keine den AACR widersprechenden Regelungen für das Regelwerk verabschiedet werden. Außerdem dürfen strukturrelevante Aspekte im Regelwerk künftig keine Kann-Bestimmungen mehr sein. Um international übereinstimmende Entitäten zu erhalten, plädiert die Arbeitsgemeinschaft der Verbundsysteme nachdrücklich dafür, bei Verwendung einer Normdatei Individualisierung als obligatorische Bestimmung einzuführen. Eine Übereinstimmung der Entitäten bei Titeln, Personen- und Körperschaftsnamen muss erklärtes Regelwerksziel sein. Hierfür sind international übliche Regelungen einzuführen. Dringend erforderlich ist auch die Vereinheitlichung und Integration der Sonderregeln in das Regelwerk. Die Arbeitsgemeinschaft der Verbundsysteme schlägt dem Standardisierungsausschuss darüber hinaus vor, Aspekte der Functional Requirements for Bibliographic Records (FRBR) im Regelwerk in Übereinstimmung mit der internationalen Entwicklung zu berücksichtigen und durch geeignete Untersuchungen auf Expertenebene zu untermauern."
    Date
    22. 1.2005 18:53:53
  13. Zschau, O.: ¬Eine Sprache für alle Fälle (2000) 0.01
    0.008488116 = product of:
      0.08488116 = sum of:
        0.08488116 = weight(_text_:daten in 4960) [ClassicSimilarity], result of:
          0.08488116 = score(doc=4960,freq=2.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.52586347 = fieldWeight in 4960, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.078125 = fieldNorm(doc=4960)
      0.1 = coord(1/10)
    
    Abstract
    Die Extensible Markup Language setzt sich als universelles Format zur Verarbeitung und zum Austausch von Daten immer mehr durch. SBO beschreibt die Grundlagen und stellt Anwendungen vor, die XML bereits unterstützen
  14. Andrew W. Mellon Foundation unterstützt Einführung von MARC 21 im deutschsprachigen Bibliothekswesen (2005) 0.01
    0.008402806 = product of:
      0.08402806 = sum of:
        0.08402806 = weight(_text_:daten in 4301) [ClassicSimilarity], result of:
          0.08402806 = score(doc=4301,freq=4.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.52057827 = fieldWeight in 4301, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4301)
      0.1 = coord(1/10)
    
    Content
    "Die Andrew W. Mellon Foundation, New York, unterstützt die Einführung des international gebräuchlichen Datenaustauschformats MARC 21 im deutschsprachigen Bibliothekswesen. Deutschsprachige und ausländische Bibliotheken verwenden derzeit noch unterschiedliche Standards bei der Speicherung und dem Austausch von Katalogdaten. Das von der Andrew W. Mellon Foundation geförderte Projekt verfolgt das Ziel, die Daten deutschsprachiger Bibliotheken weltweit sichtbar zu machen. Das Interesse von Wissenschaftlern ist nicht auf ihre jeweilige eigene nationale und kulturelle Umgebung beschränkt. Sie benötigen Informationen über Dokumente und Daten aus der ganzen WeIt. Gleichzeitig wollen sie die eigenen Forschungsergebnisse in der internationalen Forschungsgemeinschaft zur Diskussion stellen. Sprachraumübergreifende Standards für Metadaten und ein reibungsloser Metadatenaustausch sind Voraussetzung für die wissenschaftliche Kommunikation und für den individuellen Erfolg des einzelnen Forschers."
  15. Oehlschläger, S.: Arbeitsgemeinschaft der Verbundsysteme : Aus der 46. Sitzung am 21. und 22. April 2004 im Bibliotheksservice-Zentrum Baden-Württemberg in Konstanz (2004) 0.01
    0.007549857 = product of:
      0.037749283 = sum of:
        0.029708406 = weight(_text_:daten in 2434) [ClassicSimilarity], result of:
          0.029708406 = score(doc=2434,freq=2.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.18405221 = fieldWeight in 2434, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2434)
        0.008040877 = product of:
          0.016081754 = sum of:
            0.016081754 = weight(_text_:22 in 2434) [ClassicSimilarity], result of:
              0.016081754 = score(doc=2434,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.1354154 = fieldWeight in 2434, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2434)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Content
    - Elektronischer DDC-Dienst Im Fall der deutschen Übersetzung der Dewey Decimal Classification (DDC) wurde die Idee einer Normdatei DDC-Deutsch zugunsten eines zentralen elektronischen DDC-Dienstes bei Der Deutschen Bibliothek aufgegeben. Dieser Dienst hält die übersetzten Daten bereit und stellt sie in drei verschiedenen Ausprägungen zur Verfügung: 1. Zentrales Such- und Browsingtool für Benutzer 2. Klassifikationswerkzeug für Sacherschließer 3. SOAP-Schnittstelle für den elektronischen Datenaustausch. Um die DDC künftig gewinnbringend in der Benutzung einsetzen zu können, werden Konkordanzen zu anderen Klassifikationen, insbesondere aber zur weit verbreiteten Regensburger Verbundklassifikation (RVK) benötigt. Mithilfe dieser Konkordanzen können Benutzer im OPAL Der Deutschen Bibliothek nach DDC-Notationen suchen und würden zusätzlich Ergebnisse aus den Verbünden angezeigt bekommen, die bislang nicht mit der DDC erschlossen sind. Der GBV plant eine Grunderschließung seiner Verbunddatenbank mit der DDC in 5 Ebenen. Ziel ist es, bis Ende 2005 alle Verbunddaten mit der DDC zu verbinden und damit ein bedeutendes Recherchetool zu erhalten.
  16. McCallum, S.H.: Machine Readable Cataloging (MARC): 1975-2007 (2009) 0.01
    0.007545671 = product of:
      0.037728354 = sum of:
        0.023943994 = weight(_text_:web in 3841) [ClassicSimilarity], result of:
          0.023943994 = score(doc=3841,freq=2.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.21634221 = fieldWeight in 3841, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=3841)
        0.013784361 = product of:
          0.027568722 = sum of:
            0.027568722 = weight(_text_:22 in 3841) [ClassicSimilarity], result of:
              0.027568722 = score(doc=3841,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.23214069 = fieldWeight in 3841, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3841)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    This entry describes the development of the MARC Communications format. After a brief overview of the initial 10 years it describes the succeeding phases of development up to the present. This takes the reader through the expansion of the format for all types of bibliographic data and for a multiple character scripts. At the same time a large business community was developing that offered products based on the format to the library community. The introduction of the Internet in the 1990s and the Web technology brought new opportunities and challenges and the format was adapted to this new environment. There has been a great deal of international adoption of the format that has continued into the 2000s. More recently new syntaxes for MARC 21 and models are being explored.
    Date
    27. 8.2011 14:22:38
  17. Heuvelmann, R.: FRBR-Strukturierung von MAB-Daten, oder : Wieviel MAB passt in FRBR? (2005) 0.01
    0.007350925 = product of:
      0.073509246 = sum of:
        0.073509246 = weight(_text_:daten in 466) [ClassicSimilarity], result of:
          0.073509246 = score(doc=466,freq=6.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.45541114 = fieldWeight in 466, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0390625 = fieldNorm(doc=466)
      0.1 = coord(1/10)
    
    Abstract
    Die Expertengruppe MAB-Ausschuss (seit 2005: Expertengruppe Datenformate) hat sich im Verlauf des Jahres 2004 mit den FRBR und ihren Bezügen zum MABFormat befasst. Es wurde eine Tabelle FRBR => MAB erstellt (veröffentlicht unter http://www.ddb.de/professionell/pdf/frbr_mab.pdf), wichtige Ergebnisse wurden im Artikel "Maschinelles Austauschformat für Bibliotheken und die Functional Requirements for Bibliographic Records : Oder: Wieviel FRBR verträgt MAB?" im "Bibliotheksdienst" 39 (2005), Heft 10 zusammengefasst. Ergänzend dazu wurde bei der Arbeitsstelle Datenformate Der Deutschen Bibliothek versucht, MAB-Daten zu "frbrisieren", d. h. einzelne MAB-Datensätze in die vier Entitäten der Gruppe 1 (work / expression / manifestation / item) zu differenzieren. Ziel war nicht, einen fertigen OPAC-Baustein für die Indexierung, Benutzerführung oder Präsentation zu erstellen. Ziel war vielmehr, anhand von konkreten, in MAB strukturierten Daten die Schichten sichtbar zu machen. Ausgewählt für diesen Zweck wurde BISMAS, das "Bibliographische Informations-System zur Maschinellen Ausgabe und Suche" des BIS Oldenburg (www.bismas.de). In BISMAS ist es mit relativ geringem Aufwand möglich, die Präsentation eines Satzes - basierend auf der intern vorliegenden Datensatzstruktur, z.B. MAB - frei zu definieren. Die Gestaltung der Indices und der Ausgabeformate erfolgt in BISMAS mit Hilfe der Programmiersprache LM. Die Ergebnisse sollen hier anhand von Beispielen dargestellt werden.
  18. Oehlschläger, S.: Aus der 48. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 12. und 13. November 2004 in Göttingen (2005) 0.01
    0.007065885 = product of:
      0.035329424 = sum of:
        0.014109136 = weight(_text_:web in 3556) [ClassicSimilarity], result of:
          0.014109136 = score(doc=3556,freq=4.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.12748088 = fieldWeight in 3556, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
        0.02122029 = weight(_text_:daten in 3556) [ClassicSimilarity], result of:
          0.02122029 = score(doc=3556,freq=2.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.13146587 = fieldWeight in 3556, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
      0.2 = coord(2/10)
    
    Content
    Die Deutsche Bibliothek Retrieval von Content In dem Projekt wird angestrebt, Verfahren zu entwickeln und einzuführen, die automatisch und ohne intellektuelle Bearbeitung für das Content-Retrieval ausreichend Sucheinstiege bieten. Dabei kann es sich um die Suche nach Inhalten von Volltexten, digitalen Abbildern, Audiofiles, Videofiles etc. von in Der Deutschen Bibliothek archivierten digitalen Ressourcen oder digitalen Surrogaten archivierter analoger Ressourcen (z. B. OCR-Ergebnisse) handeln. Inhalte, die in elektronischer Form vorhanden sind, aber dem InternetBenutzer Der Deutschen Bibliothek bisher nicht oder nur eingeschränkt zur Verfügung stehen, sollen in möglichst großem Umfang und mit möglichst großem Komfort nutzbar gemacht werden. Darüber hinaus sollen Inhalte benutzt werden, die für ein in ILTIS katalogisiertes Objekt beschreibenden Charakter haben, um auf das beschriebene Objekt zu verweisen. Die höchste Priorität liegt dabei auf der Erschließung von Inhalten in Textformaten. In einem ersten Schritt wurde der Volltext aller Zeitschriften, die im Projekt "Exilpresse digital" digitalisiert wurden, für eine erweiterte Suche genutzt. In einem nächsten Schritt soll die PSI-Software für die Volltextindexierung von Abstracts evaluiert werden. MILOS Mit dem Einsatz von MILOS eröffnet sich die Möglichkeit, nicht oder wenig sachlich erschlossene Bestände automatisch mit ergänzenden Inhaltserschließungsinformationen zu versehen, der Schwerpunkt liegt dabei auf der Freitext-Indexierung. Das bereits in einigen Bibliotheken eingesetzte System, das inzwischen von Der Deutschen Bibliothek für Deutschland lizenziert wurde, wurde in eine UNIX-Version überführt und angepasst. Inzwischen wurde nahezu der gesamte Bestand rückwirkend behandelt, die Daten werden im Gesamt-OPAC für die Recherche zur Verfügung stehen. Die in einer XMLStruktur abgelegten Indexeinträge werden dabei vollständig indexiert und zugänglich gemacht. Ein weiterer Entwicklungsschritt wird in dem Einsatz von MILOS im Online-Verfahren liegen.
    Hessisches BibliotheksinformationsSystem (HEBIS) Personennamendatei (PND) Vor dem Hintergrund der Harmonisierungsbestrebungen bei den Normdateien hat der HeBIS-Verbundrat nach erneuter Diskussion mehrheitlich entschieden, künftig neben SWD und GKD auch die PND als in HeBIS integrierte Normdatei obligatorisch zu nutzen. Im Zuge der wachsenden Vernetzung der regionalen Verbundsysteme kommt der Homogenität der Datensätze eine zunehmend wichtigere Bedeutung zu. Konkret wird dies speziell für HeBIS mit dem Produktionsbeginn des HeBIS-Portals und der integrierten verbundübergreifenden Fernleihe. Nur wenn die Verfasserrecherche in den einzelnen Verbunddatenbanken auf weitgehend einheitliche Datensätze einschließlich Verweisungsformen trifft, kann der Benutzer gute Trefferergebnisse erwarten und damit seine Chancen erhöhen, die gewünschte Literatur über Fernleihe bestellen zu können. Das Gesamtkonzept ist ausgelegt auf eine pragmatische und aufwandsreduzierte Vorgehensweise. Mit der Umsetzung wurde begonnen. Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (HBZ) FAST-Suchmaschine Das HBZ hat die Suchmaschinentechnologie des norwegischen Herstellers FAST lizenziert. Ziel ist es, die Produkte des HBZ mit Hilfe innovativer Suchmaschinentechnologien in einer neuen Ausrichtung zu präsentieren. Die Präsentation soll einen schnellen Recherche-Zugang zu den NRWVerbunddaten mittels FAST-Suchmaschinentechnologie mit folgenden Eigenschaften beinhalten: - Eine Web-Oberfläche, um für Laien eine schnelle Literatursuche anbieten zu können. - Eine Web-Oberfläche, um für Expertinnen und Experten eine schnelle Literatur-Suche anbieten zu können. - Präsentation von Zusatzfunktionen, die in gängigen Bibliothekskatalogen so nicht vorhanden sind. - Schaffung einer Zugriffsmöglichkeit für den KVK auf die Verbunddaten mit sehr kurzen Antwortzeiten Digitale Bibliothek Die Mehrzahl der Bibliotheken ist inzwischen auf Release 5 umgezogen. Einige befinden sich noch im Bearbeitungsstatus. Von den letzten drei Bibliotheken liegen inzwischen die Umzugsanträge vor. Durch die Umstrukturierung der RLB Koblenz zum LBZ Rheinland-Pfalz werden die Einzelsichten der RLB Koblenz, PLB Speyer und der Bipontina in Zweibrücken mit den Büchereistellen Koblenz und Neustadt zu einer Sicht verschmolzen.
  19. Gömpel, R.; Hoffmann, L.: Daten und Fakten für künftige Entscheidungen : Das Projekt "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" (2003) 0.01
    0.0067904927 = product of:
      0.06790493 = sum of:
        0.06790493 = weight(_text_:daten in 1557) [ClassicSimilarity], result of:
          0.06790493 = score(doc=1557,freq=2.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.42069077 = fieldWeight in 1557, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0625 = fieldNorm(doc=1557)
      0.1 = coord(1/10)
    
  20. Sigrist, B.; Patzer, K.; Pagel, B.; Weber, R.: 400.000 laufende Zeitschriften in der ZDB : GKD- und ZDB-spezifische Probleme im Falle eines Umstiegs des deutschen Regelwerks und Formats auf AACR2 und MARC21 (2002) 0.01
    0.0060020047 = product of:
      0.06002005 = sum of:
        0.06002005 = weight(_text_:daten in 5974) [ClassicSimilarity], result of:
          0.06002005 = score(doc=5974,freq=4.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.37184164 = fieldWeight in 5974, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5974)
      0.1 = coord(1/10)
    
    Abstract
    Im Folgenden sollen die wichtigsten Auswirkungen des intendierten Regelwerks- und Formatumstiegs auf GKD und ZDB dargestellt werden. Außerdem werden Alternativen aufgezeigt, die eventuell gewährleisten könnten, dass die deutschen Körperschafts- und Zeitschriftendaten international zur Verfügung gestellt und genutzt werden könnten, ohne dass zwangsläufig ein Wechsel des Regelwerks damit verbunden wäre. Auch jetzt ist es bereits relativ einfach möglich, MAB-Daten in MARC anzubieten und für Austauschzwecke zur Verfügung zu stellen. Außerdem bleibt unbenommen, dass Angleichungen an AACR2 in der Neufassung der RAK berücksichtigt werden. Die SBB würde es begrüßen, wenn die Katalogisierung in Deutschland sich entsprechend der Ergebnisse der DFG-geförderten Machbarkeitsstudie an internationale Standards angleichen würde und damit die internationale Kooperation verbessert würde. Die ZDB ist der zentrale Nachweis der Periodika-Bestände (für Zeitschriften und Zeitungen) der deutschen Bibliotheken und die deutsche Normdatei für Zeitschriftenkatalogisierung sowie die Basis für Leihverkehr und Dokumentlieferdienste. Die Zentralredaktion Titel der ZDB garantiert die bibliographische Kontrolle und dadurch die Konsistenz der Daten, die für die Verknüpfung mit Lokaldaten zwingend erforderlich ist und nicht aufgegeben werden kann. Gleichzeitig basieren die Eintragungen der ZDB auf den Körperschaftsansetzungen aus der GKD. Ca. 50 % aller Zeitschriftentitel, zurzeit also 550.000 Sätze, sind mit einer Körperschaftsaufnahme verknüpft, die zumindest hinsichtlich der Bestimmung eventueller Splits eine Bedeutung hat.

Languages

  • e 37
  • d 33

Types

  • a 61
  • el 5
  • s 4
  • m 2
  • x 2
  • b 1
  • n 1
  • More… Less…