Search (75 results, page 1 of 4)

  • × theme_ss:"Datenformate"
  • × type_ss:"a"
  1. Paulus, W.; Weishaupt, K.: Bibliotheksdaten werden mehr wert : LibLink wertet bibliothekarische Dienstleistung auf (1996) 0.10
    0.09889354 = product of:
      0.19778708 = sum of:
        0.19778708 = sum of:
          0.12832318 = weight(_text_:daten in 5228) [ClassicSimilarity], result of:
            0.12832318 = score(doc=5228,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.52586347 = fieldWeight in 5228, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.078125 = fieldNorm(doc=5228)
          0.0694639 = weight(_text_:22 in 5228) [ClassicSimilarity], result of:
            0.0694639 = score(doc=5228,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.38690117 = fieldWeight in 5228, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=5228)
      0.5 = coord(1/2)
    
    Abstract
    Die maschinenlesbaren Katalogdaten der Bibliotheken wurden bisher hauptsächlich intern genutzt. Die im Institut Arbeit und Technik entwickelte Software LibLink ermöglich es, diese Daten auch im wissenschaftlichen Kontext zu verwenden
    Date
    29. 9.1996 18:58:22
  2. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.05
    0.048147015 = product of:
      0.09629403 = sum of:
        0.09629403 = sum of:
          0.07173484 = weight(_text_:daten in 632) [ClassicSimilarity], result of:
            0.07173484 = score(doc=632,freq=10.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.29396662 = fieldWeight in 632, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.01953125 = fieldNorm(doc=632)
          0.024559196 = weight(_text_:22 in 632) [ClassicSimilarity], result of:
            0.024559196 = score(doc=632,freq=4.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.13679022 = fieldWeight in 632, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=632)
      0.5 = coord(1/2)
    
    Content
    "Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung Matchkey Bei der Verwendung von Meta-Suchmaschinen zur parallelen Recherche in bibliografischen Datenbanken kommt es häufig vor, dass derselbe Titel mehrmals in der Trefferliste auftaucht. In dieser Situation könnte ein so genannter Matchkey Abhilfe schaffen, der jeden Datensatz aus den vorhandenen bibliografischen Daten heraus eindeutig identifiziert. Ein solcher Algorithmus geht von einem bibliografischen Datensatz aus und generiert einen Schlüssel (Matchkey), der wiederum in den Datensatz integriert werden kann. Der Schlüssel muss sortierfähig sein, so dass die Trefferliste nach dem Grad der Ähnlichkeit sortiert werden kann. Eine wichtige Voraussetzung für die erfolgreiche Anwendung des Matchkey ist die Beseitigung der Hausregeln in den Verbünden und Bibliotheken. Bisher hat Die Deutsche Bibliothek das Thema analysiert und strebt nun die Formulierung und Bereitstellung eines ersten Algorithmus an, um eine Implementierung zu Testzwecken voraussichtlich im März/April 2006 zu ermöglichen. Ein klares Ergebnis soll bis Ende 2006 vorliegen.
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."
  3. Suominen, O.; Hyvönen, N.: From MARC silos to Linked Data silos? (2017) 0.04
    0.043040905 = product of:
      0.08608181 = sum of:
        0.08608181 = product of:
          0.17216362 = sum of:
            0.17216362 = weight(_text_:daten in 3732) [ClassicSimilarity], result of:
              0.17216362 = score(doc=3732,freq=10.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.7055199 = fieldWeight in 3732, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3732)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Seit einiger Zeit stellen Bibliotheken ihre bibliografischen Metadadaten verstärkt offen in Form von Linked Data zur Verfügung. Dabei kommen jedoch ganz unterschiedliche Modelle für die Strukturierung der bibliografischen Daten zur Anwendung. Manche Bibliotheken verwenden ein auf FRBR basierendes Modell mit mehreren Schichten von Entitäten, während andere flache, am Datensatz orientierte Modelle nutzen. Der Wildwuchs bei den Datenmodellen erschwert die Nachnutzung der bibliografischen Daten. Im Ergebnis haben die Bibliotheken die früheren MARC-Silos nur mit zueinander inkompatiblen Linked-Data-Silos vertauscht. Deshalb ist es häufig schwierig, Datensets miteinander zu kombinieren und nachzunutzen. Kleinere Unterschiede in der Datenmodellierung lassen sich zwar durch Schema Mappings in den Griff bekommen, doch erscheint es fraglich, ob die Interoperabilität insgesamt zugenommen hat. Der Beitrag stellt die Ergebnisse einer Studie zu verschiedenen veröffentlichten Sets von bibliografischen Daten vor. Dabei werden auch die unterschiedlichen Modelle betrachtet, um bibliografische Daten als RDF darzustellen, sowie Werkzeuge zur Erzeugung von entsprechenden Daten aus dem MARC-Format. Abschließend wird der von der Finnischen Nationalbibliothek verfolgte Ansatz behandelt.
  4. Lobeck, M.A.: Zur Standardisierung von Daten-Feldern und -Inhalten : Überlegungen und Aktivitäten von Normenorganisationen (1987) 0.04
    0.038496953 = product of:
      0.076993905 = sum of:
        0.076993905 = product of:
          0.15398781 = sum of:
            0.15398781 = weight(_text_:daten in 256) [ClassicSimilarity], result of:
              0.15398781 = score(doc=256,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.63103616 = fieldWeight in 256, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.09375 = fieldNorm(doc=256)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  5. Oehlschläger, S.: Aus der 47. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 3. und 4. November 2004 in Wien (2005) 0.04
    0.03646577 = product of:
      0.07293154 = sum of:
        0.07293154 = sum of:
          0.05556557 = weight(_text_:daten in 3124) [ClassicSimilarity], result of:
            0.05556557 = score(doc=3124,freq=6.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.22770557 = fieldWeight in 3124, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.01953125 = fieldNorm(doc=3124)
          0.017365975 = weight(_text_:22 in 3124) [ClassicSimilarity], result of:
            0.017365975 = score(doc=3124,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.09672529 = fieldWeight in 3124, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=3124)
      0.5 = coord(1/2)
    
    Content
    Zusammenarbeit der Verbundsysteme Im Rahmen der Diskussion um das weitere Vorgehen nach Abschluss des Projekts Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) haben sich die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme darauf geeinigt, ihre Datenstrukturen zu vereinheitlichen als Voraussetzung für eine Verbesserung von Datentausch und Fremddatennutzung. Die Arbeitsgemeinschaft der Verbundsysteme hat erkannt, dass die gemeinsamen Zielvorstellungen am ökonomischsten mit der verpflichtenden Anwendung von MARC21 als Transportformat zu erreichen sind. Die Alternative "Weiterentwicklung von MAB2 zu MAB3" würde vor dem Hintergrund, dass MARC21 für die Übernahme ausländischer Fremddaten sowie für die Lieferung deutscher Daten an ausländische Kataloge und Portale ohnehin bedient werden müsste, in erheblichem Maß künftig dauerhaft zusätzliche Kapazitäten binden, die von den Unterhaltsträgern bewilligt werden müssten, was bei der derzeitigen Haushaltslage eher unwahrscheinlich erscheint. Zudem wird eine notwendige Weiterentwicklung von MAB2 zu MAB3 - konsequent wiederholbare Kategorien und Subfield-Verwendung - sich strukturell faktisch nicht mehr von einem MARC-Format unterscheiden. Eine Weiterentwicklung des bisherigen deutschen Datenaustauschformats MAB2 zu MAB3 wird daher nicht befürwortet. Für die Planungssicherheit der Bibliotheken und der Softwarehersteller ist die weitere Versorgung mit MAB2-Daten für einen Zeitrahmen von ca. 10 Jahren zu gewährleisten. Dazu ist für eine Übergangszeit auf der einen Seite die weitere Pflege von MAB2 einschließlich der für eine automatisierte Konvertierung von und nach MARC21 notwendigen Anpassung erforderlich und auf der anderen Seite die Implementierung entsprechender Programme bei den Datenlieferanten. Die weitere Pflege von MAB2 soll dabei auf unabdingbar notwendige und zugleich mit MARC21 kompatible Anpassungen beschränkt bleiben. Zur Realisierung ihrer strategischen Ziele hat die Arbeitsgemeinschaft der Verbundsysteme folgende Einzelmaßnahmen beschlossen: Entwicklung einheitlicher Verbundrichtlinien und Formulierung eines gemeinsamen Qualitätsstandards sowie Reduzierung des Datenmodells auf zwei Hierarchiestufen. Als eine der ersten Maßnahmen ist die Erstellung einer Konkordanz MAB2 zu MARC21 geplant. Zwischenzeitlich hat sich auch die Expertengruppe MABAusschuss in einem Positionspapier für MARC21 als Transportformat ausgesprochen und ist bereit, diese Konkordanz zu erstellen.
    Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben weiterhin ihre Absicht bekräftigt, ihre Verbunddaten gegenseitig zum Zweck der Datenübernahme, Fernleihe und Einbindung in Portale über Z 39.50 zu nutzen. Neuerwerbungen sollen künftig kooperativ katalogisiert werden, damit nicht Kapazitäten dadurch gebunden werden, dass die gleiche Titelaufnahme mehrfach erstellt werden muss. Eine Arbeitsgruppe unter Federführung des GBV wird ein Konzept und einen Projektplan mit einzelnen Arbeitsschritten sowie bis Ende 2005 ein prototypisches Verfahren zu entwickeln. Die gegenseitige Nutzung von Fremddatenangeboten (unter Beachtung lizenzrechtlicher Rahmenbedingungen) sowie die Bereitstellung von Datensätzen und ihre Anreicherung durch Abstracts, Inhaltsverzeichnisse, Rezensionen u. ä. sind seit langem bestehende Anforderungen, deren Realisierung mit der Vereinheitlichung der Datenstrukturen und der einheitlichen Anwendung von MARC21 als Transportformat erreicht wird. Notwendige Voraussetzung zur Anreicherung von Daten ist die Entwicklung eines Match-Key-Algorith-mus. Hierzu ist ein gesondertes Projekt unter Federführung Der Deutschen Bibliothek geplant. Die Arbeitsgemeinschaft der Verbundsysteme hat den Standardisierungsausschuss gebeten, dafür Sorge zu tragen, dass das künftige deutsche Regelwerk für die Formalerschließung ihre Ziele einer Vereinheitlichung der Datenstrukturen und eines verbesserten Datentauschs mit Fremddatennutzung effektiv unterstützt. Dazu dürfen keine den AACR widersprechenden Regelungen für das Regelwerk verabschiedet werden. Außerdem dürfen strukturrelevante Aspekte im Regelwerk künftig keine Kann-Bestimmungen mehr sein. Um international übereinstimmende Entitäten zu erhalten, plädiert die Arbeitsgemeinschaft der Verbundsysteme nachdrücklich dafür, bei Verwendung einer Normdatei Individualisierung als obligatorische Bestimmung einzuführen. Eine Übereinstimmung der Entitäten bei Titeln, Personen- und Körperschaftsnamen muss erklärtes Regelwerksziel sein. Hierfür sind international übliche Regelungen einzuführen. Dringend erforderlich ist auch die Vereinheitlichung und Integration der Sonderregeln in das Regelwerk. Die Arbeitsgemeinschaft der Verbundsysteme schlägt dem Standardisierungsausschuss darüber hinaus vor, Aspekte der Functional Requirements for Bibliographic Records (FRBR) im Regelwerk in Übereinstimmung mit der internationalen Entwicklung zu berücksichtigen und durch geeignete Untersuchungen auf Expertenebene zu untermauern."
    Date
    22. 1.2005 18:53:53
  6. Scholz, M.: Wie können Daten im Web mit JSON nachgenutzt werden? (2023) 0.04
    0.036295276 = product of:
      0.07259055 = sum of:
        0.07259055 = product of:
          0.1451811 = sum of:
            0.1451811 = weight(_text_:daten in 5345) [ClassicSimilarity], result of:
              0.1451811 = score(doc=5345,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5949466 = fieldWeight in 5345, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5345)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Martin Scholz ist Informatiker an der Universitätsbibliothek Erlangen-Nürnberg. Als Leiter der dortigen Gruppe Digitale Entwicklung und Datenmanagement beschäftigt er sich viel mit Webtechniken und Datentransformation. Er setzt sich mit der aktuellen ABI-Techik-Frage auseinander: Wie können Daten im Web mit JSON nachgenutzt werden?
  7. Oehlschläger, S.: Arbeitsgemeinschaft der Verbundsysteme : Aus der 46. Sitzung am 21. und 22. April 2004 im Bibliotheksservice-Zentrum Baden-Württemberg in Konstanz (2004) 0.03
    0.034612738 = product of:
      0.069225475 = sum of:
        0.069225475 = sum of:
          0.044913113 = weight(_text_:daten in 2434) [ClassicSimilarity], result of:
            0.044913113 = score(doc=2434,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.18405221 = fieldWeight in 2434, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.02734375 = fieldNorm(doc=2434)
          0.024312364 = weight(_text_:22 in 2434) [ClassicSimilarity], result of:
            0.024312364 = score(doc=2434,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.1354154 = fieldWeight in 2434, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=2434)
      0.5 = coord(1/2)
    
    Content
    - Elektronischer DDC-Dienst Im Fall der deutschen Übersetzung der Dewey Decimal Classification (DDC) wurde die Idee einer Normdatei DDC-Deutsch zugunsten eines zentralen elektronischen DDC-Dienstes bei Der Deutschen Bibliothek aufgegeben. Dieser Dienst hält die übersetzten Daten bereit und stellt sie in drei verschiedenen Ausprägungen zur Verfügung: 1. Zentrales Such- und Browsingtool für Benutzer 2. Klassifikationswerkzeug für Sacherschließer 3. SOAP-Schnittstelle für den elektronischen Datenaustausch. Um die DDC künftig gewinnbringend in der Benutzung einsetzen zu können, werden Konkordanzen zu anderen Klassifikationen, insbesondere aber zur weit verbreiteten Regensburger Verbundklassifikation (RVK) benötigt. Mithilfe dieser Konkordanzen können Benutzer im OPAL Der Deutschen Bibliothek nach DDC-Notationen suchen und würden zusätzlich Ergebnisse aus den Verbünden angezeigt bekommen, die bislang nicht mit der DDC erschlossen sind. Der GBV plant eine Grunderschließung seiner Verbunddatenbank mit der DDC in 5 Ebenen. Ziel ist es, bis Ende 2005 alle Verbunddaten mit der DDC zu verbinden und damit ein bedeutendes Recherchetool zu erhalten.
  8. Zschau, O.: ¬Eine Sprache für alle Fälle (2000) 0.03
    0.032080796 = product of:
      0.06416159 = sum of:
        0.06416159 = product of:
          0.12832318 = sum of:
            0.12832318 = weight(_text_:daten in 4960) [ClassicSimilarity], result of:
              0.12832318 = score(doc=4960,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52586347 = fieldWeight in 4960, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4960)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Extensible Markup Language setzt sich als universelles Format zur Verarbeitung und zum Austausch von Daten immer mehr durch. SBO beschreibt die Grundlagen und stellt Anwendungen vor, die XML bereits unterstützen
  9. DFG und Mellon-Foundation fördern internationalen Datenaustausch (2006) 0.03
    0.032080796 = product of:
      0.06416159 = sum of:
        0.06416159 = product of:
          0.12832318 = sum of:
            0.12832318 = weight(_text_:daten in 5070) [ClassicSimilarity], result of:
              0.12832318 = score(doc=5070,freq=8.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52586347 = fieldWeight in 5070, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5070)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Deutsche Forschungsgemeinschaft (DFG) und die Andrew W. Mellon Foundation unterstützen die Einführung des international gebräuchlichen Datenaustauschformats MARC 21 im deutschsprachigen Bibliothekswesen. Der Daten- und Informationsaustausch zwischen den Bibliotheken der deutschsprachigen Länder und denen der übrigen Welt wird dadurch wesentlich erleichtert.
    Content
    "Der aktuelle Speicherort einer Publikation verliert angesichts der steigenden Zahl an digital vorliegenden und über das World Wide Weh verfügbaren Publikationen seine Bedeutung. Entscheidend für die Forschung sind Aufindbarkeit und schnelle Nutzungsmöglichkeit der Informationen. Global zu arbeiten, Daten, Informationen und Texte zu tauschen ist zur täglichen Routine für Wissenschaftler und Bibliothekare geworden. Deutschsprachige und ausländische Bibliotheken verwenden derzeit noch unterschiedliche Standards bei der Speicherung und dem Austausch von Katalogdaten. Die von der Deutschen Forschungsgemeinschaft und der Andrew W. Mellon Foundation geförderten Projekte verfolgen das Ziel, die Daten deutschsprachiger Bibliotheken weltweit sichtbar zu machen. Das Interesse von Wissenschaftlern ist nicht auf ihre jeweilige eigene nationale und kulturelle Umgebung beschränkt. Sie benötigen Informationen über Dokumente und Daten aus der ganzen Welt. Gleichzeitig wollen sie die eigenen Forschungsergebnisse in der internationalen Forschungsgemeinschaft zur Diskussion stellen. Sprachraumübergreifende Standards für Metadaten und deren reibungsloser gegenseitiger Austausch sind Voraussetzung für die wissenschaftliche Kommunikation und für den individuellen Erfolg des einzelnen Forschers. Die Deutsche Bibliothek pflegt seit vielen Jahren Kooperationsbeziehungen auf nationaler und internationaler Ebene. Dazu gehören die Entwicklung und Anwendung von gemeinsamen Regeln und Standards sowie Produktion und Vertrieb von bibliografischen Dienstleistungen und die Pflege kooperativ geführter Datenbanken, insbesondere für Normdaten. Einen weiteren Schwerpunkt bilden Entwicklung und Anwendung moderner Technologien für die Langzeitarchivierung der Bestände im Rahmen internationaler Kooperationen, unabhängig davon, ob die Publikationen auf Papier, Mikrofilm oder digital vorliegen."
  10. Andrew W. Mellon Foundation unterstützt Einführung von MARC 21 im deutschsprachigen Bibliothekswesen (2005) 0.03
    0.031758364 = product of:
      0.06351673 = sum of:
        0.06351673 = product of:
          0.12703346 = sum of:
            0.12703346 = weight(_text_:daten in 4301) [ClassicSimilarity], result of:
              0.12703346 = score(doc=4301,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52057827 = fieldWeight in 4301, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4301)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Die Andrew W. Mellon Foundation, New York, unterstützt die Einführung des international gebräuchlichen Datenaustauschformats MARC 21 im deutschsprachigen Bibliothekswesen. Deutschsprachige und ausländische Bibliotheken verwenden derzeit noch unterschiedliche Standards bei der Speicherung und dem Austausch von Katalogdaten. Das von der Andrew W. Mellon Foundation geförderte Projekt verfolgt das Ziel, die Daten deutschsprachiger Bibliotheken weltweit sichtbar zu machen. Das Interesse von Wissenschaftlern ist nicht auf ihre jeweilige eigene nationale und kulturelle Umgebung beschränkt. Sie benötigen Informationen über Dokumente und Daten aus der ganzen WeIt. Gleichzeitig wollen sie die eigenen Forschungsergebnisse in der internationalen Forschungsgemeinschaft zur Diskussion stellen. Sprachraumübergreifende Standards für Metadaten und ein reibungsloser Metadatenaustausch sind Voraussetzung für die wissenschaftliche Kommunikation und für den individuellen Erfolg des einzelnen Forschers."
  11. Jimenez, V.O.R.: Nuevas perspectivas para la catalogacion : metadatos ver MARC (1999) 0.03
    0.029471038 = product of:
      0.058942076 = sum of:
        0.058942076 = product of:
          0.11788415 = sum of:
            0.11788415 = weight(_text_:22 in 5743) [ClassicSimilarity], result of:
              0.11788415 = score(doc=5743,freq=4.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.6565931 = fieldWeight in 5743, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5743)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    30. 3.2002 19:45:22
    Source
    Revista Española de Documentaçion Cientifica. 22(1999) no.2, S.198-219
  12. Boiger, W.: Entwicklung und Implementierung eines MARC21-MARCXML-Konverters in der Programmiersprache Perl (2015) 0.03
    0.027782785 = product of:
      0.05556557 = sum of:
        0.05556557 = product of:
          0.11113114 = sum of:
            0.11113114 = weight(_text_:daten in 2466) [ClassicSimilarity], result of:
              0.11113114 = score(doc=2466,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.45541114 = fieldWeight in 2466, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2466)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Aktuell befinden sich im Datenbestand des gemeinsamen Katalogs des Bibliotheksverbundes Bayern und des Kooperativen Bibliotheksverbundes Berlin-Brandenburg (B3Kat) etwa 25,6 Millionen Titeldatensätze. Die Bayerische Verbundzentrale veröffentlicht diese Daten seit 2011 im Zuge der bayerischen Open-Data-Initiative auf ihrer Webpräsenz. Zu den Nachnutzern dieser Daten gehören die Deutsche Digitale Bibliothek und das Projekt Culturegraph der DNB. Die Daten werden im weitverbreiteten Katalogdatenformat MARCXML publiziert. Zur Erzeugung der XML-Dateien verwendete die Verbundzentrale bis 2014 die Windows-Software MarcEdit. Anfang 2015 entwickelte der Verfasser im Rahmen der bayerischen Referendarsausbildung einen einfachen MARC-21-MARCXML-Konverter in Perl, der die Konvertierung wesentlich erleichert und den Einsatz von MarcEdit in der Verbundzentrale überflüssig macht. In der vorliegenden Arbeit, die zusammen mit dem Konverter verfasst wurde, wird zunächst die Notwendigkeit einer Perl-Implementierung motiviert. Im Anschluss werden die bibliographischen Datenformate MARC 21 und MARCXML beleuchtet und für die Konvertierung wesentliche Eigenschaften erläutert. Zum Schluss wird der Aufbau des Konverters im Detail beschrieben. Die Perl-Implementierung selbst ist Teil der Arbeit. Verwendung, Verbreitung und Veränderung der Software sind unter den Bedingungen der GNU Affero General Public License gestattet, entweder gemäß Version 3 der Lizenz oder (nach Ihrer Option) jeder späteren Version.[Sie finden die Datei mit der Perl-Implementierung in der rechten Spalte in der Kategorie Artikelwerkzeuge unter dem Punkt Zusatzdateien.]
  13. Krauch, S.: Bibliographische Datenformate (1994) 0.03
    0.025664635 = product of:
      0.05132927 = sum of:
        0.05132927 = product of:
          0.10265854 = sum of:
            0.10265854 = weight(_text_:daten in 3034) [ClassicSimilarity], result of:
              0.10265854 = score(doc=3034,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.42069077 = fieldWeight in 3034, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3034)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Datenformate dienen als Grundlage für die Strukturierung von bibliographischen Daten in EDV-Systemen. Ihr Einfluß auf wesentliche Funktionen wie Recherche, Anzeige und Ausgabe wird häufig unterschätzt und insbesondere bei der Auswahl eines EDV-Systems nicht genügend berücksichtigt. Der hier vorliegende, aus 2 Teilen bestehende Beitrag will dise Zusammenhänge erläutern und ihre Problematik diskutieren
  14. Gömpel, R.; Hoffmann, L.: Daten und Fakten für künftige Entscheidungen : Das Projekt "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" (2003) 0.03
    0.025664635 = product of:
      0.05132927 = sum of:
        0.05132927 = product of:
          0.10265854 = sum of:
            0.10265854 = weight(_text_:daten in 1557) [ClassicSimilarity], result of:
              0.10265854 = score(doc=1557,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.42069077 = fieldWeight in 1557, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1557)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  15. Geißelmann, F.: Arbeitsergebnisse der Arbeitsgruppe Codes (2000) 0.02
    0.024312364 = product of:
      0.048624728 = sum of:
        0.048624728 = product of:
          0.097249456 = sum of:
            0.097249456 = weight(_text_:22 in 4973) [ClassicSimilarity], result of:
              0.097249456 = score(doc=4973,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5416616 = fieldWeight in 4973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4973)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    26. 8.2000 19:22:35
  16. Weber, R.: "Functional requirements for bibliographic records" und Regelwerksentwicklung (2001) 0.02
    0.024312364 = product of:
      0.048624728 = sum of:
        0.048624728 = product of:
          0.097249456 = sum of:
            0.097249456 = weight(_text_:22 in 6838) [ClassicSimilarity], result of:
              0.097249456 = score(doc=6838,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5416616 = fieldWeight in 6838, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6838)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Dialog mit Bibliotheken. 13(2001) H.3, S.20-22
  17. Sigrist, B.; Patzer, K.; Pagel, B.; Weber, R.: 400.000 laufende Zeitschriften in der ZDB : GKD- und ZDB-spezifische Probleme im Falle eines Umstiegs des deutschen Regelwerks und Formats auf AACR2 und MARC21 (2002) 0.02
    0.022684548 = product of:
      0.045369096 = sum of:
        0.045369096 = product of:
          0.09073819 = sum of:
            0.09073819 = weight(_text_:daten in 5974) [ClassicSimilarity], result of:
              0.09073819 = score(doc=5974,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.37184164 = fieldWeight in 5974, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5974)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Im Folgenden sollen die wichtigsten Auswirkungen des intendierten Regelwerks- und Formatumstiegs auf GKD und ZDB dargestellt werden. Außerdem werden Alternativen aufgezeigt, die eventuell gewährleisten könnten, dass die deutschen Körperschafts- und Zeitschriftendaten international zur Verfügung gestellt und genutzt werden könnten, ohne dass zwangsläufig ein Wechsel des Regelwerks damit verbunden wäre. Auch jetzt ist es bereits relativ einfach möglich, MAB-Daten in MARC anzubieten und für Austauschzwecke zur Verfügung zu stellen. Außerdem bleibt unbenommen, dass Angleichungen an AACR2 in der Neufassung der RAK berücksichtigt werden. Die SBB würde es begrüßen, wenn die Katalogisierung in Deutschland sich entsprechend der Ergebnisse der DFG-geförderten Machbarkeitsstudie an internationale Standards angleichen würde und damit die internationale Kooperation verbessert würde. Die ZDB ist der zentrale Nachweis der Periodika-Bestände (für Zeitschriften und Zeitungen) der deutschen Bibliotheken und die deutsche Normdatei für Zeitschriftenkatalogisierung sowie die Basis für Leihverkehr und Dokumentlieferdienste. Die Zentralredaktion Titel der ZDB garantiert die bibliographische Kontrolle und dadurch die Konsistenz der Daten, die für die Verknüpfung mit Lokaldaten zwingend erforderlich ist und nicht aufgegeben werden kann. Gleichzeitig basieren die Eintragungen der ZDB auf den Körperschaftsansetzungen aus der GKD. Ca. 50 % aller Zeitschriftentitel, zurzeit also 550.000 Sätze, sind mit einer Körperschaftsaufnahme verknüpft, die zumindest hinsichtlich der Bestimmung eventueller Splits eine Bedeutung hat.
  18. Caplan, P.; Guenther, R.: Metadata for Internet resources : the Dublin Core Metadata Elements Set and its mapping to USMARC (1996) 0.02
    0.019647358 = product of:
      0.039294716 = sum of:
        0.039294716 = product of:
          0.07858943 = sum of:
            0.07858943 = weight(_text_:22 in 2408) [ClassicSimilarity], result of:
              0.07858943 = score(doc=2408,freq=4.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.4377287 = fieldWeight in 2408, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2408)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    13. 1.2007 18:31:22
    Source
    Cataloging and classification quarterly. 22(1996) nos.3/4, S.43-58
  19. Tennant, R.: ¬A bibliographic metadata infrastructure for the twenty-first century (2004) 0.02
    0.019647358 = product of:
      0.039294716 = sum of:
        0.039294716 = product of:
          0.07858943 = sum of:
            0.07858943 = weight(_text_:22 in 2845) [ClassicSimilarity], result of:
              0.07858943 = score(doc=2845,freq=4.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.4377287 = fieldWeight in 2845, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2845)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    9.12.2005 19:22:38
    Source
    Library hi tech. 22(2004) no.2, S.175-181
  20. Ansorge, K.: Das was 2007 (2007) 0.02
    0.019645395 = product of:
      0.03929079 = sum of:
        0.03929079 = product of:
          0.07858158 = sum of:
            0.07858158 = weight(_text_:daten in 2405) [ClassicSimilarity], result of:
              0.07858158 = score(doc=2405,freq=12.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.3220243 = fieldWeight in 2405, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2405)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Darin u.a: "Netzpublikationen - Die DNB hat mit Inkrafttreten des Gesetzes über die Deutsche Nationalbibliothek im Jahr 2006 den Auftrag der Sammlung, Erschließung, Verzeichnung und Archivierung von Netzpublikationen erhalten. Zum Sammelgebiet Netzpublikationen gehören alle Darstellungen in Schrift, Bild und Ton, die in öffentlichen Netzen zugänglich gemacht werden. Die Abgabepflicht umfasst sowohl Internetveröffentlichungen mit Entsprechungen zum Printbereich als auch webspezifische Medienwerke." "Kataloganreicherung - In Gesprächen mit dem Deutschen Bibliotheksverband und dem Börsenverein des Deutschen Buchhandels hatte sich die DNB bereiterklärt, die Rolle eines zentralen Dienstleisters bei der Verbreitung digitaler Zusatzinformationen zu bibliografischen Daten zu übernehmen. Für die Anreicherung der Daten der Deutschen Nationalbibliografie mit qualitativ hochwertigen Zusatzinformationen (recherchierbare PDF-Dokumente) konnten im Jahr 2007 die Weichen gestellt werden. Seit Jahresbeginn 2008 werden die Inhaltsverzeichnisse der jährlich rund 75.000 monografischen Neuerscheinungen des Verlagsbuchhandels gescannt und als ergänzende bibliografische Daten über das Internet und die Datendienste der DNB angeboten. Im Rahmen der bestehenden Kooperation mit der MVB Marketing- und Verlagsservice des Buchhandels GmbH werden zukünftig neben den Daten des VLB (Verzeichnis Lieferbarer Bücher) auch die entstehenden Zusatzinformationen ausgetauscht."
    "DDC-Deutsch - Bereits im Jahr 2006 wurde die Dewey-Dezimalklassifikation (DDC) für die inhaltliche Erschließung der in den Reihen B (Monografien und Periodika außerhalb des Verlagsbuchhandels) und H (Hochschulschriften) der Deutschen Nationalbibliografie angezeigten Publikationen eingeführt. Mit Heft 1/2007 hat die DDC auch in der Reihe A (Monografien und Periodika des Verlagsbuchhandels) Einzug gehalten. Die dort angezeigten Publikationen werden zusätzlich wie bisher vollständig mit RSWK Schlagwortketten erschlossen. Die DNB wird damit zum größten europäischen Lieferanten von Dewey-Notationen und nimmt nach der LoC weltweit die zweite Stelle ein. Durch die Integration der Daten der DNB in den WorldCat werden Sichtbarkeit und Nutzungsmöglichkeiten dieses Angebots auch über den deutschsprachigen Raum hinaus verbessert. Um den Informationsaustausch unter den europäischen DDC-Anwendern zu verbessern, europäische Belange in der Klassifikation stärker durchzusetzen und die Verbreitung in Europa gemeinsam mit OCLC zu koordinieren, wurde die EDUG (European DDC Users' Group) gegründet."
    "DDC-vascoda - Das Projekt DDC-vascoda wurde 2007 abgeschlossen. Für den Sucheinstieg bei vascoda wurde bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungs-)Jahr kombiniert werden kann, angeboten. Die Suche konnte zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Vascoda verwendete die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument. Ziel des Projektes DDC-vascoda war es, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Weiterhin wurde ein HTML-Dienst entwickelt, der es Fachportalen und anderen Datenanbietern ermöglicht, ohne großen Programmieraufwand ein DDC-Browsing über die eigenen Daten bereitzustellen."

Years

Languages

  • e 39
  • d 34
  • pl 1
  • sp 1
  • More… Less…

Types