Search (25 results, page 1 of 2)

  • × year_i:[2010 TO 2020}
  • × theme_ss:"Datenformate"
  1. Birkner, M.: VuFind an der AK Bibliothek Wien (2015) 0.02
    0.015306472 = product of:
      0.045919415 = sum of:
        0.008834538 = weight(_text_:in in 1833) [ClassicSimilarity], result of:
          0.008834538 = score(doc=1833,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.14877784 = fieldWeight in 1833, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1833)
        0.037084877 = weight(_text_:und in 1833) [ClassicSimilarity], result of:
          0.037084877 = score(doc=1833,freq=10.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.38329202 = fieldWeight in 1833, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1833)
      0.33333334 = coord(2/6)
    
    Abstract
    In diesem Artikel geht es um die bisherigen Tests der AK Bibliothek Wien mit dem Discovery System VuFind. Es handelt sich um eine mögliche Alternative zu Primo, einer weit verbreiteten proprietären Suchlösung an österreichsischen Bibliotheken. Nach einem kurzen technischen Überblick wird beschrieben, welche Entwicklungen und Anpassungen vorgenommen werden mussten, um eine Kompatibilität zwischen VuFind und den in der AK Bibliothek vorherrschenden Bedingungen zu schaffen. Dabei wird näher auf die Verarbeitung des Datenformats MAB2 sowie die Schnittstellen zum Bibliothekssystem Aleph und dem Bibliotheks-Repository eingegangen. Die ersten Ergebnisse werden präsentiert und noch zu lösende Probleme angesprochen. Zudem wird ein Ausblick auf zukünftige Vorhaben gegeben.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 68(2015) H.1, S.79-90
  2. Barckow, A.: Bücherhallen Hamburg stellten auf MARC21 um : ambitioniertes Projekt realisiert / Einführung von GND und RDA bereits in Arbeit (2012) 0.01
    0.01414357 = product of:
      0.04243071 = sum of:
        0.008924231 = weight(_text_:in in 148) [ClassicSimilarity], result of:
          0.008924231 = score(doc=148,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.15028831 = fieldWeight in 148, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=148)
        0.03350648 = weight(_text_:und in 148) [ClassicSimilarity], result of:
          0.03350648 = score(doc=148,freq=4.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.34630734 = fieldWeight in 148, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=148)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Bücherhallen Hamburg haben im Oktober des vergangenen Jahres als eine der ersten Öffentlichen Bibliotheken im deutschsprachigen Raum Katalog und Erwerbungsdatenbank auf MARC 21 umgestellt.
  3. Boiger, W.: Entwicklung und Implementierung eines MARC21-MARCXML-Konverters in der Programmiersprache Perl (2015) 0.01
    0.014090782 = product of:
      0.042272344 = sum of:
        0.010929906 = weight(_text_:in in 2466) [ClassicSimilarity], result of:
          0.010929906 = score(doc=2466,freq=12.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18406484 = fieldWeight in 2466, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2466)
        0.03134244 = weight(_text_:und in 2466) [ClassicSimilarity], result of:
          0.03134244 = score(doc=2466,freq=14.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.32394084 = fieldWeight in 2466, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2466)
      0.33333334 = coord(2/6)
    
    Abstract
    Aktuell befinden sich im Datenbestand des gemeinsamen Katalogs des Bibliotheksverbundes Bayern und des Kooperativen Bibliotheksverbundes Berlin-Brandenburg (B3Kat) etwa 25,6 Millionen Titeldatensätze. Die Bayerische Verbundzentrale veröffentlicht diese Daten seit 2011 im Zuge der bayerischen Open-Data-Initiative auf ihrer Webpräsenz. Zu den Nachnutzern dieser Daten gehören die Deutsche Digitale Bibliothek und das Projekt Culturegraph der DNB. Die Daten werden im weitverbreiteten Katalogdatenformat MARCXML publiziert. Zur Erzeugung der XML-Dateien verwendete die Verbundzentrale bis 2014 die Windows-Software MarcEdit. Anfang 2015 entwickelte der Verfasser im Rahmen der bayerischen Referendarsausbildung einen einfachen MARC-21-MARCXML-Konverter in Perl, der die Konvertierung wesentlich erleichert und den Einsatz von MarcEdit in der Verbundzentrale überflüssig macht. In der vorliegenden Arbeit, die zusammen mit dem Konverter verfasst wurde, wird zunächst die Notwendigkeit einer Perl-Implementierung motiviert. Im Anschluss werden die bibliographischen Datenformate MARC 21 und MARCXML beleuchtet und für die Konvertierung wesentliche Eigenschaften erläutert. Zum Schluss wird der Aufbau des Konverters im Detail beschrieben. Die Perl-Implementierung selbst ist Teil der Arbeit. Verwendung, Verbreitung und Veränderung der Software sind unter den Bedingungen der GNU Affero General Public License gestattet, entweder gemäß Version 3 der Lizenz oder (nach Ihrer Option) jeder späteren Version.[Sie finden die Datei mit der Perl-Implementierung in der rechten Spalte in der Kategorie Artikelwerkzeuge unter dem Punkt Zusatzdateien.]
  4. Mensing, P.: Planung und Durchführung von Digitalisierungsprojekten am Beispiel nicht-textueller Materialien (2010) 0.01
    0.013949163 = product of:
      0.04184749 = sum of:
        0.010820055 = weight(_text_:in in 3577) [ClassicSimilarity], result of:
          0.010820055 = score(doc=3577,freq=24.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1822149 = fieldWeight in 3577, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3577)
        0.031027434 = weight(_text_:und in 3577) [ClassicSimilarity], result of:
          0.031027434 = score(doc=3577,freq=28.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.3206851 = fieldWeight in 3577, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3577)
      0.33333334 = coord(2/6)
    
    Abstract
    Im Jahr 2007 hat die GWLB gemeinsam mit der HAAB, der Universitätsbibliothek Johann Christian Senckenberg und mehreren Stiftungen die Königliche Gartenbibliothek Herrenhausen erworben. Neben den textuellen Materialien enthält die Bibliothek auch viele nicht-textuelle Materialien wie Herbarien, Zeichnungen und auch Gouachen mit Abbildungen von Obstsorten aus der ehemaligen Obstbaumplantage. Diese Gouachen in Mappen liegend bei der GWLB aufbewahrt. Die einzelnen Blätter tragen keine Titel, sondern sind am unteren Rand mit Bleistift durchnummeriert. Ohne die beigefügte ebenfalls durchnummerierte Liste mit Sortennamen ist keine eindeutige Zuordnung und die Nutzung somit nur eingeschränkt möglich. Die Überlegung zu einer digitalen Präsentation liegt daher nahe, denn "der ungehinderte Zugang zu elektronischen wissenschaftlich relevanten Publikationen von jedem Ort aus und zu jeder Zeit spielt in der digitalen Informationsgesellschaft eine immer bedeutendere Rolle." Oder um es drastischer zu formulieren: "Was nicht im Web ist, ist nicht in der Welt". Bevor jedoch mit der Digitalisierung begonnen werden kann, müssen einige Fragen vorab geklärt werden. Im Folgenden werden Kriterien, die bei der Planung und Durchführung von Digitalisierungsprojekten zu beachten sind, behandelt.
    Content
    Darin auch: "2.7 Erschließung der Digitalisate Die formale Erschließung von gedruckten Beständen wird in Deutschland nach RAK-WB bzw. RAK-OB durchgeführt. Im Gegensatz zu Druckwerken, die meist alle wichtigen Informationen selbst enthalten (Impressum), sind in oder an Kunstwerken und Bildern meist keine Angaben wie Autor, Künstler oder Entstehungsjahr zu finden. Für die Formalerfassung von Nichtbuchmaterialien sind in Deutschland die "Regeln für die alphabetische Katalogisierung von Nichtbuchmaterialien" anzuwenden (RAK-NBM), eine Erweiterung der o.g. RAK. Zur Erschließung von Kunstwerken wurde seit den 70er Jahren des 20. Jhds. die Marburger-Index-Datenbank (MIDAS) entwickelt, die auf dem AKL, ICONCLASS und auch RAK aufbaut. MIDAS findet hauptsächlich in Museen Anwendung, konnte sich aber aufgrund der nicht verbindlichen Nutzung nicht durchsetzen. Ebenfalls aus dem Museumsbereich stammt CIDOC CRM, das seit 2006 ISO-zertifiziert ist (ISO 21127:2006) und der Datenfeldkatalog zur Grundinventarisation. Um die inhaltliche Erschließung von Bibliotheksbeständen einheitlich gestalten zu können, wurde die Schlagwortnormdatei entwickelt. Diese Datei ist universell ausgerichtet und ist daher für Spezialgebiete nicht tief genug ausgearbeitet. Im kunsthistorischen Bereich sind daher außerdem u.a. der AA und der AGM von Bedeutung. Als Klassifizierungssystem steht ICONCLASS zur Verfügung. Bei der inhaltlichen Erschließung ist darauf zu achten, dass irrelevante Informationen nicht zur unnötigen Vergrößerung des Kataloges führen. Um durchgängig eine größtmögliche Nutzerorientierung bieten zu können, sollten die gewünschten Prioritäten der Erschließung in einer Richtlinie festgehalten werden. Zur Interpretation von Bildern wurde von Panofsky ein 3-Stufen-Modell entwickelt, dass sich in prä- oder vor-ikonografische, ikonografische Beschreibung und ikonologische Interpretation unterteilen lässt. In der ersten Stufe werden nur die dargestellten Dinge oder Personen skizziert, ohne ihre Bedeutung zueinander zu interpretieren. Dies erfolgt erst in der zweiten Stufe. Hier wird das Ahema des Kunstwerkes allerdings ohne weitere Deutung benannt. In der dritten Stufe wird schließlich geklärt, warum dieses Werk so geschaffen wurde und nicht anders.
    2.8 Metadaten und Austauschformate . . .
  5. Schaffner, V.: FRBR in MAB2 und Primo - ein kafkaesker Prozess? : Möglichkeiten der FRBRisierung von MAB2-Datensätzen in Primo exemplarisch dargestellt an Datensätzen zu Franz Kafkas "Der Process" (2011) 0.01
    0.013936145 = product of:
      0.041808434 = sum of:
        0.01183933 = weight(_text_:in in 907) [ClassicSimilarity], result of:
          0.01183933 = score(doc=907,freq=22.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.19937998 = fieldWeight in 907, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=907)
        0.029969105 = weight(_text_:und in 907) [ClassicSimilarity], result of:
          0.029969105 = score(doc=907,freq=20.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.3097467 = fieldWeight in 907, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=907)
      0.33333334 = coord(2/6)
    
    Abstract
    FRBR (Functional Requirements for Bibliographic Records) ist ein logisches Denkmodell für bibliographische Datensätze, welches zur benutzerfreundlicheren Gestaltung von Browsing in Online-Bibliothekskatalogen herangezogen werden kann. Im Österreichischen Bibliothekenverbund (OBV) werden bibliographische Datensätze nach den Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken (RAK-WB) erstellt und liegen im Datenformat MAB2 (Maschinelles Austauschformat für Bibliotheken) vor. Mit der Software Primo von Ex Libris, die 2009 implementiert wurde, besteht die Möglichkeit bibliographische Datensätze für die Anzeige neu aufzubereiten. Wie ausgehend von MAB2-Daten eine möglichst FRBR-konforme Datenpräsentation in Primo geleistet werden kann und welche Probleme sich dabei ergeben, ist die zentrale Fragestellung dieser Master Thesis. Exemplarisch dargestellt wird dies anhand von Datensätzen des Österreichischen Bibliothekenverbundes zu Franz Kafkas "Der Process". Im Fokus stehen drei Aspekte, welche im Zusammenhang mit FRBR, MAB2 und Primo als besonders problematisch und diskussionswürdig erscheinen: das Konzept des "Werkes", Expressionen als praxistaugliche Entitäten und Aggregate bzw. mehrbändig begrenzte Werke. Nach einer Einführung in das FRBR-Modell wird versucht einen idealen FRBRBaum zu Kafkas "Der Process" in seinen unterschiedlichen Ausprägungen (Übersetzungen, Verfilmungen, Textvarianten, Aggregate etc.) darzustellen: Schon hier werden erste Grenzen des Modells sichtbar. Daran anschließend werden Datensätze des OBV einer Analyse unterzogen, um die FRBRTauglichkeit von MAB2 und die Möglichkeit der FRBR keys in Primo zu beleuchten. Folgende Einschränkungen wurden deutlich: Die derzeitige Herangehensweise und Praxis der Formalerschließung ist nicht auf FRBR vorbereitet. Die vorliegenden Metadaten sind zu inkonsistent, um ein maschinelles Extrahieren für eine FRBR-konforme Datenpräsentation zu ermöglichen. Die Möglichkeiten des Werkclusterings und der Facettierung in Primo bieten darüber hinaus zwar einen Mehrwert für das Browsing in Trefferlisten, jedoch nur bedingt im FRBR-Sinne.
    Content
    Master Thesis im Rahmen des Universitätslehrganges Library and Information Studies MSc an der Universität Wien in Kooperation mit der Österreichischen Nationalbibliothek. Vgl. auch: http://eprints.rclis.org/16193/1/Master%20Thesis_Schaffner%20Verena.pdf.
    Series
    Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare ; 9
  6. BIBFRAME Model Overview (2013) 0.01
    0.011934852 = product of:
      0.035804555 = sum of:
        0.0044621155 = weight(_text_:in in 763) [ClassicSimilarity], result of:
          0.0044621155 = score(doc=763,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.07514416 = fieldWeight in 763, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=763)
        0.03134244 = weight(_text_:und in 763) [ClassicSimilarity], result of:
          0.03134244 = score(doc=763,freq=14.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.32394084 = fieldWeight in 763, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=763)
      0.33333334 = coord(2/6)
    
    Content
    Vgl. Kommentar Eversberg: Wer dranbleiben will am Puls der Zeit und speziell an der sich dynamisierenden Evolution eines neuen Datenformatkonzepts, der sollte sich langsam beeilen, sich mit BIBFRAME vertraut zu machen: http://bibframe.org Diese Startseite organisiert nun den Zugang zu allem, was schon vorliegt und präsentabel ist, und das ist allerhand. Wer erst mal nur schnuppern will und schauen, wie denn BIBFRAME-Daten wohl aussehen, gehe zur "demonstration area", wo man u.a. auch aufbereitete Daten der DNB findet. Es gibt ferner Online Tools, und darunter einen "Transformation service", dem man eigenes MARC-XML übergeben kann, damit er was draus mache. [Exporte mit unserem MARCXML.APR klappen nicht unmittelbar, man muß zumindest die in der Datei schon vorhandenen zwei Kopfzeilen aktivieren und ans Ende noch </collection> setzen. Und hierarchische Daten machen noch Probleme, die wir uns vornehmen müssen.] Wer jetzt denkt, "Was geht uns das alles an?", der lese die letzte Zeile, die da lautet: "BIBFRAME.ORG is a collaborative effort of US Library of Congress, Zepheira and you!"
  7. Meßmer, G.; Müller, M.: Standards in der Formalerschließung gedruckter und elektronischer Ressourcen (2015) 0.01
    0.010872297 = product of:
      0.03261689 = sum of:
        0.008924231 = weight(_text_:in in 1143) [ClassicSimilarity], result of:
          0.008924231 = score(doc=1143,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.15028831 = fieldWeight in 1143, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=1143)
        0.02369266 = weight(_text_:und in 1143) [ClassicSimilarity], result of:
          0.02369266 = score(doc=1143,freq=2.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.24487628 = fieldWeight in 1143, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1143)
      0.33333334 = coord(2/6)
    
  8. Aslanidi, M.; Papadakis, I.; Stefanidakis, M.: Name and title authorities in the music domain : alignment of UNIMARC authorities format with RDA (2018) 0.01
    0.010506973 = product of:
      0.031520918 = sum of:
        0.010820055 = weight(_text_:in in 5178) [ClassicSimilarity], result of:
          0.010820055 = score(doc=5178,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1822149 = fieldWeight in 5178, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5178)
        0.020700864 = product of:
          0.04140173 = sum of:
            0.04140173 = weight(_text_:22 in 5178) [ClassicSimilarity], result of:
              0.04140173 = score(doc=5178,freq=2.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.2708308 = fieldWeight in 5178, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5178)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    This article discusses and highlights alignment issues that arise between UNIMARC Authorities Format and Resource Description and Access (RDA) regarding the creation of name and title authorities for musical works and creators. More specifically, RDA, as an implementation of the FRAD model, is compared with the UNIMARC Authorities Format (Updates 2012 and 2016) in an effort to highlight various cases where the discovery of equivalent fields between the two standards is not obvious. The study is envisioned as a first step in an ongoing process of working with the UNIMARC community throughout RDA's advancement and progression regarding the entities [musical] Work and Names.
    Date
    19. 3.2019 12:17:22
  9. Suominen, O.; Hyvönen, N.: From MARC silos to Linked Data silos? (2017) 0.01
    0.007829976 = product of:
      0.023489928 = sum of:
        0.009274333 = weight(_text_:in in 3732) [ClassicSimilarity], result of:
          0.009274333 = score(doc=3732,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1561842 = fieldWeight in 3732, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3732)
        0.014215595 = weight(_text_:und in 3732) [ClassicSimilarity], result of:
          0.014215595 = score(doc=3732,freq=2.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.14692576 = fieldWeight in 3732, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3732)
      0.33333334 = coord(2/6)
    
    Abstract
    Seit einiger Zeit stellen Bibliotheken ihre bibliografischen Metadadaten verstärkt offen in Form von Linked Data zur Verfügung. Dabei kommen jedoch ganz unterschiedliche Modelle für die Strukturierung der bibliografischen Daten zur Anwendung. Manche Bibliotheken verwenden ein auf FRBR basierendes Modell mit mehreren Schichten von Entitäten, während andere flache, am Datensatz orientierte Modelle nutzen. Der Wildwuchs bei den Datenmodellen erschwert die Nachnutzung der bibliografischen Daten. Im Ergebnis haben die Bibliotheken die früheren MARC-Silos nur mit zueinander inkompatiblen Linked-Data-Silos vertauscht. Deshalb ist es häufig schwierig, Datensets miteinander zu kombinieren und nachzunutzen. Kleinere Unterschiede in der Datenmodellierung lassen sich zwar durch Schema Mappings in den Griff bekommen, doch erscheint es fraglich, ob die Interoperabilität insgesamt zugenommen hat. Der Beitrag stellt die Ergebnisse einer Studie zu verschiedenen veröffentlichten Sets von bibliografischen Daten vor. Dabei werden auch die unterschiedlichen Modelle betrachtet, um bibliografische Daten als RDF darzustellen, sowie Werkzeuge zur Erzeugung von entsprechenden Daten aus dem MARC-Format. Abschließend wird der von der Finnischen Nationalbibliothek verfolgte Ansatz behandelt.
  10. Springer: Neues Online-Tool zum Herunterladen (2011) 0.00
    0.0039090896 = product of:
      0.023454536 = sum of:
        0.023454536 = weight(_text_:und in 4716) [ClassicSimilarity], result of:
          0.023454536 = score(doc=4716,freq=4.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.24241515 = fieldWeight in 4716, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4716)
      0.16666667 = coord(1/6)
    
    Abstract
    Springer hat ein neues elektronisches Service-Tool entwickelt, mit dem Bibliothekare und Dokumentare eine ganze Reihe sogenannter MARC Records oder eBook-Titellisten herunterladen können. Sie sind auf die unterschiedlichen Anforderungen der Bibliothekare zugeschnitten. Der Wissenschaftsverlag kann damit verbesserte bibliografische Metadaten nutzerfreundlich anbieten.
    Content
    "Mit nur wenigen Klicks können die einzelnen Listen der fachgebietsbezogenen Springer eBook-Sammlungen mit den gewünschten bibliografischen Angaben heruntergeladen werden. Das neue Online-Tool ist unter www.springer.com/marc zu finden. Neben den MARC Records können die Bibliothekare die komplette oder eine individuell zusammengestellte Liste zu den Springer-eBooks auswählen. Jeder Eintrag einer solchen Liste enthält die wesentlichen bibliografischen Angaben sowie die URL zu dem entsprechenden Buch, das sich auf der Plattform von SpringerLink befindet. Springer ist der größte eBookVerlag im wissenschaftlichen STM-Bereich. Die Inhalte von Büchern und Zeitschriften werden den Nutzern über SpringerLink zur Verfügung gestellt."
  11. Lee, S.; Jacob, E.K.: ¬An integrated approach to metadata interoperability : construction of a conceptual structure between MARC and FRBR (2011) 0.00
    0.0029572663 = product of:
      0.017743597 = sum of:
        0.017743597 = product of:
          0.035487194 = sum of:
            0.035487194 = weight(_text_:22 in 302) [ClassicSimilarity], result of:
              0.035487194 = score(doc=302,freq=2.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.23214069 = fieldWeight in 302, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=302)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    10. 9.2000 17:38:22
  12. Stephens, O.: Introduction to OpenRefine (2014) 0.00
    0.0025241538 = product of:
      0.015144923 = sum of:
        0.015144923 = weight(_text_:in in 2884) [ClassicSimilarity], result of:
          0.015144923 = score(doc=2884,freq=16.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.25504774 = fieldWeight in 2884, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2884)
      0.16666667 = coord(1/6)
    
    Abstract
    OpenRefine is described as a tool for working with 'messy' data - but what does this mean? It is probably easiest to describe the kinds of data OpenRefine is good at working with and the sorts of problems it can help you solve. OpenRefine is most useful where you have data in a simple tabular format but with internal inconsistencies either in data formats, or where data appears, or in terminology used. It can help you: Get an overview of a data set Resolve inconsistencies in a data set Help you split data up into more granular parts Match local data up to other data sets Enhance a data set with data from other sources Some common scenarios might be: 1. Where you want to know how many times a particular value appears in a column in your data. 2. Where you want to know how values are distributed across your whole data set. 3. Where you have a list of dates which are formatted in different ways, and want to change all the dates in the list to a single common date format.
  13. Aalberg, T.; Zumer, M.: ¬The value of MARC data, or, challenges of frbrisation (2013) 0.00
    0.0022310577 = product of:
      0.0133863455 = sum of:
        0.0133863455 = weight(_text_:in in 1769) [ClassicSimilarity], result of:
          0.0133863455 = score(doc=1769,freq=18.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.22543246 = fieldWeight in 1769, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1769)
      0.16666667 = coord(1/6)
    
    Abstract
    Purpose - Bibliographic records should now be used in innovative end-user applications that enable users to learn about, discover and exploit available content, and this information should be interpreted and reused also beyond the library domain. New conceptual models such as FRBR offer the foundation for such developments. The main motivation for this research is to contribute to the adoption of the FRBR model in future bibliographic standards and systems, by analysing limitations in existing bibliographic information and looking for short- and long-term solutions that can improve the data quality in terms of expressing the FRBR model. Design/methodology/approach - MARC records in three collections (BIBSYS catalogue, Slovenian National Bibliography and BTJ catalogue) were first analysed by looking at statistics of field and subfield usage to determine common patterns that express FRBR. Based on this, different rules for interpreting the information were developed. Finally typical problems/errors found in MARC records were analysed. Findings - Different types of FRBR entity-relationship structures that typically can be found in bibliographic records are identified. Problems related to interpreting these from bibliographic records are analyzed. Frbrisation of consistent and complete MARC records is relatively successful, particularly if all entities are systematically described and relationships among them are clearly indicated. Research limitations/implications - Advanced matching was not used for clustering of identical entities. Practical implications - Cataloguing guidelines are proposed to enable better frbrisation of MARC records in the interim period, before new formats are developed and implemented. Originality/value - This is the first in depth analysis of manifestations embodying several expressions and of works and agents as subjects.
  14. Chen, Y.-N.: ¬An FRBR-based approach for transforming MARC records into linked data (2018) 0.00
    0.0020609628 = product of:
      0.012365777 = sum of:
        0.012365777 = weight(_text_:in in 4799) [ClassicSimilarity], result of:
          0.012365777 = score(doc=4799,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.2082456 = fieldWeight in 4799, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=4799)
      0.16666667 = coord(1/6)
    
    Series
    Advances in knowledge organization; vol.16
    Source
    Challenges and opportunities for knowledge organization in the digital age: proceedings of the Fifteenth International ISKO Conference, 9-11 July 2018, Porto, Portugal / organized by: International Society for Knowledge Organization (ISKO), ISKO Spain and Portugal Chapter, University of Porto - Faculty of Arts and Humanities, Research Centre in Communication, Information and Digital Culture (CIC.digital) - Porto. Eds.: F. Ribeiro u. M.E. Cerveira
  15. Beall, J.; Mitchell, J.S.: History of the representation of the DDC in the MARC Classification Format (2010) 0.00
    0.001821651 = product of:
      0.010929906 = sum of:
        0.010929906 = weight(_text_:in in 3568) [ClassicSimilarity], result of:
          0.010929906 = score(doc=3568,freq=12.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18406484 = fieldWeight in 3568, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3568)
      0.16666667 = coord(1/6)
    
    Abstract
    This article explores the history of the representation of the Dewey Decimal Classification (DDC) in the Machine Readable Cataloging (MARC) formats, with a special emphasis on the development of the MARC classification format. Until 2009, the format used to represent the DDC has been a proprietary one that predated the development of the MARC classification format. The need to replace the current editorial support system, the desire to deliver DDC data in a variety of formats to support different uses, and the increasingly global context of editorial work with translation partners around the world prompted the Dewey editorial team, along with OCLC research and development colleagues, to rethink the underlying representation of the DDC and choose the MARC 21 formats for classification and authority data. The discussion is framed with quotes from the writings of Nancy J. Williamson, whose analysis of the content of the Library of Congress Classification (LCC) schedules played a key role in shaping the original MARC classification format.
    Footnote
    Beitrag in einem special issue: Is there a catalog in your future? Celebrating Nancy J. Williamson: Scholar, educator, colleague, mentor
  16. Manguinhas, H.; Freire, N.; Machado, J.; Borbinha, J.: Supporting multilingual bibliographic resource discovery with Functional Requirements for Bibliographic Records (2012) 0.00
    0.001821651 = product of:
      0.010929906 = sum of:
        0.010929906 = weight(_text_:in in 133) [ClassicSimilarity], result of:
          0.010929906 = score(doc=133,freq=12.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18406484 = fieldWeight in 133, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=133)
      0.16666667 = coord(1/6)
    
    Abstract
    This paper describes an experiment exploring the hypothesis that innovative application of the Functional Require-ments for Bibliographic Records (FRBR) principles can complement traditional bibliographic resource discovery systems in order to improve the user experience. A specialized service was implemented that, when given a plain list of results from a regular online catalogue, was able to process, enrich and present that list in a more relevant way for the user. This service pre-processes the records of a traditional online catalogue in order to build a semantic structure following the FRBR model. The service also explores web search features that have been revolutionizing the way users conceptualize resource discovery, such as relevance ranking and metasearching. This work was developed in the context of the TELPlus project. We processed nearly one hundred thousand bibliographic and authority records, in multiple languages, and originating from twelve European na-tional libraries. This paper describes the architecture of the service and the main challenges faced, especially concerning the extraction and linking of the relevant FRBR entities from the bibliographic metadata produced by the libraries. The service was evaluated by end users, who filled out a questionnaire after using a traditional online catalogue and the new service, both with the same bibliographic collection. The analysis of the results supports the hypothesis that FRBR can be implemented for re-source discovery in a non-intrusive way, reusing the data of any existing traditional bibliographic system.
  17. Tosaka, Y.; Park, J.-r.: RDA: Resource description & access : a survey of the current state of the art (2013) 0.00
    0.001821651 = product of:
      0.010929906 = sum of:
        0.010929906 = weight(_text_:in in 677) [ClassicSimilarity], result of:
          0.010929906 = score(doc=677,freq=12.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18406484 = fieldWeight in 677, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=677)
      0.16666667 = coord(1/6)
    
    Abstract
    Resource Description & Access (RDA) is intended to provide a flexible and extensible framework that can accommodate all types of content and media within rapidly evolving digital environments while also maintaining compatibility with the Anglo-American Cataloguing Rules, 2nd edition (AACR2). The cataloging community is grappling with practical issues in navigating the transition from AACR2 to RDA; there is a definite need to evaluate major subject areas and broader themes in information organization under the new RDA paradigm. This article aims to accomplish this task through a thorough and critical review of the emerging RDA literature published from 2005 to 2011. The review mostly concerns key areas of difference between RDA and AACR2, the relationship of the new cataloging code to metadata standards, the impact on encoding standards such as Machine-Readable Cataloging (MARC), end user considerations, and practitioners' views on RDA implementation and training. Future research will require more in-depth studies of RDA's expected benefits and the manner in which the new cataloging code will improve resource retrieval and bibliographic control for users and catalogers alike over AACR2. The question as to how the cataloging community can best move forward to the post-AACR2/MARC environment must be addressed carefully so as to chart the future of bibliographic control in the evolving environment of information production, management, and use.
    Series
    Advances in information science
  18. Zapounidou, S.; Sfakakis, M.; Papatheodorou, C.: Library data integration : towards BIBFRAME mapping to EDM (2014) 0.00
    0.0017848461 = product of:
      0.010709076 = sum of:
        0.010709076 = weight(_text_:in in 1589) [ClassicSimilarity], result of:
          0.010709076 = score(doc=1589,freq=8.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18034597 = fieldWeight in 1589, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=1589)
      0.16666667 = coord(1/6)
    
    Abstract
    Integration of library data into the Linked Data environment is a key issue in libraries and is approached on the basis of interoperability between library data conceptual models. Achieving interoperability for different representations of the same or related entities between the library and cultural heritage domains shall enhance rich bibliographic data reusability and support the development of new data-driven information services. This paper aims to contribute to the desired interoperability by attempting to map core semantic paths between the BIBFRAME and EDM conceptual models. BIBFRAME is developed by the Library of Congress to support transformation of legacy library data in MARC format into linked data. EDM is the model developed for and used in the Europeana Cultural Heritage aggregation portal.
    Series
    Communications in computer and information science; 478
  19. Bernstein, S.: MARC reborn : migrating MARC fixed field metadata into the variable fields (2016) 0.00
    0.001682769 = product of:
      0.010096614 = sum of:
        0.010096614 = weight(_text_:in in 2631) [ClassicSimilarity], result of:
          0.010096614 = score(doc=2631,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.17003182 = fieldWeight in 2631, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=2631)
      0.16666667 = coord(1/6)
    
    Abstract
    Despite calls over the past decade and a half for MARC to be replaced with an encoding standard that is more in keeping with current metadata practices, the current standard has evolved in such a way as to render many of the arguments by those who call for its demise moot. A further revision to the standard is proposed to address the one remaining problem with MARC so as to allow it to better serve the needs of information seekers for years to come.
  20. Tell, B.: On MARC and natural text searching : a review of Pauline Cochrane's Thinking grafted onto a Swedish spy on library matters (2016) 0.00
    0.001682769 = product of:
      0.010096614 = sum of:
        0.010096614 = weight(_text_:in in 2698) [ClassicSimilarity], result of:
          0.010096614 = score(doc=2698,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.17003182 = fieldWeight in 2698, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=2698)
      0.16666667 = coord(1/6)
    
    Content
    Vgl.: Tell, B.: On MARC and natural text searching: a review of Pauline Cochrane's inspirational thinking grafted onto a Swedish spy on library matters. In: Saving the time of the library user through subject access innovation: Papers in honor of Pauline Atherton Cochrane. Ed.: W.J. Wheeler. Urbana-Champaign, IL: Illinois University at Urbana-Champaign, Graduate School of Library and Information Science 2000. S.46-58. Vgl.: DOI: 10.1080/01639374.2015.1116359.