Search (196 results, page 1 of 10)

  • × theme_ss:"Datenformate"
  1. Manguinhas, H.; Freire, N.; Machado, J.; Borbinha, J.: Supporting multilingual bibliographic resource discovery with Functional Requirements for Bibliographic Records (2012) 0.03
    0.03270465 = product of:
      0.1308186 = sum of:
        0.04513083 = weight(_text_:web in 133) [ClassicSimilarity], result of:
          0.04513083 = score(doc=133,freq=10.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.40312994 = fieldWeight in 133, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=133)
        0.06688959 = weight(_text_:extraction in 133) [ClassicSimilarity], result of:
          0.06688959 = score(doc=133,freq=2.0), product of:
            0.20380433 = queryWeight, product of:
              5.941145 = idf(docFreq=315, maxDocs=44218)
              0.03430388 = queryNorm
            0.32820496 = fieldWeight in 133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.941145 = idf(docFreq=315, maxDocs=44218)
              0.0390625 = fieldNorm(doc=133)
        0.018798191 = weight(_text_:system in 133) [ClassicSimilarity], result of:
          0.018798191 = score(doc=133,freq=2.0), product of:
            0.10804188 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03430388 = queryNorm
            0.17398985 = fieldWeight in 133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.0390625 = fieldNorm(doc=133)
      0.25 = coord(3/12)
    
    Abstract
    This paper describes an experiment exploring the hypothesis that innovative application of the Functional Require-ments for Bibliographic Records (FRBR) principles can complement traditional bibliographic resource discovery systems in order to improve the user experience. A specialized service was implemented that, when given a plain list of results from a regular online catalogue, was able to process, enrich and present that list in a more relevant way for the user. This service pre-processes the records of a traditional online catalogue in order to build a semantic structure following the FRBR model. The service also explores web search features that have been revolutionizing the way users conceptualize resource discovery, such as relevance ranking and metasearching. This work was developed in the context of the TELPlus project. We processed nearly one hundred thousand bibliographic and authority records, in multiple languages, and originating from twelve European na-tional libraries. This paper describes the architecture of the service and the main challenges faced, especially concerning the extraction and linking of the relevant FRBR entities from the bibliographic metadata produced by the libraries. The service was evaluated by end users, who filled out a questionnaire after using a traditional online catalogue and the new service, both with the same bibliographic collection. The analysis of the results supports the hypothesis that FRBR can be implemented for re-source discovery in a non-intrusive way, reusing the data of any existing traditional bibliographic system.
    Content
    Beitrag eines Schwerpunktthemas: Semantic Web and Reasoning for Cultural Heritage and Digital Libraries: Vgl.: http://www.semantic-web-journal.net/content/supporting-multilingual-bibliographic-resource-discovery-functional-requirements-bibliograph http://www.semantic-web-journal.net/sites/default/files/swj145_2.pdf.
    Source
    Semantic Web journal. 3(2012) no.1, S.3-21
  2. Oehlschläger, S.: Aus der 48. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 12. und 13. November 2004 in Göttingen (2005) 0.02
    0.017743474 = product of:
      0.070973895 = sum of:
        0.014271622 = weight(_text_:web in 3556) [ClassicSimilarity], result of:
          0.014271622 = score(doc=3556,freq=4.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.12748088 = fieldWeight in 3556, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
        0.047303177 = weight(_text_:suche in 3556) [ClassicSimilarity], result of:
          0.047303177 = score(doc=3556,freq=8.0), product of:
            0.17138755 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.03430388 = queryNorm
            0.27600124 = fieldWeight in 3556, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
        0.009399096 = weight(_text_:system in 3556) [ClassicSimilarity], result of:
          0.009399096 = score(doc=3556,freq=2.0), product of:
            0.10804188 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03430388 = queryNorm
            0.08699492 = fieldWeight in 3556, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
      0.25 = coord(3/12)
    
    Content
    Enthält u.a. folgende Aussagen aus einzelnen Bibliotheken oder Verbünden: MARC21 als Austauschformat Die Expertengruppe Datenformate des Standardisierungsausschusses hat am 11. April 2005 getagt, dabei wurden die Arbeitspakete aus einem von der Arbeitsstelle für Standardisierung Der Deutschen Bibliothek vorgelegten Projektund Zeitplan in überschaubare Einheiten aufgegliedert. Ziel ist es, das bestehende MARC21 weitgehend zu übernehmen. Sollten nationale Abweichungen von MARC21 dennoch notwendig sein, so müssen diese einheitlich für alle Verbünde gelten. Bibliotheksservicezentrum Baden-Württemberg (BSZ) SWBPIus "Catalogue enrichment", die Anreicherung von Katalogdaten durch ergänzende Materialien, wie z. B. Rezensionen und Inhaltsverzeichnisse, wird als eine der wichtigsten Möglichkeiten diskutiert, die Nutzung von OPACs zu erleichtern und zu verbessern. Ganz im Trend liegt daher die Anwendung SWBplus, in der das BSZ weiterführende Texte zu Titeln in Verbund- und lokalen OPACs auflegt. Nach ca. 2.500 Dokumenten im Jahr 2003 ist der Bestand mittlerweile bei 12.300 angelangt. Mit 6.900 haben dabei die Inhaltsverzeichnisse die Rezensionen anteilsmäßig überholt. Erreicht wurde dies durch die Mitarbeit der Universitätsbibliotheken Konstanz und Heidelberg, die Inhaltsverzeichnisse scannen und an das BSZ liefern. In diese Kooperation werden nun auch die Universitätsbibliothek Mannheim, die Bibliotheken der PH Ludwigsburg und PH Freiburg sowie die Bibliothek des Bundesgerichtshofs in Karlsruhe eintreten. Vorbereitet wird zudem die Zusammenarbeit mit dem Bibliotheksverbund Bayern, so dass Inhaltsverzeichnisse auch aus Bayern in die Datenbank eingebracht und gemeinsam genutzt werden können. Fehlertolerante Suche in OPACs Gemeinsam mit der Bibliothek der Fachhochschule Konstanz und der Firma exorbyte führt das BSZ derzeit einen Test durch, in dem OPAC-Nutzer bei Unsicherheiten hinsichtlich der Schreibweise von Suchbegriffen unterstützt werden. Dazu wurde dem Horizon-WebPac der FH Konstanz die RechercheSoftware Matchmaker vorgeschaltet, die dem Nutzer neben exakten auch näherungsweise Treffer sowie Alternativen zu den Suchbegriffen anbietet. Sucht man dort nun z. B. nach "Pronnstein", so findet man dennoch unter den ersten Treffern die bekannte mathematische Formelsammlung von Ilja Bronstejn. In einer Befragung, die den Test begleitet, fanden ca. 70% der Nutzer den Einsatz dieser Technologie hilfreich und gaben an, auch die Alternativvorschläge zu nutzen. Weitere Informationen stehen unter der Adresse http://cms.bsz-bw.de/cms/entwicki/ftolsuche/ zur Verfügung. Interessenten an einem Einsatz der Software melden sich bitte beim BSZ, das die Einführung koordiniert.
    Die Deutsche Bibliothek Retrieval von Content In dem Projekt wird angestrebt, Verfahren zu entwickeln und einzuführen, die automatisch und ohne intellektuelle Bearbeitung für das Content-Retrieval ausreichend Sucheinstiege bieten. Dabei kann es sich um die Suche nach Inhalten von Volltexten, digitalen Abbildern, Audiofiles, Videofiles etc. von in Der Deutschen Bibliothek archivierten digitalen Ressourcen oder digitalen Surrogaten archivierter analoger Ressourcen (z. B. OCR-Ergebnisse) handeln. Inhalte, die in elektronischer Form vorhanden sind, aber dem InternetBenutzer Der Deutschen Bibliothek bisher nicht oder nur eingeschränkt zur Verfügung stehen, sollen in möglichst großem Umfang und mit möglichst großem Komfort nutzbar gemacht werden. Darüber hinaus sollen Inhalte benutzt werden, die für ein in ILTIS katalogisiertes Objekt beschreibenden Charakter haben, um auf das beschriebene Objekt zu verweisen. Die höchste Priorität liegt dabei auf der Erschließung von Inhalten in Textformaten. In einem ersten Schritt wurde der Volltext aller Zeitschriften, die im Projekt "Exilpresse digital" digitalisiert wurden, für eine erweiterte Suche genutzt. In einem nächsten Schritt soll die PSI-Software für die Volltextindexierung von Abstracts evaluiert werden. MILOS Mit dem Einsatz von MILOS eröffnet sich die Möglichkeit, nicht oder wenig sachlich erschlossene Bestände automatisch mit ergänzenden Inhaltserschließungsinformationen zu versehen, der Schwerpunkt liegt dabei auf der Freitext-Indexierung. Das bereits in einigen Bibliotheken eingesetzte System, das inzwischen von Der Deutschen Bibliothek für Deutschland lizenziert wurde, wurde in eine UNIX-Version überführt und angepasst. Inzwischen wurde nahezu der gesamte Bestand rückwirkend behandelt, die Daten werden im Gesamt-OPAC für die Recherche zur Verfügung stehen. Die in einer XMLStruktur abgelegten Indexeinträge werden dabei vollständig indexiert und zugänglich gemacht. Ein weiterer Entwicklungsschritt wird in dem Einsatz von MILOS im Online-Verfahren liegen.
    Hessisches BibliotheksinformationsSystem (HEBIS) Personennamendatei (PND) Vor dem Hintergrund der Harmonisierungsbestrebungen bei den Normdateien hat der HeBIS-Verbundrat nach erneuter Diskussion mehrheitlich entschieden, künftig neben SWD und GKD auch die PND als in HeBIS integrierte Normdatei obligatorisch zu nutzen. Im Zuge der wachsenden Vernetzung der regionalen Verbundsysteme kommt der Homogenität der Datensätze eine zunehmend wichtigere Bedeutung zu. Konkret wird dies speziell für HeBIS mit dem Produktionsbeginn des HeBIS-Portals und der integrierten verbundübergreifenden Fernleihe. Nur wenn die Verfasserrecherche in den einzelnen Verbunddatenbanken auf weitgehend einheitliche Datensätze einschließlich Verweisungsformen trifft, kann der Benutzer gute Trefferergebnisse erwarten und damit seine Chancen erhöhen, die gewünschte Literatur über Fernleihe bestellen zu können. Das Gesamtkonzept ist ausgelegt auf eine pragmatische und aufwandsreduzierte Vorgehensweise. Mit der Umsetzung wurde begonnen. Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (HBZ) FAST-Suchmaschine Das HBZ hat die Suchmaschinentechnologie des norwegischen Herstellers FAST lizenziert. Ziel ist es, die Produkte des HBZ mit Hilfe innovativer Suchmaschinentechnologien in einer neuen Ausrichtung zu präsentieren. Die Präsentation soll einen schnellen Recherche-Zugang zu den NRWVerbunddaten mittels FAST-Suchmaschinentechnologie mit folgenden Eigenschaften beinhalten: - Eine Web-Oberfläche, um für Laien eine schnelle Literatursuche anbieten zu können. - Eine Web-Oberfläche, um für Expertinnen und Experten eine schnelle Literatur-Suche anbieten zu können. - Präsentation von Zusatzfunktionen, die in gängigen Bibliothekskatalogen so nicht vorhanden sind. - Schaffung einer Zugriffsmöglichkeit für den KVK auf die Verbunddaten mit sehr kurzen Antwortzeiten Digitale Bibliothek Die Mehrzahl der Bibliotheken ist inzwischen auf Release 5 umgezogen. Einige befinden sich noch im Bearbeitungsstatus. Von den letzten drei Bibliotheken liegen inzwischen die Umzugsanträge vor. Durch die Umstrukturierung der RLB Koblenz zum LBZ Rheinland-Pfalz werden die Einzelsichten der RLB Koblenz, PLB Speyer und der Bipontina in Zweibrücken mit den Büchereistellen Koblenz und Neustadt zu einer Sicht verschmolzen.
  3. Mishra, K.S.: Bibliographic databases and exchange formats (1997) 0.02
    0.015470553 = product of:
      0.061882213 = sum of:
        0.013214295 = weight(_text_:information in 1757) [ClassicSimilarity], result of:
          0.013214295 = score(doc=1757,freq=4.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.21943474 = fieldWeight in 1757, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=1757)
        0.030077105 = weight(_text_:system in 1757) [ClassicSimilarity], result of:
          0.030077105 = score(doc=1757,freq=2.0), product of:
            0.10804188 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03430388 = queryNorm
            0.27838376 = fieldWeight in 1757, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.0625 = fieldNorm(doc=1757)
        0.01859081 = product of:
          0.03718162 = sum of:
            0.03718162 = weight(_text_:22 in 1757) [ClassicSimilarity], result of:
              0.03718162 = score(doc=1757,freq=2.0), product of:
                0.120126344 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03430388 = queryNorm
                0.30952093 = fieldWeight in 1757, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1757)
          0.5 = coord(1/2)
      0.25 = coord(3/12)
    
    Abstract
    Computers play an important role in the development of bibliographic databases. Exchange formats are needed for the generation and exchange of bibliographic data at different levels: international, national, regional and local. Discusses the formats available at national and international level such as the International Standard Exchange Format (ISO 2709); the various MARC formats and the Common Communication Format (CCF). Work on Indian standards involving the Bureau of Indian Standards, the National Information System for Science and Technology (NISSAT) and other institutions proceeds only slowly
    Source
    DESIDOC bulletin of information technology. 17(1997) no.5, S.17-22
  4. Oehlschläger, S.: Aus der 52. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 24. und 25. April 2007 in Berlin (2007) 0.02
    0.015354073 = product of:
      0.046062216 = sum of:
        0.01009156 = weight(_text_:web in 465) [ClassicSimilarity], result of:
          0.01009156 = score(doc=465,freq=2.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.09014259 = fieldWeight in 465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
        0.0029199743 = weight(_text_:information in 465) [ClassicSimilarity], result of:
          0.0029199743 = score(doc=465,freq=2.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.048488684 = fieldWeight in 465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
        0.023651589 = weight(_text_:suche in 465) [ClassicSimilarity], result of:
          0.023651589 = score(doc=465,freq=2.0), product of:
            0.17138755 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.03430388 = queryNorm
            0.13800062 = fieldWeight in 465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
        0.009399096 = weight(_text_:system in 465) [ClassicSimilarity], result of:
          0.009399096 = score(doc=465,freq=2.0), product of:
            0.10804188 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03430388 = queryNorm
            0.08699492 = fieldWeight in 465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
      0.33333334 = coord(4/12)
    
    Content
    DDC-vascoda Für den Sucheinstieg bei vascoda wird bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungsjahr) kombiniert werden kann, angeboten. Die Suche kann zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Da in vascoda die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument eingeführt ist und bereits nennenswerte Bestände mit der DDC erschlossen sind, bietet sich die Möglichkeit, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Im Berichtszeitraum wurde in der vascoda AG Betrieb und mit dem hbz als Portalbetreiber die konzeptionelle und technische Einbindung des DDC-Browsings im vascoda-Portal diskutiert und beschlossen. Die Navigation mit DDC wird ähnlich wie die Navigation über die Fachcluster auf der linken Seite der Trefferliste integriert, beim Navigieren im Baum werden synchron die passenden Ressourcen aus der Suchmaschine in der mittleren Spalte eingeblendet. Wegen hoher Arbeitsbelastung im hbz wird dieses Feature wahrscheinlich nicht Teil des vascoda-Relaunches im Juni 2007 sein, sondern erst im 2. Halbjahr 2007 integriert werden. Weiter wurde ein Angebot implementiert für Fachportale und andere Institutionen, die mit DDC erschließen, aber nicht die technischen Möglichkeiten haben, ein eigenes Browsing zu entwickeln. Das Verfahren sieht vor, dass die DNB einen Dienst anbietet, der ein HTML-Snippet mit der gewünschten Browsing-Struktur generiert (ähnlich wie MelvilSearch), die in die Oberfläche des Fachportals integriert werden kann. Der Dienst wird voraussichtlich im 2. Quartal 2007 in Betrieb genommen werden können. In Zusammenarbeit mit der SUB Göttingen wurde ein Workshop zum Thema Lizenzfragen für DDC in Bezug auf Fachportale und andere Online-Angebote abgehalten. Die Ergebnisse wurden im vascoda-Newsletter veröffentlicht.
    kim - Kompetenzzentrum Interoperable Metadaten Projektziel ist der Aufbau eines Kompetenzzentrums Interoperable Metadaten (KIM), das im deutschsprachigen Raum den Ausbau der Kompetenzen für die Themen interoperable Metadaten, Metadatenaustausch und Formate fördern soll. Strukturierte Beschreibungen (Metadaten) verschiedener Datenbestände werden als "interoperabel" bezeichnet, wenn in ihnen über einheitliche Suchverfahren recherchiert oder sie sinnvoll in die Datenverwaltung integriert werden können. Interoperabilität wird erreicht, indem man sich in kontrollierten institutionellen Zusammenhängen an technische Spezifikationen hält. Eine zentrale Aufgabe des "Kompetenzzentrum Interoperable Metadaten" als DCMI-Affiliate in Deutschland (nach Projektende im deutschsprachigen Raum mit Partnern aus Österreich und der Schweiz) besteht dabei in der Bildung einer Kernarbeitsgruppe mit weiteren spezifischen Arbeitsgruppen, die durch die Begutachtung bereits existierender Anwendungsprofile ein gemeinsames Verständnis für "good practice" in der Anwendung sowohl des Dublin-Core-Modells als auch des Semantic-Web-Modells entwickelt. Dieses Verständnis bildet die Grundlage für die Entwicklung von Zertifizierungsverfahren, Ausbildungsangeboten und Beratungsdiensten im Bereich interoperable Metadaten.
    CrissCross Ziel des Projekts ist die Schaffung eines multilingualen, thesaurusbasierten und benutzerorientierten Recherchevokabulars zu heterogen erschlossenen Dokumenten für die Nutzer des deutschen wissenschaftlichen Bibliothekswesens. Dazu werden die Sachschlagwörter der SWD mit den Notationen der Dewey Dezimalklassifikation verbunden sowie mit ihren Äquivalenten in LCSH und Rameau verknüpft. Projektpartner sind die Fakultät für Informations- und Kommunikationswissenschaften der Fachhochschule Köln und die Deutsche Nationalbibliothek. Das Projekt hat am 1. Februar 2006 begonnen und soll zum 31. Januar 2008 abgeschlossen sein. Im Berichtszeitraum wurde die Arbeitsumgebung im Pica/Iltis-System der Deutschen Nationalbibliothek und im Tool für die DDC-Notationsvergabe "MelvilClass" verwendet, um DDC-Notationen an SWD-Schlagwörtern zu erfassen. Die bisherigen Erfahrungen zeigen, dass die intellektuelle Vergabe sehr viel aufwändiger als gedacht ist. Dementsprechend wird neu über maschinelle Verfahren nachgedacht, wie ein maschineller Abgleich zwischen den SWD-Termen und den DDC-Registerbegriffen. Bei Übereinstimmung soll eine automatisch generierte Vorschlags-Notation im SWD-Satz gespeichert werden. Inwiefern durch die unterschiedliche Begriffsbildung Übereinstimmungen zwischen den Vokabularien existieren, welche Vorbereitungen ev. notwendig sind (z.B. MILOS) und welchen Nutzen automatische generierte Vorschlagsnotationen haben, muss noch weiter fachlich geprüft werden. Die aufwändige intellektuelle Verlinkung der SWD-Schlagwörter zur DDC soll sich in Zukunft auf relevante, d.h. häufig verwendete, Schlagwörter beziehen. Hierzu werden entsprechende Auswertungen in der DNB-Datenbank gemacht. Die LCSH/Rameau-Tupels aus dem MACS Projekt konnten noch nicht nach Pica / Iltis geladen werden, da die Aktualisierungen in MACS noch nicht abgeschlossen sind."
  5. UNIMARC and CDS/ISIS : Proceedings of the Workshops held in Budapest, 21.-22. June 1993 and Barcelona, 26. August 1993 (1994) 0.01
    0.012690088 = product of:
      0.05076035 = sum of:
        0.008175928 = weight(_text_:information in 8779) [ClassicSimilarity], result of:
          0.008175928 = score(doc=8779,freq=2.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.13576832 = fieldWeight in 8779, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8779)
        0.026317468 = weight(_text_:system in 8779) [ClassicSimilarity], result of:
          0.026317468 = score(doc=8779,freq=2.0), product of:
            0.10804188 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03430388 = queryNorm
            0.2435858 = fieldWeight in 8779, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8779)
        0.016266957 = product of:
          0.032533914 = sum of:
            0.032533914 = weight(_text_:22 in 8779) [ClassicSimilarity], result of:
              0.032533914 = score(doc=8779,freq=2.0), product of:
                0.120126344 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03430388 = queryNorm
                0.2708308 = fieldWeight in 8779, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=8779)
          0.5 = coord(1/2)
      0.25 = coord(3/12)
    
    Content
    Enthält die Beiträge: CAMPOS, F.: UNIMARC: state of the art on the universal format for international exchange; HOLT, B.: The maintenance of UNIMARC; WILLER, M.: UNIMARC / Authorities format; HOPKINSON, A.: CDS/ISIS as a tool for implementing UNIMARC; BERKE, S. u. M. SIPOS: The comprehensive information system of the National Széchényi Library and the Hungarian MARC format; SHRAIBERG, Y.: Application of the CDS/ISIS software package and UNIMARC format in the automated systems of the Russian National Public Library for Science and Technology and other libraries of the Russian Federation; STOKLASOVA, B.: Exchange formats in the Czech Republic: past, present and future
  6. McCallum, S.H.: Machine Readable Cataloging (MARC): 1975-2007 (2009) 0.01
    0.011292697 = product of:
      0.045170788 = sum of:
        0.024219744 = weight(_text_:web in 3841) [ClassicSimilarity], result of:
          0.024219744 = score(doc=3841,freq=2.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.21634221 = fieldWeight in 3841, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=3841)
        0.0070079383 = weight(_text_:information in 3841) [ClassicSimilarity], result of:
          0.0070079383 = score(doc=3841,freq=2.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.116372846 = fieldWeight in 3841, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=3841)
        0.013943106 = product of:
          0.027886212 = sum of:
            0.027886212 = weight(_text_:22 in 3841) [ClassicSimilarity], result of:
              0.027886212 = score(doc=3841,freq=2.0), product of:
                0.120126344 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03430388 = queryNorm
                0.23214069 = fieldWeight in 3841, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3841)
          0.5 = coord(1/2)
      0.25 = coord(3/12)
    
    Abstract
    This entry describes the development of the MARC Communications format. After a brief overview of the initial 10 years it describes the succeeding phases of development up to the present. This takes the reader through the expansion of the format for all types of bibliographic data and for a multiple character scripts. At the same time a large business community was developing that offered products based on the format to the library community. The introduction of the Internet in the 1990s and the Web technology brought new opportunities and challenges and the format was adapted to this new environment. There has been a great deal of international adoption of the format that has continued into the 2000s. More recently new syntaxes for MARC 21 and models are being explored.
    Date
    27. 8.2011 14:22:38
    Source
    Encyclopedia of library and information sciences. 3rd ed. Ed.: M.J. Bates
  7. Heuvelmann, R.: FRBR-Strukturierung von MAB-Daten, oder : Wieviel MAB passt in FRBR? (2005) 0.01
    0.011016896 = product of:
      0.06610137 = sum of:
        0.047303177 = weight(_text_:suche in 466) [ClassicSimilarity], result of:
          0.047303177 = score(doc=466,freq=2.0), product of:
            0.17138755 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.03430388 = queryNorm
            0.27600124 = fieldWeight in 466, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.0390625 = fieldNorm(doc=466)
        0.018798191 = weight(_text_:system in 466) [ClassicSimilarity], result of:
          0.018798191 = score(doc=466,freq=2.0), product of:
            0.10804188 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03430388 = queryNorm
            0.17398985 = fieldWeight in 466, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.0390625 = fieldNorm(doc=466)
      0.16666667 = coord(2/12)
    
    Abstract
    Die Expertengruppe MAB-Ausschuss (seit 2005: Expertengruppe Datenformate) hat sich im Verlauf des Jahres 2004 mit den FRBR und ihren Bezügen zum MABFormat befasst. Es wurde eine Tabelle FRBR => MAB erstellt (veröffentlicht unter http://www.ddb.de/professionell/pdf/frbr_mab.pdf), wichtige Ergebnisse wurden im Artikel "Maschinelles Austauschformat für Bibliotheken und die Functional Requirements for Bibliographic Records : Oder: Wieviel FRBR verträgt MAB?" im "Bibliotheksdienst" 39 (2005), Heft 10 zusammengefasst. Ergänzend dazu wurde bei der Arbeitsstelle Datenformate Der Deutschen Bibliothek versucht, MAB-Daten zu "frbrisieren", d. h. einzelne MAB-Datensätze in die vier Entitäten der Gruppe 1 (work / expression / manifestation / item) zu differenzieren. Ziel war nicht, einen fertigen OPAC-Baustein für die Indexierung, Benutzerführung oder Präsentation zu erstellen. Ziel war vielmehr, anhand von konkreten, in MAB strukturierten Daten die Schichten sichtbar zu machen. Ausgewählt für diesen Zweck wurde BISMAS, das "Bibliographische Informations-System zur Maschinellen Ausgabe und Suche" des BIS Oldenburg (www.bismas.de). In BISMAS ist es mit relativ geringem Aufwand möglich, die Präsentation eines Satzes - basierend auf der intern vorliegenden Datensatzstruktur, z.B. MAB - frei zu definieren. Die Gestaltung der Indices und der Ausgabeformate erfolgt in BISMAS mit Hilfe der Programmiersprache LM. Die Ergebnisse sollen hier anhand von Beispielen dargestellt werden.
  8. Qin, J.: Representation and organization of information in the Web space : from MARC to XML (2000) 0.01
    0.010409228 = product of:
      0.062455364 = sum of:
        0.048439488 = weight(_text_:web in 3918) [ClassicSimilarity], result of:
          0.048439488 = score(doc=3918,freq=2.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.43268442 = fieldWeight in 3918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.09375 = fieldNorm(doc=3918)
        0.014015877 = weight(_text_:information in 3918) [ClassicSimilarity], result of:
          0.014015877 = score(doc=3918,freq=2.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.23274569 = fieldWeight in 3918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.09375 = fieldNorm(doc=3918)
      0.16666667 = coord(2/12)
    
  9. Oehlschläger, S.: Treffpunkt Standardisierung : Eine Veranstaltung des Standardisierungsausschusses beim 2. Leipziger Kongress für Information und Bibliothek (2004) 0.01
    0.010268252 = product of:
      0.06160951 = sum of:
        0.008092071 = weight(_text_:information in 2790) [ClassicSimilarity], result of:
          0.008092071 = score(doc=2790,freq=6.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.1343758 = fieldWeight in 2790, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=2790)
        0.05351744 = weight(_text_:suche in 2790) [ClassicSimilarity], result of:
          0.05351744 = score(doc=2790,freq=4.0), product of:
            0.17138755 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.03430388 = queryNorm
            0.31225976 = fieldWeight in 2790, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.03125 = fieldNorm(doc=2790)
      0.16666667 = coord(2/12)
    
    Abstract
    Treffpunkt Standardisierung - Projekte, Konzepte und Kooperationen - lautete der Titel der Veranstaltung des Standardisierungsausschusses beim 2. Leipziger Kongress für Information und Bibliothek »Information Macht Bildung«, die vom Vorsitzenden Berndt Dugall moderiert wurde. Den größten Raum innerhalb der Veranstaltung nahm der Themenkomplex »Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)« ein. Zunächst stellte die Projektbearbeiterin Luise Hoffmann die Ausgangslage des Projektes sowie bisher vorliegende Ergebnisse aus dem von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projekt vor und ging dabei auf einige Projektschwerpunkte ein: Luise Hoffmann stellte einige Punkte aus dem Regelwerks- und Formatabgleich sowie der Untersuchung über die Konsequenzen eines Umstiegs auf die laufende Katalogisierung vor und ging dann ausführlicher auf mögliche Auswirkungen eines Umstiegs auf die Informationsversorgung des Benutzers ein, einen Aspekt, dem im DFG-Antrag eine besondere, hervorgehobene Bedeutung beigemessen wird. In erster Linie wurden die Strategien der Benutzer zur Literatursuche untersucht. Ziel war es, herauszufinden, ob und welche Auswirkungen ein Umstieg auf die Benutzung des örtlichen Bibliothekskatalogs haben würde. Hierzu wurde zunächst die Suchstrategie von Benutzern ermittelt, um anschließend analysieren zu können, ob diese Strategie in einem AACR-MARC-basierten Katalog erfolgreicher oder weniger erfolgreich gewesen wäre. Da die zunehmende Literaturrecherche im Internet möglicherweise das Suchverhalten in einem OPAC beeinflusst, wurde zusätzlich die Suchstrategie im Internet erfragt. Zur Ermittlung der Suchstrategie wurde ein Fragebogen entworfen und in Der Deutschen Bibliothek getestet. Anhand der Deutschen Bibliotheksstatistik wurden Bibliotheken unter den Gesichtspunkten der Nutzerfrequenz und der Bestandsgröße ausgewählt und angefragt, ob sie bereit wären, den Fragebogen in ihrer Bibliothek auszulegen. Nachdem sich zehn Bibliotheken bereit erklärt hatten, wurden für die endgültige Befragung einige spezielle Fragen zu Suchbegriffen an die jeweiligen Bibliotheks-OPACs angepasst, da Formulierungen und Bezeichnungen wie Person, Autor, Verfasser u. dgl. in den Bibliothekskatalogen voneinander abweichen können. Als erstes Ergebnis nach Auswertung der Fragebögen aus drei Universitätsbibliotheken konnte festgestellt werden, dass Benutzer überwiegend unter Titelstichwörtern und Personen suchen und dabei Namensformen verwenden, die ihnen geläufig sind. Ein großer Teil der Benutzer weiß der Umfrage zufolge nicht, wie man den Band eines mehrbändigen Werkes sucht, und fast die Hälfte aller Befragten sucht nach Aufsätzen von Sammelwerken. Benutzer unterscheiden überwiegend bei ihrer Suche nicht, ob sie in einem deutschen oder einem ausländischen Katalog recherchieren. Um zu einheitlichen Suchergebnissen bei der Suche in deutschen und ausländischen Katalogen zu gelangen, sollte eine Annäherung der Standards angestrebt werden.
  10. Kernernman, V.Y.; Koenig, M.E.D.: USMARC as a standardized format for the Internet hypermedia document control/retrieval/delivery system design (1996) 0.01
    0.010135144 = product of:
      0.060810864 = sum of:
        0.008175928 = weight(_text_:information in 5565) [ClassicSimilarity], result of:
          0.008175928 = score(doc=5565,freq=2.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.13576832 = fieldWeight in 5565, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5565)
        0.052634936 = weight(_text_:system in 5565) [ClassicSimilarity], result of:
          0.052634936 = score(doc=5565,freq=8.0), product of:
            0.10804188 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03430388 = queryNorm
            0.4871716 = fieldWeight in 5565, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5565)
      0.16666667 = coord(2/12)
    
    Abstract
    Surveys how the USMARC integrated bibliographic format (UBIF) could be mapped onto an hypermedia document USMARC format (HDUF) to meet the requirements of a hypermedia document control/retrieval/delivery (HDRD) system for the Internet. Explores the characteristics of such a system using an example of the WWW's directory and searching engine Yahoo!. Discusses additional standard specifications for the UBIF's structure, content designation, and data content to map this format into the HDUF that can serve as a proxy for the Net HDRD system
    Imprint
    Medford, NJ : Information Today
  11. Miller, D.R.: XML: Libraries' strategic opportunity (2001) 0.01
    0.009925573 = product of:
      0.059553437 = sum of:
        0.049438346 = weight(_text_:web in 1467) [ClassicSimilarity], result of:
          0.049438346 = score(doc=1467,freq=12.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.4416067 = fieldWeight in 1467, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1467)
        0.010115089 = weight(_text_:information in 1467) [ClassicSimilarity], result of:
          0.010115089 = score(doc=1467,freq=6.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.16796975 = fieldWeight in 1467, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1467)
      0.16666667 = coord(2/12)
    
    Abstract
    XML (eXtensible Markup Language) is fast gaining favor as the universal format for data and document exchange -- in effect becoming the lingua franca of the Information Age. Currently, "library information" is at a particular disadvantage on the rapidly evolving World Wide Web. Why? Despite libraries'explorations of web catalogs, scanning projects, digital data repositories, and creation of web pages galore, there remains a digital divide. The core of libraries' data troves are stored in proprietary formats of integrated library systems (ILS) and in the complex and arcane MARC formats -- both restricted chiefly to the province of technical services and systems librarians. Even they are hard-pressed to extract and integrate this wealth of data with resources from outside this rarefied environment. Segregation of library information underlies many difficulties: producing standard bibliographic citations from MARC data, automatically creating new materials lists (including new web resources) on a particular topic, exchanging data with our vendors, and even migrating from one ILS to another. Why do we continue to hobble our potential by embracing these self-imposed limitations? Most ILSs began in libraries, which soon recognized the pitfalls of do-it-yourself solutions. Thus, we wisely anticipated the necessity for standards. However, with the advent of the web, we soon found "our" collections and a flood of new resources appearing in digital format on opposite sides of the divide. If we do not act quickly to integrate library resources with mainstream web resources, we are in grave danger of becoming marginalized
  12. Tennant, R.: ¬A bibliographic metadata infrastructure for the twenty-first century (2004) 0.01
    0.009764061 = product of:
      0.058584366 = sum of:
        0.032292992 = weight(_text_:web in 2845) [ClassicSimilarity], result of:
          0.032292992 = score(doc=2845,freq=2.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.2884563 = fieldWeight in 2845, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=2845)
        0.026291374 = product of:
          0.05258275 = sum of:
            0.05258275 = weight(_text_:22 in 2845) [ClassicSimilarity], result of:
              0.05258275 = score(doc=2845,freq=4.0), product of:
                0.120126344 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03430388 = queryNorm
                0.4377287 = fieldWeight in 2845, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2845)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Abstract
    The current library bibliographic infrastructure was constructed in the early days of computers - before the Web, XML, and a variety of other technological advances that now offer new opportunities. General requirements of a modern metadata infrastructure for libraries are identified, including such qualities as versatility, extensibility, granularity, and openness. A new kind of metadata infrastructure is then proposed that exhibits at least some of those qualities. Some key challenges that must be overcome to implement a change of this magnitude are identified.
    Date
    9.12.2005 19:22:38
    Source
    Library hi tech. 22(2004) no.2, S.175-181
  13. McKercher, B.; Chang, P.X.: ¬A comparison of USMARC and UNIMARC for system design (1995) 0.01
    0.009524284 = product of:
      0.0571457 = sum of:
        0.0115625085 = weight(_text_:information in 2627) [ClassicSimilarity], result of:
          0.0115625085 = score(doc=2627,freq=4.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.1920054 = fieldWeight in 2627, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2627)
        0.045583192 = weight(_text_:system in 2627) [ClassicSimilarity], result of:
          0.045583192 = score(doc=2627,freq=6.0), product of:
            0.10804188 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03430388 = queryNorm
            0.42190298 = fieldWeight in 2627, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2627)
      0.16666667 = coord(2/12)
    
    Abstract
    Provides a background to the development of the MINISIS relational database management system. The new MINISIS will offer a forms-based 4GL application development environment for building an integrated library system at the heart of which will be the catalogue database. Describes the research on the the database structure involving a comparison between USMARC and UNIMARC. Covers the worldwide use of the 2 systems. Discusses differences in field/subfield content designation; differences in field attributes; access points; linking entries, related fields; control information numbers and codes; USMARC format integration and linkage to other languages and holdings information; linkage with other MARC files; and considerations regarding systems design
  14. Ansorge, K.: Das was 2007 (2007) 0.01
    0.009468154 = product of:
      0.037872616 = sum of:
        0.01009156 = weight(_text_:web in 2405) [ClassicSimilarity], result of:
          0.01009156 = score(doc=2405,freq=2.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.09014259 = fieldWeight in 2405, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2405)
        0.004129467 = weight(_text_:information in 2405) [ClassicSimilarity], result of:
          0.004129467 = score(doc=2405,freq=4.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.068573356 = fieldWeight in 2405, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2405)
        0.023651589 = weight(_text_:suche in 2405) [ClassicSimilarity], result of:
          0.023651589 = score(doc=2405,freq=2.0), product of:
            0.17138755 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.03430388 = queryNorm
            0.13800062 = fieldWeight in 2405, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2405)
      0.25 = coord(3/12)
    
    Content
    "Standardisierung - Auch 2007 ist die Arbeitsstelle für Standardisierung (AfS) auf dem Weg zur Internationalisierung der deutschen Regelwerke, Formate und Normdateien entscheidende Schritte vorangekommen. Im Mittelpunkt der Vorbereitungen für den Format-umstieg standen eine Konkordanz von MAB2 nach MARC 21 und die Festlegung neuer Felder, die für den Umstieg auf nationaler Ebene notwendig sind. Neben einer Vielzahl anderer Aktivitäten hat die DNB zwei Veranstaltungen zum Format-umstieg durchgeführt. In Zusammenarbeit mit den Expertengruppen des Standardisierungsausschusses wurden drei Stellungnahmen zu Entwürfen des Regelwerkes »Resource Description and Access (RDA)« erarbeitet; es fand eine Beteiligung an der internationalen Diskussion zu wichtigen Grundlagen statt. Der Erfüllung des Wunsches nach Einführung der Onlinekommunikation mit Normdateien ist die DNB im vergangenen Jahr deutlich nähergekommen: Änderungen an Normdaten sollen gleichzeitig in die zentral bei der DNB gehaltenen Dateien und in der Verbunddatenbank vollzogen werden. Seit Anfang September ist die erste Stufe der Onlinekommunikation im produktiven Einsatz: Die PND-Redaktionen in den Aleph-Verbünden arbeiten online zusammen. Das neue Verfahren wird sich auf alle bei der DNB geführten Normdaten erstrecken und in einem gestuften Verfahren eingeführt werden. Die DNB war in zahlreichen Standardisierungsgremien zur Weiterentwicklung von Metadatenstandards wie z.B. Dublin Core und ONIX (Online Information eXchange) sowie bei den Entwicklungsarbeiten für The European Library beteiligt. Die Projektarbeiten im Projekt KIM - Kompetenzzentrum Interoperable Metadaten wurden maßgeblich unterstützt. Im Rahmen der Arbeiten zum Gesetz über die Deutsche Nationalbibliothek wurde ein Metadatenkernset für die Übermittlung von Metadaten an die DNB entwickelt und in einer ersten Stufe mit einem ONIX-Mapping versehen. Innerhalb des Projektes »Virtual International Authority File - VIAF« entwickelten die Library of Congress (LoC), die DNB und OCLC - zunächst für Personennamen - gemeinsam eine virtuelle, internationale Normdatei, in der die Normdatensätze der nationalen Normdateien im Web frei zugänglich miteinander verbunden werden sollen. Die bisherigen Projektergebnisse haben die Machbarkeit einer internationalen Normdatei eindrucksvoll unter Beweis gestellt. Darum haben die Projektpartner in einem neuen Abkommen, das auch die Bibliothèque Nationale de France einschließt, im Oktober 2007 ihr Engagement für den VIAF nochmals bekräftigt und damit eine Konsolidierungs- und Erweiterungsphase eingeleitet."
    "DDC-vascoda - Das Projekt DDC-vascoda wurde 2007 abgeschlossen. Für den Sucheinstieg bei vascoda wurde bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungs-)Jahr kombiniert werden kann, angeboten. Die Suche konnte zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Vascoda verwendete die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument. Ziel des Projektes DDC-vascoda war es, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Weiterhin wurde ein HTML-Dienst entwickelt, der es Fachportalen und anderen Datenanbietern ermöglicht, ohne großen Programmieraufwand ein DDC-Browsing über die eigenen Daten bereitzustellen."
  15. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.01
    0.009020278 = product of:
      0.054121666 = sum of:
        0.03996054 = weight(_text_:web in 5896) [ClassicSimilarity], result of:
          0.03996054 = score(doc=5896,freq=4.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.35694647 = fieldWeight in 5896, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5896)
        0.014161124 = weight(_text_:information in 5896) [ClassicSimilarity], result of:
          0.014161124 = score(doc=5896,freq=6.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.23515764 = fieldWeight in 5896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5896)
      0.16666667 = coord(2/12)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
    Source
    Journal of digital information. 1(2001) no.8
  16. Johnson, B.C.: XML and MARC : which is "right"? (2001) 0.01
    0.009020278 = product of:
      0.054121666 = sum of:
        0.03996054 = weight(_text_:web in 5423) [ClassicSimilarity], result of:
          0.03996054 = score(doc=5423,freq=4.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.35694647 = fieldWeight in 5423, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5423)
        0.014161124 = weight(_text_:information in 5423) [ClassicSimilarity], result of:
          0.014161124 = score(doc=5423,freq=6.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.23515764 = fieldWeight in 5423, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5423)
      0.16666667 = coord(2/12)
    
    Abstract
    This article explores recent discussions about appropriate mark-up conventions for library information intended for use on the World Wide Web. In particular, the question of whether the MARC 21 format will continue to be useful and whether the time is right for a full-fledged conversion effort to XML is explored. The author concludes that the MARC format will be relevant well into the future, and its use will not hamper access to bibliographic information via the web. Early XML exploratory efforts carried out at the Stanford University's Lane Medical Library are reported on. Although these efforts are a promising start, much more consultation and investigation is needed to arrive at broadly acceptable standards for XML library information encoding and retrieval.
  17. Kaiser, M.; Lieder, H.J.; Majcen, K.; Vallant, H.: New ways of sharing and using authority information : the LEAF project (2003) 0.01
    0.00865994 = product of:
      0.03463976 = sum of:
        0.02018312 = weight(_text_:web in 1166) [ClassicSimilarity], result of:
          0.02018312 = score(doc=1166,freq=8.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.18028519 = fieldWeight in 1166, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1166)
        0.0050575444 = weight(_text_:information in 1166) [ClassicSimilarity], result of:
          0.0050575444 = score(doc=1166,freq=6.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.083984874 = fieldWeight in 1166, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1166)
        0.009399096 = weight(_text_:system in 1166) [ClassicSimilarity], result of:
          0.009399096 = score(doc=1166,freq=2.0), product of:
            0.10804188 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03430388 = queryNorm
            0.08699492 = fieldWeight in 1166, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1166)
      0.25 = coord(3/12)
    
    Abstract
    This article presents an overview of the LEAF project (Linking and Exploring Authority Files)1, which has set out to provide a framework for international, collaborative work in the sector of authority data with respect to authority control. Elaborating the virtues of authority control in today's Web environment is an almost futile exercise, since so much has been said and written about it in the last few years.2 The World Wide Web is generally understood to be poorly structured-both with regard to content and to locating required information. Highly structured databases might be viewed as small islands of precision within this chaotic environment. Though the Web in general or any particular structured database would greatly benefit from increased authority control, it should be noted that our following considerations only refer to authority control with regard to databases of "memory institutions" (i.e., libraries, archives, and museums). Moreover, when talking about authority records, we exclusively refer to personal name authority records that describe a specific person. Although different types of authority records could indeed be used in similar ways to the ones presented in this article, discussing those different types is outside the scope of both the LEAF project and this article. Personal name authority records-as are all other "authorities"-are maintained as separate records and linked to various kinds of descriptive records. Name authority records are usually either kept in independent databases or in separate tables in the database containing the descriptive records. This practice points at a crucial benefit: by linking any number of descriptive records to an authorized name record, the records related to this entity are collocated in the database. Variant forms of the authorized name are referenced in the authority records and thus ensure the consistency of the database while enabling search and retrieval operations that produce accurate results. On one hand, authority control may be viewed as a positive prerequisite of a consistent catalogue; on the other, the creation of new authority records is a very time consuming and expensive undertaking. As a consequence, various models of providing access to existing authority records have emerged: the Library of Congress and the French National Library (Bibliothèque nationale de France), for example, make their authority records available to all via a web-based search service.3 In Germany, the Personal Name Authority File (PND, Personennamendatei4) maintained by the German National Library (Die Deutsche Bibliothek, Frankfurt/Main) offers a different approach to shared access: within a closed network, participating institutions have online access to their pooled data. The number of recent projects and initiatives that have addressed the issue of authority control in one way or another is considerable.5 Two important current initiatives should be mentioned here: The Name Authority Cooperative (NACO) and Virtual International Authority File (VIAF).
    NACO was established in 1976 and is hosted by the Library of Congress. At the beginning of 2003, nearly 400 institutions were involved in this undertaking, including 43 institutions from outside the United States.6 Despite the enormous success of NACO and the impressive annual growth of the initiative, there are requirements for participation that form an obstacle for many institutions: they have to follow the Anglo-American Cataloguing Rules (AACR2) and employ the MARC217 data format. Participating institutions also have to belong to either OCLC (Online Computer Library Center) or RLG (Research Libraries Group) in order to be able to contribute records, and they have to provide a specified minimum number of authority records per year. A recent proof of concept project of the Library of Congress, OCLC and the German National Library-Virtual International Authority File (VIAF)8-will, in its first phase, test automatic linking of the records of the Library of Congress Name Authority File (LCNAF) and the German Personal Name Authority File by using matching algorithms and software developed by OCLC. The results are expected to form the basis of a "Virtual International Authority File". The project will then test the maintenance of the virtual authority file by employing the Open Archives Initiative Protocol for Metadata Harvesting (OAI-PMH)9 to harvest the metadata for new, updated, and deleted records. When using the "Virtual International Authority File" a cataloguer will be able to check the system to see whether the authority record he wants to establish already exists. The final phase of the project will test possibilities for displaying records in the preferred language and script of the end user. Currently, there are still some clear limitations associated with the ways in which authority records are used by memory institutions. One of the main problems has to do with limited access: generally only large institutions or those that are part of a library network have unlimited online access to permanently updated authority records. Smaller institutions outside these networks usually have to fall back on less efficient ways of obtaining authority data, or have no access at all. Cross-domain sharing of authority data between libraries, archives, museums and other memory institutions simply does not happen at present. Public users are, by and large, not even aware that such things as name authority records exist and are excluded from access to these information resources.
  18. Coyle, K.: Future considerations : the functional library systems record (2004) 0.01
    0.0081113195 = product of:
      0.048667915 = sum of:
        0.030077105 = weight(_text_:system in 562) [ClassicSimilarity], result of:
          0.030077105 = score(doc=562,freq=2.0), product of:
            0.10804188 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03430388 = queryNorm
            0.27838376 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.0625 = fieldNorm(doc=562)
        0.01859081 = product of:
          0.03718162 = sum of:
            0.03718162 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.03718162 = score(doc=562,freq=2.0), product of:
                0.120126344 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03430388 = queryNorm
                0.30952093 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Abstract
    The paper performs a thought experiment on the concept of a record based on the Functional Requirements for Bibliographic Records and library system functions, and concludes that if we want to develop a functional bibliographic record we need to do it within the context of a flexible, functional library systems record structure. The article suggests a new way to look at the library systems record that would allow libraries to move forward in terms of technology but also in terms of serving library users.
    Source
    Library hi tech. 22(2004) no.2, S.166-174
  19. Willner, E.: Preparing data for the Web with SGML/XML (1998) 0.01
    0.0075845476 = product of:
      0.045507286 = sum of:
        0.032292992 = weight(_text_:web in 2894) [ClassicSimilarity], result of:
          0.032292992 = score(doc=2894,freq=2.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.2884563 = fieldWeight in 2894, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=2894)
        0.013214295 = weight(_text_:information in 2894) [ClassicSimilarity], result of:
          0.013214295 = score(doc=2894,freq=4.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.21943474 = fieldWeight in 2894, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=2894)
      0.16666667 = coord(2/12)
    
    Abstract
    To solve the problem of information loss caused by format changes requires 1 more conversion to be made, i.e. to SGML or XML. Describes the 2 formats and discusses the conversion issues involved. The sooner conversion to SGML or XML is commenced the better for the organization and if necessary, outside facilities can be called upon to provide the expertise
    Source
    Information today. 15(1998) no.5, S.54
  20. Guenther, R.S.: Using the Metadata Object Description Schema (MODS) for resource description : guidelines and applications (2004) 0.01
    0.0074205548 = product of:
      0.04452333 = sum of:
        0.02825637 = weight(_text_:web in 2837) [ClassicSimilarity], result of:
          0.02825637 = score(doc=2837,freq=2.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.25239927 = fieldWeight in 2837, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2837)
        0.016266957 = product of:
          0.032533914 = sum of:
            0.032533914 = weight(_text_:22 in 2837) [ClassicSimilarity], result of:
              0.032533914 = score(doc=2837,freq=2.0), product of:
                0.120126344 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03430388 = queryNorm
                0.2708308 = fieldWeight in 2837, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2837)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Abstract
    This paper describes the Metadata Object Description Schema (MODS), its accompanying documentation and some of its applications. It reviews the MODS user guidelines provided by the Library of Congress and how they enable a user of the schema to consistently apply MODS as a metadata scheme. Because the schema itself could not fully document appropriate usage, the guidelines provide element definitions, history, relationships with other elements, usage conventions, and examples. Short descriptions of some MODS applications are given and a more detailed discussion of its use in the Library of Congress's Minerva project for Web archiving is given.
    Source
    Library hi tech. 22(2004) no.1, S.89-98

Authors

Years

Languages

  • e 143
  • d 42
  • f 7
  • pl 1
  • sp 1
  • More… Less…

Types

  • a 158
  • m 18
  • el 10
  • s 9
  • n 4
  • x 3
  • b 2
  • ? 1
  • More… Less…