Search (150 results, page 1 of 8)

  • × theme_ss:"Datenformate"
  1. Oehlschläger, S.: Aus der 48. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 12. und 13. November 2004 in Göttingen (2005) 0.03
    0.027978268 = product of:
      0.104918495 = sum of:
        0.02794118 = weight(_text_:suchmaschine in 3556) [ClassicSimilarity], result of:
          0.02794118 = score(doc=3556,freq=2.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.15617819 = fieldWeight in 3556, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
        0.044361472 = sum of:
          0.008049765 = weight(_text_:online in 3556) [ClassicSimilarity], result of:
            0.008049765 = score(doc=3556,freq=2.0), product of:
              0.096027054 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.031640913 = queryNorm
              0.08382809 = fieldWeight in 3556, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.01953125 = fieldNorm(doc=3556)
          0.03631171 = weight(_text_:recherche in 3556) [ClassicSimilarity], result of:
            0.03631171 = score(doc=3556,freq=4.0), product of:
              0.17150146 = queryWeight, product of:
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.031640913 = queryNorm
              0.21172827 = fieldWeight in 3556, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.01953125 = fieldNorm(doc=3556)
        0.01945211 = weight(_text_:software in 3556) [ClassicSimilarity], result of:
          0.01945211 = score(doc=3556,freq=4.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.15496688 = fieldWeight in 3556, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
        0.013163733 = weight(_text_:web in 3556) [ClassicSimilarity], result of:
          0.013163733 = score(doc=3556,freq=4.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.12748088 = fieldWeight in 3556, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3556)
      0.26666668 = coord(4/15)
    
    Content
    Enthält u.a. folgende Aussagen aus einzelnen Bibliotheken oder Verbünden: MARC21 als Austauschformat Die Expertengruppe Datenformate des Standardisierungsausschusses hat am 11. April 2005 getagt, dabei wurden die Arbeitspakete aus einem von der Arbeitsstelle für Standardisierung Der Deutschen Bibliothek vorgelegten Projektund Zeitplan in überschaubare Einheiten aufgegliedert. Ziel ist es, das bestehende MARC21 weitgehend zu übernehmen. Sollten nationale Abweichungen von MARC21 dennoch notwendig sein, so müssen diese einheitlich für alle Verbünde gelten. Bibliotheksservicezentrum Baden-Württemberg (BSZ) SWBPIus "Catalogue enrichment", die Anreicherung von Katalogdaten durch ergänzende Materialien, wie z. B. Rezensionen und Inhaltsverzeichnisse, wird als eine der wichtigsten Möglichkeiten diskutiert, die Nutzung von OPACs zu erleichtern und zu verbessern. Ganz im Trend liegt daher die Anwendung SWBplus, in der das BSZ weiterführende Texte zu Titeln in Verbund- und lokalen OPACs auflegt. Nach ca. 2.500 Dokumenten im Jahr 2003 ist der Bestand mittlerweile bei 12.300 angelangt. Mit 6.900 haben dabei die Inhaltsverzeichnisse die Rezensionen anteilsmäßig überholt. Erreicht wurde dies durch die Mitarbeit der Universitätsbibliotheken Konstanz und Heidelberg, die Inhaltsverzeichnisse scannen und an das BSZ liefern. In diese Kooperation werden nun auch die Universitätsbibliothek Mannheim, die Bibliotheken der PH Ludwigsburg und PH Freiburg sowie die Bibliothek des Bundesgerichtshofs in Karlsruhe eintreten. Vorbereitet wird zudem die Zusammenarbeit mit dem Bibliotheksverbund Bayern, so dass Inhaltsverzeichnisse auch aus Bayern in die Datenbank eingebracht und gemeinsam genutzt werden können. Fehlertolerante Suche in OPACs Gemeinsam mit der Bibliothek der Fachhochschule Konstanz und der Firma exorbyte führt das BSZ derzeit einen Test durch, in dem OPAC-Nutzer bei Unsicherheiten hinsichtlich der Schreibweise von Suchbegriffen unterstützt werden. Dazu wurde dem Horizon-WebPac der FH Konstanz die RechercheSoftware Matchmaker vorgeschaltet, die dem Nutzer neben exakten auch näherungsweise Treffer sowie Alternativen zu den Suchbegriffen anbietet. Sucht man dort nun z. B. nach "Pronnstein", so findet man dennoch unter den ersten Treffern die bekannte mathematische Formelsammlung von Ilja Bronstejn. In einer Befragung, die den Test begleitet, fanden ca. 70% der Nutzer den Einsatz dieser Technologie hilfreich und gaben an, auch die Alternativvorschläge zu nutzen. Weitere Informationen stehen unter der Adresse http://cms.bsz-bw.de/cms/entwicki/ftolsuche/ zur Verfügung. Interessenten an einem Einsatz der Software melden sich bitte beim BSZ, das die Einführung koordiniert.
    Die Deutsche Bibliothek Retrieval von Content In dem Projekt wird angestrebt, Verfahren zu entwickeln und einzuführen, die automatisch und ohne intellektuelle Bearbeitung für das Content-Retrieval ausreichend Sucheinstiege bieten. Dabei kann es sich um die Suche nach Inhalten von Volltexten, digitalen Abbildern, Audiofiles, Videofiles etc. von in Der Deutschen Bibliothek archivierten digitalen Ressourcen oder digitalen Surrogaten archivierter analoger Ressourcen (z. B. OCR-Ergebnisse) handeln. Inhalte, die in elektronischer Form vorhanden sind, aber dem InternetBenutzer Der Deutschen Bibliothek bisher nicht oder nur eingeschränkt zur Verfügung stehen, sollen in möglichst großem Umfang und mit möglichst großem Komfort nutzbar gemacht werden. Darüber hinaus sollen Inhalte benutzt werden, die für ein in ILTIS katalogisiertes Objekt beschreibenden Charakter haben, um auf das beschriebene Objekt zu verweisen. Die höchste Priorität liegt dabei auf der Erschließung von Inhalten in Textformaten. In einem ersten Schritt wurde der Volltext aller Zeitschriften, die im Projekt "Exilpresse digital" digitalisiert wurden, für eine erweiterte Suche genutzt. In einem nächsten Schritt soll die PSI-Software für die Volltextindexierung von Abstracts evaluiert werden. MILOS Mit dem Einsatz von MILOS eröffnet sich die Möglichkeit, nicht oder wenig sachlich erschlossene Bestände automatisch mit ergänzenden Inhaltserschließungsinformationen zu versehen, der Schwerpunkt liegt dabei auf der Freitext-Indexierung. Das bereits in einigen Bibliotheken eingesetzte System, das inzwischen von Der Deutschen Bibliothek für Deutschland lizenziert wurde, wurde in eine UNIX-Version überführt und angepasst. Inzwischen wurde nahezu der gesamte Bestand rückwirkend behandelt, die Daten werden im Gesamt-OPAC für die Recherche zur Verfügung stehen. Die in einer XMLStruktur abgelegten Indexeinträge werden dabei vollständig indexiert und zugänglich gemacht. Ein weiterer Entwicklungsschritt wird in dem Einsatz von MILOS im Online-Verfahren liegen.
    Hessisches BibliotheksinformationsSystem (HEBIS) Personennamendatei (PND) Vor dem Hintergrund der Harmonisierungsbestrebungen bei den Normdateien hat der HeBIS-Verbundrat nach erneuter Diskussion mehrheitlich entschieden, künftig neben SWD und GKD auch die PND als in HeBIS integrierte Normdatei obligatorisch zu nutzen. Im Zuge der wachsenden Vernetzung der regionalen Verbundsysteme kommt der Homogenität der Datensätze eine zunehmend wichtigere Bedeutung zu. Konkret wird dies speziell für HeBIS mit dem Produktionsbeginn des HeBIS-Portals und der integrierten verbundübergreifenden Fernleihe. Nur wenn die Verfasserrecherche in den einzelnen Verbunddatenbanken auf weitgehend einheitliche Datensätze einschließlich Verweisungsformen trifft, kann der Benutzer gute Trefferergebnisse erwarten und damit seine Chancen erhöhen, die gewünschte Literatur über Fernleihe bestellen zu können. Das Gesamtkonzept ist ausgelegt auf eine pragmatische und aufwandsreduzierte Vorgehensweise. Mit der Umsetzung wurde begonnen. Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (HBZ) FAST-Suchmaschine Das HBZ hat die Suchmaschinentechnologie des norwegischen Herstellers FAST lizenziert. Ziel ist es, die Produkte des HBZ mit Hilfe innovativer Suchmaschinentechnologien in einer neuen Ausrichtung zu präsentieren. Die Präsentation soll einen schnellen Recherche-Zugang zu den NRWVerbunddaten mittels FAST-Suchmaschinentechnologie mit folgenden Eigenschaften beinhalten: - Eine Web-Oberfläche, um für Laien eine schnelle Literatursuche anbieten zu können. - Eine Web-Oberfläche, um für Expertinnen und Experten eine schnelle Literatur-Suche anbieten zu können. - Präsentation von Zusatzfunktionen, die in gängigen Bibliothekskatalogen so nicht vorhanden sind. - Schaffung einer Zugriffsmöglichkeit für den KVK auf die Verbunddaten mit sehr kurzen Antwortzeiten Digitale Bibliothek Die Mehrzahl der Bibliotheken ist inzwischen auf Release 5 umgezogen. Einige befinden sich noch im Bearbeitungsstatus. Von den letzten drei Bibliotheken liegen inzwischen die Umzugsanträge vor. Durch die Umstrukturierung der RLB Koblenz zum LBZ Rheinland-Pfalz werden die Einzelsichten der RLB Koblenz, PLB Speyer und der Bipontina in Zweibrücken mit den Büchereistellen Koblenz und Neustadt zu einer Sicht verschmolzen.
  2. Riemer, J.J.: Adding 856 Fields to authority records : rationale and implications (1998) 0.02
    0.02473115 = product of:
      0.12365575 = sum of:
        0.011269671 = product of:
          0.022539342 = sum of:
            0.022539342 = weight(_text_:online in 3715) [ClassicSimilarity], result of:
              0.022539342 = score(doc=3715,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.23471867 = fieldWeight in 3715, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3715)
          0.5 = coord(1/2)
        0.03851321 = weight(_text_:software in 3715) [ClassicSimilarity], result of:
          0.03851321 = score(doc=3715,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.30681872 = fieldWeight in 3715, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3715)
        0.07387287 = weight(_text_:site in 3715) [ClassicSimilarity], result of:
          0.07387287 = score(doc=3715,freq=2.0), product of:
            0.1738463 = queryWeight, product of:
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.031640913 = queryNorm
            0.4249321 = fieldWeight in 3715, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3715)
      0.2 = coord(3/15)
    
    Abstract
    Discusses ways of applying MARC Field 856 (Electronic Location and Access) to authority records in online union catalogues. In principle, each catalogue site location can be treated as the electronic record of the work concerned and the MARC Field 856 can then refer to this location as if it were referring to the location of a primary record. Although URLs may become outdated, the fact that they are located in specifically defined MARC Fields makes the data contained amenable to the same link maintenance software ae used for the electronic records themselves. Includes practical examples of typical union catalogue records incorporating MARC Field 856
  3. Kushwoh, S.S.; Gautam, J.N.; Singh, R.: Migration from CDS / ISIS to KOHA : a case study of data conversion from CCF to MARC 21 (2009) 0.01
    0.012844125 = product of:
      0.09633093 = sum of:
        0.033011325 = weight(_text_:software in 2279) [ClassicSimilarity], result of:
          0.033011325 = score(doc=2279,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.2629875 = fieldWeight in 2279, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=2279)
        0.06331961 = weight(_text_:site in 2279) [ClassicSimilarity], result of:
          0.06331961 = score(doc=2279,freq=2.0), product of:
            0.1738463 = queryWeight, product of:
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.031640913 = queryNorm
            0.3642275 = fieldWeight in 2279, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.046875 = fieldNorm(doc=2279)
      0.13333334 = coord(2/15)
    
    Content
    Vgl.: http://search.ebscohost.com/login.aspx?direct=true&db=lxh&AN=40101930&site=ehost-live.
    Theme
    Bibliographische Software
  4. Miller, E.; Ogbuji, U.: Linked data design for the visible library (2015) 0.01
    0.011421228 = product of:
      0.085659206 = sum of:
        0.022339594 = weight(_text_:web in 2773) [ClassicSimilarity], result of:
          0.022339594 = score(doc=2773,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.21634221 = fieldWeight in 2773, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2773)
        0.06331961 = weight(_text_:site in 2773) [ClassicSimilarity], result of:
          0.06331961 = score(doc=2773,freq=2.0), product of:
            0.1738463 = queryWeight, product of:
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.031640913 = queryNorm
            0.3642275 = fieldWeight in 2773, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.046875 = fieldNorm(doc=2773)
      0.13333334 = coord(2/15)
    
    Abstract
    In response to libraries' frustration over their rich resources being invisible on the web, Zepheira, at the request of the Library of Congress, created BIBFRAME, a bibliographic metadata framework for cataloging. The model replaces MARC records with linked data, promoting resource visibility through a rich network of links. In place of formal taxonomies, a small but extensible vocabulary streamlines metadata efforts. Rather than using a unique bibliographic record to describe one item, BIBFRAME draws on the Dublin Core and the Functional Requirements for Bibliographic Records (FRBR) to generate formalized descriptions of Work, Instance, Authority and Annotation as well as associations between items. Zepheira trains librarians to transform MARC records to BIBFRAME resources and adapt the vocabulary for specialized needs, while subject matter experts and technical experts manage content, site design and usability. With a different approach toward data modeling and metadata, previously invisible resources gain visibility through linking.
  5. Paulus, W.; Weishaupt, K.: Bibliotheksdaten werden mehr wert : LibLink wertet bibliothekarische Dienstleistung auf (1996) 0.01
    0.0101937875 = product of:
      0.0764534 = sum of:
        0.055018872 = weight(_text_:software in 5228) [ClassicSimilarity], result of:
          0.055018872 = score(doc=5228,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.43831247 = fieldWeight in 5228, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.078125 = fieldNorm(doc=5228)
        0.021434534 = product of:
          0.04286907 = sum of:
            0.04286907 = weight(_text_:22 in 5228) [ClassicSimilarity], result of:
              0.04286907 = score(doc=5228,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.38690117 = fieldWeight in 5228, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5228)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Die maschinenlesbaren Katalogdaten der Bibliotheken wurden bisher hauptsächlich intern genutzt. Die im Institut Arbeit und Technik entwickelte Software LibLink ermöglich es, diese Daten auch im wissenschaftlichen Kontext zu verwenden
    Date
    29. 9.1996 18:58:22
  6. Oehlschläger, S.: Aus der 52. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 24. und 25. April 2007 in Berlin (2007) 0.01
    0.009726687 = product of:
      0.048633434 = sum of:
        0.02794118 = weight(_text_:suchmaschine in 465) [ClassicSimilarity], result of:
          0.02794118 = score(doc=465,freq=2.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.15617819 = fieldWeight in 465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
        0.011384088 = product of:
          0.022768175 = sum of:
            0.022768175 = weight(_text_:online in 465) [ClassicSimilarity], result of:
              0.022768175 = score(doc=465,freq=16.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.23710167 = fieldWeight in 465, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=465)
          0.5 = coord(1/2)
        0.009308165 = weight(_text_:web in 465) [ClassicSimilarity], result of:
          0.009308165 = score(doc=465,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.09014259 = fieldWeight in 465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
      0.2 = coord(3/15)
    
    Content
    Catalogue Enrichment Die Arbeitsgruppe Catalogue Enrichment unter Federführung des hbz hat im Berichtszeitraum nicht getagt. Der Vorsitzende der AGV berichtet, dass das Projekt insgesamt eine gute Dynamik erreicht habe. Ursprünglich war man von dem Gedanken eines Referenzservers ausgegangen. Die Idee dabei war es, einen Server aufzusetzen, an den alle angereicherten Daten geliefert werden sollten. Dabei sollte automatisch abgeglichen werden, ob irgendwo bereits Daten vorliegen. Nunmehr müsse geprüft werden, ob ein zentraler Server in dieser Form noch benötigt werde. Normdaten-Onlineschnittstelle Im Projekt Online-Normschnittstelle konnten die Hersteller-Funktionstests mit der Deutschen Nationalbibliothek mittlerweile erfolgreich abgeschlossen werden, und die Funktionstests mit den Anwendern stehen unmittelbar bevor. Nach dem entsprechend angepassten Zeitplan für die Projekte Online-Normschnittstelle und Online-Redaktionsverfahren für Normdaten ist der Beginn der "produktiven Phase", d.h. der Einsatz im Echtbetrieb der Normdatei, für das zweite Halbjahr 2007 vorgesehen. Die Zeitplanung für die Einführung ist entscheidend von den Ergebnissen der Anwendertests abhängig. Das Online-Updateverfahren (Z39,50-Update und zeitnahe Replikation Ober °Al in die Bibliotheksverbünde) soil dabeizuerst in der Personennamendatei (PND) eingesetzt werden. Füreinen Einführungszeitraum von zwei Monaten sollen Redaktionsverfahren und Teilnehmerkreis zunächst weitgehend unverändert bleiben (noch keine Einbeziehung der Katalogisierer). Der Einführungszeitraum soll dazu genutzt werden, etwaige noch nicht erkannte Funktionsschwächen zu beseitigen, die für das volle Online-Redaktionsverfahren notwendigen Formaterweiterungen und Umsetzungen vorzunehmen und in den Bibliotheksverbünden und Bibliotheken die notwendigen Geschäftsgangsänderungen zu planen und durchzuführen. Im Anschluss sollen dann für die PND der Teilnehmerkreis am Online-Kommunikationsverfahren auf alle Katalogisierer in den teilnehmenden Bibliotheksverbünden ausgeweitet und das Online-Redaktionsverfahren eingesetzt werden.
    DDC-vascoda Für den Sucheinstieg bei vascoda wird bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungsjahr) kombiniert werden kann, angeboten. Die Suche kann zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Da in vascoda die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument eingeführt ist und bereits nennenswerte Bestände mit der DDC erschlossen sind, bietet sich die Möglichkeit, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Im Berichtszeitraum wurde in der vascoda AG Betrieb und mit dem hbz als Portalbetreiber die konzeptionelle und technische Einbindung des DDC-Browsings im vascoda-Portal diskutiert und beschlossen. Die Navigation mit DDC wird ähnlich wie die Navigation über die Fachcluster auf der linken Seite der Trefferliste integriert, beim Navigieren im Baum werden synchron die passenden Ressourcen aus der Suchmaschine in der mittleren Spalte eingeblendet. Wegen hoher Arbeitsbelastung im hbz wird dieses Feature wahrscheinlich nicht Teil des vascoda-Relaunches im Juni 2007 sein, sondern erst im 2. Halbjahr 2007 integriert werden. Weiter wurde ein Angebot implementiert für Fachportale und andere Institutionen, die mit DDC erschließen, aber nicht die technischen Möglichkeiten haben, ein eigenes Browsing zu entwickeln. Das Verfahren sieht vor, dass die DNB einen Dienst anbietet, der ein HTML-Snippet mit der gewünschten Browsing-Struktur generiert (ähnlich wie MelvilSearch), die in die Oberfläche des Fachportals integriert werden kann. Der Dienst wird voraussichtlich im 2. Quartal 2007 in Betrieb genommen werden können. In Zusammenarbeit mit der SUB Göttingen wurde ein Workshop zum Thema Lizenzfragen für DDC in Bezug auf Fachportale und andere Online-Angebote abgehalten. Die Ergebnisse wurden im vascoda-Newsletter veröffentlicht.
    kim - Kompetenzzentrum Interoperable Metadaten Projektziel ist der Aufbau eines Kompetenzzentrums Interoperable Metadaten (KIM), das im deutschsprachigen Raum den Ausbau der Kompetenzen für die Themen interoperable Metadaten, Metadatenaustausch und Formate fördern soll. Strukturierte Beschreibungen (Metadaten) verschiedener Datenbestände werden als "interoperabel" bezeichnet, wenn in ihnen über einheitliche Suchverfahren recherchiert oder sie sinnvoll in die Datenverwaltung integriert werden können. Interoperabilität wird erreicht, indem man sich in kontrollierten institutionellen Zusammenhängen an technische Spezifikationen hält. Eine zentrale Aufgabe des "Kompetenzzentrum Interoperable Metadaten" als DCMI-Affiliate in Deutschland (nach Projektende im deutschsprachigen Raum mit Partnern aus Österreich und der Schweiz) besteht dabei in der Bildung einer Kernarbeitsgruppe mit weiteren spezifischen Arbeitsgruppen, die durch die Begutachtung bereits existierender Anwendungsprofile ein gemeinsames Verständnis für "good practice" in der Anwendung sowohl des Dublin-Core-Modells als auch des Semantic-Web-Modells entwickelt. Dieses Verständnis bildet die Grundlage für die Entwicklung von Zertifizierungsverfahren, Ausbildungsangeboten und Beratungsdiensten im Bereich interoperable Metadaten.
  7. Schaffner, V.: FRBR in MAB2 und Primo - ein kafkaesker Prozess? : Möglichkeiten der FRBRisierung von MAB2-Datensätzen in Primo exemplarisch dargestellt an Datensätzen zu Franz Kafkas "Der Process" (2011) 0.01
    0.009571284 = product of:
      0.04785642 = sum of:
        0.006439812 = product of:
          0.012879624 = sum of:
            0.012879624 = weight(_text_:online in 907) [ClassicSimilarity], result of:
              0.012879624 = score(doc=907,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.13412495 = fieldWeight in 907, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.03125 = fieldNorm(doc=907)
          0.5 = coord(1/2)
        0.02200755 = weight(_text_:software in 907) [ClassicSimilarity], result of:
          0.02200755 = score(doc=907,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.17532499 = fieldWeight in 907, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=907)
        0.01940906 = product of:
          0.03881812 = sum of:
            0.03881812 = weight(_text_:analyse in 907) [ClassicSimilarity], result of:
              0.03881812 = score(doc=907,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.23284946 = fieldWeight in 907, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.03125 = fieldNorm(doc=907)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    FRBR (Functional Requirements for Bibliographic Records) ist ein logisches Denkmodell für bibliographische Datensätze, welches zur benutzerfreundlicheren Gestaltung von Browsing in Online-Bibliothekskatalogen herangezogen werden kann. Im Österreichischen Bibliothekenverbund (OBV) werden bibliographische Datensätze nach den Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken (RAK-WB) erstellt und liegen im Datenformat MAB2 (Maschinelles Austauschformat für Bibliotheken) vor. Mit der Software Primo von Ex Libris, die 2009 implementiert wurde, besteht die Möglichkeit bibliographische Datensätze für die Anzeige neu aufzubereiten. Wie ausgehend von MAB2-Daten eine möglichst FRBR-konforme Datenpräsentation in Primo geleistet werden kann und welche Probleme sich dabei ergeben, ist die zentrale Fragestellung dieser Master Thesis. Exemplarisch dargestellt wird dies anhand von Datensätzen des Österreichischen Bibliothekenverbundes zu Franz Kafkas "Der Process". Im Fokus stehen drei Aspekte, welche im Zusammenhang mit FRBR, MAB2 und Primo als besonders problematisch und diskussionswürdig erscheinen: das Konzept des "Werkes", Expressionen als praxistaugliche Entitäten und Aggregate bzw. mehrbändig begrenzte Werke. Nach einer Einführung in das FRBR-Modell wird versucht einen idealen FRBRBaum zu Kafkas "Der Process" in seinen unterschiedlichen Ausprägungen (Übersetzungen, Verfilmungen, Textvarianten, Aggregate etc.) darzustellen: Schon hier werden erste Grenzen des Modells sichtbar. Daran anschließend werden Datensätze des OBV einer Analyse unterzogen, um die FRBRTauglichkeit von MAB2 und die Möglichkeit der FRBR keys in Primo zu beleuchten. Folgende Einschränkungen wurden deutlich: Die derzeitige Herangehensweise und Praxis der Formalerschließung ist nicht auf FRBR vorbereitet. Die vorliegenden Metadaten sind zu inkonsistent, um ein maschinelles Extrahieren für eine FRBR-konforme Datenpräsentation zu ermöglichen. Die Möglichkeiten des Werkclusterings und der Facettierung in Primo bieten darüber hinaus zwar einen Mehrwert für das Browsing in Trefferlisten, jedoch nur bedingt im FRBR-Sinne.
  8. UNIMARC and CDS/ISIS : Proceedings of the Workshops held in Budapest, 21.-22. June 1993 and Barcelona, 26. August 1993 (1994) 0.01
    0.009262678 = product of:
      0.069470085 = sum of:
        0.05446591 = weight(_text_:software in 8779) [ClassicSimilarity], result of:
          0.05446591 = score(doc=8779,freq=4.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.43390724 = fieldWeight in 8779, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8779)
        0.015004174 = product of:
          0.030008348 = sum of:
            0.030008348 = weight(_text_:22 in 8779) [ClassicSimilarity], result of:
              0.030008348 = score(doc=8779,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.2708308 = fieldWeight in 8779, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=8779)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Content
    Enthält die Beiträge: CAMPOS, F.: UNIMARC: state of the art on the universal format for international exchange; HOLT, B.: The maintenance of UNIMARC; WILLER, M.: UNIMARC / Authorities format; HOPKINSON, A.: CDS/ISIS as a tool for implementing UNIMARC; BERKE, S. u. M. SIPOS: The comprehensive information system of the National Széchényi Library and the Hungarian MARC format; SHRAIBERG, Y.: Application of the CDS/ISIS software package and UNIMARC format in the automated systems of the Russian National Public Library for Science and Technology and other libraries of the Russian Federation; STOKLASOVA, B.: Exchange formats in the Czech Republic: past, present and future
    Theme
    Bibliographische Software
  9. Cantrall, D.: From MARC to Mosaic : progressing toward data interchangeability at the Oregon State Archives (1994) 0.01
    0.008610143 = product of:
      0.064576074 = sum of:
        0.03851321 = weight(_text_:software in 8470) [ClassicSimilarity], result of:
          0.03851321 = score(doc=8470,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.30681872 = fieldWeight in 8470, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8470)
        0.026062861 = weight(_text_:web in 8470) [ClassicSimilarity], result of:
          0.026062861 = score(doc=8470,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.25239927 = fieldWeight in 8470, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8470)
      0.13333334 = coord(2/15)
    
    Abstract
    Explains the technology used by the Oregon State Archives to relaize the goal of data interchangeability given the prescribed nature of the MARC format. Describes an emergent model of learning and information delivery focusing on the example of World Wide Web, accessed most often by the software client Mosaic, which is the fastest growing segment of the Internet information highway. Also describes The Data Magician, a flexible program which allows for many combinations of input and output formats, and will read unconventional formats such as MARC communications format. Oregon State Archives, using Mosaic and The Data Magician, are consequently able to present valuable electronic information to a variety of users
  10. Simmons, P.: Microcomputer software for ISO 2709 record conversion (1989) 0.01
    0.008299567 = product of:
      0.1244935 = sum of:
        0.1244935 = weight(_text_:software in 2) [ClassicSimilarity], result of:
          0.1244935 = score(doc=2,freq=4.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.99178797 = fieldWeight in 2, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.125 = fieldNorm(doc=2)
      0.06666667 = coord(1/15)
    
    Theme
    Bibliographische Software
  11. Kaiser, M.; Lieder, H.J.; Majcen, K.; Vallant, H.: New ways of sharing and using authority information : the LEAF project (2003) 0.01
    0.007868471 = product of:
      0.03934235 = sum of:
        0.0069713015 = product of:
          0.013942603 = sum of:
            0.013942603 = weight(_text_:online in 1166) [ClassicSimilarity], result of:
              0.013942603 = score(doc=1166,freq=6.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.14519453 = fieldWeight in 1166, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1166)
          0.5 = coord(1/2)
        0.013754718 = weight(_text_:software in 1166) [ClassicSimilarity], result of:
          0.013754718 = score(doc=1166,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.10957812 = fieldWeight in 1166, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1166)
        0.01861633 = weight(_text_:web in 1166) [ClassicSimilarity], result of:
          0.01861633 = score(doc=1166,freq=8.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.18028519 = fieldWeight in 1166, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1166)
      0.2 = coord(3/15)
    
    Abstract
    This article presents an overview of the LEAF project (Linking and Exploring Authority Files)1, which has set out to provide a framework for international, collaborative work in the sector of authority data with respect to authority control. Elaborating the virtues of authority control in today's Web environment is an almost futile exercise, since so much has been said and written about it in the last few years.2 The World Wide Web is generally understood to be poorly structured-both with regard to content and to locating required information. Highly structured databases might be viewed as small islands of precision within this chaotic environment. Though the Web in general or any particular structured database would greatly benefit from increased authority control, it should be noted that our following considerations only refer to authority control with regard to databases of "memory institutions" (i.e., libraries, archives, and museums). Moreover, when talking about authority records, we exclusively refer to personal name authority records that describe a specific person. Although different types of authority records could indeed be used in similar ways to the ones presented in this article, discussing those different types is outside the scope of both the LEAF project and this article. Personal name authority records-as are all other "authorities"-are maintained as separate records and linked to various kinds of descriptive records. Name authority records are usually either kept in independent databases or in separate tables in the database containing the descriptive records. This practice points at a crucial benefit: by linking any number of descriptive records to an authorized name record, the records related to this entity are collocated in the database. Variant forms of the authorized name are referenced in the authority records and thus ensure the consistency of the database while enabling search and retrieval operations that produce accurate results. On one hand, authority control may be viewed as a positive prerequisite of a consistent catalogue; on the other, the creation of new authority records is a very time consuming and expensive undertaking. As a consequence, various models of providing access to existing authority records have emerged: the Library of Congress and the French National Library (Bibliothèque nationale de France), for example, make their authority records available to all via a web-based search service.3 In Germany, the Personal Name Authority File (PND, Personennamendatei4) maintained by the German National Library (Die Deutsche Bibliothek, Frankfurt/Main) offers a different approach to shared access: within a closed network, participating institutions have online access to their pooled data. The number of recent projects and initiatives that have addressed the issue of authority control in one way or another is considerable.5 Two important current initiatives should be mentioned here: The Name Authority Cooperative (NACO) and Virtual International Authority File (VIAF).
    NACO was established in 1976 and is hosted by the Library of Congress. At the beginning of 2003, nearly 400 institutions were involved in this undertaking, including 43 institutions from outside the United States.6 Despite the enormous success of NACO and the impressive annual growth of the initiative, there are requirements for participation that form an obstacle for many institutions: they have to follow the Anglo-American Cataloguing Rules (AACR2) and employ the MARC217 data format. Participating institutions also have to belong to either OCLC (Online Computer Library Center) or RLG (Research Libraries Group) in order to be able to contribute records, and they have to provide a specified minimum number of authority records per year. A recent proof of concept project of the Library of Congress, OCLC and the German National Library-Virtual International Authority File (VIAF)8-will, in its first phase, test automatic linking of the records of the Library of Congress Name Authority File (LCNAF) and the German Personal Name Authority File by using matching algorithms and software developed by OCLC. The results are expected to form the basis of a "Virtual International Authority File". The project will then test the maintenance of the virtual authority file by employing the Open Archives Initiative Protocol for Metadata Harvesting (OAI-PMH)9 to harvest the metadata for new, updated, and deleted records. When using the "Virtual International Authority File" a cataloguer will be able to check the system to see whether the authority record he wants to establish already exists. The final phase of the project will test possibilities for displaying records in the preferred language and script of the end user. Currently, there are still some clear limitations associated with the ways in which authority records are used by memory institutions. One of the main problems has to do with limited access: generally only large institutions or those that are part of a library network have unlimited online access to permanently updated authority records. Smaller institutions outside these networks usually have to fall back on less efficient ways of obtaining authority data, or have no access at all. Cross-domain sharing of authority data between libraries, archives, museums and other memory institutions simply does not happen at present. Public users are, by and large, not even aware that such things as name authority records exist and are excluded from access to these information resources.
  12. Manguinhas, H.; Freire, N.; Machado, J.; Borbinha, J.: Supporting multilingual bibliographic resource discovery with Functional Requirements for Bibliographic Records (2012) 0.01
    0.007409331 = product of:
      0.05556998 = sum of:
        0.013942603 = product of:
          0.027885206 = sum of:
            0.027885206 = weight(_text_:online in 133) [ClassicSimilarity], result of:
              0.027885206 = score(doc=133,freq=6.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.29038906 = fieldWeight in 133, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=133)
          0.5 = coord(1/2)
        0.041627377 = weight(_text_:web in 133) [ClassicSimilarity], result of:
          0.041627377 = score(doc=133,freq=10.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.40312994 = fieldWeight in 133, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=133)
      0.13333334 = coord(2/15)
    
    Abstract
    This paper describes an experiment exploring the hypothesis that innovative application of the Functional Require-ments for Bibliographic Records (FRBR) principles can complement traditional bibliographic resource discovery systems in order to improve the user experience. A specialized service was implemented that, when given a plain list of results from a regular online catalogue, was able to process, enrich and present that list in a more relevant way for the user. This service pre-processes the records of a traditional online catalogue in order to build a semantic structure following the FRBR model. The service also explores web search features that have been revolutionizing the way users conceptualize resource discovery, such as relevance ranking and metasearching. This work was developed in the context of the TELPlus project. We processed nearly one hundred thousand bibliographic and authority records, in multiple languages, and originating from twelve European na-tional libraries. This paper describes the architecture of the service and the main challenges faced, especially concerning the extraction and linking of the relevant FRBR entities from the bibliographic metadata produced by the libraries. The service was evaluated by end users, who filled out a questionnaire after using a traditional online catalogue and the new service, both with the same bibliographic collection. The analysis of the results supports the hypothesis that FRBR can be implemented for re-source discovery in a non-intrusive way, reusing the data of any existing traditional bibliographic system.
    Content
    Beitrag eines Schwerpunktthemas: Semantic Web and Reasoning for Cultural Heritage and Digital Libraries: Vgl.: http://www.semantic-web-journal.net/content/supporting-multilingual-bibliographic-resource-discovery-functional-requirements-bibliograph http://www.semantic-web-journal.net/sites/default/files/swj145_2.pdf.
    Source
    Semantic Web journal. 3(2012) no.1, S.3-21
  13. Martin, P.: Conventions and notations for knowledge representation and retrieval (2000) 0.01
    0.007380123 = product of:
      0.05535092 = sum of:
        0.033011325 = weight(_text_:software in 5070) [ClassicSimilarity], result of:
          0.033011325 = score(doc=5070,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.2629875 = fieldWeight in 5070, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=5070)
        0.022339594 = weight(_text_:web in 5070) [ClassicSimilarity], result of:
          0.022339594 = score(doc=5070,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.21634221 = fieldWeight in 5070, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=5070)
      0.13333334 = coord(2/15)
    
    Abstract
    Much research has focused on the problem of knowledge accessibility, sharing and reuse. Specific languages (e.g. KIF, CG, RDF) and ontologies have been proposed. Common characteristics, conventions or ontological distinctions are beginning to emerge. Since knowledge providers (humans and software agents) must follow common conventions for the knowledge to be widely accessed and re-used, we propose lexical, structural, semantic and ontological conventions based on various knowledge representation projects and our own research. These are minimal conventions that can be followed by most and cover the most common knowledge representation cases. However, agreement and refinements are still required. We also show that a notation can be both readable and expressive by quickly presenting two new notations -- Formalized English (FE) and Frame-CG (FCG) - derived from the CG linear form [9] and Frame-Logics [4]. These notations support the above conventions, and are implemented in our Web-based knowledge representation and document indexation tool, WebKB¹ [7]
  14. Guenther, R.S.: Automating the Library of Congress Classification Scheme : implementation of the USMARC format for classification data (1996) 0.01
    0.0072601247 = product of:
      0.054450933 = sum of:
        0.015937723 = product of:
          0.031875446 = sum of:
            0.031875446 = weight(_text_:online in 5578) [ClassicSimilarity], result of:
              0.031875446 = score(doc=5578,freq=4.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.33194235 = fieldWeight in 5578, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5578)
          0.5 = coord(1/2)
        0.03851321 = weight(_text_:software in 5578) [ClassicSimilarity], result of:
          0.03851321 = score(doc=5578,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.30681872 = fieldWeight in 5578, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5578)
      0.13333334 = coord(2/15)
    
    Abstract
    Potential uses for classification data in machine readable form and reasons for the development of a standard, the USMARC Format for Classification Data, which allows for classification data to interact with other USMARC bibliographic and authority data are discussed. The development, structure, content, and use of the standard is reviewed with implementation decisions for the Library of Congress Classification scheme noted. The author examines the implementation of USMARC classification at LC, the conversion of the schedules, and the functionality of the software being used. Problems in the effort are explored, and enhancements desired for the online classification system are considered.
    Theme
    Klassifikationssysteme im Online-Retrieval
  15. Tennant, R.: ¬A bibliographic metadata infrastructure for the twenty-first century (2004) 0.01
    0.0072048716 = product of:
      0.054036535 = sum of:
        0.029786127 = weight(_text_:web in 2845) [ClassicSimilarity], result of:
          0.029786127 = score(doc=2845,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.2884563 = fieldWeight in 2845, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=2845)
        0.024250409 = product of:
          0.048500817 = sum of:
            0.048500817 = weight(_text_:22 in 2845) [ClassicSimilarity], result of:
              0.048500817 = score(doc=2845,freq=4.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.4377287 = fieldWeight in 2845, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2845)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    The current library bibliographic infrastructure was constructed in the early days of computers - before the Web, XML, and a variety of other technological advances that now offer new opportunities. General requirements of a modern metadata infrastructure for libraries are identified, including such qualities as versatility, extensibility, granularity, and openness. A new kind of metadata infrastructure is then proposed that exhibits at least some of those qualities. Some key challenges that must be overcome to implement a change of this magnitude are identified.
    Date
    9.12.2005 19:22:38
    Source
    Library hi tech. 22(2004) no.2, S.175-181
  16. Croissant, C.R.: MARC21 und die anglo-amerikanische Katalogisierungspraxis (2004) 0.01
    0.0072044744 = product of:
      0.10806711 = sum of:
        0.10806711 = sum of:
          0.08234567 = weight(_text_:analyse in 1764) [ClassicSimilarity], result of:
            0.08234567 = score(doc=1764,freq=4.0), product of:
              0.16670908 = queryWeight, product of:
                5.268782 = idf(docFreq=618, maxDocs=44218)
                0.031640913 = queryNorm
              0.49394834 = fieldWeight in 1764, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.268782 = idf(docFreq=618, maxDocs=44218)
                0.046875 = fieldNorm(doc=1764)
          0.02572144 = weight(_text_:22 in 1764) [ClassicSimilarity], result of:
            0.02572144 = score(doc=1764,freq=2.0), product of:
              0.110801086 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.031640913 = queryNorm
              0.23214069 = fieldWeight in 1764, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1764)
      0.06666667 = coord(1/15)
    
    Abstract
    Das MARC21-Datenformat wird aus der Sicht eines praktizierenden AACR2/MARC-Katalogisierers vorgeführt. Der Autor gibt zunächst eine allgemeine Einführung in das MARC21 Bibliographic Format. Der zweite Abschnitt der Arbeit ist der Erschließung von mehrteiligen bzw. mehrbändigen Werken gewidmet. Die Behandlung von mehrteiligen bzw. mehrbändigen Werken, in der AACR2-Welt "Analyse" genannt, ist nämlich der Punkt, an dem die anglo-amerikanische und die deutsche Katalogisierungspraxis am weitesten auseinandergehen. Die verschiedenen Formen der "Analyse" werden erläutert im Hinblick auf die Frage, inwiefern diese Praxen den Bedürfnissen der Benutzer gerecht werden. Auf eine kurze Behandlung der besonderen Problematik der fortlaufenden Sammelwerke folgt dann eine Einführung in das MARC21 Authorities Format für Normdatensätze. Die Rolle der verschiedenen Arten von Normdatensätzen bei der Katalogisierung wird auch besprochen. DerAufsatz schließt mit einem Kommentar über verschiedene Aspekte der Verlinkung von Datensätzen.
    Date
    13. 8.2004 21:22:06
  17. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.01
    0.0068339114 = product of:
      0.051254332 = sum of:
        0.04367608 = sum of:
          0.017999824 = weight(_text_:online in 632) [ClassicSimilarity], result of:
            0.017999824 = score(doc=632,freq=10.0), product of:
              0.096027054 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.031640913 = queryNorm
              0.18744534 = fieldWeight in 632, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.01953125 = fieldNorm(doc=632)
          0.025676252 = weight(_text_:recherche in 632) [ClassicSimilarity], result of:
            0.025676252 = score(doc=632,freq=2.0), product of:
              0.17150146 = queryWeight, product of:
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.031640913 = queryNorm
              0.14971448 = fieldWeight in 632, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.01953125 = fieldNorm(doc=632)
        0.0075782523 = product of:
          0.015156505 = sum of:
            0.015156505 = weight(_text_:22 in 632) [ClassicSimilarity], result of:
              0.015156505 = score(doc=632,freq=4.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.13679022 = fieldWeight in 632, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=632)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Content
    "Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung Matchkey Bei der Verwendung von Meta-Suchmaschinen zur parallelen Recherche in bibliografischen Datenbanken kommt es häufig vor, dass derselbe Titel mehrmals in der Trefferliste auftaucht. In dieser Situation könnte ein so genannter Matchkey Abhilfe schaffen, der jeden Datensatz aus den vorhandenen bibliografischen Daten heraus eindeutig identifiziert. Ein solcher Algorithmus geht von einem bibliografischen Datensatz aus und generiert einen Schlüssel (Matchkey), der wiederum in den Datensatz integriert werden kann. Der Schlüssel muss sortierfähig sein, so dass die Trefferliste nach dem Grad der Ähnlichkeit sortiert werden kann. Eine wichtige Voraussetzung für die erfolgreiche Anwendung des Matchkey ist die Beseitigung der Hausregeln in den Verbünden und Bibliotheken. Bisher hat Die Deutsche Bibliothek das Thema analysiert und strebt nun die Formulierung und Bereitstellung eines ersten Algorithmus an, um eine Implementierung zu Testzwecken voraussichtlich im März/April 2006 zu ermöglichen. Ein klares Ergebnis soll bis Ende 2006 vorliegen.
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum Das HBZ hat seinen am 15. November frei geschalteten Dreiländer-Katalog (Deutschland, Österreich, Schweiz) vorgestellt, dessen Ziel der Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum ist. Der Katalog entstand in Kooperation des HBZ mit dem Bibliotheksverbund Bayern (BVB) und dem Österreichischen Bibliothekenverbund (OBV); die Integration weiterer Bibliotheksbestände aus anderen Regionen ist in Arbeit. Realisiert wurde das Projekt mittels der Suchmaschinentechnologie des HBZ, die Antwortzeiten in Bruchteilen von Sekunden, Ranking und Kategorisierung der Treffermengen ermöglicht. Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben beschlossen, sich die für die Literaturversorgung relevanten Verbunddaten (Titeldaten mit Nachweisen) für den Aufbau verbundbezogener, nicht kommerzieller Dienste auf Gegenseitigkeit kostenfrei zur Verfügung zu stellen. Normdateien Online-Schnittstelle Ziel der Online-Kommunikation mit Normdateien ist es, die Arbeit mit den zentralen Normdateien dadurch zu vereinfachen, dass Änderungen an Normdaten in den zentral bei Der Deutschen Bibliothek gehaltenen Dateien mit dem eigenen Client erfolgen können. Ferner sollen alle Änderungen an den Normdateien zeitnah in die Normdaten-Spiegel der Verbundsysteme transportiert werden (Replikation). Das Verfahren soll sich auf alle bei Der Deutschen Bibliothek geführten Normdaten erstrecken. Als standardisiertes Kommunikationsprotokoll soll Z39.50 SR Extended Services Update genutzt werden. Für die Replikation ist OAI vorgesehen, als Austauschformat zunächst MAB2 bzw. MABXML. Die existierenden Implementierungen erfüllen an mehreren wichtigen Stellen nicht die Anforderungen. Eine Konversion in und aus einem neutralen Transportformat, wie für die Online-Kommunikation mit Normdateien benötigt, ist an der gegenwärtigen Pica-Schnittstelle nicht vorgesehen und lässt sich nur realisieren, wenn wesentliche Veränderungen vorgenommen werden. OCLC PICA plant, diese Veränderungen im 1. Quartal 2006 vorzunehmen. Nach der aktuellen Projektplanung soll die Online-Kommunikation zu Beginn des Jahres 2007 starten.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."
  18. Richter, S.: ¬Die formale Beschreibung von Dokumenten in Archiven und Bibliotheken : Perspektiven des Datenaustauschs (2004) 0.01
    0.0063986084 = product of:
      0.047989562 = sum of:
        0.020541003 = product of:
          0.041082006 = sum of:
            0.041082006 = weight(_text_:recherche in 4982) [ClassicSimilarity], result of:
              0.041082006 = score(doc=4982,freq=2.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.23954318 = fieldWeight in 4982, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4982)
          0.5 = coord(1/2)
        0.027448557 = product of:
          0.054897115 = sum of:
            0.054897115 = weight(_text_:analyse in 4982) [ClassicSimilarity], result of:
              0.054897115 = score(doc=4982,freq=4.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.32929888 = fieldWeight in 4982, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4982)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Die Datenrecherche und der Zugriff auf Informationen wurde in den letzten Jahren durch Angebote im Internet erleichtert. Während im Bibliothekswesen bereits seit Jahrzehnten Erfahrungen durch die Verbundkatalogisierung im Bereich des Datenaustauschs gesammelt wurden, wurde eine kooperative Datenhaltung zwischen Archiven erst in den letzten Jahren begonnen. In dieser Arbeit wird der Frage nachgegangen, inwieweit Daten aus Archiven und Bibliotheken in gemeinsamen Datenpools angeboten werden können: Sind die Inhalte der verschiedenen Datenkategorien ähnlich genug, um sie zusammenfassen zu können? Welche Standards liegen den Daten zugrunde? Um diese Fragen beantworten zu können, werden zunächst die verschiedenen Regelwerke des Archivs- und Bibliothekswesens zur archivischen Verzeichnung bzw. der bibliographischen Beschreibung untersucht und anschließend die darauf fußenden Austauschformate. Folgende (Regel-) Werke werden in die Analyse integiert: Papritz: Die archivische Titelaufnahme bei Sachakten, die Ordnungs- und Verzeichnungsgrundsätze für die staatlichen Archive der Deutschen Demokratischen Republik (OVG-DDR), Internationale Grundsätze für die archivische Verzeichnung (ISAD(G)), das Handbuch für Wirtschaftsarchive, Praktische Archivkunde, die Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken (RAK-WB), die Anglo-American Cataloguing Rules (AACR), General International Standard Bibliographic Description (ISBD(G)) und für den Bereich der Nachlasserschließung als Schnittstelle zwischen Archiven und Bibliotheken die Ordnungs- und Verzeichnungsgrundsätze [des Goethe- und Schiller-Archivs] (OVG-GSA), König: Verwaltung und wissenschaftliche Erschließung von Nachlässen in Literaturarchiven sowie die Regeln zur Erschließung von Nachlässen und Autographen (RNA). Von den Datenaustauschformaten werden Encoded Archival Description (EAD), Maschinelles Austauschformat für Bibliotheken (MAB) und Machine Readable Cataloguing (MARC) vorgestellt. Die Analyse zeigt, dass Daten aus Archiven und Bibliotheken in einer gemeinsamen Datenmenge zur Verfügung gestellt werden können, um sie für eine spartenübergreifende Recherche nutzbar zu machen. Es muss aber eingeräumt werden, dass im Austauschformat für ähnliche Beschreibungselemente nicht identische Kategorienummern verwendet werden können, da hierfür die Inhalte der Kategorien zu stark differieren. Aus diesem Grund kann das MAB-Format auch nicht ohne weiteres für archivische Elemente verwendet werden: Entweder müsste das bestehende MAB-Schema an die Belange des Archivwesens angepasst werden oder es müsste ein neues Austauschformat generiert werden, da auch das internationale EAD-Format nicht ohne Änderungen auf die deutsche Verzeichnungstradition abgebildet werden kann. Insbesondere wäre sowohl innerhalb der Sparten Archiv- und Bibliothekswesen als auch darüber hinaus eine tiefere Diskussion um verbindliche Regelwerke und Austauschformate zu empfehlen.
  19. Oehlschläger, S.: Aus der 50. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 24. und 25. April 2006 in Köln (2006) 0.01
    0.0059669986 = product of:
      0.044752486 = sum of:
        0.03911765 = weight(_text_:suchmaschine in 5183) [ClassicSimilarity], result of:
          0.03911765 = score(doc=5183,freq=2.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.21864946 = fieldWeight in 5183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5183)
        0.0056348355 = product of:
          0.011269671 = sum of:
            0.011269671 = weight(_text_:online in 5183) [ClassicSimilarity], result of:
              0.011269671 = score(doc=5183,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.11735933 = fieldWeight in 5183, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5183)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Content
    - - Gemeinsamer Bibliotheksverbund (GBV) / Verbundzentrale des GBV (VZG) - - - WWW-Datenbanken - - - Virtuelle Fachbibliotheken - - - Verbundkatalog Internetquellen VKI - - - Öffentliche Bibliotheken im GBV - - Hessisches BibliotheksinformationsSystem (NeBIS) / Verbundzentrale - - - HeBIS-Portal - - - PND-Projekt - - - Catalogue Enrichment - - Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (HBZ) - - - Bibliographischer Werkzeugkasten - - - DigiAuskunft - - - Suchmaschine - - - Suchmaschinentechnologie - - - Verfügbarkeitsrecherche - - - Publikationssysteme/Digital Peer Publishing (DiPP) - - Kooperativer Bibliotheksverbund Berlin-Brandenburg (KOBV) / KOBV-Zentrale - - - KOBV-Portal - - - Inbetriebnahme des neuen KOBV-Index - - - KOBV-Konsortialportal - - - OPUS- und Archivierungsdienste - - - Zeitschriftenartikel im Volltext
    - - Österreichische Bibliothekenverbund und Service Ges.m.b.H. (OBVSG) Datenlieferung an die ZDB - - - ZDB als Fremddatenquelle/Normdatei - - - Österreichische Dissertationsdatenbank/eDoc - - - Anbindung weiterer Lokalsysteme - - - Retroerfassungsprojekt - - - Homepage /"Verbundportal" - - Zeitschriftendatenbank (ZDB) - - - ZDB-OPAC - - - Integration DDB in ZDB - - - Collection Management/ Kennzeichnung von Sondersommelgebietszeitschriften in der ZDB - - - Sigelverzeichnis online/Bibliotheksdatei der ZDB
  20. Salgáné, M.M.: Our electronic era and bibliographic informations computer-related bibliographic data formats, metadata formats and BDML (2005) 0.01
    0.005742603 = product of:
      0.04306952 = sum of:
        0.02200755 = weight(_text_:software in 3005) [ClassicSimilarity], result of:
          0.02200755 = score(doc=3005,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.17532499 = fieldWeight in 3005, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=3005)
        0.021061972 = weight(_text_:web in 3005) [ClassicSimilarity], result of:
          0.021061972 = score(doc=3005,freq=4.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.2039694 = fieldWeight in 3005, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=3005)
      0.13333334 = coord(2/15)
    
    Abstract
    Using new communication technologies libraries must face continuously new questions, possibilities and expectations. This study discusses library-related aspects of our electronic era and how computer-related data formats affect bibliographic dataprocessing to give a summary of the most important results. First bibliographic formats for the exchange of bibliographic and related information in the machine-readable form between different types of computer systems were created more than 30 years ago. The evolution of information technologies leads to the improvement of computer systems. In addition to the development of computers and media types Internet has a great influence on data structure as well. Since the introduction of MARC bibliographic format, technology of data exchange between computers and between different computer systems has reached a very sophisticated stage and has contributed to the creation of new standards in this field. Today libraries work with this new infrastructure that induces many challenges. One of the most significant challenges is moving from a relatively homogenous bibliographic environment to a diverse one. Despite these challenges such changes are achievable and necessary to exploit possibilities of new metadata and technologies like the Internet and XML (Extensible Markup Language). XML is an open standard, a universal language for data on the Web. XML is nearly six-years-old standard designed for the description and computer-based management of (semi)-structured data and structured texts. XML gives developers the power to deliver structured data from a wide variety of applications and it is also an ideal format from server-to-server transfer of structured data. XML also isn't limited for Internet use and is an especially valuable tool in the field of library. In fact, XML's main strength - organizing information - makes it perfect for exchanging data between different systems. Tools that work with the XML can be used to process XML records without incurring additional costs associated with one's own software development. In addition, XML is also a suitable format for library web services. The Department of Computer-related Graphic Design and Library and Information Sciences of Debrecen University launched the BDML (Bibliographic Description Markup Language) development project in order to standardize bibliogrphic description with the help of XML.

Authors

Years

Languages

  • e 94
  • d 48
  • f 5
  • pl 1
  • sp 1
  • More… Less…

Types

  • a 123
  • el 9
  • m 9
  • s 8
  • x 4
  • b 2
  • n 2
  • l 1
  • r 1
  • More… Less…