Search (47 results, page 1 of 3)

  • × theme_ss:"Normdateien"
  1. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.04
    0.04130369 = product of:
      0.09637528 = sum of:
        0.04927492 = weight(_text_:raum in 632) [ClassicSimilarity], result of:
          0.04927492 = score(doc=632,freq=4.0), product of:
            0.21540047 = queryWeight, product of:
              5.8562455 = idf(docFreq=343, maxDocs=44218)
              0.036781326 = queryNorm
            0.22875959 = fieldWeight in 632, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8562455 = idf(docFreq=343, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.038290936 = weight(_text_:bibliothek in 632) [ClassicSimilarity], result of:
          0.038290936 = score(doc=632,freq=10.0), product of:
            0.15100685 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.036781326 = queryNorm
            0.25357085 = fieldWeight in 632, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.008809423 = product of:
          0.017618846 = sum of:
            0.017618846 = weight(_text_:22 in 632) [ClassicSimilarity], result of:
              0.017618846 = score(doc=632,freq=4.0), product of:
                0.12880194 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036781326 = queryNorm
                0.13679022 = fieldWeight in 632, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=632)
          0.5 = coord(1/2)
      0.42857143 = coord(3/7)
    
    Content
    "Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung Matchkey Bei der Verwendung von Meta-Suchmaschinen zur parallelen Recherche in bibliografischen Datenbanken kommt es häufig vor, dass derselbe Titel mehrmals in der Trefferliste auftaucht. In dieser Situation könnte ein so genannter Matchkey Abhilfe schaffen, der jeden Datensatz aus den vorhandenen bibliografischen Daten heraus eindeutig identifiziert. Ein solcher Algorithmus geht von einem bibliografischen Datensatz aus und generiert einen Schlüssel (Matchkey), der wiederum in den Datensatz integriert werden kann. Der Schlüssel muss sortierfähig sein, so dass die Trefferliste nach dem Grad der Ähnlichkeit sortiert werden kann. Eine wichtige Voraussetzung für die erfolgreiche Anwendung des Matchkey ist die Beseitigung der Hausregeln in den Verbünden und Bibliotheken. Bisher hat Die Deutsche Bibliothek das Thema analysiert und strebt nun die Formulierung und Bereitstellung eines ersten Algorithmus an, um eine Implementierung zu Testzwecken voraussichtlich im März/April 2006 zu ermöglichen. Ein klares Ergebnis soll bis Ende 2006 vorliegen.
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum Das HBZ hat seinen am 15. November frei geschalteten Dreiländer-Katalog (Deutschland, Österreich, Schweiz) vorgestellt, dessen Ziel der Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum ist. Der Katalog entstand in Kooperation des HBZ mit dem Bibliotheksverbund Bayern (BVB) und dem Österreichischen Bibliothekenverbund (OBV); die Integration weiterer Bibliotheksbestände aus anderen Regionen ist in Arbeit. Realisiert wurde das Projekt mittels der Suchmaschinentechnologie des HBZ, die Antwortzeiten in Bruchteilen von Sekunden, Ranking und Kategorisierung der Treffermengen ermöglicht. Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben beschlossen, sich die für die Literaturversorgung relevanten Verbunddaten (Titeldaten mit Nachweisen) für den Aufbau verbundbezogener, nicht kommerzieller Dienste auf Gegenseitigkeit kostenfrei zur Verfügung zu stellen. Normdateien Online-Schnittstelle Ziel der Online-Kommunikation mit Normdateien ist es, die Arbeit mit den zentralen Normdateien dadurch zu vereinfachen, dass Änderungen an Normdaten in den zentral bei Der Deutschen Bibliothek gehaltenen Dateien mit dem eigenen Client erfolgen können. Ferner sollen alle Änderungen an den Normdateien zeitnah in die Normdaten-Spiegel der Verbundsysteme transportiert werden (Replikation). Das Verfahren soll sich auf alle bei Der Deutschen Bibliothek geführten Normdaten erstrecken. Als standardisiertes Kommunikationsprotokoll soll Z39.50 SR Extended Services Update genutzt werden. Für die Replikation ist OAI vorgesehen, als Austauschformat zunächst MAB2 bzw. MABXML. Die existierenden Implementierungen erfüllen an mehreren wichtigen Stellen nicht die Anforderungen. Eine Konversion in und aus einem neutralen Transportformat, wie für die Online-Kommunikation mit Normdateien benötigt, ist an der gegenwärtigen Pica-Schnittstelle nicht vorgesehen und lässt sich nur realisieren, wenn wesentliche Veränderungen vorgenommen werden. OCLC PICA plant, diese Veränderungen im 1. Quartal 2006 vorzunehmen. Nach der aktuellen Projektplanung soll die Online-Kommunikation zu Beginn des Jahres 2007 starten.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."
  2. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.02
    0.023469621 = product of:
      0.08214367 = sum of:
        0.069685265 = weight(_text_:raum in 3780) [ClassicSimilarity], result of:
          0.069685265 = score(doc=3780,freq=2.0), product of:
            0.21540047 = queryWeight, product of:
              5.8562455 = idf(docFreq=343, maxDocs=44218)
              0.036781326 = queryNorm
            0.3235149 = fieldWeight in 3780, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8562455 = idf(docFreq=343, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.012458405 = product of:
          0.02491681 = sum of:
            0.02491681 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
              0.02491681 = score(doc=3780,freq=2.0), product of:
                0.12880194 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036781326 = queryNorm
                0.19345059 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  3. Danowski, P.; Pfeifer, B.: Wikipedia und Normdateien : Wege der Vernetzung am Beispiel der Kooperation mit der Personennamendatei (2007) 0.02
    0.021351706 = product of:
      0.07473097 = sum of:
        0.054797523 = weight(_text_:bibliothek in 4594) [ClassicSimilarity], result of:
          0.054797523 = score(doc=4594,freq=2.0), product of:
            0.15100685 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.036781326 = queryNorm
            0.36288103 = fieldWeight in 4594, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0625 = fieldNorm(doc=4594)
        0.01993345 = product of:
          0.0398669 = sum of:
            0.0398669 = weight(_text_:22 in 4594) [ClassicSimilarity], result of:
              0.0398669 = score(doc=4594,freq=2.0), product of:
                0.12880194 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036781326 = queryNorm
                0.30952093 = fieldWeight in 4594, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4594)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Date
    16. 7.2011 11:54:22
    Source
    Bibliothek: Forschung und Praxis. 31(2007) H.2, S.149-155
  4. Wiechmann, B.: Individualisierungstest in Der Deutschen Bibliothek (1999) 0.02
    0.015316375 = product of:
      0.107214615 = sum of:
        0.107214615 = weight(_text_:bibliothek in 3810) [ClassicSimilarity], result of:
          0.107214615 = score(doc=3810,freq=10.0), product of:
            0.15100685 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.036781326 = queryNorm
            0.70999837 = fieldWeight in 3810, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3810)
      0.14285715 = coord(1/7)
    
    Abstract
    Die Deutsche Bibliothek benutzt seit der Einspielung ihrer Personennamen die nationale Normdatei für Personennamen (PND) integriert für die Katalogisierung. Der seit Beginn der redaktionellen Arbeiten an der PND laufenden Diskussion über die Erfassung von Normdatensätzen für einzelnen Personen und deren Verwendung in der Formalerschließung wollen Die Deutschen Bibliothek eine statistisch belegte Grundlage verschaffen und hat deshalb einen Test zur Ermittlung ihres Aufwands für die erweiterte Individualisierung durchgeführt. Der Test ermöglicht Aussagen über den Zeitaufwand und das Verhältnis von nichtindividualisierten zu individualisierten Datensätzen an Der Deutschen Bibliothek und belegt, daß der hauptsächliche Aufwand bei der retrospektiven Zuordnung von Titeln anfällt. Die Deutsche Bibliothek spricht sich auf der Grundlage des Tests für die Fortführung der Individualisierung aus
  5. Hubrich, J.: Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2005) 0.01
    0.013937052 = product of:
      0.09755936 = sum of:
        0.09755936 = weight(_text_:raum in 3690) [ClassicSimilarity], result of:
          0.09755936 = score(doc=3690,freq=2.0), product of:
            0.21540047 = queryWeight, product of:
              5.8562455 = idf(docFreq=343, maxDocs=44218)
              0.036781326 = queryNorm
            0.45292085 = fieldWeight in 3690, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8562455 = idf(docFreq=343, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3690)
      0.14285715 = coord(1/7)
    
    Abstract
    »Sacherschließung - können wir uns die noch leisten?« Angesichts des zunehmend geringeren Gesamtetats, der den Bibliotheken zur Verfügung steht, drängt sich diese Frage nahezu auf. Sacherschließung ist teuer und für das moderne Bibliothekswesen nur dann noch tragbar, wenn der Mitteleinsatz in einem angemessenen Verhältnis zum Ergebnis steht, das sich in der Leistungsfähigkeit des Produkts widerspiegelt. Im deutschsprachigen Raum trägt die SWD wesentlich zu einer effektiveren Sacherschließungsarbeit bei. Ihre Pflege und Weiterentwicklung ist jedoch mit einem enormen Aufwand gekoppelt, der nur mit einer entsprechenden Nutzung der Daten für das thematische Retrieval in den OPACs gerechtfertigt werden kann.
  6. Gömpel, R.: Standardisierungsarbeit für Bibliotheken : Konzept der Deutschen Bibliothek (2001) 0.01
    0.013699381 = product of:
      0.09589566 = sum of:
        0.09589566 = weight(_text_:bibliothek in 6128) [ClassicSimilarity], result of:
          0.09589566 = score(doc=6128,freq=2.0), product of:
            0.15100685 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.036781326 = queryNorm
            0.63504183 = fieldWeight in 6128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.109375 = fieldNorm(doc=6128)
      0.14285715 = coord(1/7)
    
  7. Hartmann, S.; Pampel, H.: GND und ORCID : Brückenschlag zwischen zwei Systemen zur Autorenidentifikation (2017) 0.01
    0.011946046 = product of:
      0.083622314 = sum of:
        0.083622314 = weight(_text_:raum in 5115) [ClassicSimilarity], result of:
          0.083622314 = score(doc=5115,freq=2.0), product of:
            0.21540047 = queryWeight, product of:
              5.8562455 = idf(docFreq=343, maxDocs=44218)
              0.036781326 = queryNorm
            0.38821787 = fieldWeight in 5115, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8562455 = idf(docFreq=343, maxDocs=44218)
              0.046875 = fieldNorm(doc=5115)
      0.14285715 = coord(1/7)
    
    Abstract
    Die Uneindeutigkeit von Personennamen erschwert im Rahmen der bibliothekarischen Erschließung die eindeutige Zuordnung von Autorinnen und Autoren zu ihren Werken. Bibliotheken im deutschsprachigen Raum adressieren das Problem der Mehrdeutigkeit von Namen durch den Einsatz der Gemeinsamen Normdatei (GND). Die internationale Initiative ORCID (Open Researcher and Contributor ID) verfolgt das gleiche Ziel. Akteur ist hier jedoch die einzelne Wissenschaftlerin oder der einzelne Wissenschaftler. Das Projekt "ORCID DE - Förderung der Open Researcher and Contributor ID in Deutschland" hat sich, dank der Förderung der Deutschen Forschungsgemeinschaft (DFG), unter anderem zum Ziel gesetzt, einen Brückenschlag zwischen den beiden Systemen - GND und ORCID - zu schaffen, um damit die Datenqualität beider Systeme wechselseitig zu erhöhen. Der vorliegende Beitrag gibt einen Überblick über ORCID und das Projekt ORCID DE. Dabei wird insbesondere auf die angestrebte Verlinkung von GND und ORCID eingegangen.
  8. Bee, G.; Horstkotte, M.; Jahns, Y.; Karg, H.; Nadj-Guttandin, J.: Wissen, was verbindet: . O-Bib. Das Offene Bibliotheksjournal / Herausgeber VDB, 10(1), 1-15. : GND-Arbeit zwischen Terminologie und Redaktion (2023) 0.01
    0.011946046 = product of:
      0.083622314 = sum of:
        0.083622314 = weight(_text_:raum in 934) [ClassicSimilarity], result of:
          0.083622314 = score(doc=934,freq=2.0), product of:
            0.21540047 = queryWeight, product of:
              5.8562455 = idf(docFreq=343, maxDocs=44218)
              0.036781326 = queryNorm
            0.38821787 = fieldWeight in 934, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8562455 = idf(docFreq=343, maxDocs=44218)
              0.046875 = fieldNorm(doc=934)
      0.14285715 = coord(1/7)
    
    Abstract
    Die Gemeinsame Normdatei (GND) ist aus dem Bibliothekswesen nicht mehr wegzudenken und wird künftig verstärkt auch in anderen Einrichtungen aus Kultur und Wissenschaft zum Einsatz kommen. Von entscheidender Bedeutung für ihre Weiterentwicklung ist die kooperative Redaktionstätigkeit der im deutschsprachigen Raum tätigen Verbundpartner*innen, die im vorliegenden Beitrag näher vorgestellt wird. Nach einem kurzen historischen Überblick werden die Schwerpunkte und Besonderheiten der gegenwärtigen Terminologiearbeit anhand von Beispielen veranschaulicht. Im Anschluss daran wird der Frage nachgegangen, wie die Redaktionsarbeit an der GND an zukünftige Herausforderungen (z. B. den zunehmenden Einsatz maschineller Erschließung und die Vernetzung mit anderen Vokabularen) angepasst werden kann.
  9. Virtual International Authority File wächst : VIAF-Projekt um französische Normdaten erweitert (2007) 0.01
    0.009955038 = product of:
      0.069685265 = sum of:
        0.069685265 = weight(_text_:raum in 764) [ClassicSimilarity], result of:
          0.069685265 = score(doc=764,freq=2.0), product of:
            0.21540047 = queryWeight, product of:
              5.8562455 = idf(docFreq=343, maxDocs=44218)
              0.036781326 = queryNorm
            0.3235149 = fieldWeight in 764, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8562455 = idf(docFreq=343, maxDocs=44218)
              0.0390625 = fieldNorm(doc=764)
      0.14285715 = coord(1/7)
    
    Content
    "Die Deutsche Nationalbibliothek, die Bibliotheque nationale de France, die Library of Congress und das Online Computer Library Center (OCLC) sind übereingekommen, gemeinsam das "Virtual International Authority File (VIAF)", eine Virtuelle Internationale Normdatei, aufzubauen und fortzuentwickeln. Die einzelnen Normdateien sollen im VIAF virtuell zu einem gemeinsamen Normdaten-Service integriert werden, der den Zugang zu den Namen aller einbezogenen Normdateien bietet. Die Vereinbarung baut auf einem vorausgegangenen Forschungsprojekt auf, in dem die Deutsche Nationalbibliothek gemeinsam mit der Library of Congress und OCLC durch die Zusammenführung ihrer Personennamendateien nachgewiesen haben, dass der Aufbau eines Virtual International Authority File auch unter den Bedingungen großer Datenbestände machbar ist. Mit der neuen Kooperationsvereinbarung stößt die Bibliotheque nationale de France hinzu, und der VIAF wird um die französischen Normdaten erweitert. Die Matching-Routinen werden weiterhin von OCLC entwickelt. Langfristig zielt das VIAF-Projekt darauf ab, die Normdateien möglichst vieler Bibliotheken zu einem globalen VIAF-Service zu integrieren, der für die Nutzer im Web weltweit frei zugänglich ist. Die Erweiterung um die französischen Normdaten stellt einen Meilenstein auf dem Weg in diese Zukunft dar. Die Vereinbarung bietet zudem den organisatorischen Rahmen, weitere Normdateien einbeziehen zu können. Der VIAF stellt einen wichtigen Baustein zur Interoperabilität zwischen den bibliothekarischen Nachweissystemen dar. Durch die Verlinkung der unterschiedlichen Namensformen für identische Personen bzw. Organisationen wird der VIAF schon in der nahen Zukunft die Recherche- und Nachnutzungsmöglichkeiten für Titeldaten aus dem englisch-, französisch- und deutschsprachigen Raum entscheidend verbessern, und es steht zu erwarten, dass er in den kommenden Jahren für eine sogar noch größere Zahl von Sprachgemeinschaften dieselben Vorteile bringen wird."
  10. Behrens-Neumann, R.: ¬Das Projekt Gemeinsame Normdatei (GND) (2012) 0.01
    0.009955038 = product of:
      0.069685265 = sum of:
        0.069685265 = weight(_text_:raum in 198) [ClassicSimilarity], result of:
          0.069685265 = score(doc=198,freq=2.0), product of:
            0.21540047 = queryWeight, product of:
              5.8562455 = idf(docFreq=343, maxDocs=44218)
              0.036781326 = queryNorm
            0.3235149 = fieldWeight in 198, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8562455 = idf(docFreq=343, maxDocs=44218)
              0.0390625 = fieldNorm(doc=198)
      0.14285715 = coord(1/7)
    
    Abstract
    Während der letzten drei Jahrzehnte sind im deutsch sprachigen Raum große überregionale Normdateien aufgebaut worden, die an der Deutschen Nationalbib liothek (DNB) in Zusammenarbeit mit den Bibliotheks verbünden und zahlreichen weiteren Institutionen ge führt und gepflegt werden. Diese bestehenden Norm dateien sind »historisch« gewachsen und aufgrund unterschiedlicher Regelwerke in voneinander diver gierenden Datenmodellen und in jeweils unterschied lichen Formaten weiterentwickelt worden, die den heutigen Anforderungen oft nicht mehr entsprechen Gleichzeitig hat sich die Nutzung und somit die Bedeutung von Normdaten in den vergangenen Jah ren deutlich verändert. Im Zuge der Vernetzung viel fältiger Ressourcen und Informationsangebote gleich welcher Anbieter haben sich die Anforderungen für Normdaten stark gewandelt. Sie können nicht länger ausschließliche Domäne der Bibliotheken sein, sollen aber trotzdem in ihrer Sichtbarkeit und Zugänglichkeit alle Anforderungen an qualitativ hochwertige und zuverlässige Daten erfüllen. Der Zugang und die Verwendung von Normdaten von anderen Kultureinrichtungen wie Archiven und Museen sind längst selbstverständlich und haben die bestehenden Normdateien auch schon in der Vergangenheit bereichert. Zunehmend bekunden jedoch auch Datenproduzenten aus anderen Wissenschaftseinrichtungen, aus Projekten und sonstigen Informationsangeboten Interesse, Normdaten in ihre Angebote einzubeziehen. Die Zusammenarbeit von Wikipedia mit der Personennamendatei (PND) ist hierfür ein gutes Beispiel. Nutzer der Online-Enzyklopädie können bereits seit geraumer Zeit über die Verlinkung mit dem Personendatensatz komfortabel auf die in der Deutschen Nationalbibliothek nachgewiesene Literatur von und über eine Person zugreifen.
  11. Patton, G.; Hengel-Dittrich, C.; O'Neill, E.T.; Tillett, B.B.: VIAF (Virtual International Authority File) : Linking Die Deutsche Bibliothek and Library of Congress Name Authority Files (2006) 0.01
    0.008474294 = product of:
      0.05932006 = sum of:
        0.05932006 = weight(_text_:bibliothek in 6105) [ClassicSimilarity], result of:
          0.05932006 = score(doc=6105,freq=6.0), product of:
            0.15100685 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.036781326 = queryNorm
            0.39283025 = fieldWeight in 6105, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6105)
      0.14285715 = coord(1/7)
    
    Abstract
    Die Deutsche Bibliothek, the Library of Congress, and OCLC Online Computer Library Center are jointly developing a virtual international authority file (VIAF) for personal names which links authority records from the world's national bibliographic agencies and will be made freely available on the Web. The goals of the project are to prove the viability of automatically linking authority records from different national authority files and to demonstrate its benefits. The authority and bibliographic files from the Library of Congress and Die Deutsche Bibliothek were used to create the initial VIAF which contains over six million names with over a half million links. A key aspect of the project was the development of automated name matching algorithms which use information from both authority records and the corresponding bibliographic records. The practicality of algorithmically linking the personal names between national authority files was demonstrated; seventy percent of the authority records for personal names common to both files were automatically linked with an error rate of less than one percent. The long-term goal of the VIAF project is to combine the authoritative names from many national libraries and other significant sources into a shared global authority service.
  12. Clavel-Merrin, G.: ¬Der Bedarf nach Kooperation bei Erarbeitung und Pflege mehrsprachiger Schlagwortnormdateien (1999) 0.01
    0.007828218 = product of:
      0.054797523 = sum of:
        0.054797523 = weight(_text_:bibliothek in 4184) [ClassicSimilarity], result of:
          0.054797523 = score(doc=4184,freq=2.0), product of:
            0.15100685 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.036781326 = queryNorm
            0.36288103 = fieldWeight in 4184, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0625 = fieldNorm(doc=4184)
      0.14285715 = coord(1/7)
    
    Abstract
    Die Aufgabe der Erabeitung, Verwaltung und Pflege mehrsprachiger Schlagwortnormdateien erfordert erheblich Mittel und sollte daher am besten in Kooperation erfolgen. 4 europäische Nationalbibliotheken (die Schweizerische Landesbibliothek, die Bibliothèque de France, Die Deutsche Bibliothek und die British Library) haben gemeinsam eine Machbarkeitsstudie über die Verknüpfung bestehender Schlagwortverzeichnisse in verschiedenen Sprachen erarbeitet, um einen mehrsprachigen Schlagwort-Zugang zu ihren Daten zu ermöglichen
  13. ORCID (2015) 0.01
    0.007789691 = product of:
      0.054527834 = sum of:
        0.054527834 = weight(_text_:elektronische in 1870) [ClassicSimilarity], result of:
          0.054527834 = score(doc=1870,freq=2.0), product of:
            0.17393808 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.036781326 = queryNorm
            0.3134899 = fieldWeight in 1870, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.046875 = fieldNorm(doc=1870)
      0.14285715 = coord(1/7)
    
    Content
    ORCID soll die elektronische Zuordnung von Publikation und Autoren ermöglichen. Dies ist notwendig, da verschiedene Autoren gleiche Namen haben können, Namen sich ändern (z. B. bei Heirat) und Namen in verschiedenen Publikationen unterschiedlich angegeben werden (z. B. einmal die ausgeschriebenen Vornamen, ein anderes Mal aber nur die Initialen). ORCID soll zum De-facto-Standard für die Autorenidentifikation wissenschaftlicher Publikationen werden. Die Etablierung wird von der Non-Profit-Organisation Open Researcher Contributor Identification Initiative organisiert. Zu den Gründungsmitgliedern der Initiative gehören zahlreiche wissenschaftliche Verlagsgruppen (z. B. Elsevier, Nature Publishing Group, Springer) und Forschungsorganisationen (z. B. EMBO, CERN). Die Planungen für ORCID wurden 2010 auf Umfragen gestützt. ORCID ging am 16. Oktober 2012 offiziell an den Start. Am Jahresende 2012 hatte ORCID 42.918 Registrierte, Jahresende 2013 waren es 460.000 Registrierte und im November 2014 hatte ORCID 1 Million Autorenidentifikationen ausgestellt. Vgl. auch den Zusammenhang mit der GND und den Erfassungsleitfaden der DNB unter: https://wiki.dnb.de/x/vYYGAw.
  14. Bee, G.: CrissCross (2006) 0.01
    0.006968526 = product of:
      0.04877968 = sum of:
        0.04877968 = weight(_text_:raum in 1275) [ClassicSimilarity], result of:
          0.04877968 = score(doc=1275,freq=2.0), product of:
            0.21540047 = queryWeight, product of:
              5.8562455 = idf(docFreq=343, maxDocs=44218)
              0.036781326 = queryNorm
            0.22646043 = fieldWeight in 1275, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8562455 = idf(docFreq=343, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1275)
      0.14285715 = coord(1/7)
    
    Content
    An diesem Punkt setzt das neue Projekt CrissCross an, das gemeinsam von der Deutschen Nationalbibliothek (DNB) und der Fachhochschule Köln betrieben und von der Deutschen Forschungsgemeinschaft (DFG) gefördert wird. CrissCross schafft Verbindungslinien zwischen einigen besonders verbreiteten und bewährten Erschließungsinstrumenten: Der deutschsprachigen Schlagwortnormdatei (SWD), den besonders im angloamerikanischen Raum verbreiteten Library of Congress Subject Headings (LCSH), der französischen Dokumentationssprache Répertoire d'autorité-matière encyclopédique et alphabétique unifié (Rameau) und der Dewey Decimal Classification (DDC) als dem international am meisten verbreiteten Klassifikationssystem. CrissCross kann dabei auf zwei wichtigen Vorgängerprojekten aufbauen. Hier ist zum einen das ebenfalls von DNB und der Fachhochschule Köln gemeinsam betriebene Vorgängerprojekt »DDC Deutsch« zu nennen. Bereits während dessen Laufzeit war deutlich geworden, wie vorteilhaft sich eine Anreicherung des DDC-Registers mit dem Schlagwortbestand der SWD auf die Klassifikationspraxis auswirken könnte. Genau dieser Schritt wird nun vollzogen, wobei sich die Projektarbeit auf die Sachschlagwörter konzentriert - kein kleines Unterfangen, beläuft sich doch die Zahl der zurzeit in der SWD befindlichen Datensätze mit dem Indikator s auf über 154.000.
  15. Pika, J.; Pika-Biolzi, M.: Multilingual subject access and classification-based browsing through authority control : the experience of the ETH-Bibliothek, Zürich (2015) 0.01
    0.006919232 = product of:
      0.048434623 = sum of:
        0.048434623 = weight(_text_:bibliothek in 2295) [ClassicSimilarity], result of:
          0.048434623 = score(doc=2295,freq=4.0), product of:
            0.15100685 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.036781326 = queryNorm
            0.32074454 = fieldWeight in 2295, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2295)
      0.14285715 = coord(1/7)
    
    Abstract
    The paper provides an illustration of the benefits of subject authority control improving multilingual subject access in NEBIS - Netzwerk von Bibliotheken und Informationsstellen in der Schweiz. This example of good practice focuses on some important aspects of classification and indexing. NEBIS subject authorities comprise a classification scheme and multilingual subject descriptor system. A bibliographic system supported by subject authority control empowers libraries as it enables them to expand and adjust vocabulary and link subjects to suit their specific audience. Most importantly it allows the management of different subject vocabularies in numerous languages. In addition, such an enriched subject index creates re-usable and shareable source of subject statements that has value in the wider context of information exchange. The illustrations and supporting arguments are based on indexing practice, subject authority control and use of classification in ETH-Bibliothek, which is the largest library within the NEBIS network.
  16. Oehlschläger, S.: Treffpunkt Standardisierung : Der Standardisierungsausschuss beim 94. Deutschen Bibliothekartag in Düsseldorf (2005) 0.01
    0.0059922305 = product of:
      0.04194561 = sum of:
        0.04194561 = weight(_text_:bibliothek in 3691) [ClassicSimilarity], result of:
          0.04194561 = score(doc=3691,freq=12.0), product of:
            0.15100685 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.036781326 = queryNorm
            0.2777729 = fieldWeight in 3691, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3691)
      0.14285715 = coord(1/7)
    
    Content
    "Nach Augsburg, Bielefeld und Leipzig hat der Standardisierungsausschuss beim 94. Deutschen Bibliothekartag in Düsseldorf zum vierten Mal in Folge eine Veranstaltung zum Themenfeld Standardisierung durchgeführt, die vom Vorsitzenden, Berndt Dugall, moderiert wurde. Auch in diesem Jahr konnten dafür wieder zwei Referenten aus dem Ausland gewonnen werden, die einen Einblick in internationale Aktivitäten gewährten. Den Auftakt bildete Jeffrey Garrett von der Northwestern University Library in Evanston, Illinois mit seinem Vortrag »Entscheidend auch hier der Einstieg - Wandel und Kontinuität im Ethos des Katalogisierens in den USA«. Zunächst erläuterte der Referent die Losung aus dem Titel, die aus dem Werk »Bücherlabyrinthe: Suchen und Finden im alexandrinischen Zeitalter« von Nikolaus Wegmann stammt. Dieses Buch erinnere daran, dass der Katalog in der Nachfolge von Schrettinger und Dewey den Einstieg des Benutzers in die ansonsten gewaltige Unordnung der Bibliothek ermögliche, und dadurch die »Sichtbarkeit« der modernen Forschungsbibliothek erst her- bzw. sicherstellt. Garrett stellte die Frage nach dem Sinn von Katalogen im elektronischen Zeitalter, einer Zeit, in der bibliografische Angaben beziehungsweise Schlagworte durch Volltextrecherchen, die sich gleichzeitig auf mehrere tausend Publikationen erstrecken können, umgangen werden können, und in welcher der Inhalt eines Textes in ständigem Wandel begriffen ist. In seinem Vortrag hat der Referent einige Entwicklungen auf dem Gebiet des Katalogisierens in den USA teils theoretisch, teils konkret nachgezeichnet, in der Absicht, sowohl den Wandel als auch die Kontinuität im Bereich der Erschließung aufzuzeigen. Die bisweilen geäußerte Feststellung, dass Kataloge auf den Müllhaufen der Geschichte gehörten, bezeichnete Garrett als maßlos übertrieben und nur angesichts des »Google-Schocks« in den USA zu erklären. Der Katalog diene nach wie vor als Beschreibung des Volltexts. Der Moderator kommentierte dazu, dass der Gedanke des »Vanishing catalogue« vergleichbar sei mit dem Traum vom papierlosen Büro. Patrick Le Boeuf, der Vorsitzende der IFLA FRBR Review Group, referierte in seinem Vortrag »Zwischen Traum und Wirklichkeit« über die Functional Requirements for Bibliographic Records (FRBR). Anhand von leicht verständlichen Beispielen erläuterte er, was die FRBR mit den vier Entitäten der Gruppe 1: Werk (work), Fassung (expression), Erscheinungsform (manifestation) und Exemplar (item) sind. Ausführlich ging er auch darauf ein, was die FRBR nicht sind und was sie nicht leisten können. Es handelt sich dabei weder um eine Norm, noch um ein Datenmodell oder gar ein Format. Dennoch haben die FRBR Einfluss auf die Standardisierungsaktivitäten auf internationaler wie nationaler Ebene. In einigen Systemen, Prototypen und Projekten lässt sich das Potenzial des FRBRModells für bibliografische Informationen bereits aufzeigen. Ganz konkret werden die FRBR in die Überlegungen der IFLA Meetings of Experts an an International Cataloguing Code einbezogen und haben Einzug in die »Frankfurt principles« gefunden, deren Ziel eine Aktualisierung der »Paris principles« ist, und die bei nachfolgenden Regionaltreffen bis 2007 von Kolleginnen und Kollegen aus allen Teilen der WeIt weiter diskutiert und modifiziert werden. Durch die gegenwärtige Revision der Anglo-American Cataloguing Rules (AACR) werden die FRBR auch Einzug in das internationale Regelwerk halten.
    Mit großer Spannung wurde der Vortrag von Elisabeth Niggemann und Reiner Diedrichs über das weitere Vorgehen nach Abschluss des Projekts »Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)« erwartet. Unter dem programmatischen Titel »Hinter dem Horizont geht es weiter« stellten der Vorsitzende der Arbeitsgemeinschaft der Verbundsysteme und die Generaldirektorin Der Deutschen Bibliothek vor, wie die Internationalisierung der deutschen Standards im Einzelnen aussehen soll, und welche Maßnahmen erforderlich sind. Die Arbeitsgemeinschaft der Verbundsysteme hatte in ihrer Herbstsitzung 2004 verschiedene Beschlüsse getroffen, welche die Zusammenarbeit der Verbundsysteme fördern und erleichtern sollen. Dazu gehören u. a. die Entwicklung eines prototypischen Verfahrens für einen Neukatalogisierungsdienst mit einheitlichen Datenstrukturen und einheitlichen Formatanwendungen, die Verwendung von MARC21 als einheitlichem Austauschformat und die Entwicklung eines Matchkey-Verfahrens zur verbundübergreifenden Titelerkennung. Außerdem wurden grundsätzliche Anforderungen an das künftige Regelwerk und für eine Reorganisation der Normdatenarbeit formuliert, die die Ziele der Arbeitsgemeinschaft effektiv unterstützen sollen. Der Standardisierungsausschuss hat diese Beschlüsse in seiner 9. Sitzung im Dezember 2004 begrüßt, bestätigt und konkretisiert. Nun gilt es, die Beschlüsse zügig umzusetzen, um die gesteckten Ziele zu verfolgen: einfacher Zugang zu bibliografischer Information national wie international für wissenschaftliche und andere persönliche Nutzer, leichte Austauschbarkeit von bibliografischer Information zwischen professionellen Benutzergruppen und Anwendern und last but not least Kostenreduktion bei der Erschließung. Im Anschluss stellte Renate Gömpel, Die Deutsche Bibliothek, die IFLA-CDNL Allianz für Bibliografische Standards (ICABS) vor, die während des Weltkongresses Bibliothek und Information in Berlin als ein neues strategisches Vorhaben ins Leben gerufen wurde. Mit ICABS streben die National Library of Australia, die Library of Congress, die British Library, die Koninklijke Bibliotheek der Niederlande und Die Deutsche Bibliothek gemeinsam mit der Biblioteca Nacional Portugals, der IFLA und der Conference of Directors of National Libraries (CDNL) die Fortsetzung und Unterstützung von Schlüsselaktivitäten im Bereich der bibliografischen und der Ressourcenkontrolle sowie damit zusammenhängender Formatstandards an. Die Allianz führt damit die Arbeit der Geschäftsstellen der früheren IFLA-Kernprogramme UBCIM (Universal Bibliographic Control and International MARC) und UDT (Universal Dataflow and Telecommunications) fort. In dem Vortrag wurde ein Überblick über Ziele und Vorhaben von ICABS, ihre Organisation sowie deren Arbeit als Dach für facettenreiche Aktivitäten im Bereich bibliografischer Standards gegeben. Koordiniert wird die Arbeit von ICABS durch das Advisory Board, das aus Vertretern aller beteiligten Institutionen und Organisationen besteht und dessen Vorsitz gegenwärtig ebenso wie das Sekretariat bei Der Deutschen Bibliothek angesiedelt ist. Der Standardisierungsausschuss hat bereits erste Planungen für eine Veranstaltung beim 95. Deutschen Bibliothekartag in Dresden angestellt. Dort soll über den Stand der Internationalisierung des deutschen Regelwerks, den Umstieg auf MARC21 und die Weiterentwicklung der Normdateien berichtet werden. Darüber hinaus erwartet die Teilnehmerinnen und Teilnehmer ein Bericht aus dem Joint Steering Committee for Revision of Anglo-American Cataloguing Rules (JSC) über den Stand der AACR3. Es wird sicherlich spannend, merken Sie sich diesen Termin vor."
  17. Hubrich, J.: ¬Die Schlagwortrecherche in deutschsprachigen OPACs : Typen der Schlagwortsuche und der Einsatz der Schlagwortnormdatei (SWD) dargelegt unter Rückgriff auf eine empirische Untersuchung (2005) 0.01
    0.005871163 = product of:
      0.04109814 = sum of:
        0.04109814 = weight(_text_:bibliothek in 3552) [ClassicSimilarity], result of:
          0.04109814 = score(doc=3552,freq=2.0), product of:
            0.15100685 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.036781326 = queryNorm
            0.27216077 = fieldWeight in 3552, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.046875 = fieldNorm(doc=3552)
      0.14285715 = coord(1/7)
    
    Abstract
    Schlagwortsuchen sind heutzutage fester Bestandteil vieler Online-Kataloge. Durch die Verknüpfung von Titeldaten mit dokumentspezifischen Schlagwörtern aus der SWD wird ein thematischer Zugang zu den Medien eines Verbundes bzw. einer Bibliothek ermöglicht. Der SWD-Datensatz bietet neben den Ansetzungsformen, die für die Indexate genutzt werden, jedoch noch eine Reihe weiterer Informationen, die, an der richtigen Stelle im Online-Katalog implementiert, das Retrieval seitens des Benutzers optimieren können. Untersucht wurden die Online-Kataloge der großen deutschen Bibliotheksverbünde, des österreichischen Bibliothekenverbunds sowie 106 weiterer OPACs von vorwiegend wissenschaftlichen Bibliotheken. Es wurde betrachtet, welche Suchfeatures für die Schlagwortrecherche zur Verfügung gestellt werden, wie sie gestaltet sind und inwieweit das SWD-Datenmaterial genutzt wird. Dabei zeigte sich, dass zurzeit drei Typen von Schlagwortsuchen verbreitet sind: - die Indexsuche (mehrstufige Schlagwort- bzw. Schlagwortkettensuche) - die einstufige Schlagwort- bzw. Schlagwortkettensuche sowie - die weiterführende Schlagwort- bzw. Schlagwortkettensuche von einer Treffer- bzw. Titelvollanzeige aus.
  18. Patton, G.: What's new with FRAR (Functional Requirements for Authority Records)? (2006) 0.01
    0.005871163 = product of:
      0.04109814 = sum of:
        0.04109814 = weight(_text_:bibliothek in 6103) [ClassicSimilarity], result of:
          0.04109814 = score(doc=6103,freq=2.0), product of:
            0.15100685 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.036781326 = queryNorm
            0.27216077 = fieldWeight in 6103, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.046875 = fieldNorm(doc=6103)
      0.14285715 = coord(1/7)
    
    Abstract
    A draft of Functional Requirements for Authority Records (FRAR) was made available for worldwide review on IFLANET from July through October 2005. The FRANAR Working Group received comments from 12 individuals and 13 institutions (including 6 national libraries and 3 national-level cataloguing committees). The working group expresses its appreciation to all who took the time to prepare comments. The comments received were compiled into a comments log which totaled 145 pages. Seven members of the Working Group met at the Koninklijke Bibliothek, The Hague, Netherlands, on December 9, 2005, to consider these comments and to start revising the draft to reflect decisions made in response to the comments. The group was able to deal with about two-thirds of the comments during the meeting and, since the December meeting has had a series of four conference calls to complete discussions of the remaining comments, with additional calls anticipated before the Seoul meetings.
  19. Faßnacht, M.: "Druckt die GND Nummer in der Publikation ab!" : Vereinfachung der Normdatenverwendung in Bibliotheken und Datenbanken (2014) 0.01
    0.005871163 = product of:
      0.04109814 = sum of:
        0.04109814 = weight(_text_:bibliothek in 2393) [ClassicSimilarity], result of:
          0.04109814 = score(doc=2393,freq=2.0), product of:
            0.15100685 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.036781326 = queryNorm
            0.27216077 = fieldWeight in 2393, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.046875 = fieldNorm(doc=2393)
      0.14285715 = coord(1/7)
    
    Abstract
    Normdateien lösen das Problem von unterschiedlichen Namensschreibweisen, Übersetzungen und Namensdoppelungen. Nationale oder an Sprachräume gebundene Normdaten sind mittlerweile im "Virtual International Authority File" Projekt (VIAF) über Konkordanzen miteinander verlinkt. Neben diesen von Bibliotheken erstellten Normdaten entstehen aber auch in anderen Kontexten Identifizierungssysteme, die die Uneindeutigkeit von Personennamen in sehr großen Datenmengen beseitigen sollen. Ein arbeitsaufwändiges Problem ist dabei aber immer noch nicht gelöst: nach wie vor müssen Bibliothekare die Identität der Autoren mühsam recherchieren. Wie einfach wäre es, wenn die GND oder LoC Nummer beim Namen des Autors abgedruckt wäre! An einem Pilotprojekt der UB Tübingen wird demonstriert, wie durch die Zusammenarbeit von Herausgeber, Verlag und Bibliothek die GND-Nummern der Autoren in der Publikation abgedruckt werden können.
  20. Lorenz, B.; Steffens, M.: Systematik und Schlagwortnormdatei zwischen Universalität und Individualität (1997) 0.00
    0.004983362 = product of:
      0.034883533 = sum of:
        0.034883533 = product of:
          0.069767065 = sum of:
            0.069767065 = weight(_text_:22 in 5819) [ClassicSimilarity], result of:
              0.069767065 = score(doc=5819,freq=2.0), product of:
                0.12880194 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036781326 = queryNorm
                0.5416616 = fieldWeight in 5819, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5819)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    24. 5.2001 19:22:37