Search (20 results, page 1 of 1)

  • × theme_ss:"Normdateien"
  • × type_ss:"el"
  1. O'Neill, E.T.; Bennett, R.; Kammerer, K.: Using authorities to improve subject searches (2012) 0.06
    0.05568893 = product of:
      0.08353339 = sum of:
        0.027027493 = weight(_text_:im in 310) [ClassicSimilarity], result of:
          0.027027493 = score(doc=310,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 310, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=310)
        0.0565059 = product of:
          0.08475885 = sum of:
            0.031153653 = weight(_text_:online in 310) [ClassicSimilarity], result of:
              0.031153653 = score(doc=310,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.20118743 = fieldWeight in 310, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=310)
            0.05360519 = weight(_text_:retrieval in 310) [ClassicSimilarity], result of:
              0.05360519 = score(doc=310,freq=6.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.34732026 = fieldWeight in 310, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=310)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Authority files have played an important role in improving the quality of indexing and subject cataloging. Although authorities can significantly improve search by increasing the number of access points, they are rarely an integral part of the information retrieval process, particularly end-users searches. A retrieval prototype, searchFAST, was developed to test the feasibility of using an authority file as an index to bibliographic records. searchFAST uses FAST (Faceted Application of Subject Terminology) as an index to OCLC's WorldCat.org bibliographic database. The searchFAST methodology complements, rather than replaces, existing WorldCat.org access. The bibliographic file is searched indirectly; first the authority file is searched to identify appropriate subject headings, then the headings are used to retrieve the matching bibliographic records. The prototype demonstrates the effectiveness and practicality of using an authority file as an index. Searching the authority file leverages authority control work by increasing the number of access points while supporting a simple interface designed for end-users.
    Theme
    Verbale Doksprachen im Online-Retrieval
  2. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.03
    0.033688195 = product of:
      0.05053229 = sum of:
        0.03901083 = weight(_text_:im in 3780) [ClassicSimilarity], result of:
          0.03901083 = score(doc=3780,freq=6.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.27047595 = fieldWeight in 3780, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.011521457 = product of:
          0.03456437 = sum of:
            0.03456437 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
              0.03456437 = score(doc=3780,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.19345059 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  3. Kasprzik, A.; Kett, J.: Vorschläge für eine Weiterentwicklung der Sacherschließung und Schritte zur fortgesetzten strukturellen Aufwertung der GND (2018) 0.03
    0.026966095 = product of:
      0.040449142 = sum of:
        0.031852208 = weight(_text_:im in 4599) [ClassicSimilarity], result of:
          0.031852208 = score(doc=4599,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.22084267 = fieldWeight in 4599, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.008596936 = product of:
          0.025790809 = sum of:
            0.025790809 = weight(_text_:retrieval in 4599) [ClassicSimilarity], result of:
              0.025790809 = score(doc=4599,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.16710453 = fieldWeight in 4599, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4599)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Aufgrund der fortgesetzten Publikationsflut stellt sich immer dringender die Frage, wie die Schwellen für die Titel- und Normdatenpflege gesenkt werden können - sowohl für die intellektuelle als auch die automatisierte Sacherschließung. Zu einer Verbesserung der Daten- und Arbeitsqualität in der Sacherschließung kann beigetragen werden a) durch eine flexible Visualisierung der Gemeinsamen Normdatei (GND) und anderer Wissensorganisationssysteme, so dass deren Graphstruktur intuitiv erfassbar wird, und b) durch eine investigative Analyse ihrer aktuellen Struktur und die Entwicklung angepasster automatisierter Methoden zur Ermittlung und Korrektur fehlerhafter Muster. Die Deutsche Nationalbibliothek (DNB) prüft im Rahmen des GND-Entwicklungsprogramms 2017-2021, welche Bedingungen für eine fruchtbare community-getriebene Open-Source-Entwicklung entsprechender Werkzeuge gegeben sein müssen. Weiteres Potential steckt in einem langfristigen Übergang zu einer Darstellung von Titel- und Normdaten in Beschreibungssprachen im Sinne des Semantic Web (RDF; OWL, SKOS). So profitiert die GND von der Interoperabilität mit anderen kontrollierten Vokabularen und von einer erleichterten Interaktion mit anderen Fach-Communities und kann umgekehrt auch außerhalb des Bibliothekswesens zu einem noch attraktiveren Wissensorganisationssystem werden. Darüber hinaus bieten die Ansätze aus dem Semantic Web die Möglichkeit, stärker formalisierte, strukturierende Satellitenvokabulare rund um die GND zu entwickeln. Daraus ergeben sich nicht zuletzt auch neue Perspektiven für die automatisierte Sacherschließung. Es wäre lohnend, näher auszuloten, wie und inwieweit semantisch-logische Verfahren den bestehenden Methodenmix bereichern können.
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  4. Behrens, R.: RNAB Vokabulare veröffentlicht (2022) 0.02
    0.024941362 = product of:
      0.037412044 = sum of:
        0.027027493 = weight(_text_:im in 804) [ClassicSimilarity], result of:
          0.027027493 = score(doc=804,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=804)
        0.010384551 = product of:
          0.031153653 = sum of:
            0.031153653 = weight(_text_:online in 804) [ClassicSimilarity], result of:
              0.031153653 = score(doc=804,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.20118743 = fieldWeight in 804, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=804)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Mailtext: "Die Arbeitsgruppe RNAB des Standardisierungsausschusses freut sich, eine Aktualisierung der 2019 erstmals veröffentlichten "Ressourcenerschließung mit Normdaten in Archiven und Bibliotheken (RNAB)" vorzulegen. Die vorliegende Fassung ist identisch mit jener im Februar 2022 veröffentlichten Version 1.1, enthält aber an den betreffenden Stellen den Hinweis darauf, dass die jeweils aktuellsten Versionen der kontrollierten Vokabulare und des Glossars online abzurufen sind. Sie finden die aktuelle Fassung der Version 1.1 der RNAB und der kontrollierten Vokabulare und des Glossars unter https://www.dnb.de/rnab auf der Website der Deutschen Nationalbibliothek. Der Standardisierungsausschuss hat der neuen Form der Veröffentlichung der aktualisierten Vokabulare zugestimmt. Ein besonderer Dank geht an das Redaktionsteam der RNAB, Martin Wedl vom Literaturarchiv der Österreichischen Nationalbibliothek, Ralf Breslau von der Staatsbibliothek zu Berlin und Rudolf Probst vom Literaturarchiv der Schweizerischen Nationalbibliothek sowie an Thomas Stern von der Sächsischen Landesbibliothek - Staats- und Universitätsbibliothek Dresden und Jörn Hasenclever von der Deutschen Nationalbibliothek, Deutsches Exilarchiv, die neu zum Redaktionsteam hinzugekommen sind.."
  5. Haffner, A.: Internationalisierung der GND durch das Semantic Web (2012) 0.02
    0.015766038 = product of:
      0.04729811 = sum of:
        0.04729811 = weight(_text_:im in 318) [ClassicSimilarity], result of:
          0.04729811 = score(doc=318,freq=18.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.32793462 = fieldWeight in 318, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
      0.33333334 = coord(1/3)
    
    Abstract
    Seit Bestehen der Menschheit sammelt der Mensch Informationen, seit Bestehen des Internets stellt der Mensch Informationen ins Web, seit Bestehen des Semantic Webs sollen auch Maschinen in die Lage versetzt werden mit diesen Informationen umzugehen. Das Bibliothekswesen ist einer der Sammler. Seit Jahrhunderten werden Kataloge und Bibliografien sowie Inventarnachweise geführt. Mit der Aufgabe des Zettelkatalogs hin zum Onlinekatalog wurde es Benutzern plötzlich möglich in Beständen komfortabel zu suchen. Durch die Bereitstellung von Daten aus dem Bibliothekswesen im Semantic Web sollen nicht nur die eigenen Katalogsysteme Zugriff auf diese Informationen erhalten, sondern jede beliebige Anwendung, die auf das Web zugreifen kann. Darüber hinaus ist die Vorstellung, dass sich die im Web befindenden Daten - in sofern möglich - miteinander verlinken und zu einem gigantischen semantischen Netz werden, das als ein großer Datenpool verwendet werden kann. Die Voraussetzung hierfür ist wie beim Übergang zum Onlinekatalog die Aufbereitung der Daten in einem passenden Format. Normdaten dienen im Bibliothekswesen bereits dazu eine Vernetzung der unterschiedlichen Bestände zu erlauben. Bei der Erschließung eines Buches wird nicht bloß gesagt, dass jemand, der Thomas Mann heißt, der Autor ist - es wird eine Verknüpfung vom Katalogisat zu dem Thomas Mann erzeugt, der am 6. Juni 1875 in Lübeck geboren und am 12. August 1955 in Zürich verstorben ist. Der Vorteil von Normdateneintragungen ist, dass sie zum eindeutigen Nachweis der Verfasserschaft oder Mitwirkung an einem Werk beitragen. Auch stehen Normdateneintragungen bereits allen Bibliotheken für die Nachnutzung bereit - der Schritt ins Semantic Web wäre somit die Öffnung der Normdaten für alle denkbaren Nutzergruppen.
    Die Gemeinsame Normdatei (GND) ist seit April 2012 die Datei, die die im deutschsprachigen Bibliothekswesen verwendeten Normdaten enthält. Folglich muss auf Basis dieser Daten eine Repräsentation für die Darstellung als Linked Data im Semantic Web etabliert werden. Neben der eigentlichen Bereitstellung von GND-Daten im Semantic Web sollen die Daten mit bereits als Linked Data vorhandenen Datenbeständen (DBpedia, VIAF etc.) verknüpft und nach Möglichkeit kompatibel sein, wodurch die GND einem internationalen und spartenübergreifenden Publikum zugänglich gemacht wird. Dieses Dokument dient vor allem zur Beschreibung, wie die GND-Linked-Data-Repräsentation entstand und dem Weg zur Spezifikation einer eignen Ontologie. Hierfür werden nach einer kurzen Einführung in die GND die Grundprinzipien und wichtigsten Standards für die Veröffentlichung von Linked Data im Semantic Web vorgestellt, um darauf aufbauend existierende Vokabulare und Ontologien des Bibliothekswesens betrachten zu können. Anschließend folgt ein Exkurs in das generelle Vorgehen für die Bereitstellung von Linked Data, wobei die so oft zitierte Open World Assumption kritisch hinterfragt und damit verbundene Probleme insbesondere in Hinsicht Interoperabilität und Nachnutzbarkeit aufgedeckt werden. Um Probleme der Interoperabilität zu vermeiden, wird den Empfehlungen der Library Linked Data Incubator Group [LLD11] gefolgt.
    Im Kapitel Anwendungsprofile als Basis für die Ontologieentwicklung wird die Spezifikation von Dublin Core Anwendungsprofilen kritisch betrachtet, um auszumachen wann und in welcher Form sich ihre Verwendung bei dem Vorhaben Bereitstellung von Linked Data anbietet. In den nachfolgenden Abschnitten wird die GND-Ontologie, welche als Standard für die Serialisierung von GND-Daten im Semantic Web dient, samt Modellierungsentscheidungen näher vorgestellt. Dabei wird insbesondere der Technik des Vocabulary Alignment eine prominente Position eingeräumt, da darin ein entscheidender Mechanismus zur Steigerung der Interoperabilität und Nachnutzbarkeit gesehen wird. Auch wird sich mit der Verlinkung zu externen Datensets intensiv beschäftigt. Hierfür wurden ausgewählte Datenbestände hinsichtlich ihrer Qualität und Aktualität untersucht und Empfehlungen für die Implementierung innerhalb des GND-Datenbestandes gegeben. Abschließend werden eine Zusammenfassung und ein Ausblick auf weitere Schritte gegeben.
  6. Bee, G.; Horstkotte, M.; Jahns, Y.; Karg, H.; Nadj-Guttandin, J.: Wissen, was verbindet: . O-Bib. Das Offene Bibliotheksjournal / Herausgeber VDB, 10(1), 1-15. : GND-Arbeit zwischen Terminologie und Redaktion (2023) 0.02
    0.015604331 = product of:
      0.046812993 = sum of:
        0.046812993 = weight(_text_:im in 934) [ClassicSimilarity], result of:
          0.046812993 = score(doc=934,freq=6.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.32457113 = fieldWeight in 934, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=934)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Gemeinsame Normdatei (GND) ist aus dem Bibliothekswesen nicht mehr wegzudenken und wird künftig verstärkt auch in anderen Einrichtungen aus Kultur und Wissenschaft zum Einsatz kommen. Von entscheidender Bedeutung für ihre Weiterentwicklung ist die kooperative Redaktionstätigkeit der im deutschsprachigen Raum tätigen Verbundpartner*innen, die im vorliegenden Beitrag näher vorgestellt wird. Nach einem kurzen historischen Überblick werden die Schwerpunkte und Besonderheiten der gegenwärtigen Terminologiearbeit anhand von Beispielen veranschaulicht. Im Anschluss daran wird der Frage nachgegangen, wie die Redaktionsarbeit an der GND an zukünftige Herausforderungen (z. B. den zunehmenden Einsatz maschineller Erschließung und die Vernetzung mit anderen Vokabularen) angepasst werden kann.
  7. Wiechmann, B.: Spartenübergreifende Nutzung der GND am Beispiel des Projekts IN2N (2015) 0.01
    0.014864365 = product of:
      0.044593092 = sum of:
        0.044593092 = weight(_text_:im in 2477) [ClassicSimilarity], result of:
          0.044593092 = score(doc=2477,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.30917975 = fieldWeight in 2477, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2477)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Gemeinsame Normdatei (GND) wird im deutschsprachigen Bibliothekswesen als Normdatei sowohl zur formalen als auch inhaltlichen Erschließung genutzt. Im Projekt IN2N (Institutionenübergreifende Integration von Normdaten) sollte die Einbindung eines nichtbibliothekarischen Partners erprobt werden, um damit beispielhaft die Nutzung dieser Normdatei für andere Kultureinrichtungen zu untersuchen. Das Projekt hat sich mit Inhalten, Formaten, Schnittstellen und Redaktionssystemen auseinandergesetzt und eine Kooperation ermöglicht, die wegweisend für andere Kultureinrichtungen sein kann.
  8. Danowski, P.: Authority files and Web 2.0 : Wikipedia and the PND. An Example (2007) 0.01
    0.013412262 = product of:
      0.040236786 = sum of:
        0.040236786 = product of:
          0.06035518 = sum of:
            0.025790809 = weight(_text_:retrieval in 1291) [ClassicSimilarity], result of:
              0.025790809 = score(doc=1291,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.16710453 = fieldWeight in 1291, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1291)
            0.03456437 = weight(_text_:22 in 1291) [ClassicSimilarity], result of:
              0.03456437 = score(doc=1291,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.19345059 = fieldWeight in 1291, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1291)
          0.6666667 = coord(2/3)
      0.33333334 = coord(1/3)
    
    Abstract
    More and more users index everything on their own in the web 2.0. There are services for links, videos, pictures, books, encyclopaedic articles and scientific articles. All these services are library independent. But must that really be? Can't libraries help with their experience and tools to make user indexing better? On the experience of a project from German language Wikipedia together with the German person authority files (Personen Namen Datei - PND) located at German National Library (Deutsche Nationalbibliothek) I would like to show what is possible. How users can and will use the authority files, if we let them. We will take a look how the project worked and what we can learn for future projects. Conclusions - Authority files can have a role in the web 2.0 - there must be an open interface/ service for retrieval - everything that is indexed on the net with authority files can be easy integrated in a federated search - O'Reilly: You have to found ways that your data get more important that more it will be used
    Content
    Vortrag anlässlich des Workshops: "Extending the multilingual capacity of The European Library in the EDL project Stockholm, Swedish National Library, 22-23 November 2007".
  9. Behrens, R.: Version 1.1 der RNAB erschienen (2022) 0.01
    0.012740883 = product of:
      0.03822265 = sum of:
        0.03822265 = weight(_text_:im in 803) [ClassicSimilarity], result of:
          0.03822265 = score(doc=803,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.26501122 = fieldWeight in 803, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=803)
      0.33333334 = coord(1/3)
    
    Abstract
    Mailtext: "die Arbeitsgruppe RNAB des Standardisierungsausschusses freut sich, die Aktualisierung der 2019 erstmals veröffentlichten "Ressourcenerschließung mit Normdaten für Archive und Bibliotheken, (RNAB)" vorzulegen. Die hier präsentierte Version 1.1 ist keine grundsätzlich neue Fassung dieses Regelwerks. Es wurden überwiegend kleine Korrekturen und Ergänzungen im Text vorgenommen. Größere Veränderungen gibt es lediglich bei der stärkeren Abgrenzung des Werkbegriffs gegenüber der RDA und beim kontrollierten Vokabular. Schließlich behandelt das Regelwerk nunmehr die Nachlassbibliotheken als eigenständigen Sammelschwerpunkt. Sie finden die aktualisiert Version 1.1 auf der Website der Deutschen Nationalbibliothek unter DNB - Standards<https://www.dnb.de/DE/Professionell/Standardisierung/Standards/standards_node.html>. Um die Änderungen leichter nachvollziehen zu können, wird zusätzlich eine Fassung mit Markierungen zur Verfügung gestellt. Der Standardisierungsausschuss hat der Aktualisierung in seiner Sitzung im Dezember 2021 zugestimmt und die RNAB zur Anwendung empfohlen. Ein besonderer Dank geht an das Redaktionsteam der RNAB: Martin Wedl (Österreichische Nationalbibliothek), Ralf Breslau (Staatsbibliothek zu Berlin) und Rudolf Probst (Schweizerische Nationalbibliothek)."
  10. Bourdon, F.: Funktionale Anforderungen an bibliographische Datensätze und ein internationales Nummernsystem für Normdaten : wie weit kann Normierung durch Technik unterstützt werden? (2001) 0.01
    0.009217165 = product of:
      0.027651494 = sum of:
        0.027651494 = product of:
          0.08295448 = sum of:
            0.08295448 = weight(_text_:22 in 6888) [ClassicSimilarity], result of:
              0.08295448 = score(doc=6888,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.46428138 = fieldWeight in 6888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6888)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Date
    26.12.2011 12:30:22
  11. Leth, P.: Subject access - the Swedish approach (2007) 0.01
    0.009217165 = product of:
      0.027651494 = sum of:
        0.027651494 = product of:
          0.08295448 = sum of:
            0.08295448 = weight(_text_:22 in 131) [ClassicSimilarity], result of:
              0.08295448 = score(doc=131,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.46428138 = fieldWeight in 131, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=131)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Content
    Vortrag anlässlich des Workshops: "Extending the multilingual capacity of The European Library in the EDL project Stockholm, Swedish National Library, 22-23 November 2007".
  12. Hengel, C.: Mapping name authorities : the Virtual International Authority File (VIAF) (2007) 0.01
    0.009217165 = product of:
      0.027651494 = sum of:
        0.027651494 = product of:
          0.08295448 = sum of:
            0.08295448 = weight(_text_:22 in 1266) [ClassicSimilarity], result of:
              0.08295448 = score(doc=1266,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.46428138 = fieldWeight in 1266, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1266)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Content
    Vortrag anlässlich des Workshops: "Extending the multilingual capacity of The European Library in the EDL project Stockholm, Swedish National Library, 22-23 November 2007".
  13. Goossens, P.: Authority control : trends and challenges (2007) 0.01
    0.009217165 = product of:
      0.027651494 = sum of:
        0.027651494 = product of:
          0.08295448 = sum of:
            0.08295448 = weight(_text_:22 in 1290) [ClassicSimilarity], result of:
              0.08295448 = score(doc=1290,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.46428138 = fieldWeight in 1290, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1290)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Content
    Vortrag anlässlich des Workshops: "Extending the multilingual capacity of The European Library in the EDL project Stockholm, Swedish National Library, 22-23 November 2007".
  14. ORCID (2015) 0.01
    0.009009165 = product of:
      0.027027493 = sum of:
        0.027027493 = weight(_text_:im in 1870) [ClassicSimilarity], result of:
          0.027027493 = score(doc=1870,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 1870, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=1870)
      0.33333334 = coord(1/3)
    
    Content
    ORCID soll die elektronische Zuordnung von Publikation und Autoren ermöglichen. Dies ist notwendig, da verschiedene Autoren gleiche Namen haben können, Namen sich ändern (z. B. bei Heirat) und Namen in verschiedenen Publikationen unterschiedlich angegeben werden (z. B. einmal die ausgeschriebenen Vornamen, ein anderes Mal aber nur die Initialen). ORCID soll zum De-facto-Standard für die Autorenidentifikation wissenschaftlicher Publikationen werden. Die Etablierung wird von der Non-Profit-Organisation Open Researcher Contributor Identification Initiative organisiert. Zu den Gründungsmitgliedern der Initiative gehören zahlreiche wissenschaftliche Verlagsgruppen (z. B. Elsevier, Nature Publishing Group, Springer) und Forschungsorganisationen (z. B. EMBO, CERN). Die Planungen für ORCID wurden 2010 auf Umfragen gestützt. ORCID ging am 16. Oktober 2012 offiziell an den Start. Am Jahresende 2012 hatte ORCID 42.918 Registrierte, Jahresende 2013 waren es 460.000 Registrierte und im November 2014 hatte ORCID 1 Million Autorenidentifikationen ausgestellt. Vgl. auch den Zusammenhang mit der GND und den Erfassungsleitfaden der DNB unter: https://wiki.dnb.de/x/vYYGAw.
  15. Faßnacht, M.: "Druckt die GND Nummer in der Publikation ab!" : Vereinfachung der Normdatenverwendung in Bibliotheken und Datenbanken (2014) 0.01
    0.009009165 = product of:
      0.027027493 = sum of:
        0.027027493 = weight(_text_:im in 2393) [ClassicSimilarity], result of:
          0.027027493 = score(doc=2393,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 2393, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=2393)
      0.33333334 = coord(1/3)
    
    Abstract
    Normdateien lösen das Problem von unterschiedlichen Namensschreibweisen, Übersetzungen und Namensdoppelungen. Nationale oder an Sprachräume gebundene Normdaten sind mittlerweile im "Virtual International Authority File" Projekt (VIAF) über Konkordanzen miteinander verlinkt. Neben diesen von Bibliotheken erstellten Normdaten entstehen aber auch in anderen Kontexten Identifizierungssysteme, die die Uneindeutigkeit von Personennamen in sehr großen Datenmengen beseitigen sollen. Ein arbeitsaufwändiges Problem ist dabei aber immer noch nicht gelöst: nach wie vor müssen Bibliothekare die Identität der Autoren mühsam recherchieren. Wie einfach wäre es, wenn die GND oder LoC Nummer beim Namen des Autors abgedruckt wäre! An einem Pilotprojekt der UB Tübingen wird demonstriert, wie durch die Zusammenarbeit von Herausgeber, Verlag und Bibliothek die GND-Nummern der Autoren in der Publikation abgedruckt werden können.
  16. Balzer, D.; Fischer, B.K.; Kett, J.; Laux, S.; Lill, J.M.; Lindenthal, J.; Manecke, M.; Rosenkötter, M.; Vitzthum, A.: ¬Das Projekt "GND für Kulturdaten"; (GND4C) (2019) 0.01
    0.008493923 = product of:
      0.025481766 = sum of:
        0.025481766 = weight(_text_:im in 5721) [ClassicSimilarity], result of:
          0.025481766 = score(doc=5721,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.17667414 = fieldWeight in 5721, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=5721)
      0.33333334 = coord(1/3)
    
    Abstract
    Die zunehmende Präsenz von Museen, Archiven, Forschungs- und anderen Kulturgut verwahrenden Einrichtungen mit ihren Sammlungsobjekten im Internet verstärkt das Bedürfnis nach Vernetzung der Daten. Eine Voraussetzung für die semantische Verknüpfung von Datensätzen sind gemeinsam verwendete Normdaten. Die Gemeinsame Normdatei (GND), geführt von der Deutschen Nationalbibliothek, ist ein weithin anerkanntes Vokabular für die Beschreibung und das Information­Retrieval in der Bibliothekswelt. Veröffentlicht als Linked Open Data, unterstützt die GND semantische Interoperabilität und Nachnutzung von Daten. Objekte aus verschiedenen Häusern können zusammen aufgefunden werden und disziplinenübergreifende Forschung wird erleichtert. Doch um die GND sparten­ und fächerübergreifend öffnen zu können, muss sie an die neuen Anforderungen angepasst und aktiv zwischen den Communities geteilt werden. In den vier Teilen des Beitrags geben Mitarbeiterinnen und Mitarbeiter des DFG­geförderten Projekts "GND für Kulturdaten" (GND4C) einen Einblick in den Stand der Untersuchungen, welche konzeptuellen Veränderungen erforderlich sein werden und wo sich die GND bereits heute als flexibel genug für die Wünsche der neuen Anwendungen erweist.
    Der erste Teil des Beitrags erläutert Ziel und Vorgehensweise des Projektes in vier thematischen Schwerpunkten: Organisationsstruktur des GND­Netzwerks, Datenmodell und Regelwerk der GND, technische Infrastruktur sowie Erfordernisse eines Dialogs über die Grenzen der Bibliothekswelt hinaus. Der zweite Teil beschreibt die Bedingungen und Erfordernisse für die Integration von Normdaten für Personen und Sachbegriffe in die GND, soweit diese nicht durch die Erschließungsarbeit der Bibliotheken vorgegeben sind. Daraufhin werden die Möglichkeiten des bestehenden Datenmodells und der bisher geltenden Regeln hinsichtlich ihres Anpassungspotenzials für historische Geografika sowie Bauwerke untersucht. Als ortsgebundene Entitäten haben Bauwerke Eigenschaften mit natürlichen Geografika gemeinsam, teilen als künstliche Objekte aber auch Eigenschaften der von Menschen geschaffenen Werke. Diese Dualität ortsgebundender Objekte gilt es, in der GND darstellbar zu machen. Im letzten Beitragsteil wird erläutert, warum es nur einen geringen Bedarf an einer konzeptionellen Änderung des Basisdatenmodells der GND gibt. Allerdings werden auch spezifische Eigenschaften identifiziert, die für Objekte aus Museen oder Archiven relevant sind und nicht vom aktuellen GND­Datenmodell abgedeckt werden. Diese zusätzlichen Anforderungen werden durch die Spezifikation von CORE­ und PLUS­Bereichen erfüllt. Das CORE­PLUS­Modell unterscheidet zwischen Minimalanforderungen an einen Normdatensatz in einem CORE­Modell und zusätzlichen Regeln für einen jeweils community­spezifischen PLUS­Bereich. Ausblick und Fazit zeigen die noch offenen Fragen auf, deren Lösung in der zweiten Hälfte der Projektlaufzeit ansteht.
  17. Kaiser, M.; Lieder, H.J.; Majcen, K.; Vallant, H.: New ways of sharing and using authority information : the LEAF project (2003) 0.01
    0.007861916 = product of:
      0.023585748 = sum of:
        0.023585748 = product of:
          0.03537862 = sum of:
            0.022483215 = weight(_text_:online in 1166) [ClassicSimilarity], result of:
              0.022483215 = score(doc=1166,freq=6.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.14519453 = fieldWeight in 1166, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1166)
            0.012895404 = weight(_text_:retrieval in 1166) [ClassicSimilarity], result of:
              0.012895404 = score(doc=1166,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.08355226 = fieldWeight in 1166, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1166)
          0.6666667 = coord(2/3)
      0.33333334 = coord(1/3)
    
    Abstract
    This article presents an overview of the LEAF project (Linking and Exploring Authority Files)1, which has set out to provide a framework for international, collaborative work in the sector of authority data with respect to authority control. Elaborating the virtues of authority control in today's Web environment is an almost futile exercise, since so much has been said and written about it in the last few years.2 The World Wide Web is generally understood to be poorly structured-both with regard to content and to locating required information. Highly structured databases might be viewed as small islands of precision within this chaotic environment. Though the Web in general or any particular structured database would greatly benefit from increased authority control, it should be noted that our following considerations only refer to authority control with regard to databases of "memory institutions" (i.e., libraries, archives, and museums). Moreover, when talking about authority records, we exclusively refer to personal name authority records that describe a specific person. Although different types of authority records could indeed be used in similar ways to the ones presented in this article, discussing those different types is outside the scope of both the LEAF project and this article. Personal name authority records-as are all other "authorities"-are maintained as separate records and linked to various kinds of descriptive records. Name authority records are usually either kept in independent databases or in separate tables in the database containing the descriptive records. This practice points at a crucial benefit: by linking any number of descriptive records to an authorized name record, the records related to this entity are collocated in the database. Variant forms of the authorized name are referenced in the authority records and thus ensure the consistency of the database while enabling search and retrieval operations that produce accurate results. On one hand, authority control may be viewed as a positive prerequisite of a consistent catalogue; on the other, the creation of new authority records is a very time consuming and expensive undertaking. As a consequence, various models of providing access to existing authority records have emerged: the Library of Congress and the French National Library (Bibliothèque nationale de France), for example, make their authority records available to all via a web-based search service.3 In Germany, the Personal Name Authority File (PND, Personennamendatei4) maintained by the German National Library (Die Deutsche Bibliothek, Frankfurt/Main) offers a different approach to shared access: within a closed network, participating institutions have online access to their pooled data. The number of recent projects and initiatives that have addressed the issue of authority control in one way or another is considerable.5 Two important current initiatives should be mentioned here: The Name Authority Cooperative (NACO) and Virtual International Authority File (VIAF).
    NACO was established in 1976 and is hosted by the Library of Congress. At the beginning of 2003, nearly 400 institutions were involved in this undertaking, including 43 institutions from outside the United States.6 Despite the enormous success of NACO and the impressive annual growth of the initiative, there are requirements for participation that form an obstacle for many institutions: they have to follow the Anglo-American Cataloguing Rules (AACR2) and employ the MARC217 data format. Participating institutions also have to belong to either OCLC (Online Computer Library Center) or RLG (Research Libraries Group) in order to be able to contribute records, and they have to provide a specified minimum number of authority records per year. A recent proof of concept project of the Library of Congress, OCLC and the German National Library-Virtual International Authority File (VIAF)8-will, in its first phase, test automatic linking of the records of the Library of Congress Name Authority File (LCNAF) and the German Personal Name Authority File by using matching algorithms and software developed by OCLC. The results are expected to form the basis of a "Virtual International Authority File". The project will then test the maintenance of the virtual authority file by employing the Open Archives Initiative Protocol for Metadata Harvesting (OAI-PMH)9 to harvest the metadata for new, updated, and deleted records. When using the "Virtual International Authority File" a cataloguer will be able to check the system to see whether the authority record he wants to establish already exists. The final phase of the project will test possibilities for displaying records in the preferred language and script of the end user. Currently, there are still some clear limitations associated with the ways in which authority records are used by memory institutions. One of the main problems has to do with limited access: generally only large institutions or those that are part of a library network have unlimited online access to permanently updated authority records. Smaller institutions outside these networks usually have to fall back on less efficient ways of obtaining authority data, or have no access at all. Cross-domain sharing of authority data between libraries, archives, museums and other memory institutions simply does not happen at present. Public users are, by and large, not even aware that such things as name authority records exist and are excluded from access to these information resources.
  18. Patton, G.; Hengel-Dittrich, C.; O'Neill, E.T.; Tillett, B.B.: VIAF (Virtual International Authority File) : Linking Die Deutsche Bibliothek and Library of Congress Name Authority Files (2006) 0.00
    0.0028845975 = product of:
      0.008653793 = sum of:
        0.008653793 = product of:
          0.025961377 = sum of:
            0.025961377 = weight(_text_:online in 6105) [ClassicSimilarity], result of:
              0.025961377 = score(doc=6105,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.16765618 = fieldWeight in 6105, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=6105)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Deutsche Bibliothek, the Library of Congress, and OCLC Online Computer Library Center are jointly developing a virtual international authority file (VIAF) for personal names which links authority records from the world's national bibliographic agencies and will be made freely available on the Web. The goals of the project are to prove the viability of automatically linking authority records from different national authority files and to demonstrate its benefits. The authority and bibliographic files from the Library of Congress and Die Deutsche Bibliothek were used to create the initial VIAF which contains over six million names with over a half million links. A key aspect of the project was the development of automated name matching algorithms which use information from both authority records and the corresponding bibliographic records. The practicality of algorithmically linking the personal names between national authority files was demonstrated; seventy percent of the authority records for personal names common to both files were automatically linked with an error rate of less than one percent. The long-term goal of the VIAF project is to combine the authoritative names from many national libraries and other significant sources into a shared global authority service.
  19. DiLauro, T.; Choudhury, G.S.; Patton, M.; Warner, J.W.; Brown, E.W.: Automated name authority control and enhanced searching in the Levy collection (2001) 0.00
    0.002307678 = product of:
      0.006923034 = sum of:
        0.006923034 = product of:
          0.0207691 = sum of:
            0.0207691 = weight(_text_:online in 1160) [ClassicSimilarity], result of:
              0.0207691 = score(doc=1160,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.13412495 = fieldWeight in 1160, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1160)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Abstract
    This paper is the second in a series in D-Lib Magazine and describes a workflow management system being developed by the Digital Knowledge Center (DKC) at the Milton S. Eisenhower Library (MSEL) of The Johns Hopkins University. Based on experience from digitizing the Lester S. Levy Collection of Sheet Music, it was apparent that large-scale digitization efforts require a significant amount of human labor that is both time-consuming and costly. Consequently, this workflow management system aims to reduce the amount of human labor and time for large-scale digitization projects. The mission of this second phase of the project ("Levy II") can be summarized as follows: * Reduce costs for large collection ingestion by creating a suite of open-source processes, tools, and interfaces for workflow management * Increase access capabilities by providing a suite of research tools * Demonstrate utility of tools and processes with a subset of the online Levy Collection The cornerstones of the workflow management system include optical music recognition (OMR) software and an automated name authority control system (ANAC). The OMR software generates a logical representation of the score for sound generation, music searching, and musicological research. The ANAC disambiguates names, associating each name with an individual (e.g., the composer Septimus Winner also published under the pseudonyms Alice Hawthorne and Apsley Street, among others). Complementing the workflow tools, a suite of research tools focuses upon enhanced searching capabilities through the development and application of a fast, disk-based search engine for lyrics and music and the incorporation of an XML structure for metadata. The first paper (Choudhury et al. 2001) described the OMR software and musical components of Levy II. This paper focuses on the metadata and intellectual access components that include automated name authority control and the aforementioned search engine.
  20. Hill, L.L.; Frew, J.; Zheng, Q.: Geographic names : the implementation of a gazetteer in a georeferenced digital library (1999) 0.00
    0.002307678 = product of:
      0.006923034 = sum of:
        0.006923034 = product of:
          0.0207691 = sum of:
            0.0207691 = weight(_text_:online in 1240) [ClassicSimilarity], result of:
              0.0207691 = score(doc=1240,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.13412495 = fieldWeight in 1240, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1240)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Abstract
    The Alexandria Digital Library (ADL) Project has developed a content standard for gazetteer objects and a hierarchical type scheme for geographic features. Both of these developments are based on ADL experience with an earlier gazetteer component for the Library, based on two gazetteers maintained by the U.S. federal government. We define the minimum components of a gazetteer entry as (1) a geographic name, (2) a geographic location represented by coordinates, and (3) a type designation. With these attributes, a gazetteer can function as a tool for indirect spatial location identification through names and types. The ADL Gazetteer Content Standard supports contribution and sharing of gazetteer entries with rich descriptions beyond the minimum requirements. This paper describes the content standard, the feature type thesaurus, and the implementation and research issues. A gazetteer is list of geographic names, together with their geographic locations and other descriptive information. A geographic name is a proper name for a geographic place and feature, such as Santa Barbara County, Mount Washington, St. Francis Hospital, and Southern California. There are many types of printed gazetteers. For example, the New York Times Atlas has a gazetteer section that can be used to look up a geographic name and find the page(s) and grid reference(s) where the corresponding feature is shown. Some gazetteers provide information about places and features; for example, a history of the locale, population data, physical data such as elevation, or the pronunciation of the name. Some lists of geographic names are available as hierarchical term sets (thesauri) designed for information retreival; these are used to describe bibliographic or museum materials. Examples include the authority files of the U.S. Library of Congress and the GeoRef Thesaurus produced by the American Geological Institute. The Getty Museum has recently made their Thesaurus of Geographic Names available online. This is a major project to develop a controlled vocabulary of current and historical names to describe (i.e., catalog) art and architecture literature. U.S. federal government mapping agencies maintain gazetteers containing the official names of places and/or the names that appear on map series. Examples include the U.S. Geological Survey's Geographic Names Information System (GNIS) and the National Imagery and Mapping Agency's Geographic Names Processing System (GNPS). Both of these are maintained in cooperation with the U.S. Board of Geographic Names (BGN). Many other examples could be cited -- for local areas, for other countries, and for special purposes. There is remarkable diversity in approaches to the description of geographic places and no standardization beyond authoritative sources for the geographic names themselves.