Search (67 results, page 1 of 4)

  • × theme_ss:"Normdateien"
  1. Danowski, P.: Authority files and Web 2.0 : Wikipedia and the PND. An Example (2007) 0.06
    0.056404725 = product of:
      0.2256189 = sum of:
        0.047659878 = weight(_text_:web in 1291) [ClassicSimilarity], result of:
          0.047659878 = score(doc=1291,freq=8.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.36057037 = fieldWeight in 1291, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1291)
        0.17795902 = sum of:
          0.15052162 = weight(_text_:2.0 in 1291) [ClassicSimilarity], result of:
            0.15052162 = score(doc=1291,freq=8.0), product of:
              0.23490155 = queryWeight, product of:
                5.799733 = idf(docFreq=363, maxDocs=44218)
                0.04050213 = queryNorm
              0.640786 = fieldWeight in 1291, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                5.799733 = idf(docFreq=363, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1291)
          0.027437398 = weight(_text_:22 in 1291) [ClassicSimilarity], result of:
            0.027437398 = score(doc=1291,freq=2.0), product of:
              0.14183156 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04050213 = queryNorm
              0.19345059 = fieldWeight in 1291, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1291)
      0.25 = coord(2/8)
    
    Abstract
    More and more users index everything on their own in the web 2.0. There are services for links, videos, pictures, books, encyclopaedic articles and scientific articles. All these services are library independent. But must that really be? Can't libraries help with their experience and tools to make user indexing better? On the experience of a project from German language Wikipedia together with the German person authority files (Personen Namen Datei - PND) located at German National Library (Deutsche Nationalbibliothek) I would like to show what is possible. How users can and will use the authority files, if we let them. We will take a look how the project worked and what we can learn for future projects. Conclusions - Authority files can have a role in the web 2.0 - there must be an open interface/ service for retrieval - everything that is indexed on the net with authority files can be easy integrated in a federated search - O'Reilly: You have to found ways that your data get more important that more it will be used
    Content
    Vortrag anlässlich des Workshops: "Extending the multilingual capacity of The European Library in the EDL project Stockholm, Swedish National Library, 22-23 November 2007".
    Object
    Web 2.0
  2. Buizza, P.: Bibliographic control and authority control from Paris principles to the present (2004) 0.05
    0.04980643 = product of:
      0.13281715 = sum of:
        0.03966674 = weight(_text_:world in 5667) [ClassicSimilarity], result of:
          0.03966674 = score(doc=5667,freq=2.0), product of:
            0.15567686 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.04050213 = queryNorm
            0.25480178 = fieldWeight in 5667, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.046875 = fieldNorm(doc=5667)
        0.05270967 = weight(_text_:wide in 5667) [ClassicSimilarity], result of:
          0.05270967 = score(doc=5667,freq=2.0), product of:
            0.17945516 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.04050213 = queryNorm
            0.29372054 = fieldWeight in 5667, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.046875 = fieldNorm(doc=5667)
        0.040440746 = weight(_text_:web in 5667) [ClassicSimilarity], result of:
          0.040440746 = score(doc=5667,freq=4.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.3059541 = fieldWeight in 5667, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=5667)
      0.375 = coord(3/8)
    
    Abstract
    Forty years ago the ICCP in Paris laid the foundations of international co-operation in descriptive cataloging without explicitly speaking of authority control. Some of the factors in the evolution of authority control are the development of catalogs (from card catalog to local automation, to today's OPAC on the Web) and services provided by libraries (from individual service to local users to system networks, to the World Wide Web), as well as international agreements on cataloging (from Paris Principles to the UBC programme, to the report on Mandatory data elements for internationally shared resource authority records). This evolution progressed from the principle of uniform heading to the definition of authority entries and records, and from the responsibility of national bibliographic agencies for the form of the names of their own authors to be shared internationally to the concept of authorized equivalent heading. Some issues of the present state are the persisting differences among national rules and the aim of respecting both local culture and language and international readability.
  3. Altenhöner, R; Hengel, C.; Jahns, Y.; Junger, U.; Mahnke, C.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 74. IFLA-Generalkonferenz in Quebec, Kanada : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICADS und UNIMARC sowie der Information Technology Section (2008) 0.03
    0.028954193 = product of:
      0.07721118 = sum of:
        0.04648101 = weight(_text_:recherche in 2317) [ClassicSimilarity], result of:
          0.04648101 = score(doc=2317,freq=4.0), product of:
            0.21953142 = queryWeight, product of:
              5.4202437 = idf(docFreq=531, maxDocs=44218)
              0.04050213 = queryNorm
            0.21172827 = fieldWeight in 2317, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.4202437 = idf(docFreq=531, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.011914969 = weight(_text_:web in 2317) [ClassicSimilarity], result of:
          0.011914969 = score(doc=2317,freq=2.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.09014259 = fieldWeight in 2317, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.018815203 = product of:
          0.037630405 = sum of:
            0.037630405 = weight(_text_:2.0 in 2317) [ClassicSimilarity], result of:
              0.037630405 = score(doc=2317,freq=2.0), product of:
                0.23490155 = queryWeight, product of:
                  5.799733 = idf(docFreq=363, maxDocs=44218)
                  0.04050213 = queryNorm
                0.1601965 = fieldWeight in 2317, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.799733 = idf(docFreq=363, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2317)
          0.5 = coord(1/2)
      0.375 = coord(3/8)
    
    Content
    Classification and Indexing Section (Sektion Klassifikation und Indexierung) Deutsches Mitglied im Ständigen Ausschuss der Sektion: Yvonne Jahns (2005-2009; Deutsche Nationalbibliothek) Die Sektion, die sich als Forum für den internationalen Austausch über Methoden der Inhaltserschließung und die Bedeutung des sachlichen Zugangs zu Dokumenten und Wissen versteht, wartete in Quebec mit einem interessanten Vortragprogramm auf. Drei Präsentationen näherten sich dem Thema "Classification and indexing without language borders" von unterschiedlichen Seiten. Anila Angjeli von der Bibliotheque nationale de France (BnF) präsentierte Arbeiten aus dem Projekt STITCH", das sich mit semantischen Suchen in unterschiedlich erschlossenen Beständen von Kulturerbeinstitutionen beschäftigt. Die verwendeten Thesauri und Klassifikationen wurden mittels SKOS in ein vergleichbares Format überführt und stehen so als Semantic-Web-Anwendung zur Recherche bereit. Die Funktionsweise erläuterte Anila Angjeli sehr bildreich durch Beispiel-suchen nach mittelalterlichen Handschriften der BnF und der Königlichen Bibliothek der Niederlande. Vivien Petras vom GESIS Informationszentrum Sozialwissenschaften, Bonn, sprach über die Vielzahl der intellektuell erstellten Crosskonkordanzen zwischen Thesauri in den Sozialwissenschaften. Sie stellte dabei die Evaluierung der KOMOHE-Projektergebnisse vor und konnte die Verbesserung der Suchergebnisse anschaulich machen, die man durch Hinzuziehen der Konkordanzen in der Recherche über heterogen erschlossene Bestände erreicht. Schließlich präsentierte Michael Kreyche von der Kent State University, Ohio/USA, seinen eindrucksvollen jahrelangen Einsatz für die Zugänglichkeit englisch-spanischer Schlagwörter. Im Projekt Icsh-es.org gelang es, viele Vorarbeiten von amerikanischen und spanischen Bibliotheken zusammenzutragen, um eine Datenbank spanischer Entsprechungen der Library of Congress Subject Headings aufzubauen. Diese soll Indexierern helfen und natürlich den vielen spanisch-sprachigen Bibliotheksbenutzern in den USA zugute kommen. Spanisch ist nicht nur eine der meistgesprochenen Sprachen der Welt, sondern aufgrund der zahlreichen Einwanderer in die USA für die Bibliotheksarbeit von großer Wichtigkeit.
    Am Rande des Weltkongresses fanden zum wiederholten Male DDC- und UDC-Anwendertreffen statt. Für alle an der DDC Interessierten ist das Programm im Dewey-Blog vom 19. August 2008 zu finden. Besonders interessant ist der neue OCLC-Service namens "Classify", der als Webservice aufgesetzt werden soll und dem Anwender aus WorldCat-Daten zuverlässige Notationen herausfiltert - eine gute Hilfe beim Klassifizieren (zur Fremddatenübernahme) und beim Orientieren in einer internationalen DDC-Umgebung. Hingewiesen sei noch auf die anlässlich des Kongresses frei geschaltete Suchoberfläche der ortsansässigen Bibliotheque de l'Universite Lava Ariane 2.0 ist eine intuitive und einfach zu bedienende Katalogsuchmaschine, die insbesondere die Schlagwörter des Repertoire de vedettes-matiere (RVM) zur Navigation benutzt. RVM ist die französischsprachige Schlagwortnormdatei Kanadas, in enger Anlehnung an die LCSH entstanden und heute in enger Kooperation zu den Rameau der BnF gepflegt und von Library and Archives Canada als der französische Indexierungsstandard Kanadas betrachtet. Für die Pflege ist die Laval-Universitätsbibliothek verantwortlich. Eben erschien der neue "Guide pratique du RVM" - ein schwergewichtiger Führer durch die Schlagwortwelt und ein kleines Indexierungsregelwerk.
  4. Ilik, V.: Cataloger makeover : creating non-MARC name authorities (2015) 0.03
    0.028156914 = product of:
      0.112627655 = sum of:
        0.06544679 = weight(_text_:world in 1884) [ClassicSimilarity], result of:
          0.06544679 = score(doc=1884,freq=4.0), product of:
            0.15567686 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.04050213 = queryNorm
            0.4204015 = fieldWeight in 1884, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1884)
        0.047180872 = weight(_text_:web in 1884) [ClassicSimilarity], result of:
          0.047180872 = score(doc=1884,freq=4.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.35694647 = fieldWeight in 1884, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1884)
      0.25 = coord(2/8)
    
    Abstract
    This article shares a vision of the enterprise of cataloging and the role of catalogers and metadata librarians in the twenty-first century. The revolutionary opportunities now presented by Semantic Web technologies liberate catalogers from their historically analog-based static world, re-conceptualize it, and transform it into a world of high dimensionality and fluidity. By presenting illustrative examples of innovative metadata creation and manipulation, such as non-MARC name authority records, we seek to contribute to the libraries' mission with innovative projects that enable discovery, development, communication, learning, and creativity, and hold promise to exceed users' expectations.
    Theme
    Semantic Web
  5. Russell, B.M.; Spillane, J.L.: Using the Web for name authority work (2001) 0.03
    0.025231462 = product of:
      0.10092585 = sum of:
        0.08171967 = weight(_text_:web in 167) [ClassicSimilarity], result of:
          0.08171967 = score(doc=167,freq=12.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.6182494 = fieldWeight in 167, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=167)
        0.01920618 = product of:
          0.03841236 = sum of:
            0.03841236 = weight(_text_:22 in 167) [ClassicSimilarity], result of:
              0.03841236 = score(doc=167,freq=2.0), product of:
                0.14183156 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04050213 = queryNorm
                0.2708308 = fieldWeight in 167, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=167)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    While many catalogers are using the Web to find the information they need to perform authority work quickly and accurately, the full potential of the Web to assist catalogers in name authority work has yet to be realized. The ever-growing nature of the Web means that available information for creating personal name, corporate name, and other types of headings will increase. In this article, we examine ways in which simple and effective Web searching can save catalogers time and money in the process of authority work. In addition, questions involving evaluating authority information found on the Web are explored.
    Date
    10. 9.2000 17:38:22
  6. Tillett, B.B.: Complementarity of perspectives for resource descriptions (2015) 0.02
    0.024632167 = product of:
      0.09852867 = sum of:
        0.05725401 = weight(_text_:world in 2288) [ClassicSimilarity], result of:
          0.05725401 = score(doc=2288,freq=6.0), product of:
            0.15567686 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.04050213 = queryNorm
            0.3677747 = fieldWeight in 2288, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2288)
        0.041274663 = weight(_text_:web in 2288) [ClassicSimilarity], result of:
          0.041274663 = score(doc=2288,freq=6.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.3122631 = fieldWeight in 2288, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2288)
      0.25 = coord(2/8)
    
    Abstract
    Bibliographic data is used to describe resources held in the collections of libraries, archives and museums. That data is mostly available on the Web today and mostly as linked data. Also on the Web are the controlled vocabulary systems of name authority files, like the Virtual International Authority File (VIAF), classification systems, and subject terms. These systems offer their own linked data to potentially help users find the information they want - whether at their local library or anywhere in the world that is willing to make their resources available. We have found it beneficial to merge authority data for names on a global level, as the entities are relatively clear. That is not true for subject concepts and terminology that have categorisation systems developed according to varying principles and schemes and are in multiple languages. Rather than requiring everyone in the world to use the same categorisation/classification system in the same language, we know that the Web offers us the opportunity to add descriptors assigned around the world using multiple systems from multiple perspectives to identify our resources. Those descriptors add value to refine searches, help users worldwide and share globally what each library does locally.
  7. Hubrich, J.: Input und Output der Schlagwortnormdatei (SWD) : Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2005) 0.02
    0.02383583 = product of:
      0.09534332 = sum of:
        0.078880884 = weight(_text_:recherche in 4183) [ClassicSimilarity], result of:
          0.078880884 = score(doc=4183,freq=2.0), product of:
            0.21953142 = queryWeight, product of:
              5.4202437 = idf(docFreq=531, maxDocs=44218)
              0.04050213 = queryNorm
            0.35931477 = fieldWeight in 4183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4202437 = idf(docFreq=531, maxDocs=44218)
              0.046875 = fieldNorm(doc=4183)
        0.016462438 = product of:
          0.032924876 = sum of:
            0.032924876 = weight(_text_:22 in 4183) [ClassicSimilarity], result of:
              0.032924876 = score(doc=4183,freq=2.0), product of:
                0.14183156 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04050213 = queryNorm
                0.23214069 = fieldWeight in 4183, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4183)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Die kooperative Führung der Schlagwortnormdatei und die Gewährleistung der Qualität der in ihr enthaltenen Daten sind mit einem enormen Aufwand verbunden, der durch den Einsatz der EDV und geeignete Organisationsstrukturen nur geringfügig reduziert werden kann. Die Erstellung der SWD-Normdatensätze bleibt aufgrund der Vielzahl der den Ansetzungsformen beizufügenden Zusatzinformationen wie Codes, Notationen und Relationen relativ zeitintensiv. Diese lassen jedoch auch die SWD besonders wertvoll für die Recherche werden, da sie die Wiederauffindbarkeit der Daten unterstützen. Während die Schlagwortsuche in deutschen OPACs weit verbreitet ist, haben Codes, Notationen und Relationen bisher nur geringfügig Eingang in den OPAC gefunden. Bei einer Untersuchung von 111 Online-Katalogen wurde festgestellt, dass kein einziger OPAC all die Möglichkeiten nutzt, die mit der SWD gegeben sind. Am meisten werden noch Synonyme und - in geringerem Maße - hierarchische und assoziative Relationen zur Verbesserung des Recalls und zur Benutzerführung eingesetzt. Codes und Notationen finden nur vereinzelt Anwendung.
    Date
    30. 1.2007 18:22:15
  8. Scheven, E.: Qualitätssicherung in der GND (2021) 0.02
    0.02383583 = product of:
      0.09534332 = sum of:
        0.078880884 = weight(_text_:recherche in 314) [ClassicSimilarity], result of:
          0.078880884 = score(doc=314,freq=2.0), product of:
            0.21953142 = queryWeight, product of:
              5.4202437 = idf(docFreq=531, maxDocs=44218)
              0.04050213 = queryNorm
            0.35931477 = fieldWeight in 314, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4202437 = idf(docFreq=531, maxDocs=44218)
              0.046875 = fieldNorm(doc=314)
        0.016462438 = product of:
          0.032924876 = sum of:
            0.032924876 = weight(_text_:22 in 314) [ClassicSimilarity], result of:
              0.032924876 = score(doc=314,freq=2.0), product of:
                0.14183156 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04050213 = queryNorm
                0.23214069 = fieldWeight in 314, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=314)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Was mag das Akronym GND bedeuten? Lassen wir der Fantasie freien Lauf, kommen wir auf Auflösungen wie Golfer nehmen Datteln, Gerne noch Details, Glück nach Dauerstress, Größter Nutzen Deutschlands und vieles mehr. Eine ernsthaftere Recherche führt zur Gesamtnutzungsdauer oder auf einen Sachverhalt der Elektrotechnik: Die von einer Stromquelle bereitgestellte Spannung bezieht sich stets auf ein Grundniveau. Dieses Grundniveau wird auf Deutsch als Masse, im Englischen aber als ground oder GND bezeichnet. Techniker kennen das Schaltzeichen dafür: Für den informationswissenschaftlichen Bereich steht dagegen GND für die Gemeinsame Normdatei. Auch sie hat (seit 2020) ein Zeichen. Da die Gemeinsame Normdatei (im weiteren Text nur noch GND) auch ein Instrument der Inhaltserschließung ist, beeinflussen ihre Stärken und Schwächen die Qualität der Inhaltserschließung. Deshalb widmet sich dieser Artikel der Qualitätssicherung in der GND.
    Date
    23. 9.2021 19:12:22
  9. Kaiser, M.; Lieder, H.J.; Majcen, K.; Vallant, H.: New ways of sharing and using authority information : the LEAF project (2003) 0.02
    0.023370039 = product of:
      0.062320106 = sum of:
        0.01652781 = weight(_text_:world in 1166) [ClassicSimilarity], result of:
          0.01652781 = score(doc=1166,freq=2.0), product of:
            0.15567686 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.04050213 = queryNorm
            0.10616741 = fieldWeight in 1166, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1166)
        0.021962361 = weight(_text_:wide in 1166) [ClassicSimilarity], result of:
          0.021962361 = score(doc=1166,freq=2.0), product of:
            0.17945516 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.04050213 = queryNorm
            0.122383565 = fieldWeight in 1166, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1166)
        0.023829939 = weight(_text_:web in 1166) [ClassicSimilarity], result of:
          0.023829939 = score(doc=1166,freq=8.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.18028519 = fieldWeight in 1166, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1166)
      0.375 = coord(3/8)
    
    Abstract
    This article presents an overview of the LEAF project (Linking and Exploring Authority Files)1, which has set out to provide a framework for international, collaborative work in the sector of authority data with respect to authority control. Elaborating the virtues of authority control in today's Web environment is an almost futile exercise, since so much has been said and written about it in the last few years.2 The World Wide Web is generally understood to be poorly structured-both with regard to content and to locating required information. Highly structured databases might be viewed as small islands of precision within this chaotic environment. Though the Web in general or any particular structured database would greatly benefit from increased authority control, it should be noted that our following considerations only refer to authority control with regard to databases of "memory institutions" (i.e., libraries, archives, and museums). Moreover, when talking about authority records, we exclusively refer to personal name authority records that describe a specific person. Although different types of authority records could indeed be used in similar ways to the ones presented in this article, discussing those different types is outside the scope of both the LEAF project and this article. Personal name authority records-as are all other "authorities"-are maintained as separate records and linked to various kinds of descriptive records. Name authority records are usually either kept in independent databases or in separate tables in the database containing the descriptive records. This practice points at a crucial benefit: by linking any number of descriptive records to an authorized name record, the records related to this entity are collocated in the database. Variant forms of the authorized name are referenced in the authority records and thus ensure the consistency of the database while enabling search and retrieval operations that produce accurate results. On one hand, authority control may be viewed as a positive prerequisite of a consistent catalogue; on the other, the creation of new authority records is a very time consuming and expensive undertaking. As a consequence, various models of providing access to existing authority records have emerged: the Library of Congress and the French National Library (Bibliothèque nationale de France), for example, make their authority records available to all via a web-based search service.3 In Germany, the Personal Name Authority File (PND, Personennamendatei4) maintained by the German National Library (Die Deutsche Bibliothek, Frankfurt/Main) offers a different approach to shared access: within a closed network, participating institutions have online access to their pooled data. The number of recent projects and initiatives that have addressed the issue of authority control in one way or another is considerable.5 Two important current initiatives should be mentioned here: The Name Authority Cooperative (NACO) and Virtual International Authority File (VIAF).
  10. Virtual International Authority File wächst : VIAF-Projekt um französische Normdaten erweitert (2007) 0.02
    0.022391 = product of:
      0.089564 = sum of:
        0.065734066 = weight(_text_:recherche in 764) [ClassicSimilarity], result of:
          0.065734066 = score(doc=764,freq=2.0), product of:
            0.21953142 = queryWeight, product of:
              5.4202437 = idf(docFreq=531, maxDocs=44218)
              0.04050213 = queryNorm
            0.29942897 = fieldWeight in 764, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4202437 = idf(docFreq=531, maxDocs=44218)
              0.0390625 = fieldNorm(doc=764)
        0.023829939 = weight(_text_:web in 764) [ClassicSimilarity], result of:
          0.023829939 = score(doc=764,freq=2.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.18028519 = fieldWeight in 764, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=764)
      0.25 = coord(2/8)
    
    Content
    "Die Deutsche Nationalbibliothek, die Bibliotheque nationale de France, die Library of Congress und das Online Computer Library Center (OCLC) sind übereingekommen, gemeinsam das "Virtual International Authority File (VIAF)", eine Virtuelle Internationale Normdatei, aufzubauen und fortzuentwickeln. Die einzelnen Normdateien sollen im VIAF virtuell zu einem gemeinsamen Normdaten-Service integriert werden, der den Zugang zu den Namen aller einbezogenen Normdateien bietet. Die Vereinbarung baut auf einem vorausgegangenen Forschungsprojekt auf, in dem die Deutsche Nationalbibliothek gemeinsam mit der Library of Congress und OCLC durch die Zusammenführung ihrer Personennamendateien nachgewiesen haben, dass der Aufbau eines Virtual International Authority File auch unter den Bedingungen großer Datenbestände machbar ist. Mit der neuen Kooperationsvereinbarung stößt die Bibliotheque nationale de France hinzu, und der VIAF wird um die französischen Normdaten erweitert. Die Matching-Routinen werden weiterhin von OCLC entwickelt. Langfristig zielt das VIAF-Projekt darauf ab, die Normdateien möglichst vieler Bibliotheken zu einem globalen VIAF-Service zu integrieren, der für die Nutzer im Web weltweit frei zugänglich ist. Die Erweiterung um die französischen Normdaten stellt einen Meilenstein auf dem Weg in diese Zukunft dar. Die Vereinbarung bietet zudem den organisatorischen Rahmen, weitere Normdateien einbeziehen zu können. Der VIAF stellt einen wichtigen Baustein zur Interoperabilität zwischen den bibliothekarischen Nachweissystemen dar. Durch die Verlinkung der unterschiedlichen Namensformen für identische Personen bzw. Organisationen wird der VIAF schon in der nahen Zukunft die Recherche- und Nachnutzungsmöglichkeiten für Titeldaten aus dem englisch-, französisch- und deutschsprachigen Raum entscheidend verbessern, und es steht zu erwarten, dass er in den kommenden Jahren für eine sogar noch größere Zahl von Sprachgemeinschaften dieselben Vorteile bringen wird."
  11. Rotenberg, E.; Kushmerick, A.: ¬The author challenge : identification of self in the scholarly literature (2011) 0.02
    0.020326398 = product of:
      0.08130559 = sum of:
        0.05270967 = weight(_text_:wide in 1332) [ClassicSimilarity], result of:
          0.05270967 = score(doc=1332,freq=2.0), product of:
            0.17945516 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.04050213 = queryNorm
            0.29372054 = fieldWeight in 1332, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.046875 = fieldNorm(doc=1332)
        0.028595924 = weight(_text_:web in 1332) [ClassicSimilarity], result of:
          0.028595924 = score(doc=1332,freq=2.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.21634221 = fieldWeight in 1332, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=1332)
      0.25 = coord(2/8)
    
    Abstract
    Considering the expansion of research output across the globe, along with the growing demand for quantitative tracking of research outcomes by government authorities and research institutions, the challenges of author identity are increasing. In recent years, a number of initiatives to help solve the author "name game" have been launched from all areas of the scholarly information market space. This article introduces the various author identification tools and services Thomson Reuters provides, including Distinct Author Sets and ResearcherID-which reflect a combination of automated clustering and author participation-as well as the use of other data types, such as grants and patents, to expand the universe of author identification. Industry-wide initiatives such as the Open Researcher and Contributor ID (ORCID) are also described. Future author-related developments in ResearcherID and Thomson Reuters Web of Knowledge are also included.
  12. Zhu, L.; Xu, A.; Deng, S.; Heng, G.; Li, X.: Entity management using Wikidata for cultural heritage information (2024) 0.02
    0.019909944 = product of:
      0.07963978 = sum of:
        0.046277866 = weight(_text_:world in 975) [ClassicSimilarity], result of:
          0.046277866 = score(doc=975,freq=2.0), product of:
            0.15567686 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.04050213 = queryNorm
            0.29726875 = fieldWeight in 975, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.0546875 = fieldNorm(doc=975)
        0.033361915 = weight(_text_:web in 975) [ClassicSimilarity], result of:
          0.033361915 = score(doc=975,freq=2.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.25239927 = fieldWeight in 975, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=975)
      0.25 = coord(2/8)
    
    Abstract
    Entity management in a Linked Open Data (LOD) environment is a process of associating a unique, persistent, and dereferenceable Uniform Resource Identifier (URI) with a single entity. It allows data from various sources to be reused and connected to the Web. It can help improve data quality and enable more efficient workflows. This article describes a semi-automated entity management project conducted by the "Wikidata: WikiProject Chinese Culture and Heritage Group," explores the challenges and opportunities in describing Chinese women poets and historical places in Wikidata, the largest crowdsourcing LOD platform in the world, and discusses lessons learned and future opportunities.
  13. Haffner, A.: Internationalisierung der GND durch das Semantic Web (2012) 0.02
    0.018972188 = product of:
      0.07588875 = sum of:
        0.023138933 = weight(_text_:world in 318) [ClassicSimilarity], result of:
          0.023138933 = score(doc=318,freq=2.0), product of:
            0.15567686 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.04050213 = queryNorm
            0.14863437 = fieldWeight in 318, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.05274982 = weight(_text_:web in 318) [ClassicSimilarity], result of:
          0.05274982 = score(doc=318,freq=20.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.39907828 = fieldWeight in 318, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
      0.25 = coord(2/8)
    
    Abstract
    Seit Bestehen der Menschheit sammelt der Mensch Informationen, seit Bestehen des Internets stellt der Mensch Informationen ins Web, seit Bestehen des Semantic Webs sollen auch Maschinen in die Lage versetzt werden mit diesen Informationen umzugehen. Das Bibliothekswesen ist einer der Sammler. Seit Jahrhunderten werden Kataloge und Bibliografien sowie Inventarnachweise geführt. Mit der Aufgabe des Zettelkatalogs hin zum Onlinekatalog wurde es Benutzern plötzlich möglich in Beständen komfortabel zu suchen. Durch die Bereitstellung von Daten aus dem Bibliothekswesen im Semantic Web sollen nicht nur die eigenen Katalogsysteme Zugriff auf diese Informationen erhalten, sondern jede beliebige Anwendung, die auf das Web zugreifen kann. Darüber hinaus ist die Vorstellung, dass sich die im Web befindenden Daten - in sofern möglich - miteinander verlinken und zu einem gigantischen semantischen Netz werden, das als ein großer Datenpool verwendet werden kann. Die Voraussetzung hierfür ist wie beim Übergang zum Onlinekatalog die Aufbereitung der Daten in einem passenden Format. Normdaten dienen im Bibliothekswesen bereits dazu eine Vernetzung der unterschiedlichen Bestände zu erlauben. Bei der Erschließung eines Buches wird nicht bloß gesagt, dass jemand, der Thomas Mann heißt, der Autor ist - es wird eine Verknüpfung vom Katalogisat zu dem Thomas Mann erzeugt, der am 6. Juni 1875 in Lübeck geboren und am 12. August 1955 in Zürich verstorben ist. Der Vorteil von Normdateneintragungen ist, dass sie zum eindeutigen Nachweis der Verfasserschaft oder Mitwirkung an einem Werk beitragen. Auch stehen Normdateneintragungen bereits allen Bibliotheken für die Nachnutzung bereit - der Schritt ins Semantic Web wäre somit die Öffnung der Normdaten für alle denkbaren Nutzergruppen.
    Die Gemeinsame Normdatei (GND) ist seit April 2012 die Datei, die die im deutschsprachigen Bibliothekswesen verwendeten Normdaten enthält. Folglich muss auf Basis dieser Daten eine Repräsentation für die Darstellung als Linked Data im Semantic Web etabliert werden. Neben der eigentlichen Bereitstellung von GND-Daten im Semantic Web sollen die Daten mit bereits als Linked Data vorhandenen Datenbeständen (DBpedia, VIAF etc.) verknüpft und nach Möglichkeit kompatibel sein, wodurch die GND einem internationalen und spartenübergreifenden Publikum zugänglich gemacht wird. Dieses Dokument dient vor allem zur Beschreibung, wie die GND-Linked-Data-Repräsentation entstand und dem Weg zur Spezifikation einer eignen Ontologie. Hierfür werden nach einer kurzen Einführung in die GND die Grundprinzipien und wichtigsten Standards für die Veröffentlichung von Linked Data im Semantic Web vorgestellt, um darauf aufbauend existierende Vokabulare und Ontologien des Bibliothekswesens betrachten zu können. Anschließend folgt ein Exkurs in das generelle Vorgehen für die Bereitstellung von Linked Data, wobei die so oft zitierte Open World Assumption kritisch hinterfragt und damit verbundene Probleme insbesondere in Hinsicht Interoperabilität und Nachnutzbarkeit aufgedeckt werden. Um Probleme der Interoperabilität zu vermeiden, wird den Empfehlungen der Library Linked Data Incubator Group [LLD11] gefolgt.
    Im Kapitel Anwendungsprofile als Basis für die Ontologieentwicklung wird die Spezifikation von Dublin Core Anwendungsprofilen kritisch betrachtet, um auszumachen wann und in welcher Form sich ihre Verwendung bei dem Vorhaben Bereitstellung von Linked Data anbietet. In den nachfolgenden Abschnitten wird die GND-Ontologie, welche als Standard für die Serialisierung von GND-Daten im Semantic Web dient, samt Modellierungsentscheidungen näher vorgestellt. Dabei wird insbesondere der Technik des Vocabulary Alignment eine prominente Position eingeräumt, da darin ein entscheidender Mechanismus zur Steigerung der Interoperabilität und Nachnutzbarkeit gesehen wird. Auch wird sich mit der Verlinkung zu externen Datensets intensiv beschäftigt. Hierfür wurden ausgewählte Datenbestände hinsichtlich ihrer Qualität und Aktualität untersucht und Empfehlungen für die Implementierung innerhalb des GND-Datenbestandes gegeben. Abschließend werden eine Zusammenfassung und ein Ausblick auf weitere Schritte gegeben.
  14. Wolverton, R.E.: Becoming an authority on authority control : an annotated bibliography of resources (2006) 0.02
    0.016596762 = product of:
      0.06638705 = sum of:
        0.047180872 = weight(_text_:web in 120) [ClassicSimilarity], result of:
          0.047180872 = score(doc=120,freq=4.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.35694647 = fieldWeight in 120, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=120)
        0.01920618 = product of:
          0.03841236 = sum of:
            0.03841236 = weight(_text_:22 in 120) [ClassicSimilarity], result of:
              0.03841236 = score(doc=120,freq=2.0), product of:
                0.14183156 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04050213 = queryNorm
                0.2708308 = fieldWeight in 120, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=120)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Authority control has long been an important part of the cataloging process. However, few studies have been conducted examining how librarians learn about it. Research conducted to date suggests that many librarians learn about authority control on the job rather than in formal classes. To offer an introduction to authority control information for librarians, an annotated bibliography is provided. It includes monographs, articles and papers, electronic discussion groups, Web sites related to professional conferences, additional Web sites related to authority control, and training offered through the Name Authority Cooperative Program and the Subject Authority Cooperative Program. A summary of possible future trends in authority control is also provided.
    Date
    10. 9.2000 17:38:22
  15. Byrum, J.D.: ¬The emerging global bibliographical network : the era of international standardization in the development of cataloging policy (2000) 0.02
    0.015116599 = product of:
      0.060466398 = sum of:
        0.0467477 = weight(_text_:world in 190) [ClassicSimilarity], result of:
          0.0467477 = score(doc=190,freq=4.0), product of:
            0.15567686 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.04050213 = queryNorm
            0.30028677 = fieldWeight in 190, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.013718699 = product of:
          0.027437398 = sum of:
            0.027437398 = weight(_text_:22 in 190) [ClassicSimilarity], result of:
              0.027437398 = score(doc=190,freq=2.0), product of:
                0.14183156 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04050213 = queryNorm
                0.19345059 = fieldWeight in 190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=190)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Date
    10. 9.2000 17:38:22
    Footnote
    Beitrag in einem Themenheft "What in the World...Cataloging on an International Scale": papers from the ALCTS preconference, June 26, 1998 "What in the World...Cataloging on an International Scale". ALCTS Preconference, Washington, D.C.
  16. Tillett, B.B.: Authority control at the international level (2000) 0.02
    0.015116599 = product of:
      0.060466398 = sum of:
        0.0467477 = weight(_text_:world in 191) [ClassicSimilarity], result of:
          0.0467477 = score(doc=191,freq=4.0), product of:
            0.15567686 = queryWeight, product of:
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.04050213 = queryNorm
            0.30028677 = fieldWeight in 191, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.8436708 = idf(docFreq=2573, maxDocs=44218)
              0.0390625 = fieldNorm(doc=191)
        0.013718699 = product of:
          0.027437398 = sum of:
            0.027437398 = weight(_text_:22 in 191) [ClassicSimilarity], result of:
              0.027437398 = score(doc=191,freq=2.0), product of:
                0.14183156 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04050213 = queryNorm
                0.19345059 = fieldWeight in 191, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=191)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Date
    10. 9.2000 17:38:22
    Footnote
    Beitrag in einem Themenheft "What in the World...Cataloging on an International Scale": papers from the ALCTS preconference, June 26, 1998 "What in the World...Cataloging on an International Scale". ALCTS Preconference, Washington, D.C.
  17. Hickey, T.B.; Toves, J.; O'Neill, E.T.: NACO normalization : a detailed examination of the authority file comparison rules (2006) 0.01
    0.013142023 = product of:
      0.052568093 = sum of:
        0.033361915 = weight(_text_:web in 5760) [ClassicSimilarity], result of:
          0.033361915 = score(doc=5760,freq=2.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.25239927 = fieldWeight in 5760, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5760)
        0.01920618 = product of:
          0.03841236 = sum of:
            0.03841236 = weight(_text_:22 in 5760) [ClassicSimilarity], result of:
              0.03841236 = score(doc=5760,freq=2.0), product of:
                0.14183156 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04050213 = queryNorm
                0.2708308 = fieldWeight in 5760, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5760)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Normalization rules are essential for interoperability between bibliographic systems. In the process of working with Name Authority Cooperative Program (NACO) authority files to match records with Functional Requirements for Bibliographic Records (FRBR) and developing the Faceted Application of Subject Terminology (FAST) subject heading schema, the authors found inconsistencies in independently created NACO normalization implementations. Investigating these, the authors found ambiguities in the NACO standard that need resolution, and came to conclusions on how the procedure could be simplified with little impact on matching headings. To encourage others to test their software for compliance with the current rules, the authors have established a Web site that has test files and interactive services showing their current implementation.
    Date
    10. 9.2000 17:38:22
  18. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.01
    0.010641905 = product of:
      0.04256762 = sum of:
        0.032867033 = weight(_text_:recherche in 632) [ClassicSimilarity], result of:
          0.032867033 = score(doc=632,freq=2.0), product of:
            0.21953142 = queryWeight, product of:
              5.4202437 = idf(docFreq=531, maxDocs=44218)
              0.04050213 = queryNorm
            0.14971448 = fieldWeight in 632, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4202437 = idf(docFreq=531, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.009700585 = product of:
          0.01940117 = sum of:
            0.01940117 = weight(_text_:22 in 632) [ClassicSimilarity], result of:
              0.01940117 = score(doc=632,freq=4.0), product of:
                0.14183156 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04050213 = queryNorm
                0.13679022 = fieldWeight in 632, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=632)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Content
    "Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung Matchkey Bei der Verwendung von Meta-Suchmaschinen zur parallelen Recherche in bibliografischen Datenbanken kommt es häufig vor, dass derselbe Titel mehrmals in der Trefferliste auftaucht. In dieser Situation könnte ein so genannter Matchkey Abhilfe schaffen, der jeden Datensatz aus den vorhandenen bibliografischen Daten heraus eindeutig identifiziert. Ein solcher Algorithmus geht von einem bibliografischen Datensatz aus und generiert einen Schlüssel (Matchkey), der wiederum in den Datensatz integriert werden kann. Der Schlüssel muss sortierfähig sein, so dass die Trefferliste nach dem Grad der Ähnlichkeit sortiert werden kann. Eine wichtige Voraussetzung für die erfolgreiche Anwendung des Matchkey ist die Beseitigung der Hausregeln in den Verbünden und Bibliotheken. Bisher hat Die Deutsche Bibliothek das Thema analysiert und strebt nun die Formulierung und Bereitstellung eines ersten Algorithmus an, um eine Implementierung zu Testzwecken voraussichtlich im März/April 2006 zu ermöglichen. Ein klares Ergebnis soll bis Ende 2006 vorliegen.
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."
  19. Niesner, S.: ¬Die Nutzung bibliothekarischer Normdaten im Web am Beispiel von VIAF und Wikipedia (2015) 0.01
    0.010110186 = product of:
      0.08088149 = sum of:
        0.08088149 = weight(_text_:web in 1763) [ClassicSimilarity], result of:
          0.08088149 = score(doc=1763,freq=4.0), product of:
            0.13217913 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.04050213 = queryNorm
            0.6119082 = fieldWeight in 1763, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.09375 = fieldNorm(doc=1763)
      0.125 = coord(1/8)
    
    Abstract
    Bibliothekarische Normdaten für Personen lassen sich im Web sinnvoll einsetzen.
  20. Hubrich, J.: Input und Output der Schlagwortnormdatei (SWD) : Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2007) 0.01
    0.0098601105 = product of:
      0.078880884 = sum of:
        0.078880884 = weight(_text_:recherche in 1841) [ClassicSimilarity], result of:
          0.078880884 = score(doc=1841,freq=2.0), product of:
            0.21953142 = queryWeight, product of:
              5.4202437 = idf(docFreq=531, maxDocs=44218)
              0.04050213 = queryNorm
            0.35931477 = fieldWeight in 1841, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4202437 = idf(docFreq=531, maxDocs=44218)
              0.046875 = fieldNorm(doc=1841)
      0.125 = coord(1/8)
    
    Abstract
    Die kooperative Führung der Schlagwortnormdatei und die Gewährleistung der Qualität der in ihr enthaltenen Daten sind mit einem enormen Aufwand verbunden, der durch den Einsatz der EDV und geeignete Organisationsstrukturen nur geringfügig reduziert werden kann. Die Erstellung der SWD-Normdatensätze bleibt aufgrund der Vielzahl der den Ansetzungsformen beizufügenden Zusatzinformationen wie Codes, Notationen und Relationen relativ zeitintensiv. Diese lassen jedoch auch die SWD besonders wertvoll für die Recherche werden, da sie die Wiederauffindbarkeit der Daten unterstützen. Während die Schlagwortsuche in deutschen OPACs weit verbreitet ist, haben Codes, Notationen und Relationen bisher nur geringfügig Eingang in den OPAC gefunden. Bei einer Untersuchung von 111 Online-Katalogen wurde festgestellt, dass kein einziger OPAC all die Möglichkeiten nutzt, die mit der SWD gegeben sind. Am meisten werden noch Synonyme und - in geringerem Maße - hierarchische und assoziative Relationen zur Verbesserung des Recalls und zur Benutzerführung eingesetzt. Codes und Notationen finden nur vereinzelt Anwendung.

Years

Languages

  • e 40
  • d 23
  • a 1
  • f 1
  • More… Less…

Types

  • a 55
  • el 11
  • m 3
  • b 2
  • r 1
  • s 1
  • x 1
  • More… Less…