Search (97 results, page 1 of 5)

  • × theme_ss:"Normdateien"
  1. Syren, A.P.: Cartographie des hommes illustres : vers une liste d'autorité des personalia (2000) 0.03
    0.030257775 = product of:
      0.09077332 = sum of:
        0.060993005 = weight(_text_:des in 3864) [ClassicSimilarity], result of:
          0.060993005 = score(doc=3864,freq=8.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.73432356 = fieldWeight in 3864, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=3864)
        0.029780319 = product of:
          0.089340955 = sum of:
            0.089340955 = weight(_text_:f in 3864) [ClassicSimilarity], result of:
              0.089340955 = score(doc=3864,freq=4.0), product of:
                0.119546086 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.029993102 = queryNorm
                0.74733484 = fieldWeight in 3864, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3864)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Footnote
    Übers. des Titels: A cartographyy of illustrious men: towards an authority list of personalia
    Language
    f
    Location
    F
    Source
    Bulletin des bibliothèques de France. 45(2000) no.2, S.87-91
  2. Bourdon, F.: Modeliser les données d'autorité (2001) 0.03
    0.028353458 = product of:
      0.08506037 = sum of:
        0.05031666 = weight(_text_:des in 3937) [ClassicSimilarity], result of:
          0.05031666 = score(doc=3937,freq=4.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.605786 = fieldWeight in 3937, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.109375 = fieldNorm(doc=3937)
        0.034743708 = product of:
          0.10423112 = sum of:
            0.10423112 = weight(_text_:f in 3937) [ClassicSimilarity], result of:
              0.10423112 = score(doc=3937,freq=4.0), product of:
                0.119546086 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.029993102 = queryNorm
                0.87189066 = fieldWeight in 3937, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3937)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Footnote
    Übers. des Titels: Modelling authority files
    Language
    f
    Source
    Bulletin des bibliothèques de France. 46(2001) no.5, S.117-119
  3. Rinn, R.: Beziehungen der SWD zu anderen Normdateien bzw. Normdaten (1990) 0.02
    0.022776175 = product of:
      0.13665704 = sum of:
        0.13665704 = weight(_text_:dbi in 2064) [ClassicSimilarity], result of:
          0.13665704 = score(doc=2064,freq=4.0), product of:
            0.1810805 = queryWeight, product of:
              6.037405 = idf(docFreq=286, maxDocs=44218)
              0.029993102 = queryNorm
            0.7546756 = fieldWeight in 2064, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.037405 = idf(docFreq=286, maxDocs=44218)
              0.0625 = fieldNorm(doc=2064)
      0.16666667 = coord(1/6)
    
    Imprint
    Berlin : Dbi
    Series
    dbi-Materialien; Bd.90
  4. Wessel, H.-P.: RSWK und RAK - die Geschichte einer unendlichen Annäherung? (2005) 0.02
    0.019493688 = product of:
      0.058481064 = sum of:
        0.0101655 = weight(_text_:des in 3666) [ClassicSimilarity], result of:
          0.0101655 = score(doc=3666,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.12238726 = fieldWeight in 3666, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=3666)
        0.048315562 = weight(_text_:dbi in 3666) [ClassicSimilarity], result of:
          0.048315562 = score(doc=3666,freq=2.0), product of:
            0.1810805 = queryWeight, product of:
              6.037405 = idf(docFreq=286, maxDocs=44218)
              0.029993102 = queryNorm
            0.26681814 = fieldWeight in 3666, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.037405 = idf(docFreq=286, maxDocs=44218)
              0.03125 = fieldNorm(doc=3666)
      0.33333334 = coord(2/6)
    
    Abstract
    "Für die Schlagwortkatalogisierungsregeln ist im Bereich der Ansetzung von Personennamen, Körperschaftsnamen und Titeln, in denen sie sich mit den Formalkatalogisierungsregeln überlappen, eine Konformität mit diesen aus verschiedenen Gründen sehr wünschenswert, wenn nicht geboten."' Diese These von Peter Baader, seinerzeit Leiter der Abteilung Alphabetische Katalogisierung der Deutschen Bibliothek, stammt aus der Zeit vor dem Erscheinen der ersten Auflage (1986) der RSWK und ist heute immer noch genauso aktuell wie im Jahre 1983. Baader warnte vor einer "Zersplitterung" der jeweiligen Regelungen, konnte diese jedoch nicht verhindern, da die RSWK sich letztlich auf etablierte deutsche Schlagwortregelwerke und die Ergebnisse von Abstimmungen durch deutsche Bibliotheksverbünde und Einzelbibliotheken beriefen. Dies geschah nicht zuletzt, um die Akzeptanz der RSWK als neues Einheitsregelwerk zu erhöhen. Zwanzig Jahre später diskutiert die deutschsprachige bibliothekarische Fachwelt endlich ergebnisorientiert über die Angleichung von RAK und RSWK, jetzt allerdings unter Anpassung der RAK an Struktur und Inhalte der Anglo-American Cataloguing Rules (AACR) bzw. ihres Nachfolgers. Die folgende Darstellung unternimmt den Versuch, auf der Grundlage dieser Prämisse das Modell eines für die Formal- und Inhaltserschließung gemeinsamen deutschen Regelwerks zu skizzieren und die noch bestehenden Unterschiede zu dokumentieren. Zum besseren Verständnis des doch so langwierigen Annäherungsprozesses soll zunächst die bisherige Entwicklung betrachtet werden. Eckpunkte der Vorgeschichte - Die DBI-Kommission für Erschließung und Katalogmanagement (KEK) beschließt 1991 in ihrem Arbeitsprogramm den Abgleich beider Regelwerke und erklärt 1992 ihre Absicht, die Ansetzungen der Personennamen in RAK und RSWK zu harmonisieren. - Die Expertengruppe Online-Kataloge empfiehlt 1994 einheitliche Ansetzungsformen in RAK und RSWK für Personen- bzw. Körperschaftsnamen sowie eine umfassende Bestimmung von Einheitssachtiteln. - Die Expertengruppen RAK und RSWK beschließen 1996, dass bei der Ansetzung von Personen- und Körperschaftsnamen substanzielle Abweichungen zwischen den beiden Regelwerken vorläufig erhalten bleiben und stattdessen unterschiedliche Ansetzungsformen miteinander verknüpft werden sollen. Kurz nach dem Beginn der Diskussion über einen möglichen Umstieg auf internationale Formate und Regelwerke (MARC 21, AACR2) fasst der Standardisierungsausschuss im Juni 2002 den Beschluss zur Angleichung von RAK und RSWK. Ausgangspunkt sollen die Ansetzungsformen von Personen und Körperschaften sein. Im Dezember 2002 wird von einem RAK-RSWK-Expertentreffen vorgeschlagen, bei Regeländerungen die AACR2 zu berücksichtigen, ein gemeinsames Datenformat für PND, GKD und SWD zu entwickeln, den Änderungsaufwand in den Normdateien abzuschätzen und einen Zeitplan für ein gestuftes Vorgehen bei den Regeländerungen zu entwickeln. Im Mai 2004 beschließen die Expertengruppen Formalerschließung, PND und RSWK/SWD bei getrennten und überwiegend unterschiedlichen Regelwerkstexten einheitliche Ansetzungsformen in RAK und RSWK für Personennamen. Der Standardisierungsausschuss erklärt seine Absicht, einen für Formal- und Inhaltserschließung gemeinsamen Regelwerkstext zu veröffentlichen. Im Januar 2005 wird von Vertretern der Expertengruppen ein von der Arbeitsstelle für Standardisierung vorgelegtes Arbeitspaket "Gemeinsame Ansetzungsregeln für Körperschaften" (GKR) beschlossen. Im März 2005 legt die Arbeitsstelle für Standardisierung ein Konzept zur Entwicklung eines gemeinsamen Normdatenformats vor.
  5. Leth, P.: Subject access - the Swedish approach (2007) 0.02
    0.015583701 = product of:
      0.046751104 = sum of:
        0.030496502 = weight(_text_:des in 131) [ClassicSimilarity], result of:
          0.030496502 = score(doc=131,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.36716178 = fieldWeight in 131, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=131)
        0.016254604 = product of:
          0.04876381 = sum of:
            0.04876381 = weight(_text_:22 in 131) [ClassicSimilarity], result of:
              0.04876381 = score(doc=131,freq=2.0), product of:
                0.10503073 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029993102 = queryNorm
                0.46428138 = fieldWeight in 131, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=131)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    Vortrag anlässlich des Workshops: "Extending the multilingual capacity of The European Library in the EDL project Stockholm, Swedish National Library, 22-23 November 2007".
  6. Hengel, C.: Mapping name authorities : the Virtual International Authority File (VIAF) (2007) 0.02
    0.015583701 = product of:
      0.046751104 = sum of:
        0.030496502 = weight(_text_:des in 1266) [ClassicSimilarity], result of:
          0.030496502 = score(doc=1266,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.36716178 = fieldWeight in 1266, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=1266)
        0.016254604 = product of:
          0.04876381 = sum of:
            0.04876381 = weight(_text_:22 in 1266) [ClassicSimilarity], result of:
              0.04876381 = score(doc=1266,freq=2.0), product of:
                0.10503073 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029993102 = queryNorm
                0.46428138 = fieldWeight in 1266, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1266)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    Vortrag anlässlich des Workshops: "Extending the multilingual capacity of The European Library in the EDL project Stockholm, Swedish National Library, 22-23 November 2007".
  7. Goossens, P.: Authority control : trends and challenges (2007) 0.02
    0.015583701 = product of:
      0.046751104 = sum of:
        0.030496502 = weight(_text_:des in 1290) [ClassicSimilarity], result of:
          0.030496502 = score(doc=1290,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.36716178 = fieldWeight in 1290, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=1290)
        0.016254604 = product of:
          0.04876381 = sum of:
            0.04876381 = weight(_text_:22 in 1290) [ClassicSimilarity], result of:
              0.04876381 = score(doc=1290,freq=2.0), product of:
                0.10503073 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029993102 = queryNorm
                0.46428138 = fieldWeight in 1290, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1290)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    Vortrag anlässlich des Workshops: "Extending the multilingual capacity of The European Library in the EDL project Stockholm, Swedish National Library, 22-23 November 2007".
  8. Förster, F.: Zuweisung von Katalogdatensätzen an Personennormdatensätze mittels Wahrscheinlichkeiten (2020) 0.01
    0.014365433 = product of:
      0.043096296 = sum of:
        0.03081254 = weight(_text_:des in 42) [ClassicSimilarity], result of:
          0.03081254 = score(doc=42,freq=6.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.3709667 = fieldWeight in 42, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=42)
        0.0122837555 = product of:
          0.036851265 = sum of:
            0.036851265 = weight(_text_:f in 42) [ClassicSimilarity], result of:
              0.036851265 = score(doc=42,freq=2.0), product of:
                0.119546086 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.029993102 = queryNorm
                0.3082599 = fieldWeight in 42, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=42)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Im Juni 2020 werden die Tn-Sätze in der Gemeinsamen Normdatei (GND) gelöscht. Die Tp-Sätze für eindeutig identifizierbare Personen bleiben im Bereich des Personenbestandes übrig. Dieser Beitrag soll eine Anreicherung und Bereinigung der Personennamensdatensätze mittels Wahrscheinlichkeiten auf der Datenbasis von GND und k10plus anregen. Zu jedem Tp-Satz kann ein Profil aus verknüpften Informationen erstellt werden: z. B. über Stichwörter, fachliche Schwerpunkte, Ko-Autoren, Zeiten und Orte usw. Im gleichen Maß können abgrenzbare Profile für Tn-Sätze per Algorithmus erkannt werden. Zusätzlich könnten bestehende Verknüpfungen von Personen- in Titeldatensätzen Fehlzuweisungen aufspüren. Die Folgen eines solchen Verfahrens wären eine retrospektive Anreichung des Altbestandes und eine präzisere Ausgestaltung des Katalogs.
  9. Hubrich, J.: Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2005) 0.01
    0.013460155 = product of:
      0.040380463 = sum of:
        0.03081254 = weight(_text_:des in 3690) [ClassicSimilarity], result of:
          0.03081254 = score(doc=3690,freq=6.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.3709667 = fieldWeight in 3690, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3690)
        0.009567922 = product of:
          0.028703766 = sum of:
            0.028703766 = weight(_text_:29 in 3690) [ClassicSimilarity], result of:
              0.028703766 = score(doc=3690,freq=2.0), product of:
                0.10550635 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.029993102 = queryNorm
                0.27205724 = fieldWeight in 3690, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3690)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    »Sacherschließung - können wir uns die noch leisten?« Angesichts des zunehmend geringeren Gesamtetats, der den Bibliotheken zur Verfügung steht, drängt sich diese Frage nahezu auf. Sacherschließung ist teuer und für das moderne Bibliothekswesen nur dann noch tragbar, wenn der Mitteleinsatz in einem angemessenen Verhältnis zum Ergebnis steht, das sich in der Leistungsfähigkeit des Produkts widerspiegelt. Im deutschsprachigen Raum trägt die SWD wesentlich zu einer effektiveren Sacherschließungsarbeit bei. Ihre Pflege und Weiterentwicklung ist jedoch mit einem enormen Aufwand gekoppelt, der nur mit einer entsprechenden Nutzung der Daten für das thematische Retrieval in den OPACs gerechtfertigt werden kann.
    Source
    Dialog mit Bibliotheken. 17(2005) H.2, S.19-29
  10. Scheven, E.: ¬Die neue Thesaurusnorm ISO 25964 und die GND (2017) 0.01
    0.013460155 = product of:
      0.040380463 = sum of:
        0.03081254 = weight(_text_:des in 3505) [ClassicSimilarity], result of:
          0.03081254 = score(doc=3505,freq=6.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.3709667 = fieldWeight in 3505, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3505)
        0.009567922 = product of:
          0.028703766 = sum of:
            0.028703766 = weight(_text_:29 in 3505) [ClassicSimilarity], result of:
              0.028703766 = score(doc=3505,freq=2.0), product of:
                0.10550635 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.029993102 = queryNorm
                0.27205724 = fieldWeight in 3505, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3505)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  11. Bourdon, F.: Funktionale Anforderungen an bibliographische Datensätze und ein internationales Nummernsystem für Normdaten : wie weit kann Normierung durch Technik unterstützt werden? (2001) 0.01
    0.012437491 = product of:
      0.03731247 = sum of:
        0.021057867 = product of:
          0.0631736 = sum of:
            0.0631736 = weight(_text_:f in 6888) [ClassicSimilarity], result of:
              0.0631736 = score(doc=6888,freq=2.0), product of:
                0.119546086 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.029993102 = queryNorm
                0.52844554 = fieldWeight in 6888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6888)
          0.33333334 = coord(1/3)
        0.016254604 = product of:
          0.04876381 = sum of:
            0.04876381 = weight(_text_:22 in 6888) [ClassicSimilarity], result of:
              0.04876381 = score(doc=6888,freq=2.0), product of:
                0.10503073 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029993102 = queryNorm
                0.46428138 = fieldWeight in 6888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6888)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    26.12.2011 12:30:22
  12. Bélair, J.-A.; Bourdon, F.; Mingam, M.: ¬Le Répertoire de vedettes-matière et RAMEAU : deux langages d'indexation en français : un luxe nécessaire (2005) 0.01
    0.011161633 = product of:
      0.0334849 = sum of:
        0.015248251 = weight(_text_:des in 4359) [ClassicSimilarity], result of:
          0.015248251 = score(doc=4359,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.18358089 = fieldWeight in 4359, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4359)
        0.018236648 = product of:
          0.054709945 = sum of:
            0.054709945 = weight(_text_:f in 4359) [ClassicSimilarity], result of:
              0.054709945 = score(doc=4359,freq=6.0), product of:
                0.119546086 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.029993102 = queryNorm
                0.45764732 = fieldWeight in 4359, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4359)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Deux langages d'indexation (le RVM Laval et Rameau) pour une seule langue (le français) : n'y a-t-il pas là un paradoxe et, d'une certaine manière, un luxe inutile ? Nous allons nous efforcer de démontrer le contraire en présentant les deux types de raisons qui expliquent cette nécessité, raisons d'ordre linguistique et culturel, d'une part, et raisons d'ordre administratif et de gestion, d'autre part. Cette autonomie assumée des deux langages ne signifie pas cependant qu'ils s'ignorent, tout au contraire. L'esprit de collaboration qui anime les deux institutions est soutenu par une coopération officialisée ainsi que par une coopération de tous les jours.
    Language
    f
    Series
    139 SI - Classification et Indexation avec Catalogage ; 145-F
  13. Kasprzik, A.; Kett, J.: Vorschläge für eine Weiterentwicklung der Sacherschließung und Schritte zur fortgesetzten strukturellen Aufwertung der GND (2018) 0.01
    0.010749328 = product of:
      0.032247983 = sum of:
        0.025413753 = weight(_text_:des in 4599) [ClassicSimilarity], result of:
          0.025413753 = score(doc=4599,freq=8.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.30596817 = fieldWeight in 4599, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.006834231 = product of:
          0.020502692 = sum of:
            0.020502692 = weight(_text_:29 in 4599) [ClassicSimilarity], result of:
              0.020502692 = score(doc=4599,freq=2.0), product of:
                0.10550635 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.029993102 = queryNorm
                0.19432661 = fieldWeight in 4599, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4599)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Aufgrund der fortgesetzten Publikationsflut stellt sich immer dringender die Frage, wie die Schwellen für die Titel- und Normdatenpflege gesenkt werden können - sowohl für die intellektuelle als auch die automatisierte Sacherschließung. Zu einer Verbesserung der Daten- und Arbeitsqualität in der Sacherschließung kann beigetragen werden a) durch eine flexible Visualisierung der Gemeinsamen Normdatei (GND) und anderer Wissensorganisationssysteme, so dass deren Graphstruktur intuitiv erfassbar wird, und b) durch eine investigative Analyse ihrer aktuellen Struktur und die Entwicklung angepasster automatisierter Methoden zur Ermittlung und Korrektur fehlerhafter Muster. Die Deutsche Nationalbibliothek (DNB) prüft im Rahmen des GND-Entwicklungsprogramms 2017-2021, welche Bedingungen für eine fruchtbare community-getriebene Open-Source-Entwicklung entsprechender Werkzeuge gegeben sein müssen. Weiteres Potential steckt in einem langfristigen Übergang zu einer Darstellung von Titel- und Normdaten in Beschreibungssprachen im Sinne des Semantic Web (RDF; OWL, SKOS). So profitiert die GND von der Interoperabilität mit anderen kontrollierten Vokabularen und von einer erleichterten Interaktion mit anderen Fach-Communities und kann umgekehrt auch außerhalb des Bibliothekswesens zu einem noch attraktiveren Wissensorganisationssystem werden. Darüber hinaus bieten die Ansätze aus dem Semantic Web die Möglichkeit, stärker formalisierte, strukturierende Satellitenvokabulare rund um die GND zu entwickeln. Daraus ergeben sich nicht zuletzt auch neue Perspektiven für die automatisierte Sacherschließung. Es wäre lohnend, näher auszuloten, wie und inwieweit semantisch-logische Verfahren den bestehenden Methodenmix bereichern können.
    Content
    Vortrag anlässlich des 107. Deutschen Bibliothekartages 2018 in Berlin, Themenkreis "Fokus Erschließen & Bewahren". https://www.o-bib.de/article/view/5390/7450. https://doi.org/10.5282/o-bib/2018H4S127-140.
    Date
    13.12.2018 13:29:07
  14. Behrens-Neumann, R.: Aus der 56. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. April 2009 in Wien : ein Bericht (2009) 0.01
    0.010728835 = product of:
      0.032186504 = sum of:
        0.025413753 = weight(_text_:des in 3041) [ClassicSimilarity], result of:
          0.025413753 = score(doc=3041,freq=8.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.30596817 = fieldWeight in 3041, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3041)
        0.0067727524 = product of:
          0.020318257 = sum of:
            0.020318257 = weight(_text_:22 in 3041) [ClassicSimilarity], result of:
              0.020318257 = score(doc=3041,freq=2.0), product of:
                0.10503073 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029993102 = queryNorm
                0.19345059 = fieldWeight in 3041, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3041)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    Darin auch ein Abschnitt zu CrissCross: "Ziel des Projekts ist die Schaffung eines multilingualen, thesaurusbasierten und benutzerorientierten Recherchevokabulars zu heterogen erschlossenen Dokurrenten für die Nutzer des deutschen wissenschaftlichen Bibliothekswesens. Dazu werden die Sachschlagwörter der SWD mit den Notationen der Dewey Dezimalklassifikation verbunden sowie mit ihren Äquivalenten in LCSH und Rameau verknüpft. Das Projektende ist nach Verlängerung des Projektantrags April 2010. In dem Berichtszeitraum wurde die Vergabe von DDC-Notationen für SWD-Terme in dem Katalogisierungsclient WinIBW fortgeführt. Änderungen in dem Redaktionsverfahren der SWD, das im ONS-Projekt eingeführt worden ist, haben sich auf die Arbeitsweise und den Workflow des CrissCross-Projektes ausgewirkt und mussten entsprechend angepasst werden. Nach wie vor steht DNB in Kontakt mit den Betreibern der MACS-Datenbank, die als Arbeitsumgebung für die Verlinkung der multilingualen Terme genutzt werden soll. Im Berichtszeitraum wurden keine größeren IT-Aktivitäten notwendig. Ab April 2009 wird die eigentliche Verlinkungsarbeit beginnen und dann sind auch begleitende IT-Maßnahmen zu erwarten."
    Date
    22. 8.2009 13:11:01
  15. Steeg, F.; Pohl, A.: ¬Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) (2021) 0.01
    0.0102610225 = product of:
      0.030783067 = sum of:
        0.022008955 = weight(_text_:des in 367) [ClassicSimilarity], result of:
          0.022008955 = score(doc=367,freq=6.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.2649762 = fieldWeight in 367, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=367)
        0.008774111 = product of:
          0.026322333 = sum of:
            0.026322333 = weight(_text_:f in 367) [ClassicSimilarity], result of:
              0.026322333 = score(doc=367,freq=2.0), product of:
                0.119546086 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.029993102 = queryNorm
                0.22018565 = fieldWeight in 367, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=367)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Normdaten spielen speziell im Hinblick auf die Qualität der Inhaltserschließung bibliografischer und archivalischer Ressourcen eine wichtige Rolle. Ein konkretes Ziel der Inhaltserschließung ist z. B., dass alle Werke über Hermann Hesse einheitlich zu finden sind. Hier bieten Normdaten eine Lösung, indem z. B. bei der Erschließung einheitlich die GND-Nummer 11855042X für Hermann Hesse verwendet wird. Das Ergebnis ist eine höhere Qualität der Inhaltserschließung vor allem im Sinne von Einheitlichkeit und Eindeutigkeit und, daraus resultierend, eine bessere Auffindbarkeit. Werden solche Entitäten miteinander verknüpft, z. B. Hermann Hesse mit einem seiner Werke, entsteht ein Knowledge Graph, wie ihn etwa Google bei der Inhaltserschließung des Web verwendet (Singhal 2012). Die Entwicklung des Google Knowledge Graph und das hier vorgestellte Protokoll sind historisch miteinander verbunden: OpenRefine wurde ursprünglich als Google Refine entwickelt, und die Funktionalität zum Abgleich mit externen Datenquellen (Reconciliation) wurde ursprünglich zur Einbindung von Freebase entwickelt, einer der Datenquellen des Google Knowledge Graph. Freebase wurde später in Wikidata integriert. Schon Google Refine wurde zum Abgleich mit Normdaten verwendet, etwa den Library of Congress Subject Headings (Hooland et al. 2013).
  16. Hubrich, J.: ¬Die Schlagwortrecherche in deutschsprachigen OPACs : Typen der Schlagwortsuche und der Einsatz der Schlagwortnormdatei (SWD) dargelegt unter Rückgriff auf eine empirische Untersuchung (2005) 0.01
    0.009921787 = product of:
      0.02976536 = sum of:
        0.021564282 = weight(_text_:des in 3552) [ClassicSimilarity], result of:
          0.021564282 = score(doc=3552,freq=4.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.25962257 = fieldWeight in 3552, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3552)
        0.008201077 = product of:
          0.024603229 = sum of:
            0.024603229 = weight(_text_:29 in 3552) [ClassicSimilarity], result of:
              0.024603229 = score(doc=3552,freq=2.0), product of:
                0.10550635 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.029993102 = queryNorm
                0.23319192 = fieldWeight in 3552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3552)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Schlagwortsuchen sind heutzutage fester Bestandteil vieler Online-Kataloge. Durch die Verknüpfung von Titeldaten mit dokumentspezifischen Schlagwörtern aus der SWD wird ein thematischer Zugang zu den Medien eines Verbundes bzw. einer Bibliothek ermöglicht. Der SWD-Datensatz bietet neben den Ansetzungsformen, die für die Indexate genutzt werden, jedoch noch eine Reihe weiterer Informationen, die, an der richtigen Stelle im Online-Katalog implementiert, das Retrieval seitens des Benutzers optimieren können. Untersucht wurden die Online-Kataloge der großen deutschen Bibliotheksverbünde, des österreichischen Bibliothekenverbunds sowie 106 weiterer OPACs von vorwiegend wissenschaftlichen Bibliotheken. Es wurde betrachtet, welche Suchfeatures für die Schlagwortrecherche zur Verfügung gestellt werden, wie sie gestaltet sind und inwieweit das SWD-Datenmaterial genutzt wird. Dabei zeigte sich, dass zurzeit drei Typen von Schlagwortsuchen verbreitet sind: - die Indexsuche (mehrstufige Schlagwort- bzw. Schlagwortkettensuche) - die einstufige Schlagwort- bzw. Schlagwortkettensuche sowie - die weiterführende Schlagwort- bzw. Schlagwortkettensuche von einer Treffer- bzw. Titelvollanzeige aus.
    Date
    17. 7.2005 10:29:46
  17. Hubrich, J.: Input und Output der Schlagwortnormdatei (SWD) : Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2005) 0.01
    0.009897195 = product of:
      0.029691584 = sum of:
        0.021564282 = weight(_text_:des in 4183) [ClassicSimilarity], result of:
          0.021564282 = score(doc=4183,freq=4.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.25962257 = fieldWeight in 4183, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4183)
        0.008127302 = product of:
          0.024381906 = sum of:
            0.024381906 = weight(_text_:22 in 4183) [ClassicSimilarity], result of:
              0.024381906 = score(doc=4183,freq=2.0), product of:
                0.10503073 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029993102 = queryNorm
                0.23214069 = fieldWeight in 4183, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4183)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Die kooperative Führung der Schlagwortnormdatei und die Gewährleistung der Qualität der in ihr enthaltenen Daten sind mit einem enormen Aufwand verbunden, der durch den Einsatz der EDV und geeignete Organisationsstrukturen nur geringfügig reduziert werden kann. Die Erstellung der SWD-Normdatensätze bleibt aufgrund der Vielzahl der den Ansetzungsformen beizufügenden Zusatzinformationen wie Codes, Notationen und Relationen relativ zeitintensiv. Diese lassen jedoch auch die SWD besonders wertvoll für die Recherche werden, da sie die Wiederauffindbarkeit der Daten unterstützen. Während die Schlagwortsuche in deutschen OPACs weit verbreitet ist, haben Codes, Notationen und Relationen bisher nur geringfügig Eingang in den OPAC gefunden. Bei einer Untersuchung von 111 Online-Katalogen wurde festgestellt, dass kein einziger OPAC all die Möglichkeiten nutzt, die mit der SWD gegeben sind. Am meisten werden noch Synonyme und - in geringerem Maße - hierarchische und assoziative Relationen zur Verbesserung des Recalls und zur Benutzerführung eingesetzt. Codes und Notationen finden nur vereinzelt Anwendung.
    Date
    30. 1.2007 18:22:15
  18. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.01
    0.008247664 = product of:
      0.02474299 = sum of:
        0.017970238 = weight(_text_:des in 3780) [ClassicSimilarity], result of:
          0.017970238 = score(doc=3780,freq=4.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.21635216 = fieldWeight in 3780, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.0067727524 = product of:
          0.020318257 = sum of:
            0.020318257 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
              0.020318257 = score(doc=3780,freq=2.0), product of:
                0.10503073 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029993102 = queryNorm
                0.19345059 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  19. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.01
    0.007949791 = product of:
      0.023849372 = sum of:
        0.019060314 = weight(_text_:des in 632) [ClassicSimilarity], result of:
          0.019060314 = score(doc=632,freq=18.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.22947611 = fieldWeight in 632, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.004789059 = product of:
          0.014367176 = sum of:
            0.014367176 = weight(_text_:22 in 632) [ClassicSimilarity], result of:
              0.014367176 = score(doc=632,freq=4.0), product of:
                0.10503073 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029993102 = queryNorm
                0.13679022 = fieldWeight in 632, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=632)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Am 23. und 24. November 2005 hat die Arbeitsgemeinschaft der Verbundsysteme ihre 49. Sitzung auf Einladung des Hochschulbibliothekszentrums NordrheinWestfalen (HBZ) in Köln durchgeführt.
    Content
    "Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung Matchkey Bei der Verwendung von Meta-Suchmaschinen zur parallelen Recherche in bibliografischen Datenbanken kommt es häufig vor, dass derselbe Titel mehrmals in der Trefferliste auftaucht. In dieser Situation könnte ein so genannter Matchkey Abhilfe schaffen, der jeden Datensatz aus den vorhandenen bibliografischen Daten heraus eindeutig identifiziert. Ein solcher Algorithmus geht von einem bibliografischen Datensatz aus und generiert einen Schlüssel (Matchkey), der wiederum in den Datensatz integriert werden kann. Der Schlüssel muss sortierfähig sein, so dass die Trefferliste nach dem Grad der Ähnlichkeit sortiert werden kann. Eine wichtige Voraussetzung für die erfolgreiche Anwendung des Matchkey ist die Beseitigung der Hausregeln in den Verbünden und Bibliotheken. Bisher hat Die Deutsche Bibliothek das Thema analysiert und strebt nun die Formulierung und Bereitstellung eines ersten Algorithmus an, um eine Implementierung zu Testzwecken voraussichtlich im März/April 2006 zu ermöglichen. Ein klares Ergebnis soll bis Ende 2006 vorliegen.
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum Das HBZ hat seinen am 15. November frei geschalteten Dreiländer-Katalog (Deutschland, Österreich, Schweiz) vorgestellt, dessen Ziel der Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum ist. Der Katalog entstand in Kooperation des HBZ mit dem Bibliotheksverbund Bayern (BVB) und dem Österreichischen Bibliothekenverbund (OBV); die Integration weiterer Bibliotheksbestände aus anderen Regionen ist in Arbeit. Realisiert wurde das Projekt mittels der Suchmaschinentechnologie des HBZ, die Antwortzeiten in Bruchteilen von Sekunden, Ranking und Kategorisierung der Treffermengen ermöglicht. Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben beschlossen, sich die für die Literaturversorgung relevanten Verbunddaten (Titeldaten mit Nachweisen) für den Aufbau verbundbezogener, nicht kommerzieller Dienste auf Gegenseitigkeit kostenfrei zur Verfügung zu stellen. Normdateien Online-Schnittstelle Ziel der Online-Kommunikation mit Normdateien ist es, die Arbeit mit den zentralen Normdateien dadurch zu vereinfachen, dass Änderungen an Normdaten in den zentral bei Der Deutschen Bibliothek gehaltenen Dateien mit dem eigenen Client erfolgen können. Ferner sollen alle Änderungen an den Normdateien zeitnah in die Normdaten-Spiegel der Verbundsysteme transportiert werden (Replikation). Das Verfahren soll sich auf alle bei Der Deutschen Bibliothek geführten Normdaten erstrecken. Als standardisiertes Kommunikationsprotokoll soll Z39.50 SR Extended Services Update genutzt werden. Für die Replikation ist OAI vorgesehen, als Austauschformat zunächst MAB2 bzw. MABXML. Die existierenden Implementierungen erfüllen an mehreren wichtigen Stellen nicht die Anforderungen. Eine Konversion in und aus einem neutralen Transportformat, wie für die Online-Kommunikation mit Normdateien benötigt, ist an der gegenwärtigen Pica-Schnittstelle nicht vorgesehen und lässt sich nur realisieren, wenn wesentliche Veränderungen vorgenommen werden. OCLC PICA plant, diese Veränderungen im 1. Quartal 2006 vorzunehmen. Nach der aktuellen Projektplanung soll die Online-Kommunikation zu Beginn des Jahres 2007 starten.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."
  20. Zedlitz, J.: Biographische Normdaten : ein Überblick (2017) 0.01
    0.0077918507 = product of:
      0.023375552 = sum of:
        0.015248251 = weight(_text_:des in 3502) [ClassicSimilarity], result of:
          0.015248251 = score(doc=3502,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.18358089 = fieldWeight in 3502, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3502)
        0.008127302 = product of:
          0.024381906 = sum of:
            0.024381906 = weight(_text_:22 in 3502) [ClassicSimilarity], result of:
              0.024381906 = score(doc=3502,freq=2.0), product of:
                0.10503073 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029993102 = queryNorm
                0.23214069 = fieldWeight in 3502, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3502)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Um das Leben und Werk historischer Personen und historische Ereignisse verstehen zu können, benötigen Wissenschaftler als primäre Quelle historische Dokumente. Das Entdecken und Auffinden dieser Dokumente in Archiven ist seit jeher eine aufwändige Aufgabe. In vielen Fällen ist sie mit einer großen Portion Glück verbunden, die richtige Archivalie im Bestand ausfindig zu machen. Mit Katalogen und anderen Findmitteln helfen Archive Forschern bereits beim Aufspüren dieser Quellen. Um Material zu einer bestimmten Person auffindbar zu machen, werden in der Regel biographische Normdaten bereitgehalten, die als Einstiegspunkt in eine Suche dienen. Der Begriff "Normdaten" kann unter zwei Aspekten verstanden werden: 1. Vergabe und Verwendung einer eindeutigen Kennung für eine Person, um sie in verschiedenen Systemen zu finden und 2. als eine normierte Schreibweise, um biographische Daten zu einer Person so aufzuschreiben, dass die Daten interoperabel, also auch außerhalb des ursprünglichen Systems (nach-)genutzt werden können.
    Source
    Archivar. 70(2017) H.1, S.22-25

Authors

Years

Languages

  • d 49
  • e 43
  • f 3
  • i 1
  • More… Less…

Types

  • a 82
  • el 16
  • m 3
  • x 3
  • b 2
  • r 1
  • s 1
  • More… Less…