Search (20 results, page 1 of 1)

  • × theme_ss:"Normdateien"
  • × language_ss:"d"
  1. Sandner, M.: Neues aus der Kommission für Sacherschließung : Das neue Tool "NSW online" (2011) 0.01
    0.0058666286 = product of:
      0.052799657 = sum of:
        0.052799657 = sum of:
          0.017126955 = weight(_text_:web in 4529) [ClassicSimilarity], result of:
            0.017126955 = score(doc=4529,freq=4.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.17847323 = fieldWeight in 4529, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4529)
          0.035672702 = weight(_text_:seite in 4529) [ClassicSimilarity], result of:
            0.035672702 = score(doc=4529,freq=2.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.21659255 = fieldWeight in 4529, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4529)
      0.11111111 = coord(1/9)
    
    Content
    "Die "Liste der fachlichen Nachschlagewerke zu den Normdateien" (NSW-Liste) stellt mit ihren derzeit rund 1.660 Einträgen ein verbindliches Arbeitsinstrument für die tägliche Praxis in der kooperativen Normdaten-pflege des deutschsprachigen Raumes, speziell für die Terminologiearbeit in der bibliothekarischen Sacherschließung dar. In jedem Normdatensatz der Schlagwortnormdatei (SWD) werden für den Nachweis und die Begründung der Ansetzungs- und Verweisungsformen eines Deskriptors im Feld "Quelle" Referenzwerke aus der so genannten Prioritätenliste (Rangfolge der Nachschlagewerke), darüber hinaus aus der gesamten NSW-Liste, festgehalten und normiert abgekürzt. In gedruckter Form erscheint diese von der Deutschen Nationalbibliothek (DNB) regelmäßig aktualisierte Liste jährlich mit einem Änderungsdienst (Änderungen, Neuauflagen; Neuaufnahmen) und steht seit einigen Jahren auch elektronisch abrufbar bereit. Dennoch ist sie "in die Jahre" gekommen. Eine verbesserte Form dieser Liste war ein langjähriges Desiderat für die Neuansetzungspraxis in der SWD. Erst eine Projektarbeit im Rahmen des ULG bot 2008/2009 in Wien die Gelegenheit, solch einem elektronischen Hilfsmittel entscheidend näher zu kommen. Das Projektergebnis war praxistauglich und wurde 2010 von der UB Wien in ein Content Management System (CMS) eingebettet. Zahlreiche Tests und funktionelle Anpassungen sowie eine genaue Durchsicht des Grunddatenbestandes und aller Links in den Katalog des Pilotverbundes (OBV) waren noch nötig, und auch die erste Aktualisierung nach der Druckausgabe 2010 führten wir durch, bevor wir im Herbst 2010 der Fachöffentlichkeit eine Beta-Version vorstellen konnten. Seither steht die Suche im NSW-Tool als Alternative zur Benützung der Druckausgabe allen frei zur Verfügung: http://www.univie.ac.at/nsw/. Sämtliche SWD-Kooperationspartner-Redaktionen und die Lokalen Redaktionen (ÖSWD-LRs) des Österreichischen Bibliothekenverbundes (OBV) können über das Web-Frontend von "NSW online" ihre Wünsche an die Redaktion der NSW-Liste (Fachabteilung SE, DNB) direkt im Tool deponieren (Korrekturanträge sowie Vorschläge zur Aufnahme fehlender oder neuer Nachschlagewerke) und frei im Internet zugängliche Volltexte zu den bereits in der Liste vorhandenen Titeln verlinken (Erstanmeldung über den Webmaster: via Hilfe-Seite im Tool).
    Nur die Verbundbibliotheken des OBV können überdies ihre zu den Nachschlagewerken passenden Bestände in Aleph hinzufügen, ggf. selbst via Web-Frontend im Tool einen Link zum eigenen Verbundkatalog neu anlegen, und insbesondere ihre lokal verfügbaren elektronischen Volltexte anbinden3. Im Backend werden neue Datensätze angelegt, vorhandene Einträge korrigiert, redaktionelle Kommentare platziert und Korrekturanträge abgeschöpft sowie Neuauflagen für die richtige Anzeige und Verknüpfung, etwa mit der Rangfolgeliste, zu ihrem "Anker-Datensatz" umgelenkt. Außerdem werden hier HTML-Seiten wie Hilfetext, Rangfolgeliste u. ä. gepflegt. - Zum Administrationsinterface haben nur der Webmaster der UB Wien, die SWD-Zentralredaktion des OBV sowie die Fachabteilung SE der DNB Zugang. (Nicht nur) Sacherschließerinnen können das Tool mit all seinen Vorteilen nutzen und dennoch in gewohnter Weise vorgehen, wenn sie nach Quellen für ihre Neuansetzungen suchen wollen und darin recherchieren müssen, denn die Struktur des Tools folgt dem Aufbau der Druckfassung. Es empfiehlt sich, im jeweiligen Bibliothekssystem für SWD und PND zum Feld Quelle einen Hypertextlink im Erfassungsmodul anzubringen. Die Normdateiarbeit ist komplex und anspruchsvoll. Die Einhaltung der für alle Neuansetzungen verbindlichen Rangfolge wird mit dem Tool und seiner praxisorientierten Aufbereitung ganz entscheidend erleichtert, was von Beginn an zu einer hohen Qualität jedes Normdatensatzes verhilft. Den größten Zeitgewinn in der täglichen Praxis bringt der sofortige Zugriff auf verlinkte Volltexte. - Angesichts des zunehmenden multilateralen Datentausches bei gleichzeitiger dramatischer Verknappung personeller Ressourcen trotz eines erheblichen Anstiegs des inhaltlich zu erschließenden Literaturaufkommens wird dies im Workflow des vor kurzem eingeführten Online-Redaktionsverfahrens (ONR) für Normdateien der wohl nachhaltigste Effekt von "NSW online" sein."
  2. Niesner, S.: ¬Die Nutzung bibliothekarischer Normdaten im Web am Beispiel von VIAF und Wikipedia (2015) 0.00
    0.003262277 = product of:
      0.029360492 = sum of:
        0.029360492 = product of:
          0.058720984 = sum of:
            0.058720984 = weight(_text_:web in 1763) [ClassicSimilarity], result of:
              0.058720984 = score(doc=1763,freq=4.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.6119082 = fieldWeight in 1763, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1763)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Bibliothekarische Normdaten für Personen lassen sich im Web sinnvoll einsetzen.
  3. Lorenz, B.; Steffens, M.: Systematik und Schlagwortnormdatei zwischen Universalität und Individualität (1997) 0.00
    0.0030986508 = product of:
      0.027887857 = sum of:
        0.027887857 = product of:
          0.055775713 = sum of:
            0.055775713 = weight(_text_:22 in 5819) [ClassicSimilarity], result of:
              0.055775713 = score(doc=5819,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.5416616 = fieldWeight in 5819, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5819)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    24. 5.2001 19:22:37
  4. Bourdon, F.: Funktionale Anforderungen an bibliographische Datensätze und ein internationales Nummernsystem für Normdaten : wie weit kann Normierung durch Technik unterstützt werden? (2001) 0.00
    0.0026559862 = product of:
      0.023903877 = sum of:
        0.023903877 = product of:
          0.047807753 = sum of:
            0.047807753 = weight(_text_:22 in 6888) [ClassicSimilarity], result of:
              0.047807753 = score(doc=6888,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.46428138 = fieldWeight in 6888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6888)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    26.12.2011 12:30:22
  5. Danowski, P.; Pfeifer, B.: Wikipedia und Normdateien : Wege der Vernetzung am Beispiel der Kooperation mit der Personennamendatei (2007) 0.00
    0.0017706576 = product of:
      0.015935918 = sum of:
        0.015935918 = product of:
          0.031871837 = sum of:
            0.031871837 = weight(_text_:22 in 4594) [ClassicSimilarity], result of:
              0.031871837 = score(doc=4594,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.30952093 = fieldWeight in 4594, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4594)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    16. 7.2011 11:54:22
  6. Altenhöner, R.; Hannemann, J.; Kett, J.: Linked Data aus und für Bibliotheken : Rückgratstärkung im Semantic Web (2010) 0.00
    0.0016311385 = product of:
      0.014680246 = sum of:
        0.014680246 = product of:
          0.029360492 = sum of:
            0.029360492 = weight(_text_:web in 4264) [ClassicSimilarity], result of:
              0.029360492 = score(doc=4264,freq=4.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.3059541 = fieldWeight in 4264, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4264)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  7. Kasprzik, A.; Kett, J.: Vorschläge für eine Weiterentwicklung der Sacherschließung und Schritte zur fortgesetzten strukturellen Aufwertung der GND (2018) 0.00
    0.0013592821 = product of:
      0.012233539 = sum of:
        0.012233539 = product of:
          0.024467077 = sum of:
            0.024467077 = weight(_text_:web in 4599) [ClassicSimilarity], result of:
              0.024467077 = score(doc=4599,freq=4.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.25496176 = fieldWeight in 4599, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4599)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Aufgrund der fortgesetzten Publikationsflut stellt sich immer dringender die Frage, wie die Schwellen für die Titel- und Normdatenpflege gesenkt werden können - sowohl für die intellektuelle als auch die automatisierte Sacherschließung. Zu einer Verbesserung der Daten- und Arbeitsqualität in der Sacherschließung kann beigetragen werden a) durch eine flexible Visualisierung der Gemeinsamen Normdatei (GND) und anderer Wissensorganisationssysteme, so dass deren Graphstruktur intuitiv erfassbar wird, und b) durch eine investigative Analyse ihrer aktuellen Struktur und die Entwicklung angepasster automatisierter Methoden zur Ermittlung und Korrektur fehlerhafter Muster. Die Deutsche Nationalbibliothek (DNB) prüft im Rahmen des GND-Entwicklungsprogramms 2017-2021, welche Bedingungen für eine fruchtbare community-getriebene Open-Source-Entwicklung entsprechender Werkzeuge gegeben sein müssen. Weiteres Potential steckt in einem langfristigen Übergang zu einer Darstellung von Titel- und Normdaten in Beschreibungssprachen im Sinne des Semantic Web (RDF; OWL, SKOS). So profitiert die GND von der Interoperabilität mit anderen kontrollierten Vokabularen und von einer erleichterten Interaktion mit anderen Fach-Communities und kann umgekehrt auch außerhalb des Bibliothekswesens zu einem noch attraktiveren Wissensorganisationssystem werden. Darüber hinaus bieten die Ansätze aus dem Semantic Web die Möglichkeit, stärker formalisierte, strukturierende Satellitenvokabulare rund um die GND zu entwickeln. Daraus ergeben sich nicht zuletzt auch neue Perspektiven für die automatisierte Sacherschließung. Es wäre lohnend, näher auszuloten, wie und inwieweit semantisch-logische Verfahren den bestehenden Methodenmix bereichern können.
  8. Steeg, F.; Pohl, A.: ¬Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) (2021) 0.00
    0.0013592821 = product of:
      0.012233539 = sum of:
        0.012233539 = product of:
          0.024467077 = sum of:
            0.024467077 = weight(_text_:web in 367) [ClassicSimilarity], result of:
              0.024467077 = score(doc=367,freq=4.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.25496176 = fieldWeight in 367, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=367)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Normdaten spielen speziell im Hinblick auf die Qualität der Inhaltserschließung bibliografischer und archivalischer Ressourcen eine wichtige Rolle. Ein konkretes Ziel der Inhaltserschließung ist z. B., dass alle Werke über Hermann Hesse einheitlich zu finden sind. Hier bieten Normdaten eine Lösung, indem z. B. bei der Erschließung einheitlich die GND-Nummer 11855042X für Hermann Hesse verwendet wird. Das Ergebnis ist eine höhere Qualität der Inhaltserschließung vor allem im Sinne von Einheitlichkeit und Eindeutigkeit und, daraus resultierend, eine bessere Auffindbarkeit. Werden solche Entitäten miteinander verknüpft, z. B. Hermann Hesse mit einem seiner Werke, entsteht ein Knowledge Graph, wie ihn etwa Google bei der Inhaltserschließung des Web verwendet (Singhal 2012). Die Entwicklung des Google Knowledge Graph und das hier vorgestellte Protokoll sind historisch miteinander verbunden: OpenRefine wurde ursprünglich als Google Refine entwickelt, und die Funktionalität zum Abgleich mit externen Datenquellen (Reconciliation) wurde ursprünglich zur Einbindung von Freebase entwickelt, einer der Datenquellen des Google Knowledge Graph. Freebase wurde später in Wikidata integriert. Schon Google Refine wurde zum Abgleich mit Normdaten verwendet, etwa den Library of Congress Subject Headings (Hooland et al. 2013).
  9. Scheven, E.: ¬Die neue Thesaurusnorm ISO 25964 und die GND (2017) 0.00
    0.0013456206 = product of:
      0.012110585 = sum of:
        0.012110585 = product of:
          0.02422117 = sum of:
            0.02422117 = weight(_text_:web in 3505) [ClassicSimilarity], result of:
              0.02422117 = score(doc=3505,freq=2.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.25239927 = fieldWeight in 3505, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3505)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  10. Hubrich, J.: Input und Output der Schlagwortnormdatei (SWD) : Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2005) 0.00
    0.0013279931 = product of:
      0.011951938 = sum of:
        0.011951938 = product of:
          0.023903877 = sum of:
            0.023903877 = weight(_text_:22 in 4183) [ClassicSimilarity], result of:
              0.023903877 = score(doc=4183,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.23214069 = fieldWeight in 4183, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4183)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    30. 1.2007 18:22:15
  11. Zedlitz, J.: Biographische Normdaten : ein Überblick (2017) 0.00
    0.0013279931 = product of:
      0.011951938 = sum of:
        0.011951938 = product of:
          0.023903877 = sum of:
            0.023903877 = weight(_text_:22 in 3502) [ClassicSimilarity], result of:
              0.023903877 = score(doc=3502,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.23214069 = fieldWeight in 3502, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3502)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Source
    Archivar. 70(2017) H.1, S.22-25
  12. Scheven, E.: Qualitätssicherung in der GND (2021) 0.00
    0.0013279931 = product of:
      0.011951938 = sum of:
        0.011951938 = product of:
          0.023903877 = sum of:
            0.023903877 = weight(_text_:22 in 314) [ClassicSimilarity], result of:
              0.023903877 = score(doc=314,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.23214069 = fieldWeight in 314, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=314)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    23. 9.2021 19:12:22
  13. Virtuelle Normdatei (2008) 0.00
    0.001153389 = product of:
      0.010380501 = sum of:
        0.010380501 = product of:
          0.020761002 = sum of:
            0.020761002 = weight(_text_:web in 2673) [ClassicSimilarity], result of:
              0.020761002 = score(doc=2673,freq=2.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.21634221 = fieldWeight in 2673, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2673)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Content
    "Die Deutsche Nationalbibliothek, die Bibliothèque nationale de France, die Library of Congress und das Online Computer Library Center (OCLC) sind übereingekommen, gemeinsam den »Virtual International Authority File« (VIAF), eine Virtuelle Internationale Normdatei, aufzubauen und fortzuentwickeln. Die einzelnen Normdateien sollen im VIAF virtuell zu einem gemeinsamen Normdaten-Service integriert werden, der den Zugang zu den Namen aller einbezogenen Normdateien bietet. Die Vereinbarung baut auf einem vorausgegangenen Forschungsprojekt auf, in dem die Deutsche Nationalbibliothek gemeinsam mit der Library of Congress und OCLC durch die Zusammenführung ihrer Personennamendateien nachgewiesen haben, dass der Aufbau eines Virtual International Authority File auch unter den Bedingungen großer Datenbestände machbar ist. Mit der neuen Kooperationsvereinbarung stößt die Bibliothèque nationale de France hinzu, und der VIAF wird um die französischen Normdaten erweitert. Langfristig zielt das VIAF-Projekt darauf ab, die Normdateien möglichst vieler Bibliotheken zu einem globalen VIAF-Service zu integrieren, der für die Nutzer im Web weltweit frei zugänglich ist."
  14. Behrens-Neumann, R.: Aus der 56. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. April 2009 in Wien : ein Bericht (2009) 0.00
    0.001106661 = product of:
      0.009959949 = sum of:
        0.009959949 = product of:
          0.019919898 = sum of:
            0.019919898 = weight(_text_:22 in 3041) [ClassicSimilarity], result of:
              0.019919898 = score(doc=3041,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.19345059 = fieldWeight in 3041, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3041)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    22. 8.2009 13:11:01
  15. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.00
    0.001106661 = product of:
      0.009959949 = sum of:
        0.009959949 = product of:
          0.019919898 = sum of:
            0.019919898 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
              0.019919898 = score(doc=3780,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.19345059 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    19. 8.2017 9:24:22
  16. Wiesenmüller, H.: Verbale Erschließung in Katalogen und Discovery-Systemen : Überlegungen zur Qualität (2021) 0.00
    0.001106661 = product of:
      0.009959949 = sum of:
        0.009959949 = product of:
          0.019919898 = sum of:
            0.019919898 = weight(_text_:22 in 374) [ClassicSimilarity], result of:
              0.019919898 = score(doc=374,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.19345059 = fieldWeight in 374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=374)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    24. 9.2021 12:22:02
  17. Virtual International Authority File wächst : VIAF-Projekt um französische Normdaten erweitert (2007) 0.00
    9.611576E-4 = product of:
      0.008650418 = sum of:
        0.008650418 = product of:
          0.017300837 = sum of:
            0.017300837 = weight(_text_:web in 764) [ClassicSimilarity], result of:
              0.017300837 = score(doc=764,freq=2.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.18028519 = fieldWeight in 764, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=764)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Content
    "Die Deutsche Nationalbibliothek, die Bibliotheque nationale de France, die Library of Congress und das Online Computer Library Center (OCLC) sind übereingekommen, gemeinsam das "Virtual International Authority File (VIAF)", eine Virtuelle Internationale Normdatei, aufzubauen und fortzuentwickeln. Die einzelnen Normdateien sollen im VIAF virtuell zu einem gemeinsamen Normdaten-Service integriert werden, der den Zugang zu den Namen aller einbezogenen Normdateien bietet. Die Vereinbarung baut auf einem vorausgegangenen Forschungsprojekt auf, in dem die Deutsche Nationalbibliothek gemeinsam mit der Library of Congress und OCLC durch die Zusammenführung ihrer Personennamendateien nachgewiesen haben, dass der Aufbau eines Virtual International Authority File auch unter den Bedingungen großer Datenbestände machbar ist. Mit der neuen Kooperationsvereinbarung stößt die Bibliotheque nationale de France hinzu, und der VIAF wird um die französischen Normdaten erweitert. Die Matching-Routinen werden weiterhin von OCLC entwickelt. Langfristig zielt das VIAF-Projekt darauf ab, die Normdateien möglichst vieler Bibliotheken zu einem globalen VIAF-Service zu integrieren, der für die Nutzer im Web weltweit frei zugänglich ist. Die Erweiterung um die französischen Normdaten stellt einen Meilenstein auf dem Weg in diese Zukunft dar. Die Vereinbarung bietet zudem den organisatorischen Rahmen, weitere Normdateien einbeziehen zu können. Der VIAF stellt einen wichtigen Baustein zur Interoperabilität zwischen den bibliothekarischen Nachweissystemen dar. Durch die Verlinkung der unterschiedlichen Namensformen für identische Personen bzw. Organisationen wird der VIAF schon in der nahen Zukunft die Recherche- und Nachnutzungsmöglichkeiten für Titeldaten aus dem englisch-, französisch- und deutschsprachigen Raum entscheidend verbessern, und es steht zu erwarten, dass er in den kommenden Jahren für eine sogar noch größere Zahl von Sprachgemeinschaften dieselben Vorteile bringen wird."
  18. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.00
    7.825275E-4 = product of:
      0.0070427475 = sum of:
        0.0070427475 = product of:
          0.014085495 = sum of:
            0.014085495 = weight(_text_:22 in 632) [ClassicSimilarity], result of:
              0.014085495 = score(doc=632,freq=4.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.13679022 = fieldWeight in 632, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=632)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Content
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."
  19. Qualität in der Inhaltserschließung (2021) 0.00
    7.6892605E-4 = product of:
      0.0069203344 = sum of:
        0.0069203344 = product of:
          0.013840669 = sum of:
            0.013840669 = weight(_text_:web in 753) [ClassicSimilarity], result of:
              0.013840669 = score(doc=753,freq=2.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.14422815 = fieldWeight in 753, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03125 = fieldNorm(doc=753)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
  20. Altenhöner, R; Hengel, C.; Jahns, Y.; Junger, U.; Mahnke, C.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 74. IFLA-Generalkonferenz in Quebec, Kanada : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICADS und UNIMARC sowie der Information Technology Section (2008) 0.00
    4.805788E-4 = product of:
      0.004325209 = sum of:
        0.004325209 = product of:
          0.008650418 = sum of:
            0.008650418 = weight(_text_:web in 2317) [ClassicSimilarity], result of:
              0.008650418 = score(doc=2317,freq=2.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.09014259 = fieldWeight in 2317, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2317)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Content
    Classification and Indexing Section (Sektion Klassifikation und Indexierung) Deutsches Mitglied im Ständigen Ausschuss der Sektion: Yvonne Jahns (2005-2009; Deutsche Nationalbibliothek) Die Sektion, die sich als Forum für den internationalen Austausch über Methoden der Inhaltserschließung und die Bedeutung des sachlichen Zugangs zu Dokumenten und Wissen versteht, wartete in Quebec mit einem interessanten Vortragprogramm auf. Drei Präsentationen näherten sich dem Thema "Classification and indexing without language borders" von unterschiedlichen Seiten. Anila Angjeli von der Bibliotheque nationale de France (BnF) präsentierte Arbeiten aus dem Projekt STITCH", das sich mit semantischen Suchen in unterschiedlich erschlossenen Beständen von Kulturerbeinstitutionen beschäftigt. Die verwendeten Thesauri und Klassifikationen wurden mittels SKOS in ein vergleichbares Format überführt und stehen so als Semantic-Web-Anwendung zur Recherche bereit. Die Funktionsweise erläuterte Anila Angjeli sehr bildreich durch Beispiel-suchen nach mittelalterlichen Handschriften der BnF und der Königlichen Bibliothek der Niederlande. Vivien Petras vom GESIS Informationszentrum Sozialwissenschaften, Bonn, sprach über die Vielzahl der intellektuell erstellten Crosskonkordanzen zwischen Thesauri in den Sozialwissenschaften. Sie stellte dabei die Evaluierung der KOMOHE-Projektergebnisse vor und konnte die Verbesserung der Suchergebnisse anschaulich machen, die man durch Hinzuziehen der Konkordanzen in der Recherche über heterogen erschlossene Bestände erreicht. Schließlich präsentierte Michael Kreyche von der Kent State University, Ohio/USA, seinen eindrucksvollen jahrelangen Einsatz für die Zugänglichkeit englisch-spanischer Schlagwörter. Im Projekt Icsh-es.org gelang es, viele Vorarbeiten von amerikanischen und spanischen Bibliotheken zusammenzutragen, um eine Datenbank spanischer Entsprechungen der Library of Congress Subject Headings aufzubauen. Diese soll Indexierern helfen und natürlich den vielen spanisch-sprachigen Bibliotheksbenutzern in den USA zugute kommen. Spanisch ist nicht nur eine der meistgesprochenen Sprachen der Welt, sondern aufgrund der zahlreichen Einwanderer in die USA für die Bibliotheksarbeit von großer Wichtigkeit.