Search (65 results, page 1 of 4)

  • × theme_ss:"Normdateien"
  1. Altenhöner, R.; Hannemann, J.; Kett, J.: Linked Data aus und für Bibliotheken : Rückgratstärkung im Semantic Web (2010) 0.03
    0.027143864 = product of:
      0.13571931 = sum of:
        0.033861924 = weight(_text_:web in 4264) [ClassicSimilarity], result of:
          0.033861924 = score(doc=4264,freq=4.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.3059541 = fieldWeight in 4264, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4264)
        0.101857394 = weight(_text_:daten in 4264) [ClassicSimilarity], result of:
          0.101857394 = score(doc=4264,freq=8.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.63103616 = fieldWeight in 4264, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=4264)
      0.2 = coord(2/10)
    
    Abstract
    Die Deutsche Nationalbibliothek (DNB) hat damit begonnen, ihre Wissensbasis bestehend aus bibliografischen Daten einerseits, vor allem aber aus den Normdaten als Linked Data zu veröffentlichen. Ziel der DNB ist es, mit der Publikation der Daten als Tripel eine direkte Nutzung der gesamten nationalbibliografischen Daten und der Normdaten durch die Semantic-WebCommunity zu ermöglichen und damit ganz neue Nutzungsgruppen einzubinden. Gleichzeitig soll aber auch das Tor für einen neuen Weg der kooperativen Datennutzung aufgestoßen werden. Langfristiges Ziel ist es, Bibliotheken und andere kulturelle Einrichtungen als ein verlässliches Rückgrat des Webs der Daten zu etablieren.
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  2. Haffner, A.: Internationalisierung der GND durch das Semantic Web (2012) 0.02
    0.024553929 = product of:
      0.12276964 = sum of:
        0.04416858 = weight(_text_:web in 318) [ClassicSimilarity], result of:
          0.04416858 = score(doc=318,freq=20.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.39907828 = fieldWeight in 318, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.078601055 = weight(_text_:daten in 318) [ClassicSimilarity], result of:
          0.078601055 = score(doc=318,freq=14.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.4869564 = fieldWeight in 318, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
      0.2 = coord(2/10)
    
    Abstract
    Seit Bestehen der Menschheit sammelt der Mensch Informationen, seit Bestehen des Internets stellt der Mensch Informationen ins Web, seit Bestehen des Semantic Webs sollen auch Maschinen in die Lage versetzt werden mit diesen Informationen umzugehen. Das Bibliothekswesen ist einer der Sammler. Seit Jahrhunderten werden Kataloge und Bibliografien sowie Inventarnachweise geführt. Mit der Aufgabe des Zettelkatalogs hin zum Onlinekatalog wurde es Benutzern plötzlich möglich in Beständen komfortabel zu suchen. Durch die Bereitstellung von Daten aus dem Bibliothekswesen im Semantic Web sollen nicht nur die eigenen Katalogsysteme Zugriff auf diese Informationen erhalten, sondern jede beliebige Anwendung, die auf das Web zugreifen kann. Darüber hinaus ist die Vorstellung, dass sich die im Web befindenden Daten - in sofern möglich - miteinander verlinken und zu einem gigantischen semantischen Netz werden, das als ein großer Datenpool verwendet werden kann. Die Voraussetzung hierfür ist wie beim Übergang zum Onlinekatalog die Aufbereitung der Daten in einem passenden Format. Normdaten dienen im Bibliothekswesen bereits dazu eine Vernetzung der unterschiedlichen Bestände zu erlauben. Bei der Erschließung eines Buches wird nicht bloß gesagt, dass jemand, der Thomas Mann heißt, der Autor ist - es wird eine Verknüpfung vom Katalogisat zu dem Thomas Mann erzeugt, der am 6. Juni 1875 in Lübeck geboren und am 12. August 1955 in Zürich verstorben ist. Der Vorteil von Normdateneintragungen ist, dass sie zum eindeutigen Nachweis der Verfasserschaft oder Mitwirkung an einem Werk beitragen. Auch stehen Normdateneintragungen bereits allen Bibliotheken für die Nachnutzung bereit - der Schritt ins Semantic Web wäre somit die Öffnung der Normdaten für alle denkbaren Nutzergruppen.
    Die Gemeinsame Normdatei (GND) ist seit April 2012 die Datei, die die im deutschsprachigen Bibliothekswesen verwendeten Normdaten enthält. Folglich muss auf Basis dieser Daten eine Repräsentation für die Darstellung als Linked Data im Semantic Web etabliert werden. Neben der eigentlichen Bereitstellung von GND-Daten im Semantic Web sollen die Daten mit bereits als Linked Data vorhandenen Datenbeständen (DBpedia, VIAF etc.) verknüpft und nach Möglichkeit kompatibel sein, wodurch die GND einem internationalen und spartenübergreifenden Publikum zugänglich gemacht wird. Dieses Dokument dient vor allem zur Beschreibung, wie die GND-Linked-Data-Repräsentation entstand und dem Weg zur Spezifikation einer eignen Ontologie. Hierfür werden nach einer kurzen Einführung in die GND die Grundprinzipien und wichtigsten Standards für die Veröffentlichung von Linked Data im Semantic Web vorgestellt, um darauf aufbauend existierende Vokabulare und Ontologien des Bibliothekswesens betrachten zu können. Anschließend folgt ein Exkurs in das generelle Vorgehen für die Bereitstellung von Linked Data, wobei die so oft zitierte Open World Assumption kritisch hinterfragt und damit verbundene Probleme insbesondere in Hinsicht Interoperabilität und Nachnutzbarkeit aufgedeckt werden. Um Probleme der Interoperabilität zu vermeiden, wird den Empfehlungen der Library Linked Data Incubator Group [LLD11] gefolgt.
    Im Kapitel Anwendungsprofile als Basis für die Ontologieentwicklung wird die Spezifikation von Dublin Core Anwendungsprofilen kritisch betrachtet, um auszumachen wann und in welcher Form sich ihre Verwendung bei dem Vorhaben Bereitstellung von Linked Data anbietet. In den nachfolgenden Abschnitten wird die GND-Ontologie, welche als Standard für die Serialisierung von GND-Daten im Semantic Web dient, samt Modellierungsentscheidungen näher vorgestellt. Dabei wird insbesondere der Technik des Vocabulary Alignment eine prominente Position eingeräumt, da darin ein entscheidender Mechanismus zur Steigerung der Interoperabilität und Nachnutzbarkeit gesehen wird. Auch wird sich mit der Verlinkung zu externen Datensets intensiv beschäftigt. Hierfür wurden ausgewählte Datenbestände hinsichtlich ihrer Qualität und Aktualität untersucht und Empfehlungen für die Implementierung innerhalb des GND-Datenbestandes gegeben. Abschließend werden eine Zusammenfassung und ein Ausblick auf weitere Schritte gegeben.
  3. Danowski, P.; Pfeifer, B.: Wikipedia und Normdateien : Wege der Vernetzung am Beispiel der Kooperation mit der Personennamendatei (2007) 0.02
    0.017864743 = product of:
      0.089323714 = sum of:
        0.07094457 = weight(_text_:forschung in 4594) [ClassicSimilarity], result of:
          0.07094457 = score(doc=4594,freq=2.0), product of:
            0.16498606 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03391332 = queryNorm
            0.43000343 = fieldWeight in 4594, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=4594)
        0.018379148 = product of:
          0.036758296 = sum of:
            0.036758296 = weight(_text_:22 in 4594) [ClassicSimilarity], result of:
              0.036758296 = score(doc=4594,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.30952093 = fieldWeight in 4594, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4594)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Date
    16. 7.2011 11:54:22
    Source
    Bibliothek: Forschung und Praxis. 31(2007) H.2, S.149-155
  4. Hubrich, J.: Input und Output der Schlagwortnormdatei (SWD) : Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2005) 0.02
    0.017161684 = product of:
      0.08580842 = sum of:
        0.072024055 = weight(_text_:daten in 4183) [ClassicSimilarity], result of:
          0.072024055 = score(doc=4183,freq=4.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.44620997 = fieldWeight in 4183, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=4183)
        0.013784361 = product of:
          0.027568722 = sum of:
            0.027568722 = weight(_text_:22 in 4183) [ClassicSimilarity], result of:
              0.027568722 = score(doc=4183,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.23214069 = fieldWeight in 4183, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4183)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    Die kooperative Führung der Schlagwortnormdatei und die Gewährleistung der Qualität der in ihr enthaltenen Daten sind mit einem enormen Aufwand verbunden, der durch den Einsatz der EDV und geeignete Organisationsstrukturen nur geringfügig reduziert werden kann. Die Erstellung der SWD-Normdatensätze bleibt aufgrund der Vielzahl der den Ansetzungsformen beizufügenden Zusatzinformationen wie Codes, Notationen und Relationen relativ zeitintensiv. Diese lassen jedoch auch die SWD besonders wertvoll für die Recherche werden, da sie die Wiederauffindbarkeit der Daten unterstützen. Während die Schlagwortsuche in deutschen OPACs weit verbreitet ist, haben Codes, Notationen und Relationen bisher nur geringfügig Eingang in den OPAC gefunden. Bei einer Untersuchung von 111 Online-Katalogen wurde festgestellt, dass kein einziger OPAC all die Möglichkeiten nutzt, die mit der SWD gegeben sind. Am meisten werden noch Synonyme und - in geringerem Maße - hierarchische und assoziative Relationen zur Verbesserung des Recalls und zur Benutzerführung eingesetzt. Codes und Notationen finden nur vereinzelt Anwendung.
    Date
    30. 1.2007 18:22:15
  5. Zedlitz, J.: Biographische Normdaten : ein Überblick (2017) 0.02
    0.017161684 = product of:
      0.08580842 = sum of:
        0.072024055 = weight(_text_:daten in 3502) [ClassicSimilarity], result of:
          0.072024055 = score(doc=3502,freq=4.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.44620997 = fieldWeight in 3502, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=3502)
        0.013784361 = product of:
          0.027568722 = sum of:
            0.027568722 = weight(_text_:22 in 3502) [ClassicSimilarity], result of:
              0.027568722 = score(doc=3502,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.23214069 = fieldWeight in 3502, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3502)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    Um das Leben und Werk historischer Personen und historische Ereignisse verstehen zu können, benötigen Wissenschaftler als primäre Quelle historische Dokumente. Das Entdecken und Auffinden dieser Dokumente in Archiven ist seit jeher eine aufwändige Aufgabe. In vielen Fällen ist sie mit einer großen Portion Glück verbunden, die richtige Archivalie im Bestand ausfindig zu machen. Mit Katalogen und anderen Findmitteln helfen Archive Forschern bereits beim Aufspüren dieser Quellen. Um Material zu einer bestimmten Person auffindbar zu machen, werden in der Regel biographische Normdaten bereitgehalten, die als Einstiegspunkt in eine Suche dienen. Der Begriff "Normdaten" kann unter zwei Aspekten verstanden werden: 1. Vergabe und Verwendung einer eindeutigen Kennung für eine Person, um sie in verschiedenen Systemen zu finden und 2. als eine normierte Schreibweise, um biographische Daten zu einer Person so aufzuschreiben, dass die Daten interoperabel, also auch außerhalb des ursprünglichen Systems (nach-)genutzt werden können.
    Source
    Archivar. 70(2017) H.1, S.22-25
  6. Russell, B.M.; Spillane, J.L.: Using the Web for name authority work (2001) 0.02
    0.016901484 = product of:
      0.08450742 = sum of:
        0.06842567 = weight(_text_:web in 167) [ClassicSimilarity], result of:
          0.06842567 = score(doc=167,freq=12.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.6182494 = fieldWeight in 167, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=167)
        0.016081754 = product of:
          0.03216351 = sum of:
            0.03216351 = weight(_text_:22 in 167) [ClassicSimilarity], result of:
              0.03216351 = score(doc=167,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.2708308 = fieldWeight in 167, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=167)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    While many catalogers are using the Web to find the information they need to perform authority work quickly and accurately, the full potential of the Web to assist catalogers in name authority work has yet to be realized. The ever-growing nature of the Web means that available information for creating personal name, corporate name, and other types of headings will increase. In this article, we examine ways in which simple and effective Web searching can save catalogers time and money in the process of authority work. In addition, questions involving evaluating authority information found on the Web are explored.
    Date
    10. 9.2000 17:38:22
  7. Balzer, D.; Fischer, B.K.; Kett, J.; Laux, S.; Lill, J.M.; Lindenthal, J.; Manecke, M.; Rosenkötter, M.; Vitzthum, A.: ¬Das Projekt "GND für Kulturdaten"; (GND4C) (2019) 0.02
    0.016697666 = product of:
      0.08348832 = sum of:
        0.035472285 = weight(_text_:forschung in 5721) [ClassicSimilarity], result of:
          0.035472285 = score(doc=5721,freq=2.0), product of:
            0.16498606 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03391332 = queryNorm
            0.21500172 = fieldWeight in 5721, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03125 = fieldNorm(doc=5721)
        0.048016038 = weight(_text_:daten in 5721) [ClassicSimilarity], result of:
          0.048016038 = score(doc=5721,freq=4.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.2974733 = fieldWeight in 5721, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03125 = fieldNorm(doc=5721)
      0.2 = coord(2/10)
    
    Abstract
    Die zunehmende Präsenz von Museen, Archiven, Forschungs- und anderen Kulturgut verwahrenden Einrichtungen mit ihren Sammlungsobjekten im Internet verstärkt das Bedürfnis nach Vernetzung der Daten. Eine Voraussetzung für die semantische Verknüpfung von Datensätzen sind gemeinsam verwendete Normdaten. Die Gemeinsame Normdatei (GND), geführt von der Deutschen Nationalbibliothek, ist ein weithin anerkanntes Vokabular für die Beschreibung und das Information­Retrieval in der Bibliothekswelt. Veröffentlicht als Linked Open Data, unterstützt die GND semantische Interoperabilität und Nachnutzung von Daten. Objekte aus verschiedenen Häusern können zusammen aufgefunden werden und disziplinenübergreifende Forschung wird erleichtert. Doch um die GND sparten­ und fächerübergreifend öffnen zu können, muss sie an die neuen Anforderungen angepasst und aktiv zwischen den Communities geteilt werden. In den vier Teilen des Beitrags geben Mitarbeiterinnen und Mitarbeiter des DFG­geförderten Projekts "GND für Kulturdaten" (GND4C) einen Einblick in den Stand der Untersuchungen, welche konzeptuellen Veränderungen erforderlich sein werden und wo sich die GND bereits heute als flexibel genug für die Wünsche der neuen Anwendungen erweist.
  8. Kasprzik, A.; Kett, J.: Vorschläge für eine Weiterentwicklung der Sacherschließung und Schritte zur fortgesetzten strukturellen Aufwertung der GND (2018) 0.01
    0.01413177 = product of:
      0.07065885 = sum of:
        0.028218271 = weight(_text_:web in 4599) [ClassicSimilarity], result of:
          0.028218271 = score(doc=4599,freq=4.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.25496176 = fieldWeight in 4599, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.04244058 = weight(_text_:daten in 4599) [ClassicSimilarity], result of:
          0.04244058 = score(doc=4599,freq=2.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.26293173 = fieldWeight in 4599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
      0.2 = coord(2/10)
    
    Abstract
    Aufgrund der fortgesetzten Publikationsflut stellt sich immer dringender die Frage, wie die Schwellen für die Titel- und Normdatenpflege gesenkt werden können - sowohl für die intellektuelle als auch die automatisierte Sacherschließung. Zu einer Verbesserung der Daten- und Arbeitsqualität in der Sacherschließung kann beigetragen werden a) durch eine flexible Visualisierung der Gemeinsamen Normdatei (GND) und anderer Wissensorganisationssysteme, so dass deren Graphstruktur intuitiv erfassbar wird, und b) durch eine investigative Analyse ihrer aktuellen Struktur und die Entwicklung angepasster automatisierter Methoden zur Ermittlung und Korrektur fehlerhafter Muster. Die Deutsche Nationalbibliothek (DNB) prüft im Rahmen des GND-Entwicklungsprogramms 2017-2021, welche Bedingungen für eine fruchtbare community-getriebene Open-Source-Entwicklung entsprechender Werkzeuge gegeben sein müssen. Weiteres Potential steckt in einem langfristigen Übergang zu einer Darstellung von Titel- und Normdaten in Beschreibungssprachen im Sinne des Semantic Web (RDF; OWL, SKOS). So profitiert die GND von der Interoperabilität mit anderen kontrollierten Vokabularen und von einer erleichterten Interaktion mit anderen Fach-Communities und kann umgekehrt auch außerhalb des Bibliothekswesens zu einem noch attraktiveren Wissensorganisationssystem werden. Darüber hinaus bieten die Ansätze aus dem Semantic Web die Möglichkeit, stärker formalisierte, strukturierende Satellitenvokabulare rund um die GND zu entwickeln. Daraus ergeben sich nicht zuletzt auch neue Perspektiven für die automatisierte Sacherschließung. Es wäre lohnend, näher auszuloten, wie und inwieweit semantisch-logische Verfahren den bestehenden Methodenmix bereichern können.
  9. Ansorge, K.: Das was 2007 (2007) 0.01
    0.01239111 = product of:
      0.06195555 = sum of:
        0.0099766655 = weight(_text_:web in 2405) [ClassicSimilarity], result of:
          0.0099766655 = score(doc=2405,freq=2.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.09014259 = fieldWeight in 2405, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2405)
        0.051978882 = weight(_text_:daten in 2405) [ClassicSimilarity], result of:
          0.051978882 = score(doc=2405,freq=12.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.3220243 = fieldWeight in 2405, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2405)
      0.2 = coord(2/10)
    
    Content
    Darin u.a: "Netzpublikationen - Die DNB hat mit Inkrafttreten des Gesetzes über die Deutsche Nationalbibliothek im Jahr 2006 den Auftrag der Sammlung, Erschließung, Verzeichnung und Archivierung von Netzpublikationen erhalten. Zum Sammelgebiet Netzpublikationen gehören alle Darstellungen in Schrift, Bild und Ton, die in öffentlichen Netzen zugänglich gemacht werden. Die Abgabepflicht umfasst sowohl Internetveröffentlichungen mit Entsprechungen zum Printbereich als auch webspezifische Medienwerke." "Kataloganreicherung - In Gesprächen mit dem Deutschen Bibliotheksverband und dem Börsenverein des Deutschen Buchhandels hatte sich die DNB bereiterklärt, die Rolle eines zentralen Dienstleisters bei der Verbreitung digitaler Zusatzinformationen zu bibliografischen Daten zu übernehmen. Für die Anreicherung der Daten der Deutschen Nationalbibliografie mit qualitativ hochwertigen Zusatzinformationen (recherchierbare PDF-Dokumente) konnten im Jahr 2007 die Weichen gestellt werden. Seit Jahresbeginn 2008 werden die Inhaltsverzeichnisse der jährlich rund 75.000 monografischen Neuerscheinungen des Verlagsbuchhandels gescannt und als ergänzende bibliografische Daten über das Internet und die Datendienste der DNB angeboten. Im Rahmen der bestehenden Kooperation mit der MVB Marketing- und Verlagsservice des Buchhandels GmbH werden zukünftig neben den Daten des VLB (Verzeichnis Lieferbarer Bücher) auch die entstehenden Zusatzinformationen ausgetauscht."
    "Standardisierung - Auch 2007 ist die Arbeitsstelle für Standardisierung (AfS) auf dem Weg zur Internationalisierung der deutschen Regelwerke, Formate und Normdateien entscheidende Schritte vorangekommen. Im Mittelpunkt der Vorbereitungen für den Format-umstieg standen eine Konkordanz von MAB2 nach MARC 21 und die Festlegung neuer Felder, die für den Umstieg auf nationaler Ebene notwendig sind. Neben einer Vielzahl anderer Aktivitäten hat die DNB zwei Veranstaltungen zum Format-umstieg durchgeführt. In Zusammenarbeit mit den Expertengruppen des Standardisierungsausschusses wurden drei Stellungnahmen zu Entwürfen des Regelwerkes »Resource Description and Access (RDA)« erarbeitet; es fand eine Beteiligung an der internationalen Diskussion zu wichtigen Grundlagen statt. Der Erfüllung des Wunsches nach Einführung der Onlinekommunikation mit Normdateien ist die DNB im vergangenen Jahr deutlich nähergekommen: Änderungen an Normdaten sollen gleichzeitig in die zentral bei der DNB gehaltenen Dateien und in der Verbunddatenbank vollzogen werden. Seit Anfang September ist die erste Stufe der Onlinekommunikation im produktiven Einsatz: Die PND-Redaktionen in den Aleph-Verbünden arbeiten online zusammen. Das neue Verfahren wird sich auf alle bei der DNB geführten Normdaten erstrecken und in einem gestuften Verfahren eingeführt werden. Die DNB war in zahlreichen Standardisierungsgremien zur Weiterentwicklung von Metadatenstandards wie z.B. Dublin Core und ONIX (Online Information eXchange) sowie bei den Entwicklungsarbeiten für The European Library beteiligt. Die Projektarbeiten im Projekt KIM - Kompetenzzentrum Interoperable Metadaten wurden maßgeblich unterstützt. Im Rahmen der Arbeiten zum Gesetz über die Deutsche Nationalbibliothek wurde ein Metadatenkernset für die Übermittlung von Metadaten an die DNB entwickelt und in einer ersten Stufe mit einem ONIX-Mapping versehen. Innerhalb des Projektes »Virtual International Authority File - VIAF« entwickelten die Library of Congress (LoC), die DNB und OCLC - zunächst für Personennamen - gemeinsam eine virtuelle, internationale Normdatei, in der die Normdatensätze der nationalen Normdateien im Web frei zugänglich miteinander verbunden werden sollen. Die bisherigen Projektergebnisse haben die Machbarkeit einer internationalen Normdatei eindrucksvoll unter Beweis gestellt. Darum haben die Projektpartner in einem neuen Abkommen, das auch die Bibliothèque Nationale de France einschließt, im Oktober 2007 ihr Engagement für den VIAF nochmals bekräftigt und damit eine Konsolidierungs- und Erweiterungsphase eingeleitet."
    "DDC-Deutsch - Bereits im Jahr 2006 wurde die Dewey-Dezimalklassifikation (DDC) für die inhaltliche Erschließung der in den Reihen B (Monografien und Periodika außerhalb des Verlagsbuchhandels) und H (Hochschulschriften) der Deutschen Nationalbibliografie angezeigten Publikationen eingeführt. Mit Heft 1/2007 hat die DDC auch in der Reihe A (Monografien und Periodika des Verlagsbuchhandels) Einzug gehalten. Die dort angezeigten Publikationen werden zusätzlich wie bisher vollständig mit RSWK Schlagwortketten erschlossen. Die DNB wird damit zum größten europäischen Lieferanten von Dewey-Notationen und nimmt nach der LoC weltweit die zweite Stelle ein. Durch die Integration der Daten der DNB in den WorldCat werden Sichtbarkeit und Nutzungsmöglichkeiten dieses Angebots auch über den deutschsprachigen Raum hinaus verbessert. Um den Informationsaustausch unter den europäischen DDC-Anwendern zu verbessern, europäische Belange in der Klassifikation stärker durchzusetzen und die Verbreitung in Europa gemeinsam mit OCLC zu koordinieren, wurde die EDUG (European DDC Users' Group) gegründet."
    "DDC-vascoda - Das Projekt DDC-vascoda wurde 2007 abgeschlossen. Für den Sucheinstieg bei vascoda wurde bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungs-)Jahr kombiniert werden kann, angeboten. Die Suche konnte zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Vascoda verwendete die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument. Ziel des Projektes DDC-vascoda war es, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Weiterhin wurde ein HTML-Dienst entwickelt, der es Fachportalen und anderen Datenanbietern ermöglicht, ohne großen Programmieraufwand ein DDC-Browsing über die eigenen Daten bereitzustellen."
  10. Wolverton, R.E.: Becoming an authority on authority control : an annotated bibliography of resources (2006) 0.01
    0.011117467 = product of:
      0.055587333 = sum of:
        0.03950558 = weight(_text_:web in 120) [ClassicSimilarity], result of:
          0.03950558 = score(doc=120,freq=4.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.35694647 = fieldWeight in 120, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=120)
        0.016081754 = product of:
          0.03216351 = sum of:
            0.03216351 = weight(_text_:22 in 120) [ClassicSimilarity], result of:
              0.03216351 = score(doc=120,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.2708308 = fieldWeight in 120, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=120)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    Authority control has long been an important part of the cataloging process. However, few studies have been conducted examining how librarians learn about it. Research conducted to date suggests that many librarians learn about authority control on the job rather than in formal classes. To offer an introduction to authority control information for librarians, an annotated bibliography is provided. It includes monographs, articles and papers, electronic discussion groups, Web sites related to professional conferences, additional Web sites related to authority control, and training offered through the Name Authority Cooperative Program and the Subject Authority Cooperative Program. A summary of possible future trends in authority control is also provided.
    Date
    10. 9.2000 17:38:22
  11. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.01
    0.011114505 = product of:
      0.055572525 = sum of:
        0.047450013 = weight(_text_:daten in 632) [ClassicSimilarity], result of:
          0.047450013 = score(doc=632,freq=10.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.29396662 = fieldWeight in 632, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.008122513 = product of:
          0.016245026 = sum of:
            0.016245026 = weight(_text_:22 in 632) [ClassicSimilarity], result of:
              0.016245026 = score(doc=632,freq=4.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.13679022 = fieldWeight in 632, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=632)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Content
    "Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung Matchkey Bei der Verwendung von Meta-Suchmaschinen zur parallelen Recherche in bibliografischen Datenbanken kommt es häufig vor, dass derselbe Titel mehrmals in der Trefferliste auftaucht. In dieser Situation könnte ein so genannter Matchkey Abhilfe schaffen, der jeden Datensatz aus den vorhandenen bibliografischen Daten heraus eindeutig identifiziert. Ein solcher Algorithmus geht von einem bibliografischen Datensatz aus und generiert einen Schlüssel (Matchkey), der wiederum in den Datensatz integriert werden kann. Der Schlüssel muss sortierfähig sein, so dass die Trefferliste nach dem Grad der Ähnlichkeit sortiert werden kann. Eine wichtige Voraussetzung für die erfolgreiche Anwendung des Matchkey ist die Beseitigung der Hausregeln in den Verbünden und Bibliotheken. Bisher hat Die Deutsche Bibliothek das Thema analysiert und strebt nun die Formulierung und Bereitstellung eines ersten Algorithmus an, um eine Implementierung zu Testzwecken voraussichtlich im März/April 2006 zu ermöglichen. Ein klares Ergebnis soll bis Ende 2006 vorliegen.
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."
  12. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.01
    0.01078551 = product of:
      0.05392755 = sum of:
        0.04244058 = weight(_text_:daten in 3780) [ClassicSimilarity], result of:
          0.04244058 = score(doc=3780,freq=2.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.26293173 = fieldWeight in 3780, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.011486968 = product of:
          0.022973936 = sum of:
            0.022973936 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
              0.022973936 = score(doc=3780,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.19345059 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  13. Danowski, P.: Authority files and Web 2.0 : Wikipedia and the PND. An Example (2007) 0.01
    0.010278726 = product of:
      0.051393628 = sum of:
        0.039906662 = weight(_text_:web in 1291) [ClassicSimilarity], result of:
          0.039906662 = score(doc=1291,freq=8.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.36057037 = fieldWeight in 1291, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1291)
        0.011486968 = product of:
          0.022973936 = sum of:
            0.022973936 = weight(_text_:22 in 1291) [ClassicSimilarity], result of:
              0.022973936 = score(doc=1291,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.19345059 = fieldWeight in 1291, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1291)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    More and more users index everything on their own in the web 2.0. There are services for links, videos, pictures, books, encyclopaedic articles and scientific articles. All these services are library independent. But must that really be? Can't libraries help with their experience and tools to make user indexing better? On the experience of a project from German language Wikipedia together with the German person authority files (Personen Namen Datei - PND) located at German National Library (Deutsche Nationalbibliothek) I would like to show what is possible. How users can and will use the authority files, if we let them. We will take a look how the project worked and what we can learn for future projects. Conclusions - Authority files can have a role in the web 2.0 - there must be an open interface/ service for retrieval - everything that is indexed on the net with authority files can be easy integrated in a federated search - O'Reilly: You have to found ways that your data get more important that more it will be used
    Content
    Vortrag anlässlich des Workshops: "Extending the multilingual capacity of The European Library in the EDL project Stockholm, Swedish National Library, 22-23 November 2007".
    Object
    Web 2.0
  14. Qualität in der Inhaltserschließung (2021) 0.01
    0.0099830255 = product of:
      0.049915127 = sum of:
        0.015962664 = weight(_text_:web in 753) [ClassicSimilarity], result of:
          0.015962664 = score(doc=753,freq=2.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.14422815 = fieldWeight in 753, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.033952463 = weight(_text_:daten in 753) [ClassicSimilarity], result of:
          0.033952463 = score(doc=753,freq=2.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.21034539 = fieldWeight in 753, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
      0.2 = coord(2/10)
    
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
  15. Todt, G.H.: Normdaten-Upgrade und -pflege in Bibliotheken in virtuellen Verbünden (2002) 0.01
    0.00882111 = product of:
      0.0882111 = sum of:
        0.0882111 = weight(_text_:daten in 271) [ClassicSimilarity], result of:
          0.0882111 = score(doc=271,freq=6.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.5464934 = fieldWeight in 271, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=271)
      0.1 = coord(1/10)
    
    Abstract
    Während traditionelle Verbünde im regionalen Rahmen eigene Normdateien aufbauen und deren Daten, wenn auch im Einzelfall unter Schwierigkeiten und informationellen Einbußen, den Einzelbibliotheken zukommen lassen, können Bibliotheken in virtuellen Verbünden nicht auf diese Weise zu Norm-daten in ihren lokalen Katalogen kommen. Gleichzeitig besteht für solche Bibliotheken ein erhöhter Bedarf, im lokalen Katalog Normdaten zur Verfügung zu haben, da eine Normdatenunterstützung bei einer OPAC-Abfrage über den virtuellen Gesamtkatalog auf große praktische Probleme stößt und daher i.a. nicht gegeben ist. Ein solche Retrievalunterstützung, deren Sinnhaftigkeit außer Frage steht, ist daher umso notwendiger im lokalen OPAC und sollte deshalb in jedem Falle verwirklicht sein. Wegen des Fehlens regionaler Normdateien liegt es für Bibliotheken in virtuellen Verbünden mehr als nahe, zu diesem Zwecke auf die Daten der überregionalen Normdateien zuzugreifen. Das im folgenden zu schildernde Konzept, das an der UB der Europa-Universität in Frankfurt an der Oder durchgeführt wurde und wird, möchte hier gangbare Wege aufzeigen.
  16. Hickey, T.B.; Toves, J.; O'Neill, E.T.: NACO normalization : a detailed examination of the authority file comparison rules (2006) 0.01
    0.008803284 = product of:
      0.044016417 = sum of:
        0.027934663 = weight(_text_:web in 5760) [ClassicSimilarity], result of:
          0.027934663 = score(doc=5760,freq=2.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.25239927 = fieldWeight in 5760, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5760)
        0.016081754 = product of:
          0.03216351 = sum of:
            0.03216351 = weight(_text_:22 in 5760) [ClassicSimilarity], result of:
              0.03216351 = score(doc=5760,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.2708308 = fieldWeight in 5760, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5760)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    Normalization rules are essential for interoperability between bibliographic systems. In the process of working with Name Authority Cooperative Program (NACO) authority files to match records with Functional Requirements for Bibliographic Records (FRBR) and developing the Faceted Application of Subject Terminology (FAST) subject heading schema, the authors found inconsistencies in independently created NACO normalization implementations. Investigating these, the authors found ambiguities in the NACO standard that need resolution, and came to conclusions on how the procedure could be simplified with little impact on matching headings. To encourage others to test their software for compliance with the current rules, the authors have established a Web site that has test files and interactive services showing their current implementation.
    Date
    10. 9.2000 17:38:22
  17. Lehtinen, R.; Clavel-Merrin, G.: Mehrsprachige und verschiedenartige Daten in Bibliothekssystemen und -netzen : Erfahrungen und Perspektiven aus der Schweiz und Finnland (1998) 0.01
    0.008488116 = product of:
      0.08488116 = sum of:
        0.08488116 = weight(_text_:daten in 4186) [ClassicSimilarity], result of:
          0.08488116 = score(doc=4186,freq=2.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.52586347 = fieldWeight in 4186, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.078125 = fieldNorm(doc=4186)
      0.1 = coord(1/10)
    
  18. Hubrich, J.: Input und Output der Schlagwortnormdatei (SWD) : Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2007) 0.01
    0.0072024055 = product of:
      0.072024055 = sum of:
        0.072024055 = weight(_text_:daten in 1841) [ClassicSimilarity], result of:
          0.072024055 = score(doc=1841,freq=4.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.44620997 = fieldWeight in 1841, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=1841)
      0.1 = coord(1/10)
    
    Abstract
    Die kooperative Führung der Schlagwortnormdatei und die Gewährleistung der Qualität der in ihr enthaltenen Daten sind mit einem enormen Aufwand verbunden, der durch den Einsatz der EDV und geeignete Organisationsstrukturen nur geringfügig reduziert werden kann. Die Erstellung der SWD-Normdatensätze bleibt aufgrund der Vielzahl der den Ansetzungsformen beizufügenden Zusatzinformationen wie Codes, Notationen und Relationen relativ zeitintensiv. Diese lassen jedoch auch die SWD besonders wertvoll für die Recherche werden, da sie die Wiederauffindbarkeit der Daten unterstützen. Während die Schlagwortsuche in deutschen OPACs weit verbreitet ist, haben Codes, Notationen und Relationen bisher nur geringfügig Eingang in den OPAC gefunden. Bei einer Untersuchung von 111 Online-Katalogen wurde festgestellt, dass kein einziger OPAC all die Möglichkeiten nutzt, die mit der SWD gegeben sind. Am meisten werden noch Synonyme und - in geringerem Maße - hierarchische und assoziative Relationen zur Verbesserung des Recalls und zur Benutzerführung eingesetzt. Codes und Notationen finden nur vereinzelt Anwendung.
  19. Hubrich, J.: Input und Output der Schlagwortnormdatei (SWD) : Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2005) 0.01
    0.0072024055 = product of:
      0.072024055 = sum of:
        0.072024055 = weight(_text_:daten in 2222) [ClassicSimilarity], result of:
          0.072024055 = score(doc=2222,freq=4.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.44620997 = fieldWeight in 2222, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=2222)
      0.1 = coord(1/10)
    
    Abstract
    Die kooperative Führung der Schlagwortnormdatei und die Gewährleistung der Qualität der in ihr enthaltenen Daten sind mit einem enormen Aufwand verbunden, der durch den Einsatz der EDV und geeignete Organisationsstrukturen nur geringfügig reduziert werden kann. Die Erstellung der SWD-Normdatensätze bleibt aufgrund der Vielzahl der den Ansetzungsformen beizufügenden Zusatzinformationen wie Codes, Notationen und Relationen relativ zeitintensiv. Diese lassen jedoch auch die SWD besonders wertvoll für die Recherche werden, da sie die Wiederauffindbarkeit der Daten unterstützen. Während die Schlagwortsuche in deutschen OPACs weit verbreitet ist, haben Codes, Notationen und Relationen bisher nur geringfügig Eingang in den OPAC gefunden. Bei einer Untersuchung von 111 Online-Katalogen wurde festgestellt, dass kein einziger OPAC all die Möglichkeiten nutzt, die mit der SWD gegeben sind. Am meisten werden noch Synonyme und - in geringerem Maße - hierarchische und assoziative Relationen zur Verbesserung des Recalls und zur Benutzerführung eingesetzt. Codes und Notationen finden nur vereinzelt Anwendung.
  20. Clavel-Merrin, G.: ¬Der Bedarf nach Kooperation bei Erarbeitung und Pflege mehrsprachiger Schlagwortnormdateien (1999) 0.01
    0.0067904927 = product of:
      0.06790493 = sum of:
        0.06790493 = weight(_text_:daten in 4184) [ClassicSimilarity], result of:
          0.06790493 = score(doc=4184,freq=2.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.42069077 = fieldWeight in 4184, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0625 = fieldNorm(doc=4184)
      0.1 = coord(1/10)
    
    Abstract
    Die Aufgabe der Erabeitung, Verwaltung und Pflege mehrsprachiger Schlagwortnormdateien erfordert erheblich Mittel und sollte daher am besten in Kooperation erfolgen. 4 europäische Nationalbibliotheken (die Schweizerische Landesbibliothek, die Bibliothèque de France, Die Deutsche Bibliothek und die British Library) haben gemeinsam eine Machbarkeitsstudie über die Verknüpfung bestehender Schlagwortverzeichnisse in verschiedenen Sprachen erarbeitet, um einen mehrsprachigen Schlagwort-Zugang zu ihren Daten zu ermöglichen

Years

Languages

  • e 34
  • d 28
  • a 1
  • More… Less…

Types

  • a 52
  • el 14
  • m 3
  • b 2
  • r 1
  • s 1
  • x 1
  • More… Less…