Search (23 results, page 1 of 2)

  • × year_i:[2020 TO 2030}
  • × theme_ss:"Metadaten"
  1. Gartner, R.: Metadata in the digital library : building an integrated strategy with XML (2021) 0.07
    0.07018502 = product of:
      0.15039647 = sum of:
        0.044216685 = weight(_text_:allgemeines in 732) [ClassicSimilarity], result of:
          0.044216685 = score(doc=732,freq=4.0), product of:
            0.16533206 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.028978055 = queryNorm
            0.2674417 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.029362889 = weight(_text_:buch in 732) [ClassicSimilarity], result of:
          0.029362889 = score(doc=732,freq=4.0), product of:
            0.13472971 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.028978055 = queryNorm
            0.21793923 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.0066725817 = weight(_text_:und in 732) [ClassicSimilarity], result of:
          0.0066725817 = score(doc=732,freq=4.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.10389221 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.013495741 = product of:
          0.026991483 = sum of:
            0.026991483 = weight(_text_:bibliothekswesen in 732) [ClassicSimilarity], result of:
              0.026991483 = score(doc=732,freq=4.0), product of:
                0.12917466 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.028978055 = queryNorm
                0.20895338 = fieldWeight in 732, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=732)
          0.5 = coord(1/2)
        0.02756406 = weight(_text_:informationswissenschaft in 732) [ClassicSimilarity], result of:
          0.02756406 = score(doc=732,freq=4.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.21115804 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.026991483 = weight(_text_:bibliothekswesen in 732) [ClassicSimilarity], result of:
          0.026991483 = score(doc=732,freq=4.0), product of:
            0.12917466 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.028978055 = queryNorm
            0.20895338 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.0020930099 = product of:
          0.0041860198 = sum of:
            0.0041860198 = weight(_text_:information in 732) [ClassicSimilarity], result of:
              0.0041860198 = score(doc=732,freq=4.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.08228803 = fieldWeight in 732, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=732)
          0.5 = coord(1/2)
      0.46666667 = coord(7/15)
    
    Abstract
    The range of metadata needed to run a digital library and preserve its collections in the long term is much more extensive and complicated than anything in its traditional counterpart. It includes the same 'descriptive' information which guides users to the resources they require but must supplement this with comprehensive 'administrative' metadata: this encompasses technical details of the files that make up its collections, the documentation of complex intellectual property rights and the extensive set needed to support its preservation in the long-term. To accommodate all of this requires the use of multiple metadata standards, all of which have to be brought together into a single integrated whole.
    Classification
    AN 73700: Digitale Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    Content
    Inhalt: 1 Introduction, Aims and Definitions -- 1.1 Origins -- 1.2 From information science to libraries -- 1.3 The central place of metadata -- 1.4 The book in outline -- 2 Metadata Basics -- 2.1 Introduction -- 2.2 Three types of metadata -- 2.2.1 Descriptive metadata -- 2.2.2 Administrative metadata -- 2.2.3 Structural metadata -- 2.3 The core components of metadata -- 2.3.1 Syntax -- 2.3.2 Semantics -- 2.3.3 Content rules -- 2.4 Metadata standards -- 2.5 Conclusion -- 3 Planning a Metadata Strategy: Basic Principles -- 3.1 Introduction -- 3.2 Principle 1: Support all stages of the digital curation lifecycle -- 3.3 Principle 2: Support the long-term preservation of the digital object -- 3.4 Principle 3: Ensure interoperability -- 3.5 Principle 4: Control metadata content wherever possible -- 3.6 Principle 5: Ensure software independence -- 3.7 Principle 6: Impose a logical system of identifiers -- 3.8 Principle 7: Use standards whenever possible -- 3.9 Principle 8: Ensure the integrity of the metadata itself -- 3.10 Summary: the basic principles of a metadata strategy -- 4 Planning a Metadata Strategy: Applying the Basic Principles -- 4.1 Introduction -- 4.2 Initial steps: standards as a foundation -- 4.2.1 'Off-the shelf' standards -- 4.2.2 Mapping out an architecture and serialising it into a standard -- 4.2.3 Devising a local metadata scheme -- 4.2.4 How standards support the basic principles -- 4.3 Identifiers: everything in its place -- 5 XML: The Syntactical Foundation of Metadata -- 5.1 Introduction -- 5.2 What XML looks like -- 5.3 XML schemas -- 5.4 Namespaces -- 5.5 Creating and editing XML -- 5.6 Transforming XML -- 5.7 Why use XML? -- 6 METS: The Metadata Package -- 6.1 Introduction -- 6.2 Why use METS?.
    RVK
    AN 73700: Digitale Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
  2. Assfalg, R.: Metadaten (2023) 0.02
    0.016217157 = product of:
      0.081085786 = sum of:
        0.025163881 = weight(_text_:und in 787) [ClassicSimilarity], result of:
          0.025163881 = score(doc=787,freq=8.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.39180204 = fieldWeight in 787, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=787)
        0.05197529 = weight(_text_:informationswissenschaft in 787) [ClassicSimilarity], result of:
          0.05197529 = score(doc=787,freq=2.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.3981634 = fieldWeight in 787, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=787)
        0.0039466172 = product of:
          0.0078932345 = sum of:
            0.0078932345 = weight(_text_:information in 787) [ClassicSimilarity], result of:
              0.0078932345 = score(doc=787,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.1551638 = fieldWeight in 787, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0625 = fieldNorm(doc=787)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Bei der Betrachtung von Datensätzen in relationalen Datenbanksystemen, von Datenmengen im Kontext von Big Data, von Ausprägungen gängiger XML-Anwendungen oder von Referenzdatenbeständen im Bereich Information und Dokumentation (IuD), fällt eine wichtige Gemeinsamkeit auf: Diese Bestände benötigen eine Beschreibung ihrer inneren Struktur. Bei diesen Strukturbeschreibungen handelt es sich also sozusagen um "Daten über Daten", und diese können kurz gefasst auch als Metadaten bezeichnet werden. Hierzu gehören Syntaxelemente und ggf. eine Spezifikation, wie diese Syntaxelemente angewendet werden.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  3. Sewing, S.: Bestandserhaltung und Archivierung : Koordinierung auf der Basis eines gemeinsamen Metadatenformates in den deutschen und österreichischen Bibliotheksverbünden (2021) 0.01
    0.005129161 = product of:
      0.038468704 = sum of:
        0.026690327 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.026690327 = score(doc=266,freq=16.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.41556883 = fieldWeight in 266, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.011778379 = product of:
          0.023556758 = sum of:
            0.023556758 = weight(_text_:22 in 266) [ClassicSimilarity], result of:
              0.023556758 = score(doc=266,freq=2.0), product of:
                0.101476215 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028978055 = queryNorm
                0.23214069 = fieldWeight in 266, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=266)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    In den Handlungsempfehlungen der Koordinierungsstelle für die Erhaltung des schriftlichen Kulturguts (KEK) von 2015 (KEK-Handlungsempfehlungen) wird ein nationaler Standard bei der Dokumentation von Bestandserhaltung gefordert: "In den Bibliothekskatalogen sollten künftig für den verbundübergreifenden Abgleich Bestandserhaltungsmaßnahmen für die Bestände ab 1851 [.] in standardisierter Form dokumentiert und recherchierbar gemacht werden. Dies bedarf einer gemeinsamen Festlegung mit den Bibliotheksverbünden [.]." In den KEK-Handlungsempfehlungen werden auf der Basis einer im Jahr 2015 erfolgten Erhebung für Monografien fast neun Millionen Bände aus dem Zeitabschnitt 1851-1990 als Pflichtexemplare an Bundes- und Ländereinrichtungen angegeben, die akut vom Papierzerfall bedroht und als erste Stufe einer Gesamtstrategie zu entsäuern sind. Ein Ziel der KEK ist es, standardisierte und zertifizierte Verfahren zur Massenentsäuerung zu fördern. Im Metadatenformat sind zunächst fünf Verfahren der Massenentsäuerung in Form von kontrolliertem Vokabular dokumentiert: DEZ, Mg3/MBG, METE, MgO, MMMC[2]. Mit diesen Angaben, die gezielt selektiert werden können, ist mittel- und langfristig die Anwendung einzelner Verfahren der Massenentsäuerung abrufbar und statistisch auswertbar.
    Date
    22. 5.2021 12:43:05
  4. Qualität in der Inhaltserschließung (2021) 0.00
    0.0047306027 = product of:
      0.03547952 = sum of:
        0.03268884 = weight(_text_:und in 753) [ClassicSimilarity], result of:
          0.03268884 = score(doc=753,freq=54.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.5089658 = fieldWeight in 753, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.0027906797 = product of:
          0.0055813594 = sum of:
            0.0055813594 = weight(_text_:information in 753) [ClassicSimilarity], result of:
              0.0055813594 = score(doc=753,freq=4.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.10971737 = fieldWeight in 753, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.03125 = fieldNorm(doc=753)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Footnote
    Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
    Series
    Bibliotheks- und Informationspraxis; 70
  5. Markus, K.: Metadatenschemata für Forschungsdaten : Generische Standards und Spezifika in der Biologie und den Ingenieurwissenschaften (2020) 0.00
    0.0018160468 = product of:
      0.027240701 = sum of:
        0.027240701 = weight(_text_:und in 133) [ClassicSimilarity], result of:
          0.027240701 = score(doc=133,freq=24.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.42413816 = fieldWeight in 133, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=133)
      0.06666667 = coord(1/15)
    
    Abstract
    Forschungsdaten sind von zunehmender Wichtigkeit für die Wissenschaft, Forschungsförderer und schließlich auch für die Arbeit an Bibliotheken. Sie sollen nicht nur veröffentlicht werden, sondern nach ihrer Publikation auch auffindbar und nachnutzbar sein, wie von den FAIR-Prinzipien gefordert. Die beschreibenden Metadaten müssen daher in ausreichendem Detail vorliegen, sowie standardisiert und maschinenverwendbar sein, um den Datenaustausch zu ermöglichen. Im Zuge dieser Entwicklung haben sich verschiedene Metadatenschemata und weitere Metadatenstandards sowohl für eine generische Beschreibung von Forschungsdaten, als auch für fachspezifische Metadaten einer Wissenschaftsdisziplin oder -teildisziplin etabliert. In diesem Beitrag wird eine Auswahl von weitverbreiteten generischen Standards sowie exemplarisch einzelne fachspezifische Standards aus der Biologie und den Ingenieurwissenschaft vorgestellt. Dabei wird auch die Kultur des Datenaustausches in den behandelten Fachdisziplinen beleuchtet, in dessen Kontext sich die entsprechenden Metadatenschemata herausbildet haben. Weiterhin wird auch ein kurzer Ausblick auf die Plattformen, die den Austausch von Daten- und Metadatenstandards, sowie ihre Weiterentwicklung und ihre Referenz unterstützen einbezogen. Bei der Forschungsdokumentation und entsprechender Anwendung von Metadatenstandards im Forschungsalltag bestehen weiterhin Hürden aufgrund des Aufwandes. Softwareanwendungen die die Dokumentation erleichtern und in die Metadatenschemata integriert werden könnten werden kurz diskutiert. In all diesen Bereichen können sich Bibliotheken unterstützend oder gestaltend einbringen und ihre Expertise gewinnbringend in Kommunikation mit der Wissenschaft zur Verfügung stellen.
  6. Dogtas, G.; Ibitz, M.-P.; Jonitz, F.; Kocher, V.; Poyer, A.,; Stapf, L.: Kritik an rassifizierenden und diskriminierenden Titeln und Metadaten : Praxisorientierte Lösungsansätze (2022) 0.00
    0.0017977946 = product of:
      0.026966918 = sum of:
        0.026966918 = weight(_text_:und in 1828) [ClassicSimilarity], result of:
          0.026966918 = score(doc=1828,freq=12.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.41987535 = fieldWeight in 1828, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1828)
      0.06666667 = coord(1/15)
    
    Abstract
    In den letzten Jahren ist eine Debatte immer stärker in der Öffentlichkeit ausgetragen worden: Wie mit rassistischen Inhalten umgehen? Auch in Bibliotheken, Archiven und Museen muss die Frage gestellt werden, welche Methoden Anwendung finden sollen, um diskriminierende Inhalte nicht weiter zu reproduzieren. Der Beitrag untersucht Methoden im Umgang mit rassifizierendem und diskriminierendem Vokabular sowie den technischen Herausforderungen. Bei dem Versuch praxisorientierte Lösungsansätze zu verhandeln, werden die Bedürfnisse von kuratorischer Verantwortung, Einbeziehung, Nutzung und Bereitstellung diskutiert und in einem Orientierungsleitfaden zusammengeführt.
  7. Klarmann, S.: easydb. Flexibles Framework zum Aufbau von Metadaten- und Medien-Repositorien : Anwendungsfall: Forschungsdaten (2020) 0.00
    0.001482796 = product of:
      0.022241939 = sum of:
        0.022241939 = weight(_text_:und in 58) [ClassicSimilarity], result of:
          0.022241939 = score(doc=58,freq=4.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.34630734 = fieldWeight in 58, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=58)
      0.06666667 = coord(1/15)
    
    Abstract
    Präsentationsfolien zum sehr schönen Vortrag von Herrn Sebastian Klarmann (Software easydb) in der vergangenen Woche am Donnerstag zum Thema "easydb. Flexibles Framework zum Aufbau von Metadaten- und Medien-Repositorien. Anwendungsfall: Forschungsdaten" (vgl. Mail von A. Strauch an Inetbib vom 15.12.2020.
  8. Hauff-Hartig, S.: "Im Dickicht der Einzelheiten" : Herausforderungen und Lösungen für die Erschließung (2022) 0.00
    0.0014678931 = product of:
      0.022018395 = sum of:
        0.022018395 = weight(_text_:und in 498) [ClassicSimilarity], result of:
          0.022018395 = score(doc=498,freq=8.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.34282678 = fieldWeight in 498, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=498)
      0.06666667 = coord(1/15)
    
    Abstract
    "Veränderungen sind nur das Salz des Vergnügens"- dieses Zitat aus Friedrich Schillers "Kabale und Liebe" bildete die Klammer der 38. Tagung der Arbeitsgemeinschaft der Spezialbibliotheken (ASpB), die im 75. Jahr ihres Bestehens stattfand. Im Folgenden wird ein Überblick über die Vorträge und Diskussionen des zweiten Panels gegeben, das ebenso wie die anderen Panels nach literarischen Werken benannt wurde: Wilhelm Genazinos Drama "Im Dickicht der Einzelheiten" steht als Überschrift für die künftige Erschließung in Spezialbibliotheken zwischen Vernetzung und Automatisierung. Moderiert wurde das Panel von Karin Schmidgall vom Deutschen Literaturarchiv Marbach.
  9. Laczny, J.: Fit for Purpose : Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten (2021) 0.00
    0.0014528375 = product of:
      0.02179256 = sum of:
        0.02179256 = weight(_text_:und in 363) [ClassicSimilarity], result of:
          0.02179256 = score(doc=363,freq=6.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.33931053 = fieldWeight in 363, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=363)
      0.06666667 = coord(1/15)
    
    Abstract
    Im Folgenden soll der Frage nachgegangen werden, inwiefern Bibliotheken den Qualitätsanspruch an inhaltserschließende Informationen von Ressourcen durch die Formulierung und Veröffentlichung einer bibliotheksspezifischen, übergeordneten Metadaten-Richtlinie bzw. -Policy - auch im Sinne einer Transparenzoffensive - und deren Anwendung beeinflussen können.
    Series
    Bibliotheks- und Informationspraxis; 70
  10. Neudecker, C.; Zaczynska, K.; Baierer, K.; Rehm, G.; Gerber, M.; Moreno Schneider, J.: Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten (2021) 0.00
    0.0013870286 = product of:
      0.020805428 = sum of:
        0.020805428 = weight(_text_:und in 369) [ClassicSimilarity], result of:
          0.020805428 = score(doc=369,freq=14.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.32394084 = fieldWeight in 369, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=369)
      0.06666667 = coord(1/15)
    
    Abstract
    Durch die systematische Digitalisierung der Bestände in Bibliotheken und Archiven hat die Verfügbarkeit von Bilddigitalisaten historischer Dokumente rasant zugenommen. Das hat zunächst konservatorische Gründe: Digitalisierte Dokumente lassen sich praktisch nach Belieben in hoher Qualität vervielfältigen und sichern. Darüber hinaus lässt sich mit einer digitalisierten Sammlung eine wesentlich höhere Reichweite erzielen, als das mit dem Präsenzbestand allein jemals möglich wäre. Mit der zunehmenden Verfügbarkeit digitaler Bibliotheks- und Archivbestände steigen jedoch auch die Ansprüche an deren Präsentation und Nachnutzbarkeit. Neben der Suche auf Basis bibliothekarischer Metadaten erwarten Nutzer:innen auch, dass sie die Inhalte von Dokumenten durchsuchen können. Im wissenschaftlichen Bereich werden mit maschinellen, quantitativen Analysen von Textmaterial große Erwartungen an neue Möglichkeiten für die Forschung verbunden. Neben der Bilddigitalisierung wird daher immer häufiger auch eine Erfassung des Volltextes gefordert. Diese kann entweder manuell durch Transkription oder automatisiert mit Methoden der Optical Character Recognition (OCR) geschehen (Engl et al. 2020). Der manuellen Erfassung wird im Allgemeinen eine höhere Qualität der Zeichengenauigkeit zugeschrieben. Im Bereich der Massendigitalisierung fällt die Wahl aus Kostengründen jedoch meist auf automatische OCR-Verfahren.
    Series
    Bibliotheks- und Informationspraxis; 70
  11. Sprenger, M.: Best-Practice-Guide für das Metadatenschema DataCite (2020) 0.00
    0.0012581941 = product of:
      0.018872911 = sum of:
        0.018872911 = weight(_text_:und in 5597) [ClassicSimilarity], result of:
          0.018872911 = score(doc=5597,freq=8.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.29385152 = fieldWeight in 5597, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5597)
      0.06666667 = coord(1/15)
    
    Abstract
    "Kürzlich erschien Best-Practice-Guide für das Metadatenschema DataCite aufmerksam machen, der in Zusammenarbeit einiger Münchner Institutionen in Verbindung mit dem Modellprojekt "eHumanities - interdisziplinär" entstanden ist: https://doi.org/10.5281/zenodo.3559800. Der Guide, der unter Beteiligung des Leibniz-Rechenzentrums der Bayerischen Akademie der Wissenschaften, der IT-Gruppe Geisteswissenschaften (LMU) und der Universitätsbibliothek der LMU erstellt wurde, stellt eine Empfehlung für den Einsatz von DataCite (https://schema.datacite.org/) an den beteiligten Institutionen dar. Dabei ist er so formuliert, dass er sich problemlos auf andere Institutionen oder Szenarien übertragen lässt. Die einzelnen Teile des Guides sowie Anwendungsbeispiele als XML-Dateien sind auf GitHub veröffentlicht: https://github.com/UB-LMU/DataCite_BestPracticeGuide . Das Repositorium kann und soll gerne für Feedback genutzt werden. Um die Befüllung der DataCite-Felder zu erleichtern, wurde durch die IT-Gruppe Geisteswissenschaften der bereits verfügbare DataCite-Generator aktualisiert und mit Erklärungen aus dem Best-Practice-Guide verlinkt: https://dhvlab.gwi.uni-muenchen.de/datacite-generator/ ; der Quellcode ist ebenfalls verfügbar: https://github.com/UB-LMU/datacite-metadata-generator. Weitere Informationen zum Best-Practice-Guide finden Sie in der Begleitpublikation "Standardisierung eines Standards: Warum und wie ein Best-Practice-Guide für das Metadatenschema DataCite entstand" (http://www.kit.gwi.uni-muenchen.de/?p=42800)."
  12. Morrow, G.; Swire-Thompson, B.; Montgomery Polny, J.; Kopec, M.; Wihbey, J.P.: ¬The emerging science of content labeling : contextualizing social media content moderation (2022) 0.00
    3.9466174E-4 = product of:
      0.005919926 = sum of:
        0.005919926 = product of:
          0.011839852 = sum of:
            0.011839852 = weight(_text_:information in 660) [ClassicSimilarity], result of:
              0.011839852 = score(doc=660,freq=8.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.23274569 = fieldWeight in 660, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046875 = fieldNorm(doc=660)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    In the online information ecosystem, a content label is an attachment to a piece of content intended to contextualize that content for the viewer. Content labels are information about information, such as fact-checks or sensitive content warnings. Research into content labeling is nascent, but growing; researchers have made strides toward understanding labeling best practices to deal with issues such as disinformation, and misleading content that may affect everything from voting to health. To make this review tractable, we focus on compiling the literature that can contextualize labeling effects and consequences. This review summarizes the central labeling literature, highlights gaps for future research, discusses considerations for social media, and explores definitions toward a taxonomy. Specifically, this article discusses the particulars of content labels, their presentation, and the effects of various labels. The current literature can guide the usage of labels on social media platforms and inform public debate over platform moderation.
    Source
    Journal of the Association for Information Science and Technology. 73(2022) no.10, S.1365-1386
  13. Baroncini, S.; Sartini, B.; Erp, M. Van; Tomasi, F.; Gangemi, A.: Is dc:subject enough? : A landscape on iconography and iconology statements of knowledge graphs in the semantic web (2023) 0.00
    3.7209064E-4 = product of:
      0.0055813594 = sum of:
        0.0055813594 = product of:
          0.011162719 = sum of:
            0.011162719 = weight(_text_:information in 1030) [ClassicSimilarity], result of:
              0.011162719 = score(doc=1030,freq=16.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.21943474 = fieldWeight in 1030, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1030)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    In the last few years, the size of Linked Open Data (LOD) describing artworks, in general or domain-specific Knowledge Graphs (KGs), is gradually increasing. This provides (art-)historians and Cultural Heritage professionals with a wealth of information to explore. Specifically, structured data about iconographical and iconological (icon) aspects, i.e. information about the subjects, concepts and meanings of artworks, are extremely valuable for the state-of-the-art of computational tools, e.g. content recognition through computer vision. Nevertheless, a data quality evaluation for art domains, fundamental for data reuse, is still missing. The purpose of this study is filling this gap with an overview of art-historical data quality in current KGs with a focus on the icon aspects. Design/methodology/approach This study's analyses are based on established KG evaluation methodologies, adapted to the domain by addressing requirements from art historians' theories. The authors first select several KGs according to Semantic Web principles. Then, the authors evaluate (1) their structures' suitability to describe icon information through quantitative and qualitative assessment and (2) their content, qualitatively assessed in terms of correctness and completeness. Findings This study's results reveal several issues on the current expression of icon information in KGs. The content evaluation shows that these domain-specific statements are generally correct but often not complete. The incompleteness is confirmed by the structure evaluation, which highlights the unsuitability of the KG schemas to describe icon information with the required granularity. Originality/value The main contribution of this work is an overview of the actual landscape of the icon information expressed in LOD. Therefore, it is valuable to cultural institutions by providing them a first domain-specific data quality evaluation. Since this study's results suggest that the selected domain information is underrepresented in Semantic Web datasets, the authors highlight the need for the creation and fostering of such information to provide a more thorough art-historical dimension to LOD.
  14. Zavalin, V.: Exploration of subject and genre representation in bibliographic metadata representing works of fiction for children and young adults (2024) 0.00
    3.4178712E-4 = product of:
      0.0051268064 = sum of:
        0.0051268064 = product of:
          0.010253613 = sum of:
            0.010253613 = weight(_text_:information in 1152) [ClassicSimilarity], result of:
              0.010253613 = score(doc=1152,freq=6.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.20156369 = fieldWeight in 1152, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1152)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    This study examines subject and genre representation in metadata that describes information resources created for children and young adult audiences. Both quantitative and limited qualitative analyses were applied to the analysis of WorldCat records collected in 2021 and contributed by the Children's and Young Adults' Cataloging Program at the US Library of Congress. This dataset contains records created several years prior to the data collection point and edited by various OCLC member institutions. Findings provide information on the level and patterns of application of these kinds of metadata important for information access, with a focus on the fields, subfields, and controlled vocabularies used. The discussion of results includes a detailed evaluation of genre and subject metadata quality (accuracy, completeness, and consistency).
  15. Skare, R.: Paratext (2020) 0.00
    2.6310782E-4 = product of:
      0.0039466172 = sum of:
        0.0039466172 = product of:
          0.0078932345 = sum of:
            0.0078932345 = weight(_text_:information in 20) [ClassicSimilarity], result of:
              0.0078932345 = score(doc=20,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.1551638 = fieldWeight in 20, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0625 = fieldNorm(doc=20)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    This article presents Gérard Genette's concept of the paratext by defining the term and by describing its characteristics. The use of the concept in disciplines other than literary studies and for media other than printed books is discussed. The last section shows the relevance of the concept for library and information science in general and for knowledge organization, in which paratext in particular is connected to the concept "metadata."
  16. Yang, T.-H.; Hsieh, Y.-L.; Liu, S.-H.; Chang, Y.-C.; Hsu, W.-L.: ¬A flexible template generation and matching method with applications for publication reference metadata extraction (2021) 0.00
    2.3255666E-4 = product of:
      0.0034883497 = sum of:
        0.0034883497 = product of:
          0.0069766995 = sum of:
            0.0069766995 = weight(_text_:information in 63) [ClassicSimilarity], result of:
              0.0069766995 = score(doc=63,freq=4.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.13714671 = fieldWeight in 63, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=63)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Conventional rule-based approaches use exact template matching to capture linguistic information and necessarily need to enumerate all variations. We propose a novel flexible template generation and matching scheme called the principle-based approach (PBA) based on sequence alignment, and employ it for reference metadata extraction (RME) to demonstrate its effectiveness. The main contributions of this research are threefold. First, we propose an automatic template generation that can capture prominent patterns using the dominating set algorithm. Second, we devise an alignment-based template-matching technique that uses a logistic regression model, which makes it more general and flexible than pure rule-based approaches. Last, we apply PBA to RME on extensive cross-domain corpora and demonstrate its robustness and generality. Experiments reveal that the same set of templates produced by the PBA framework not only deliver consistent performance on various unseen domains, but also surpass hand-crafted knowledge (templates). We use four independent journal style test sets and one conference style test set in the experiments. When compared to renowned machine learning methods, such as conditional random fields (CRF), as well as recent deep learning methods (i.e., bi-directional long short-term memory with a CRF layer, Bi-LSTM-CRF), PBA has the best performance for all datasets.
    Source
    Journal of the Association for Information Science and Technology. 72(2021) no.1, S.32-45
  17. Koho, M.; Burrows, T.; Hyvönen, E.; Ikkala, E.; Page, K.; Ransom, L.; Tuominen, J.; Emery, D.; Fraas, M.; Heller, B.; Lewis, D.; Morrison, A.; Porte, G.; Thomson, E.; Velios, A.; Wijsman, H.: Harmonizing and publishing heterogeneous premodern manuscript metadata as Linked Open Data (2022) 0.00
    2.3255666E-4 = product of:
      0.0034883497 = sum of:
        0.0034883497 = product of:
          0.0069766995 = sum of:
            0.0069766995 = weight(_text_:information in 466) [ClassicSimilarity], result of:
              0.0069766995 = score(doc=466,freq=4.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.13714671 = fieldWeight in 466, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=466)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Manuscripts are a crucial form of evidence for research into all aspects of premodern European history and culture, and there are numerous databases devoted to describing them in detail. This descriptive information, however, is typically available only in separate data silos based on incompatible data models and user interfaces. As a result, it has been difficult to study manuscripts comprehensively across these various platforms. To address this challenge, a team of manuscript scholars and computer scientists worked to create "Mapping Manuscript Migrations" (MMM), a semantic portal, and a Linked Open Data service. MMM stands as a successful proof of concept for integrating distinct manuscript datasets into a shared platform for research and discovery with the potential for future expansion. This paper will discuss the major products of the MMM project: a unified data model, a repeatable data transformation pipeline, a Linked Open Data knowledge graph, and a Semantic Web portal. It will also examine the crucial importance of an iterative process of multidisciplinary collaboration embedded throughout the project, enabling humanities researchers to shape the development of a digital platform and tools, while also enabling the same researchers to ask more sophisticated and comprehensive research questions of the aggregated data.
    Source
    Journal of the Association for Information Science and Technology. 73(2022) no.2, S.240-257
  18. Furner, J.: Definitions of "metadata" : a brief survey of international standards (2020) 0.00
    1.9733087E-4 = product of:
      0.002959963 = sum of:
        0.002959963 = product of:
          0.005919926 = sum of:
            0.005919926 = weight(_text_:information in 5912) [ClassicSimilarity], result of:
              0.005919926 = score(doc=5912,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.116372846 = fieldWeight in 5912, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5912)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Source
    Journal of the Association for Information Science and Technology. 71(2020) no.6, S.E33-E42
  19. Vorndran, A.; Grund, S.: Metadata sharing : how to transfer metadata information among work cluster members (2021) 0.00
    1.9733087E-4 = product of:
      0.002959963 = sum of:
        0.002959963 = product of:
          0.005919926 = sum of:
            0.005919926 = weight(_text_:information in 721) [ClassicSimilarity], result of:
              0.005919926 = score(doc=721,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.116372846 = fieldWeight in 721, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046875 = fieldNorm(doc=721)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
  20. Hansson, K.; Dahlgren, A.: Open research data repositories : practices, norms, and metadata for sharing images (2022) 0.00
    1.6444239E-4 = product of:
      0.0024666358 = sum of:
        0.0024666358 = product of:
          0.0049332716 = sum of:
            0.0049332716 = weight(_text_:information in 472) [ClassicSimilarity], result of:
              0.0049332716 = score(doc=472,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.09697737 = fieldWeight in 472, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=472)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Source
    Journal of the Association for Information Science and Technology. 73(2022) no.2, S.303-316

Languages

  • e 13
  • d 10

Types