Search (58 results, page 1 of 3)

  • × year_i:[2020 TO 2030}
  • × theme_ss:"Formalerschließung"
  1. Wiesenmüller, H.: Formale Erschließung (2023) 0.02
    0.017785288 = product of:
      0.053355865 = sum of:
        0.010709076 = weight(_text_:in in 784) [ClassicSimilarity], result of:
          0.010709076 = score(doc=784,freq=8.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18034597 = fieldWeight in 784, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.042646788 = weight(_text_:und in 784) [ClassicSimilarity], result of:
          0.042646788 = score(doc=784,freq=18.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.4407773 = fieldWeight in 784, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
      0.33333334 = coord(2/6)
    
    Abstract
    Bei der formalen Erschließung bzw. Formalerschließung, die auch als formale Analyse, formale Erfassung, Formalbeschreibung oder (Formal-)Katalogisierung bezeichnet wird, "werden Ressourcen gemäß festgelegten Regeln nach äußerlichen, formalen Kriterien beschrieben und auffindbar gemacht". Diese Ressourcen können alle Arten von physischen und digitalen Objekten sein, die z. B. in Bibliotheken, Archiven, Museen oder Dokumentationsstellen gesammelt oder verzeichnet werden. Formale Aspekte bei einem gedruckten Buch sind u. a. der*die Autor*in, der Titel, der Verlag, das Erscheinungsdatum, der Umfang und die ISBN. Bei einer Skulptur sind es u. a. der*die Künstler*in, das Entstehungsdatum, Werkstoff und Technik, die Maße und die Besitzgeschichte. Bei einem im Internet zur Verfügung gestellten digitalen Foto sind es u. a. der*die Fotograf*in, der Zeitpunkt der Aufnahme und die Koordinaten des Aufnahmeorts, technische Daten zur Aufnahme (z. B. Belichtungszeit), der Dateiname, das Dateiformat und die Dateigröße sowie die URL und ggf. ein Persistent Identifier (z. B. DOI oder URN).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  2. Behrens, R.: Beta-Version der STA-Dokumentationsplattform geht in die interne Review-Phase (2023) 0.02
    0.01587231 = product of:
      0.04761693 = sum of:
        0.014110449 = weight(_text_:in in 910) [ClassicSimilarity], result of:
          0.014110449 = score(doc=910,freq=20.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.2376267 = fieldWeight in 910, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=910)
        0.03350648 = weight(_text_:und in 910) [ClassicSimilarity], result of:
          0.03350648 = score(doc=910,freq=16.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.34630734 = fieldWeight in 910, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=910)
      0.33333334 = coord(2/6)
    
    Content
    "Das Projekt "3R-Projekt für DACH-Bibliotheken" ist Ende 2022 erfolgreich zu Ende gegangen. Es wurde von der DNB geleitet und für die Durchführung hatte der Standardisierungsausschuss (STA) die Fachgruppe Erschließung beauftrag, in der Kolleg*innen aus Österreich, Deutschland und der Schweiz zusammenarbeiten. Das Projekt hatte zum Ziel, ein Handbuch für die Erschließung in Bibliotheken im deutschsprachigen Raum auszuarbeiten, das die Kontinuität in der Erschließung gewährleistet. Parallel zu diesem Projekt wurde an der Entwicklung einer Online-Plattform gearbeitet. In dieser neuen STA-Dokumentationsplattform wird das Erschließungshandbuch unter dem Namen "RDA-DACH" veröffentlich werden. Technische Basis der STA-Dokumentationsplattform ist Wikibase und in der Zukunft sollen alle Regelungen für die Erschließung und die GND dort zugänglich gemacht werden. In den letzten Monaten wurde verstärkt an der Entwicklung der Plattform gearbeitet und die Ergebnisse aus dem Erschließungshandbuch in die Wikibase-Umgebung übertragen. Am 1. März 2023 konnte eine Beta-Version der STA Dokumentationsplattform mit den RDA DACH und den GND-Regelungen zur Verfügung gestellt werden. Diese ist zunächst nicht öffentlich, sondern dient einer Evaluierung durch die Fachgruppe Erschließung. Die Ergebnisse dieser Review-Phase werden im Laufe des Frühjahrs eingearbeitet und die Veröffentlichung der STA-Dokumentationsplattform ist für den Sommer 2023 geplant. Daran anschließen werden sich RDA-Praxis-Updates. Dies sind Informationsveranstaltungen für die Kolleg*innen, die bereits mit RDA arbeiten. Schulungen für Neueinsteiger*innen werden zu einem späteren Zeitpunkt folgen. Ebenso werden in diesem ersten Release nur wenige Regelungen für Spezialressourcen enthalten sein. Diese sind zur Zeit in Arbeit und werden im Laufe dieses Jahres folgen."
  3. Menzel, S.; Schnaitter, H.; Zinck, J.; Petras, V.; Neudecker, C.; Labusch, K.; Leitner, E.; Rehm, G.: Named Entity Linking mit Wikidata und GND : das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten (2021) 0.02
    0.015812993 = product of:
      0.04743898 = sum of:
        0.009977593 = weight(_text_:in in 373) [ClassicSimilarity], result of:
          0.009977593 = score(doc=373,freq=10.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.16802745 = fieldWeight in 373, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=373)
        0.037461385 = weight(_text_:und in 373) [ClassicSimilarity], result of:
          0.037461385 = score(doc=373,freq=20.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.3871834 = fieldWeight in 373, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=373)
      0.33333334 = coord(2/6)
    
    Abstract
    Named Entities (benannte Entitäten) - wie Personen, Organisationen, Orte, Ereignisse und Werke - sind wichtige inhaltstragende Komponenten eines Dokuments und sind daher maßgeblich für eine gute inhaltliche Erschließung. Die Erkennung von Named Entities, deren Auszeichnung (Annotation) und Verfügbarmachung für die Suche sind wichtige Instrumente, um Anwendungen wie z. B. die inhaltliche oder semantische Suche in Texten, dokumentübergreifende Kontextualisierung oder das automatische Textzusammenfassen zu verbessern. Inhaltlich präzise und nachhaltig erschlossen werden die erkannten Named Entities eines Dokuments allerdings erst, wenn sie mit einer oder mehreren Quellen verknüpft werden (Grundprinzip von Linked Data, Berners-Lee 2006), die die Entität eindeutig identifizieren und gegenüber gleichlautenden Entitäten disambiguieren (vergleiche z. B. Berlin als Hauptstadt Deutschlands mit dem Komponisten Irving Berlin). Dazu wird die im Dokument erkannte Entität mit dem Entitätseintrag einer Normdatei oder einer anderen zuvor festgelegten Wissensbasis (z. B. Gazetteer für geografische Entitäten) verknüpft, gewöhnlich über den persistenten Identifikator der jeweiligen Wissensbasis oder Normdatei. Durch die Verknüpfung mit einer Normdatei erfolgt nicht nur die Disambiguierung und Identifikation der Entität, sondern es wird dadurch auch Interoperabilität zu anderen Systemen hergestellt, in denen die gleiche Normdatei benutzt wird, z. B. die Suche nach der Hauptstadt Berlin in verschiedenen Datenbanken bzw. Portalen. Die Entitätenverknüpfung (Named Entity Linking, NEL) hat zudem den Vorteil, dass die Normdateien oftmals Relationen zwischen Entitäten enthalten, sodass Dokumente, in denen Named Entities erkannt wurden, zusätzlich auch im Kontext einer größeren Netzwerkstruktur von Entitäten verortet und suchbar gemacht werden können
    Series
    Bibliotheks- und Informationspraxis; 70
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a
  4. Kyprianos, K.; Efthymiou, F.; Kouis, D.: Students' perceptions on cataloging course (2022) 0.01
    0.0149040185 = product of:
      0.044712055 = sum of:
        0.009977593 = weight(_text_:in in 623) [ClassicSimilarity], result of:
          0.009977593 = score(doc=623,freq=10.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.16802745 = fieldWeight in 623, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=623)
        0.03473446 = product of:
          0.06946892 = sum of:
            0.06946892 = weight(_text_:ausbildung in 623) [ClassicSimilarity], result of:
              0.06946892 = score(doc=623,freq=2.0), product of:
                0.23429902 = queryWeight, product of:
                  5.3671665 = idf(docFreq=560, maxDocs=44218)
                  0.043654136 = queryNorm
                0.29649687 = fieldWeight in 623, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3671665 = idf(docFreq=560, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=623)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Cataloging and metadata description is one of the major competencies that a trainee cataloger must conquer. According to recent research results, library and information studies students experience difficulties understanding the theory, the terminology, and the tools necessary for cataloging. The experimental application of teaching models which derive from predominant learning theories, such as behaviorism, cognitivism, and constructivism, may help in detecting the difficulties of a cataloging course and in suggesting efficient solutions. This paper presents in detail three teaching models applied for a cataloging course and investigates their effectiveness, based on a survey of 126 first-year students. The survey employed the Kirkpatrick model aiming to record undergraduate students' perceptions and feelings about cataloging. The results revealed that, although a positive change in students' behavior towards cataloging has been achieved, they still do not feel very confident about the skills they have acquired. Moreover, students felt that practicing cataloging more frequently will eliminate their difficulties. Finally, they emphasized the need for face to face courses, as the survey took place in the coronavirus pandemic, during which the courses were held via distance learning.
    Theme
    Ausbildung
  5. Schrader, A.: ORCID DE 2 erfolgreich beendet (2022) 0.01
    0.01469843 = product of:
      0.04409529 = sum of:
        0.009274333 = weight(_text_:in in 828) [ClassicSimilarity], result of:
          0.009274333 = score(doc=828,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1561842 = fieldWeight in 828, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=828)
        0.034820955 = weight(_text_:und in 828) [ClassicSimilarity], result of:
          0.034820955 = score(doc=828,freq=12.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.35989314 = fieldWeight in 828, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=828)
      0.33333334 = coord(2/6)
    
    Abstract
    "Zum 30. November 2022 wurde das Projekt ORCID DE 2 erfolgreich beendet. Das Projekt wurde in zwei Förderphasen ( <http://doi.org/10.2312/lis.16.01> 2016 bis 2019 und <https://doi.org/10.2312/lis.20.01> 2020 bis 2022) von der Deutschen Forschungsgemeinschaft (DFG) gefördert und von der Deutschen Initiative für Netzwerkinformation (DINI) initiiert. ORCID spielt auf der Ebene nationaler Standards, wie dem DINI-Zertifikat und dem Kerndatensatz Forschung (KDSF), aber auch auf lokaler Ebene in den wissenschaftlichen Einrichtungen eine zentrale Rolle. Die Notwendigkeit und der Nutzen von Persistent Identifiern zur dauerhaft verlässlichen Identifizierung der mit Forschungsprozessen verknüpften Ressourcen, der Akteure und ihrer Forschungsprodukte wird anhand von ORCID besonders deutlich. Was im Projekt erreicht wurde und wie es nach Ende des Projektes weiter geht, lesen Sie in folgendem Blogpost: https://www.orcid-de.org/support/blogbeitraege/projekt-orcid-de-2-erfolgreich-beendet Die Mailingliste "ORCID DE Dialog" (<https://www.listserv.dfn.de/sympa/subscribe/orcid-de-dialog?previous_action=info> hier zu abonnieren) bleibt für den Austausch aller ORCID-Interessierten weiterhin geöffnet."
  6. Uhlemann, S.; Hammer, A.: Retrokonversion von 1,2 Millionen Zettelkarten in 1,5 Jahren (2021) 0.01
    0.0146632595 = product of:
      0.043989778 = sum of:
        0.010820055 = weight(_text_:in in 302) [ClassicSimilarity], result of:
          0.010820055 = score(doc=302,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1822149 = fieldWeight in 302, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=302)
        0.03316972 = weight(_text_:und in 302) [ClassicSimilarity], result of:
          0.03316972 = score(doc=302,freq=8.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.34282678 = fieldWeight in 302, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=302)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Universitäts- und Landesbibliothek Darmstadt (ULB) ließ 2019 und 2020 ihre alten Zettelkataloge durch zwei externe Dienstleister retrokonvertieren. Im Zeitraum von 1,5 Jahren wurden insgesamt rund 1,2 Millionen Zettelkarten bearbeitet. Die zuvor über einen digitalisierten Imagekatalog nur begrenzt recherchierbaren Titel sind nun in den Online-Katalog der ULB integriert und auch über das Suchportal TUfind recherchierbar. Die folgenden Ausführungen berichten über die Ausgangssituation, den Verlauf und das Ergebnis der beiden Retrokonversionsprojekte. Außerdem gibt der Artikel einen Einblick in die Zusammenarbeit mit den beauftragten Unternehmen.
  7. Alker-Windbichler, S.; Bauer, K.-H.; Bruckner, W.; Cerny, N.; Kiegler-Griensteidl, M.; Labner, J.: Exemplarspezifische Erschließung im Österreichischen Bibliothekenverbund : Ergebnisse einer Arbeitsgruppe der Zentralen Redaktion (2022) 0.01
    0.014321823 = product of:
      0.042965468 = sum of:
        0.005354538 = weight(_text_:in in 485) [ClassicSimilarity], result of:
          0.005354538 = score(doc=485,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.09017298 = fieldWeight in 485, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=485)
        0.03761093 = weight(_text_:und in 485) [ClassicSimilarity], result of:
          0.03761093 = score(doc=485,freq=14.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.38872904 = fieldWeight in 485, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=485)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Bedeutung der exemplarspezifischen Erschließung - also der Darstellung von besonderen Merkmalen und der Vorgeschichte eines bestimmten Buches im Katalog - ist in den vergangenen Jahren im Zusammenhang mit der Erforschung und Rekonstruktion alter und wertvoller Bestände, der NS-Provenienzforschung und der Digitalisierung gewachsen. Um gemeinsame Lösungen für die Erschließung, vor allem aber für die verbundweite Darstellung und Suchbarkeit von Exemplarspezifika zu finden, wurde eine Arbeitsgruppe der Zentralen Redaktion des Österreichischen Bibliothekenverbundes eingerichtet. Der Beitrag präsentiert die Ergebnisse der Arbeitsgruppe, die Arbeitsunterlagen für die Erschließung ebenso umfassen wie das Setup der Verbundsuchmaschine, das spezifische Suchen, exemplarspezifische Links und nicht zu-letzt die provisorische Nutzung von Normdaten erlaubt.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 74(2021) H.2, S.205-233
  8. Behrens, R.: RNAB Vokabulare veröffentlicht (2022) 0.01
    0.014321823 = product of:
      0.042965468 = sum of:
        0.005354538 = weight(_text_:in in 804) [ClassicSimilarity], result of:
          0.005354538 = score(doc=804,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.09017298 = fieldWeight in 804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=804)
        0.03761093 = weight(_text_:und in 804) [ClassicSimilarity], result of:
          0.03761093 = score(doc=804,freq=14.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.38872904 = fieldWeight in 804, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=804)
      0.33333334 = coord(2/6)
    
    Abstract
    Mailtext: "Die Arbeitsgruppe RNAB des Standardisierungsausschusses freut sich, eine Aktualisierung der 2019 erstmals veröffentlichten "Ressourcenerschließung mit Normdaten in Archiven und Bibliotheken (RNAB)" vorzulegen. Die vorliegende Fassung ist identisch mit jener im Februar 2022 veröffentlichten Version 1.1, enthält aber an den betreffenden Stellen den Hinweis darauf, dass die jeweils aktuellsten Versionen der kontrollierten Vokabulare und des Glossars online abzurufen sind. Sie finden die aktuelle Fassung der Version 1.1 der RNAB und der kontrollierten Vokabulare und des Glossars unter https://www.dnb.de/rnab auf der Website der Deutschen Nationalbibliothek. Der Standardisierungsausschuss hat der neuen Form der Veröffentlichung der aktualisierten Vokabulare zugestimmt. Ein besonderer Dank geht an das Redaktionsteam der RNAB, Martin Wedl vom Literaturarchiv der Österreichischen Nationalbibliothek, Ralf Breslau von der Staatsbibliothek zu Berlin und Rudolf Probst vom Literaturarchiv der Schweizerischen Nationalbibliothek sowie an Thomas Stern von der Sächsischen Landesbibliothek - Staats- und Universitätsbibliothek Dresden und Jörn Hasenclever von der Deutschen Nationalbibliothek, Deutsches Exilarchiv, die neu zum Redaktionsteam hinzugekommen sind.."
  9. Lackner, K.; Schilhan, L.: ¬Der Einzug der EDV im österreichischen Bibliothekswesen am Beispiel der Universitätsbibliothek Graz (2022) 0.01
    0.0136871245 = product of:
      0.04106137 = sum of:
        0.009274333 = weight(_text_:in in 476) [ClassicSimilarity], result of:
          0.009274333 = score(doc=476,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1561842 = fieldWeight in 476, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=476)
        0.031787038 = weight(_text_:und in 476) [ClassicSimilarity], result of:
          0.031787038 = score(doc=476,freq=10.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.328536 = fieldWeight in 476, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=476)
      0.33333334 = coord(2/6)
    
    Abstract
    Durch den Einsatz von EDV-Systemen kam es ab den 1970er Jahren zu einem radikalen Wandel in der Benutzung und Verwaltung von Universitätsbibliotheken. Die Universitätsbibliothek Graz war die erste Bibliothek in Österreich, die ein elektronisches Bibliothekssystem entwickelte und einsetzte, womit sie zu den Vorreitern in Europa zählte. Dieser Artikel liefert einen historischen Überblick über die Anfänge, die Entwicklung und Verbreitung der elektronischen Bibliothekssysteme im Allgemeinen sowie an der Universitätsbibliothek Graz im Speziellen. Vorgestellt werden die im Lauf der Jahrzehnte an der UB Graz eingesetzten Bibliothekssysteme GRIBS, EMILE, FBInfo, BIBOS, ALEPH und ALMA sowie die Entwicklung von den ersten Online- über die CD-ROM-Datenbanken bis hin zum modernen Datenbank-Retrieval.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 74(2021) H.2, S.171-204
  10. Behrens, R.: Version 1.1 der RNAB erschienen (2022) 0.01
    0.0123805255 = product of:
      0.037141576 = sum of:
        0.005354538 = weight(_text_:in in 803) [ClassicSimilarity], result of:
          0.005354538 = score(doc=803,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.09017298 = fieldWeight in 803, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=803)
        0.031787038 = weight(_text_:und in 803) [ClassicSimilarity], result of:
          0.031787038 = score(doc=803,freq=10.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.328536 = fieldWeight in 803, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=803)
      0.33333334 = coord(2/6)
    
    Abstract
    Mailtext: "die Arbeitsgruppe RNAB des Standardisierungsausschusses freut sich, die Aktualisierung der 2019 erstmals veröffentlichten "Ressourcenerschließung mit Normdaten für Archive und Bibliotheken, (RNAB)" vorzulegen. Die hier präsentierte Version 1.1 ist keine grundsätzlich neue Fassung dieses Regelwerks. Es wurden überwiegend kleine Korrekturen und Ergänzungen im Text vorgenommen. Größere Veränderungen gibt es lediglich bei der stärkeren Abgrenzung des Werkbegriffs gegenüber der RDA und beim kontrollierten Vokabular. Schließlich behandelt das Regelwerk nunmehr die Nachlassbibliotheken als eigenständigen Sammelschwerpunkt. Sie finden die aktualisiert Version 1.1 auf der Website der Deutschen Nationalbibliothek unter DNB - Standards<https://www.dnb.de/DE/Professionell/Standardisierung/Standards/standards_node.html>. Um die Änderungen leichter nachvollziehen zu können, wird zusätzlich eine Fassung mit Markierungen zur Verfügung gestellt. Der Standardisierungsausschuss hat der Aktualisierung in seiner Sitzung im Dezember 2021 zugestimmt und die RNAB zur Anwendung empfohlen. Ein besonderer Dank geht an das Redaktionsteam der RNAB: Martin Wedl (Österreichische Nationalbibliothek), Ralf Breslau (Staatsbibliothek zu Berlin) und Rudolf Probst (Schweizerische Nationalbibliothek)."
  11. Morris, V.: Automated language identification of bibliographic resources (2020) 0.01
    0.012007969 = product of:
      0.036023907 = sum of:
        0.012365777 = weight(_text_:in in 5749) [ClassicSimilarity], result of:
          0.012365777 = score(doc=5749,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.2082456 = fieldWeight in 5749, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=5749)
        0.02365813 = product of:
          0.04731626 = sum of:
            0.04731626 = weight(_text_:22 in 5749) [ClassicSimilarity], result of:
              0.04731626 = score(doc=5749,freq=2.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.30952093 = fieldWeight in 5749, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5749)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    This article describes experiments in the use of machine learning techniques at the British Library to assign language codes to catalog records, in order to provide information about the language of content of the resources described. In the first phase of the project, language codes were assigned to 1.15 million records with 99.7% confidence. The automated language identification tools developed will be used to contribute to future enhancement of over 4 million legacy records.
    Date
    2. 3.2020 19:04:22
  12. Schrader, A.C.: ORCID DE Monitor online! (2021) 0.01
    0.010872297 = product of:
      0.03261689 = sum of:
        0.008924231 = weight(_text_:in in 292) [ClassicSimilarity], result of:
          0.008924231 = score(doc=292,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.15028831 = fieldWeight in 292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=292)
        0.02369266 = weight(_text_:und in 292) [ClassicSimilarity], result of:
          0.02369266 = score(doc=292,freq=2.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.24487628 = fieldWeight in 292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=292)
      0.33333334 = coord(2/6)
    
    Abstract
    Der ORCID DE Monitor ist ein Instrument zur Analyse der Nutzung der ORCID iD in der wissenschaftlichen Publikationslandschaft und wurde federführend durch die Universitätsbibliothek der Universität Bielefeld entwickelt. Mit der Vorstellung des Prototyps auf dem 109. Bibliothekartag wurde ein weiterer Meilenstein im Projekt ORCID DE erreicht.
  13. Das, S.; Paik, J.H.: Gender tagging of named entities using retrieval-assisted multi-context aggregation : an unsupervised approach (2023) 0.01
    0.00990557 = product of:
      0.02971671 = sum of:
        0.011973113 = weight(_text_:in in 941) [ClassicSimilarity], result of:
          0.011973113 = score(doc=941,freq=10.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.20163295 = fieldWeight in 941, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=941)
        0.017743597 = product of:
          0.035487194 = sum of:
            0.035487194 = weight(_text_:22 in 941) [ClassicSimilarity], result of:
              0.035487194 = score(doc=941,freq=2.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.23214069 = fieldWeight in 941, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=941)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Inferring the gender of named entities present in a text has several practical applications in information sciences. Existing approaches toward name gender identification rely exclusively on using the gender distributions from labeled data. In the absence of such labeled data, these methods fail. In this article, we propose a two-stage model that is able to infer the gender of names present in text without requiring explicit name-gender labels. We use coreference resolution as the backbone for our proposed model. To aid coreference resolution where the existing contextual information does not suffice, we use a retrieval-assisted context aggregation framework. We demonstrate that state-of-the-art name gender inference is possible without supervision. Our proposed method matches or outperforms several supervised approaches and commercially used methods on five English language datasets from different domains.
    Date
    22. 3.2023 12:00:14
  14. Schrader, A.: ORCID DE 2 erfolgreich beendet (2022) 0.01
    0.008473134 = product of:
      0.0254194 = sum of:
        0.008834538 = weight(_text_:in in 824) [ClassicSimilarity], result of:
          0.008834538 = score(doc=824,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.14877784 = fieldWeight in 824, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=824)
        0.01658486 = weight(_text_:und in 824) [ClassicSimilarity], result of:
          0.01658486 = score(doc=824,freq=2.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.17141339 = fieldWeight in 824, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=824)
      0.33333334 = coord(2/6)
    
    Abstract
    "auch wenn das Projekt ORCID DE abgeschlossen wurde [wir berichteten dazu am 06.12.22 <https://www.orcid-de.org/support/blogbeitraege/projekt-orcid-de-2-erfolgreich-beendet> ], wird selbstverständlich weiter an der Verbreitung von ORCID und seiner Verzahnung mit weiteren PID-Systemen in Deutschland gearbeitet. Daher können wir Ihnen heute mitteilen, dass die DNB vor kurzem einen weiteren Claiming-Service produktiv genommen hat: "GND Network". Forschende können über die bereits bekannten Schritte des ORCID-Search-&-Link-Service mit wenigen Klicks die Metadaten ihrer Publikationen aus zahlreichen Katalogen des GND-Netzwerks in das eigene ORCID-Profil übernehmen. Den ORCID-Nutzenden stehen somit Metadaten vieler weiterer Publikationen zur Verfügung, was es ihnen erleichtert, ihre Publikationsliste im ORCID-Record aktuell zu halten. Mehr dazu lesen Sie hier: https://www.orcid-de.org/support/blogbeitraege/dritter-claiming-service-produktiv".
  15. Zhang, L.; Lu, W.; Yang, J.: LAGOS-AND : a large gold standard dataset for scholarly author name disambiguation (2023) 0.01
    0.008254642 = product of:
      0.024763925 = sum of:
        0.009977593 = weight(_text_:in in 883) [ClassicSimilarity], result of:
          0.009977593 = score(doc=883,freq=10.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.16802745 = fieldWeight in 883, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=883)
        0.014786332 = product of:
          0.029572664 = sum of:
            0.029572664 = weight(_text_:22 in 883) [ClassicSimilarity], result of:
              0.029572664 = score(doc=883,freq=2.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.19345059 = fieldWeight in 883, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=883)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    In this article, we present a method to automatically build large labeled datasets for the author ambiguity problem in the academic world by leveraging the authoritative academic resources, ORCID and DOI. Using the method, we built LAGOS-AND, two large, gold-standard sub-datasets for author name disambiguation (AND), of which LAGOS-AND-BLOCK is created for clustering-based AND research and LAGOS-AND-PAIRWISE is created for classification-based AND research. Our LAGOS-AND datasets are substantially different from the existing ones. The initial versions of the datasets (v1.0, released in February 2021) include 7.5 M citations authored by 798 K unique authors (LAGOS-AND-BLOCK) and close to 1 M instances (LAGOS-AND-PAIRWISE). And both datasets show close similarities to the whole Microsoft Academic Graph (MAG) across validations of six facets. In building the datasets, we reveal the variation degrees of last names in three literature databases, PubMed, MAG, and Semantic Scholar, by comparing author names hosted to the authors' official last names shown on the ORCID pages. Furthermore, we evaluate several baseline disambiguation methods as well as the MAG's author IDs system on our datasets, and the evaluation helps identify several interesting findings. We hope the datasets and findings will bring new insights for future studies. The code and datasets are publicly available.
    Date
    22. 1.2023 18:40:36
  16. Kim, J.(im); Kim, J.(enna): Effect of forename string on author name disambiguation (2020) 0.01
    0.007504981 = product of:
      0.022514943 = sum of:
        0.007728611 = weight(_text_:in in 5930) [ClassicSimilarity], result of:
          0.007728611 = score(doc=5930,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1301535 = fieldWeight in 5930, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5930)
        0.014786332 = product of:
          0.029572664 = sum of:
            0.029572664 = weight(_text_:22 in 5930) [ClassicSimilarity], result of:
              0.029572664 = score(doc=5930,freq=2.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.19345059 = fieldWeight in 5930, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5930)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    In author name disambiguation, author forenames are used to decide which name instances are disambiguated together and how much they are likely to refer to the same author. Despite such a crucial role of forenames, their effect on the performance of heuristic (string matching) and algorithmic disambiguation is not well understood. This study assesses the contributions of forenames in author name disambiguation using multiple labeled data sets under varying ratios and lengths of full forenames, reflecting real-world scenarios in which an author is represented by forename variants (synonym) and some authors share the same forenames (homonym). The results show that increasing the ratios of full forenames substantially improves both heuristic and machine-learning-based disambiguation. Performance gains by algorithmic disambiguation are pronounced when many forenames are initialized or homonyms are prevalent. As the ratios of full forenames increase, however, they become marginal compared to those by string matching. Using a small portion of forename strings does not reduce much the performances of both heuristic and algorithmic disambiguation methods compared to using full-length strings. These findings provide practical suggestions, such as restoring initialized forenames into a full-string format via record linkage for improved disambiguation performances.
    Date
    11. 7.2020 13:22:58
  17. Vierkant, P.: Entwurf des DataCite-Metadatenschemas 4.5 offen für Kommentierung (2022) 0.01
    0.007262686 = product of:
      0.021788057 = sum of:
        0.0075724614 = weight(_text_:in in 672) [ClassicSimilarity], result of:
          0.0075724614 = score(doc=672,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.12752387 = fieldWeight in 672, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=672)
        0.014215595 = weight(_text_:und in 672) [ClassicSimilarity], result of:
          0.014215595 = score(doc=672,freq=2.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.14692576 = fieldWeight in 672, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=672)
      0.33333334 = coord(2/6)
    
    Abstract
    "In den letzten anderthalb Jahren hat die DataCite Metadata Working Group an Änderungen für die neue Version des DataCite Metadatenschemas gearbeitet, um die sich entwickelnden neuen Anwendungsfälle für DataCite DOIs zu unterstützen. Diese vorgeschlagenen Aktualisierungen sind eine Reaktion auf Anfragen von Mitgliedern der DataCite-Community. Wir möchten sicherstellen, dass diese Änderungen funktionieren, d. h. dass sie die Probleme lösen, die sie lösen sollen. Zum ersten Mal überhaupt stellen wir deshalb einen RFC-Entwurf zur Kommentierung bereit, bevor wir die nächste Version (4.5) des Metadatenschemas veröffentlichen. Dieser Entwurf beinhaltet: * Unterstützung für Instrumente * Unterstützung von pre-registrations und registration reports * Unterstützung für Verlagsidentifikatoren * Neues Distribution property * Erläuterungen zum RelatedItem property * Aktualisierte PhysicalObject-Definition Details zur Rückmeldung sind in dem Request for Comments enthalten: https://docs.google.com/document/d/1UyQQwtjnu-4_4zXE4TFZ74-mjLZI3NkEf8RrF0WeOdI/edit Eine Kopie des Vorschlags im PDF-Format ist ebenfalls verfügbar: https://datacite.org/documents/DataCite_Metadata_Schema_4.5_RFC.pdf Weitere Informationen finden Sie im DataCite Blog: https://doi.org/10.5438/q34f-c696."
  18. Schwarz, S.: Kompetenzvermittlung digital : how to ... RDA? : Konzeption eines digitalen Lernangebots an der Universitäts- und Stadtbibliothek Köln (2021) 0.01
    0.006770741 = product of:
      0.040624447 = sum of:
        0.040624447 = weight(_text_:und in 380) [ClassicSimilarity], result of:
          0.040624447 = score(doc=380,freq=12.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.41987535 = fieldWeight in 380, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=380)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Universitäts- und Stadtbibliothek Köln stellt im Zuge der Coronapandemie und der dadurch beschleunigten Digitalisierungsprozesse ihr universitätsinternes Präsenzschulungsangebot zum Regelwerk RDA auf ein digitales Kursangebot um. Dafür wurden Inhalte, Struktur und Ablauf der bisherigen RDA-Schulungen bedarfsorientiert angepasst, aktualisiert, reorganisiert und anhand mediendidaktischer Standards digital aufbereitet. Der neu entstandene E-Learning-Kurs "How to ... RDA?" bietet ein rein digitales RDA-Lernformat mit dem Fokus auf Flexibilität, Praxisnähe und unterschiedliche Lernbedürfnisse.
  19. Naun, C.C.: Expanding the use of Linked Data value vocabularies in PCC cataloging (2020) 0.00
    0.0025503114 = product of:
      0.015301868 = sum of:
        0.015301868 = weight(_text_:in in 123) [ClassicSimilarity], result of:
          0.015301868 = score(doc=123,freq=12.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.2576908 = fieldWeight in 123, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=123)
      0.16666667 = coord(1/6)
    
    Abstract
    In 2015, the PCC Task Group on URIs in MARC was tasked to identify and address linked data identifiers deployment in the current MARC format. By way of a pilot test, a survey, MARC Discussion papers, Proposals, etc., the Task Group initiated and introduced changes to MARC encoding. The Task Group succeeded in laying the ground work for preparing library data transition from MARC data to a linked data, RDF environment.
    Footnote
    Beitrag in einem Themenheft: 'Program for Cooperative Cataloging (PCC): 25 Years Strong and Growing!'.
  20. Serra, L.G.; Schneider, J.A.; Santarém Segundo, J.E.: Person identifiers in MARC 21 records in a semantic environment (2020) 0.00
    0.0025503114 = product of:
      0.015301868 = sum of:
        0.015301868 = weight(_text_:in in 127) [ClassicSimilarity], result of:
          0.015301868 = score(doc=127,freq=12.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.2576908 = fieldWeight in 127, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=127)
      0.16666667 = coord(1/6)
    
    Abstract
    This article discusses how libraries can include person identifiers in the MARC format. It suggests using URIs in fields and subfields to help transition the data to an RDF model, and to help prepare the catalog for a Linked Data. It analyzes the selection of URIs and Real-World Objects, and the use of tag 024 to describe person identifiers in authority records. When a creator or collaborator is identified in a work, the identifiers are transferred from authority to the bibliographic record. The article concludes that URI-based descriptions can provide a better experience for users, offering other methods of discovery.

Authors

Languages

  • e 45
  • d 13

Types

  • a 49
  • el 11
  • m 2
  • More… Less…

Classifications