Search (222 results, page 1 of 12)

  • × theme_ss:"Normdateien"
  1. O'Neill, E.T.; Bennett, R.; Kammerer, K.: Using authorities to improve subject searches (2012) 0.01
    0.00860365 = product of:
      0.06452737 = sum of:
        0.0073510436 = product of:
          0.014702087 = sum of:
            0.014702087 = weight(_text_:29 in 310) [ClassicSimilarity], result of:
              0.014702087 = score(doc=310,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.23319192 = fieldWeight in 310, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=310)
          0.5 = coord(1/2)
        0.040079206 = weight(_text_:post in 310) [ClassicSimilarity], result of:
          0.040079206 = score(doc=310,freq=2.0), product of:
            0.10409636 = queryWeight, product of:
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.017922899 = queryNorm
            0.38502026 = fieldWeight in 310, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.046875 = fieldNorm(doc=310)
        0.0054717176 = product of:
          0.010943435 = sum of:
            0.010943435 = weight(_text_:online in 310) [ClassicSimilarity], result of:
              0.010943435 = score(doc=310,freq=2.0), product of:
                0.05439423 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.017922899 = queryNorm
                0.20118743 = fieldWeight in 310, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=310)
          0.5 = coord(1/2)
        0.0116254045 = product of:
          0.017438106 = sum of:
            0.0027360192 = weight(_text_:a in 310) [ClassicSimilarity], result of:
              0.0027360192 = score(doc=310,freq=6.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.13239266 = fieldWeight in 310, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=310)
            0.014702087 = weight(_text_:29 in 310) [ClassicSimilarity], result of:
              0.014702087 = score(doc=310,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.23319192 = fieldWeight in 310, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=310)
          0.6666667 = coord(2/3)
      0.13333334 = coord(4/30)
    
    Abstract
    Authority files have played an important role in improving the quality of indexing and subject cataloging. Although authorities can significantly improve search by increasing the number of access points, they are rarely an integral part of the information retrieval process, particularly end-users searches. A retrieval prototype, searchFAST, was developed to test the feasibility of using an authority file as an index to bibliographic records. searchFAST uses FAST (Faceted Application of Subject Terminology) as an index to OCLC's WorldCat.org bibliographic database. The searchFAST methodology complements, rather than replaces, existing WorldCat.org access. The bibliographic file is searched indirectly; first the authority file is searched to identify appropriate subject headings, then the headings are used to retrieve the matching bibliographic records. The prototype demonstrates the effectiveness and practicality of using an authority file as an index. Searching the authority file leverages authority control work by increasing the number of access points while supporting a simple interface designed for end-users.
    Date
    29. 5.2015 20:57:41
    Source
    Beyond libraries - subject metadata in the digital environment and semantic web. IFLA Satellite Post-Conference, 17-18 August 2012, Tallinn
    Theme
    Verbale Doksprachen im Online-Retrieval
    Type
    a
  2. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.01
    0.008358148 = product of:
      0.06268611 = sum of:
        0.02226585 = product of:
          0.0445317 = sum of:
            0.0445317 = weight(_text_:industrie in 3780) [ClassicSimilarity], result of:
              0.0445317 = score(doc=3780,freq=2.0), product of:
                0.12019911 = queryWeight, product of:
                  6.7064548 = idf(docFreq=146, maxDocs=44218)
                  0.017922899 = queryNorm
                0.37048277 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.7064548 = idf(docFreq=146, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.5 = coord(1/2)
        0.01643512 = weight(_text_:neue in 3780) [ClassicSimilarity], result of:
          0.01643512 = score(doc=3780,freq=2.0), product of:
            0.07302189 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.017922899 = queryNorm
            0.22507115 = fieldWeight in 3780, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.015013208 = weight(_text_:u in 3780) [ClassicSimilarity], result of:
          0.015013208 = score(doc=3780,freq=4.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.25581595 = fieldWeight in 3780, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.0089719305 = product of:
          0.013457895 = sum of:
            0.0013163678 = weight(_text_:a in 3780) [ClassicSimilarity], result of:
              0.0013163678 = score(doc=3780,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.06369744 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
            0.012141528 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
              0.012141528 = score(doc=3780,freq=2.0), product of:
                0.06276294 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.017922899 = queryNorm
                0.19345059 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.6666667 = coord(2/3)
      0.13333334 = coord(4/30)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
    Type
    a
  3. Scheven, E.: ¬Die neue Thesaurusnorm ISO 25964 und die GND (2017) 0.01
    0.007881503 = product of:
      0.059111267 = sum of:
        0.008576217 = product of:
          0.017152434 = sum of:
            0.017152434 = weight(_text_:29 in 3505) [ClassicSimilarity], result of:
              0.017152434 = score(doc=3505,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.27205724 = fieldWeight in 3505, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3505)
          0.5 = coord(1/2)
        0.023009168 = weight(_text_:neue in 3505) [ClassicSimilarity], result of:
          0.023009168 = score(doc=3505,freq=2.0), product of:
            0.07302189 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.017922899 = queryNorm
            0.3150996 = fieldWeight in 3505, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3505)
        0.014862318 = weight(_text_:u in 3505) [ClassicSimilarity], result of:
          0.014862318 = score(doc=3505,freq=2.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.25324488 = fieldWeight in 3505, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3505)
        0.012663566 = product of:
          0.018995348 = sum of:
            0.001842915 = weight(_text_:a in 3505) [ClassicSimilarity], result of:
              0.001842915 = score(doc=3505,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.089176424 = fieldWeight in 3505, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3505)
            0.017152434 = weight(_text_:29 in 3505) [ClassicSimilarity], result of:
              0.017152434 = score(doc=3505,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.27205724 = fieldWeight in 3505, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3505)
          0.6666667 = coord(2/3)
      0.13333334 = coord(4/30)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
    Type
    a
  4. Hubrich, J.: ¬Die Schlagwortrecherche in deutschsprachigen OPACs : Typen der Schlagwortsuche und der Einsatz der Schlagwortnormdatei (SWD) dargelegt unter Rückgriff auf eine empirische Untersuchung (2005) 0.01
    0.007200368 = product of:
      0.054002758 = sum of:
        0.0073510436 = product of:
          0.014702087 = sum of:
            0.014702087 = weight(_text_:29 in 3552) [ClassicSimilarity], result of:
              0.014702087 = score(doc=3552,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.23319192 = fieldWeight in 3552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3552)
          0.5 = coord(1/2)
        0.026319932 = weight(_text_:medien in 3552) [ClassicSimilarity], result of:
          0.026319932 = score(doc=3552,freq=2.0), product of:
            0.084356464 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.017922899 = queryNorm
            0.31200847 = fieldWeight in 3552, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.046875 = fieldNorm(doc=3552)
        0.009477294 = product of:
          0.018954588 = sum of:
            0.018954588 = weight(_text_:online in 3552) [ClassicSimilarity], result of:
              0.018954588 = score(doc=3552,freq=6.0), product of:
                0.05439423 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.017922899 = queryNorm
                0.34846687 = fieldWeight in 3552, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3552)
          0.5 = coord(1/2)
        0.010854486 = product of:
          0.01628173 = sum of:
            0.0015796415 = weight(_text_:a in 3552) [ClassicSimilarity], result of:
              0.0015796415 = score(doc=3552,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.07643694 = fieldWeight in 3552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3552)
            0.014702087 = weight(_text_:29 in 3552) [ClassicSimilarity], result of:
              0.014702087 = score(doc=3552,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.23319192 = fieldWeight in 3552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3552)
          0.6666667 = coord(2/3)
      0.13333334 = coord(4/30)
    
    Abstract
    Schlagwortsuchen sind heutzutage fester Bestandteil vieler Online-Kataloge. Durch die Verknüpfung von Titeldaten mit dokumentspezifischen Schlagwörtern aus der SWD wird ein thematischer Zugang zu den Medien eines Verbundes bzw. einer Bibliothek ermöglicht. Der SWD-Datensatz bietet neben den Ansetzungsformen, die für die Indexate genutzt werden, jedoch noch eine Reihe weiterer Informationen, die, an der richtigen Stelle im Online-Katalog implementiert, das Retrieval seitens des Benutzers optimieren können. Untersucht wurden die Online-Kataloge der großen deutschen Bibliotheksverbünde, des österreichischen Bibliothekenverbunds sowie 106 weiterer OPACs von vorwiegend wissenschaftlichen Bibliotheken. Es wurde betrachtet, welche Suchfeatures für die Schlagwortrecherche zur Verfügung gestellt werden, wie sie gestaltet sind und inwieweit das SWD-Datenmaterial genutzt wird. Dabei zeigte sich, dass zurzeit drei Typen von Schlagwortsuchen verbreitet sind: - die Indexsuche (mehrstufige Schlagwort- bzw. Schlagwortkettensuche) - die einstufige Schlagwort- bzw. Schlagwortkettensuche sowie - die weiterführende Schlagwort- bzw. Schlagwortkettensuche von einer Treffer- bzw. Titelvollanzeige aus.
    Date
    17. 7.2005 10:29:46
    Type
    a
  5. Kasprzik, A.; Kett, J.: Vorschläge für eine Weiterentwicklung der Sacherschließung und Schritte zur fortgesetzten strukturellen Aufwertung der GND (2018) 0.01
    0.005715303 = product of:
      0.04286477 = sum of:
        0.00612587 = product of:
          0.01225174 = sum of:
            0.01225174 = weight(_text_:29 in 4599) [ClassicSimilarity], result of:
              0.01225174 = score(doc=4599,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.19432661 = fieldWeight in 4599, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4599)
          0.5 = coord(1/2)
        0.01643512 = weight(_text_:neue in 4599) [ClassicSimilarity], result of:
          0.01643512 = score(doc=4599,freq=2.0), product of:
            0.07302189 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.017922899 = queryNorm
            0.22507115 = fieldWeight in 4599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.010615941 = weight(_text_:u in 4599) [ClassicSimilarity], result of:
          0.010615941 = score(doc=4599,freq=2.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.1808892 = fieldWeight in 4599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.009687838 = product of:
          0.014531757 = sum of:
            0.0022800162 = weight(_text_:a in 4599) [ClassicSimilarity], result of:
              0.0022800162 = score(doc=4599,freq=6.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.11032722 = fieldWeight in 4599, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4599)
            0.01225174 = weight(_text_:29 in 4599) [ClassicSimilarity], result of:
              0.01225174 = score(doc=4599,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.19432661 = fieldWeight in 4599, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4599)
          0.6666667 = coord(2/3)
      0.13333334 = coord(4/30)
    
    Abstract
    Aufgrund der fortgesetzten Publikationsflut stellt sich immer dringender die Frage, wie die Schwellen für die Titel- und Normdatenpflege gesenkt werden können - sowohl für die intellektuelle als auch die automatisierte Sacherschließung. Zu einer Verbesserung der Daten- und Arbeitsqualität in der Sacherschließung kann beigetragen werden a) durch eine flexible Visualisierung der Gemeinsamen Normdatei (GND) und anderer Wissensorganisationssysteme, so dass deren Graphstruktur intuitiv erfassbar wird, und b) durch eine investigative Analyse ihrer aktuellen Struktur und die Entwicklung angepasster automatisierter Methoden zur Ermittlung und Korrektur fehlerhafter Muster. Die Deutsche Nationalbibliothek (DNB) prüft im Rahmen des GND-Entwicklungsprogramms 2017-2021, welche Bedingungen für eine fruchtbare community-getriebene Open-Source-Entwicklung entsprechender Werkzeuge gegeben sein müssen. Weiteres Potential steckt in einem langfristigen Übergang zu einer Darstellung von Titel- und Normdaten in Beschreibungssprachen im Sinne des Semantic Web (RDF; OWL, SKOS). So profitiert die GND von der Interoperabilität mit anderen kontrollierten Vokabularen und von einer erleichterten Interaktion mit anderen Fach-Communities und kann umgekehrt auch außerhalb des Bibliothekswesens zu einem noch attraktiveren Wissensorganisationssystem werden. Darüber hinaus bieten die Ansätze aus dem Semantic Web die Möglichkeit, stärker formalisierte, strukturierende Satellitenvokabulare rund um die GND zu entwickeln. Daraus ergeben sich nicht zuletzt auch neue Perspektiven für die automatisierte Sacherschließung. Es wäre lohnend, näher auszuloten, wie und inwieweit semantisch-logische Verfahren den bestehenden Methodenmix bereichern können.
    Date
    13.12.2018 13:29:07
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
    Type
    a
  6. Barbalet, S.: Enhancing subject authority control at the UK Data Archive : a pilot study using UDC (2015) 0.01
    0.00528593 = product of:
      0.0528593 = sum of:
        0.01225174 = product of:
          0.02450348 = sum of:
            0.02450348 = weight(_text_:29 in 2306) [ClassicSimilarity], result of:
              0.02450348 = score(doc=2306,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.38865322 = fieldWeight in 2306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2306)
          0.5 = coord(1/2)
        0.021231882 = weight(_text_:u in 2306) [ClassicSimilarity], result of:
          0.021231882 = score(doc=2306,freq=2.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.3617784 = fieldWeight in 2306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.078125 = fieldNorm(doc=2306)
        0.019375676 = product of:
          0.029063514 = sum of:
            0.0045600324 = weight(_text_:a in 2306) [ClassicSimilarity], result of:
              0.0045600324 = score(doc=2306,freq=6.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.22065444 = fieldWeight in 2306, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2306)
            0.02450348 = weight(_text_:29 in 2306) [ClassicSimilarity], result of:
              0.02450348 = score(doc=2306,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.38865322 = fieldWeight in 2306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2306)
          0.6666667 = coord(2/3)
      0.1 = coord(3/30)
    
    Source
    Classification and authority control: expanding resource discovery: proceedings of the International UDC Seminar 2015, 29-30 October 2015, Lisbon, Portugal. Eds.: Slavic, A. u. M.I. Cordeiro
    Type
    a
  7. Cardillo, E.; Solodovnik, I.; Taverniti, M.: Towards the creation of integrated authority files in the domain of science and technology : an Italian use case (2015) 0.01
    0.0052301446 = product of:
      0.052301444 = sum of:
        0.01225174 = product of:
          0.02450348 = sum of:
            0.02450348 = weight(_text_:29 in 2307) [ClassicSimilarity], result of:
              0.02450348 = score(doc=2307,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.38865322 = fieldWeight in 2307, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2307)
          0.5 = coord(1/2)
        0.021231882 = weight(_text_:u in 2307) [ClassicSimilarity], result of:
          0.021231882 = score(doc=2307,freq=2.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.3617784 = fieldWeight in 2307, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.078125 = fieldNorm(doc=2307)
        0.018817822 = product of:
          0.028226731 = sum of:
            0.0037232507 = weight(_text_:a in 2307) [ClassicSimilarity], result of:
              0.0037232507 = score(doc=2307,freq=4.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.18016359 = fieldWeight in 2307, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2307)
            0.02450348 = weight(_text_:29 in 2307) [ClassicSimilarity], result of:
              0.02450348 = score(doc=2307,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.38865322 = fieldWeight in 2307, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2307)
          0.6666667 = coord(2/3)
      0.1 = coord(3/30)
    
    Source
    Classification and authority control: expanding resource discovery: proceedings of the International UDC Seminar 2015, 29-30 October 2015, Lisbon, Portugal. Eds.: Slavic, A. u. M.I. Cordeiro
    Type
    a
  8. Oberhauser, O.; Labner, J.: Praktische Lösungen für lokale Systematiken (1) : Die neue lokale Multi-Klassifikations-Normdatei der Verbundzentrale (2007) 0.00
    0.004792711 = product of:
      0.04792711 = sum of:
        0.039444286 = weight(_text_:neue in 496) [ClassicSimilarity], result of:
          0.039444286 = score(doc=496,freq=8.0), product of:
            0.07302189 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.017922899 = queryNorm
            0.5401707 = fieldWeight in 496, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.046875 = fieldNorm(doc=496)
        0.0077381777 = product of:
          0.015476355 = sum of:
            0.015476355 = weight(_text_:online in 496) [ClassicSimilarity], result of:
              0.015476355 = score(doc=496,freq=4.0), product of:
                0.05439423 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.017922899 = queryNorm
                0.284522 = fieldWeight in 496, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=496)
          0.5 = coord(1/2)
        7.446501E-4 = product of:
          0.0022339502 = sum of:
            0.0022339502 = weight(_text_:a in 496) [ClassicSimilarity], result of:
              0.0022339502 = score(doc=496,freq=4.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.10809815 = fieldWeight in 496, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=496)
          0.33333334 = coord(1/3)
      0.1 = coord(3/30)
    
    Abstract
    Der Beitrag berichtet über eine unter der Bibliothekssoftware "Aleph 500" neu eingerichtete Normdatei, die mehrere "koexistierende" lokale Klassifikationssysteme aus den Bibliotheken des Österreichischen Bibliothekenverbundes aufzunehmen vermag. Implementiert wurden darin als erste Klassifikation jene der Universitätsbibliothek Bodenkultur (Wien), für die nach dem Auslaufen einer früheren Softwarelösung eine neue Plattform gesucht worden war. Folgende Aspekte werden im Detail angesprochen bzw. dokumentiert: Struktur und Besonderheiten dieser Klassifikation, Gliederung des Gesamtprojektes in mehrere Phasen und Realisierung der ersten Phase (Tabellen-Setup inkl. Kategorienschema, Überführung der Daten in die neue Normdatei, Indexierung). Die neue Multi-Klassifikations-Normdatei ist bereit für die Aufnahme weiterer lokaler Systematiken, wobei diese einerseits von den an der Verbundzentrale geführten Lokalsystemen, andererseits aber auch von den anderen Lokalsystemen des Verbundes stammen können.
    Content
    Vgl. auch den Beitrag: Oberhauser, O.; Labner, J. (2006). Entwurf und Implementierung einer neuen Multi-Klassifikations-Normdatei für den Österreichischen Bibliothekenverbund. B.I.T. online. 9(4). 293-302.
    Location
    A
    Theme
    Klassifikationssysteme im Online-Retrieval
    Type
    a
  9. Wiesenmüller, H.: Verbale Erschließung in Katalogen und Discovery-Systemen : Überlegungen zur Qualität (2021) 0.00
    0.0047831074 = product of:
      0.047831073 = sum of:
        0.03429938 = weight(_text_:einzelne in 374) [ClassicSimilarity], result of:
          0.03429938 = score(doc=374,freq=2.0), product of:
            0.10548963 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.017922899 = queryNorm
            0.3251446 = fieldWeight in 374, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.0045597646 = product of:
          0.009119529 = sum of:
            0.009119529 = weight(_text_:online in 374) [ClassicSimilarity], result of:
              0.009119529 = score(doc=374,freq=2.0), product of:
                0.05439423 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.017922899 = queryNorm
                0.16765618 = fieldWeight in 374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=374)
          0.5 = coord(1/2)
        0.0089719305 = product of:
          0.013457895 = sum of:
            0.0013163678 = weight(_text_:a in 374) [ClassicSimilarity], result of:
              0.0013163678 = score(doc=374,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.06369744 = fieldWeight in 374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=374)
            0.012141528 = weight(_text_:22 in 374) [ClassicSimilarity], result of:
              0.012141528 = score(doc=374,freq=2.0), product of:
                0.06276294 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.017922899 = queryNorm
                0.19345059 = fieldWeight in 374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=374)
          0.6666667 = coord(2/3)
      0.1 = coord(3/30)
    
    Abstract
    Beschäftigt man sich mit Inhaltserschließung, so sind zunächst zwei Dimensionen zu unterscheiden - die Wissensorganisationssysteme selbst (z. B. Normdateien, Thesauri, Schlagwortsprachen, Klassifikationen und Ontologien) und die Metadaten für Dokumente, die mit diesen Wissensorganisationssystemen erschlossen sind. Beides steht in einer Wechselwirkung zueinander: Die Wissensorganisationssysteme sind die Werkzeuge für die Erschließungsarbeit und bilden die Grundlage für die Erstellung konkreter Erschließungsmetadaten. Die praktische Anwendung der Wissensorganisationssysteme in der Erschließung wiederum ist die Basis für deren Pflege und Weiterentwicklung. Zugleich haben Wissensorganisationssysteme auch einen Eigenwert unabhängig von den Erschließungsmetadaten für einzelne Dokumente, indem sie bestimmte Bereiche von Welt- oder Fachwissen modellartig abbilden. Will man nun Aussagen über die Qualität von inhaltlicher Erschließung treffen, so genügt es nicht, den Input - also die Wissensorganisationssysteme und die damit generierten Metadaten - zu betrachten. Man muss auch den Output betrachten, also das, was die Recherchewerkzeuge daraus machen und was folglich bei den Nutzer:innen konkret ankommt. Im vorliegenden Beitrag werden Überlegungen zur Qualität von Recherchewerkzeugen in diesem Bereich angestellt - gewissermaßen als Fortsetzung und Vertiefung der dazu im Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) gegebenen Hinweise. Im Zentrum steht die verbale Erschließung nach den Regeln für die Schlagwortkatalogisierung (RSWK), wie sie sich in Bibliothekskatalogen manifestiert - gleich, ob es sich dabei um herkömmliche Kataloge oder um Resource-Discovery-Systeme (RDS) handelt.
    Date
    24. 9.2021 12:22:02
    Theme
    Verbale Doksprachen im Online-Retrieval
    Type
    a
  10. Jahns, Y.; Trummer, M.: Crosskonkordanz Wirtschaft (2003) 0.00
    0.004638924 = product of:
      0.069583856 = sum of:
        0.06914507 = weight(_text_:wirtschaftswissenschaften in 1962) [ClassicSimilarity], result of:
          0.06914507 = score(doc=1962,freq=6.0), product of:
            0.11380646 = queryWeight, product of:
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.017922899 = queryNorm
            0.6075672 = fieldWeight in 1962, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1962)
        4.3878925E-4 = product of:
          0.0013163678 = sum of:
            0.0013163678 = weight(_text_:a in 1962) [ClassicSimilarity], result of:
              0.0013163678 = score(doc=1962,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.06369744 = fieldWeight in 1962, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1962)
          0.33333334 = coord(1/3)
      0.06666667 = coord(2/30)
    
    Abstract
    Die Suche nach wirtschaftswissenschaftlicher Literatur im Internet führt heute zu unterschiedlich erschlossenen Informationsbeständen. Die Antwort auf diese Heterogenität sollte das Angebot einer integrierten sachlichen Suche über verteilte Datenbanken sein. Crosskonkordanzen unterstützen diese Entwicklung, indem sie Suchfragen in die Terminologie verschiedener Thesauri übersetzen. Nutzern von Bibliotheken und Fachinformationszentren wird das Navigieren erleichtert, sie ersparen sich Mehrfachrecherchen und können auf ihre vertraute Indexierungssprache zurückgreifen. Wirtschaftswissenschaftliche Literatur wird in Deutschland mit verschiedenen Thesauri indexiert. Einerseits bieten Hochschulbibliothekskataloge eine sachliche Suche mit den Schlagwörtern der Schlagwortnormdatei (SWD) an, andererseits sind wirtschaftswissenschaftliche Fachdatenbanken mit dem Standard Thesaurus Wirtschaft (STW) erschlossen. Hier setzt das Angebot der Crosskonkordanz Wirtschaft an - ein Retrieval-Instrument für sachlich heterogen erschlossene Datenbestände." Concordans bedeutet »übereinstimmend«, »zusammenhängend«, »verknüpft«, wir verknüpfen also die Deskriptoren (Sachbegriffe) der SWD im Bereich Wirtschaft mit den Deskriptoren des STW. Die SWD, getragen und entwickelt von Der Deutschen Bibliothek und den Bibliotheksverbünden des deutschen Sprachraums, ist das Instrument zur Indexierung der gesamten deutschsprachigen wirtschaftswissenschaftlichen Literatur. Auch unselbstständige Literatur wird beispielsweise von der Universitätsbibliothek Köln als Sondersammelgebiet Betriebswirtschaftslehre mithilfe der SWD erschlossen. Trotz ihres eigentlichen Charakters als Allgemeinthesaurus ist sie im Bereich Wirtschaft besonders differenziert entwickelt und enthält etwa 12.500 Deskriptoren. Der STW ist der bedeutendste Fachthesaurus für Wirtschaftswissenschaften in der Bundesrepublik Deutschland. Getragen vom Hamburgischen WeIt-Wirtschafts-Archiv (HWWA), der Deutschen Zentralbibliothek für Wirtschaftswissenschaften in Kiel (ZBW) und der Gesellschaft für Betriebswirtschaftliche Information München findet er Anwendung in verschiedenen Fachdatenbanken. Der STW enthält rund 5.000 Deskriptoren
    Field
    Wirtschaftswissenschaften
    Type
    a
  11. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.00
    0.004273572 = product of:
      0.04273572 = sum of:
        0.008940453 = product of:
          0.017880905 = sum of:
            0.017880905 = weight(_text_:dienstleistungen in 632) [ClassicSimilarity], result of:
              0.017880905 = score(doc=632,freq=2.0), product of:
                0.10771505 = queryWeight, product of:
                  6.009912 = idf(docFreq=294, maxDocs=44218)
                  0.017922899 = queryNorm
                0.16600193 = fieldWeight in 632, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.009912 = idf(docFreq=294, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=632)
          0.5 = coord(1/2)
        0.027632903 = sum of:
          0.010195945 = weight(_text_:online in 632) [ClassicSimilarity], result of:
            0.010195945 = score(doc=632,freq=10.0), product of:
              0.05439423 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.017922899 = queryNorm
              0.18744534 = fieldWeight in 632, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.01953125 = fieldNorm(doc=632)
          0.017436959 = weight(_text_:dienste in 632) [ClassicSimilarity], result of:
            0.017436959 = score(doc=632,freq=2.0), product of:
              0.106369466 = queryWeight, product of:
                5.934836 = idf(docFreq=317, maxDocs=44218)
                0.017922899 = queryNorm
              0.16392824 = fieldWeight in 632, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.934836 = idf(docFreq=317, maxDocs=44218)
                0.01953125 = fieldNorm(doc=632)
        0.0061623603 = product of:
          0.0092435405 = sum of:
            6.581839E-4 = weight(_text_:a in 632) [ClassicSimilarity], result of:
              6.581839E-4 = score(doc=632,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.03184872 = fieldWeight in 632, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=632)
            0.008585356 = weight(_text_:22 in 632) [ClassicSimilarity], result of:
              0.008585356 = score(doc=632,freq=4.0), product of:
                0.06276294 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.017922899 = queryNorm
                0.13679022 = fieldWeight in 632, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=632)
          0.6666667 = coord(2/3)
      0.1 = coord(3/30)
    
    Content
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum Das HBZ hat seinen am 15. November frei geschalteten Dreiländer-Katalog (Deutschland, Österreich, Schweiz) vorgestellt, dessen Ziel der Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum ist. Der Katalog entstand in Kooperation des HBZ mit dem Bibliotheksverbund Bayern (BVB) und dem Österreichischen Bibliothekenverbund (OBV); die Integration weiterer Bibliotheksbestände aus anderen Regionen ist in Arbeit. Realisiert wurde das Projekt mittels der Suchmaschinentechnologie des HBZ, die Antwortzeiten in Bruchteilen von Sekunden, Ranking und Kategorisierung der Treffermengen ermöglicht. Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben beschlossen, sich die für die Literaturversorgung relevanten Verbunddaten (Titeldaten mit Nachweisen) für den Aufbau verbundbezogener, nicht kommerzieller Dienste auf Gegenseitigkeit kostenfrei zur Verfügung zu stellen. Normdateien Online-Schnittstelle Ziel der Online-Kommunikation mit Normdateien ist es, die Arbeit mit den zentralen Normdateien dadurch zu vereinfachen, dass Änderungen an Normdaten in den zentral bei Der Deutschen Bibliothek gehaltenen Dateien mit dem eigenen Client erfolgen können. Ferner sollen alle Änderungen an den Normdateien zeitnah in die Normdaten-Spiegel der Verbundsysteme transportiert werden (Replikation). Das Verfahren soll sich auf alle bei Der Deutschen Bibliothek geführten Normdaten erstrecken. Als standardisiertes Kommunikationsprotokoll soll Z39.50 SR Extended Services Update genutzt werden. Für die Replikation ist OAI vorgesehen, als Austauschformat zunächst MAB2 bzw. MABXML. Die existierenden Implementierungen erfüllen an mehreren wichtigen Stellen nicht die Anforderungen. Eine Konversion in und aus einem neutralen Transportformat, wie für die Online-Kommunikation mit Normdateien benötigt, ist an der gegenwärtigen Pica-Schnittstelle nicht vorgesehen und lässt sich nur realisieren, wenn wesentliche Veränderungen vorgenommen werden. OCLC PICA plant, diese Veränderungen im 1. Quartal 2006 vorzunehmen. Nach der aktuellen Projektplanung soll die Online-Kommunikation zu Beginn des Jahres 2007 starten.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."
    Type
    a
  12. Sandner, M.: Neues aus der Kommission für Sacherschließung : Das neue Tool "NSW online" (2011) 0.00
    0.0041696853 = product of:
      0.03127264 = sum of:
        0.016269939 = weight(_text_:neue in 4529) [ClassicSimilarity], result of:
          0.016269939 = score(doc=4529,freq=4.0), product of:
            0.07302189 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.017922899 = queryNorm
            0.22280908 = fieldWeight in 4529, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4529)
        0.0071371617 = product of:
          0.014274323 = sum of:
            0.014274323 = weight(_text_:online in 4529) [ClassicSimilarity], result of:
              0.014274323 = score(doc=4529,freq=10.0), product of:
                0.05439423 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.017922899 = queryNorm
                0.2624235 = fieldWeight in 4529, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4529)
          0.5 = coord(1/2)
        0.007431159 = weight(_text_:u in 4529) [ClassicSimilarity], result of:
          0.007431159 = score(doc=4529,freq=2.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.12662244 = fieldWeight in 4529, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4529)
        4.3437927E-4 = product of:
          0.0013031377 = sum of:
            0.0013031377 = weight(_text_:a in 4529) [ClassicSimilarity], result of:
              0.0013031377 = score(doc=4529,freq=4.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.06305726 = fieldWeight in 4529, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4529)
          0.33333334 = coord(1/3)
      0.13333334 = coord(4/30)
    
    Content
    "Die "Liste der fachlichen Nachschlagewerke zu den Normdateien" (NSW-Liste) stellt mit ihren derzeit rund 1.660 Einträgen ein verbindliches Arbeitsinstrument für die tägliche Praxis in der kooperativen Normdaten-pflege des deutschsprachigen Raumes, speziell für die Terminologiearbeit in der bibliothekarischen Sacherschließung dar. In jedem Normdatensatz der Schlagwortnormdatei (SWD) werden für den Nachweis und die Begründung der Ansetzungs- und Verweisungsformen eines Deskriptors im Feld "Quelle" Referenzwerke aus der so genannten Prioritätenliste (Rangfolge der Nachschlagewerke), darüber hinaus aus der gesamten NSW-Liste, festgehalten und normiert abgekürzt. In gedruckter Form erscheint diese von der Deutschen Nationalbibliothek (DNB) regelmäßig aktualisierte Liste jährlich mit einem Änderungsdienst (Änderungen, Neuauflagen; Neuaufnahmen) und steht seit einigen Jahren auch elektronisch abrufbar bereit. Dennoch ist sie "in die Jahre" gekommen. Eine verbesserte Form dieser Liste war ein langjähriges Desiderat für die Neuansetzungspraxis in der SWD. Erst eine Projektarbeit im Rahmen des ULG bot 2008/2009 in Wien die Gelegenheit, solch einem elektronischen Hilfsmittel entscheidend näher zu kommen. Das Projektergebnis war praxistauglich und wurde 2010 von der UB Wien in ein Content Management System (CMS) eingebettet. Zahlreiche Tests und funktionelle Anpassungen sowie eine genaue Durchsicht des Grunddatenbestandes und aller Links in den Katalog des Pilotverbundes (OBV) waren noch nötig, und auch die erste Aktualisierung nach der Druckausgabe 2010 führten wir durch, bevor wir im Herbst 2010 der Fachöffentlichkeit eine Beta-Version vorstellen konnten. Seither steht die Suche im NSW-Tool als Alternative zur Benützung der Druckausgabe allen frei zur Verfügung: http://www.univie.ac.at/nsw/. Sämtliche SWD-Kooperationspartner-Redaktionen und die Lokalen Redaktionen (ÖSWD-LRs) des Österreichischen Bibliothekenverbundes (OBV) können über das Web-Frontend von "NSW online" ihre Wünsche an die Redaktion der NSW-Liste (Fachabteilung SE, DNB) direkt im Tool deponieren (Korrekturanträge sowie Vorschläge zur Aufnahme fehlender oder neuer Nachschlagewerke) und frei im Internet zugängliche Volltexte zu den bereits in der Liste vorhandenen Titeln verlinken (Erstanmeldung über den Webmaster: via Hilfe-Seite im Tool).
    Nur die Verbundbibliotheken des OBV können überdies ihre zu den Nachschlagewerken passenden Bestände in Aleph hinzufügen, ggf. selbst via Web-Frontend im Tool einen Link zum eigenen Verbundkatalog neu anlegen, und insbesondere ihre lokal verfügbaren elektronischen Volltexte anbinden3. Im Backend werden neue Datensätze angelegt, vorhandene Einträge korrigiert, redaktionelle Kommentare platziert und Korrekturanträge abgeschöpft sowie Neuauflagen für die richtige Anzeige und Verknüpfung, etwa mit der Rangfolgeliste, zu ihrem "Anker-Datensatz" umgelenkt. Außerdem werden hier HTML-Seiten wie Hilfetext, Rangfolgeliste u. ä. gepflegt. - Zum Administrationsinterface haben nur der Webmaster der UB Wien, die SWD-Zentralredaktion des OBV sowie die Fachabteilung SE der DNB Zugang. (Nicht nur) Sacherschließerinnen können das Tool mit all seinen Vorteilen nutzen und dennoch in gewohnter Weise vorgehen, wenn sie nach Quellen für ihre Neuansetzungen suchen wollen und darin recherchieren müssen, denn die Struktur des Tools folgt dem Aufbau der Druckfassung. Es empfiehlt sich, im jeweiligen Bibliothekssystem für SWD und PND zum Feld Quelle einen Hypertextlink im Erfassungsmodul anzubringen. Die Normdateiarbeit ist komplex und anspruchsvoll. Die Einhaltung der für alle Neuansetzungen verbindlichen Rangfolge wird mit dem Tool und seiner praxisorientierten Aufbereitung ganz entscheidend erleichtert, was von Beginn an zu einer hohen Qualität jedes Normdatensatzes verhilft. Den größten Zeitgewinn in der täglichen Praxis bringt der sofortige Zugriff auf verlinkte Volltexte. - Angesichts des zunehmenden multilateralen Datentausches bei gleichzeitiger dramatischer Verknappung personeller Ressourcen trotz eines erheblichen Anstiegs des inhaltlich zu erschließenden Literaturaufkommens wird dies im Workflow des vor kurzem eingeführten Online-Redaktionsverfahrens (ONR) für Normdateien der wohl nachhaltigste Effekt von "NSW online" sein."
    Location
    A
    Object
    NSW online
    Type
    a
  13. Qualität in der Inhaltserschließung (2021) 0.00
    0.004108518 = product of:
      0.030813882 = sum of:
        0.013148096 = weight(_text_:neue in 753) [ClassicSimilarity], result of:
          0.013148096 = score(doc=753,freq=2.0), product of:
            0.07302189 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.017922899 = queryNorm
            0.18005691 = fieldWeight in 753, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.0051587853 = product of:
          0.0103175705 = sum of:
            0.0103175705 = weight(_text_:online in 753) [ClassicSimilarity], result of:
              0.0103175705 = score(doc=753,freq=4.0), product of:
                0.05439423 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.017922899 = queryNorm
                0.18968134 = fieldWeight in 753, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.03125 = fieldNorm(doc=753)
          0.5 = coord(1/2)
        0.012010567 = weight(_text_:u in 753) [ClassicSimilarity], result of:
          0.012010567 = score(doc=753,freq=4.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.20465277 = fieldWeight in 753, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        4.9643347E-4 = product of:
          0.0014893003 = sum of:
            0.0014893003 = weight(_text_:a in 753) [ClassicSimilarity], result of:
              0.0014893003 = score(doc=753,freq=4.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.072065435 = fieldWeight in 753, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=753)
          0.33333334 = coord(1/3)
      0.13333334 = coord(4/30)
    
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Editor
    Franke-Maier, M., A. Kasprzik, A. Ledl u. H. Schürmann
    Footnote
    Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
    Theme
    Verbale Doksprachen im Online-Retrieval
    Klassifikationssysteme im Online-Retrieval
  14. Hartmann, S.; Pampel, H.: GND und ORCID : Brückenschlag zwischen zwei Systemen zur Autorenidentifikation (2017) 0.00
    0.0039156354 = product of:
      0.05873453 = sum of:
        0.05820798 = weight(_text_:einzelne in 5115) [ClassicSimilarity], result of:
          0.05820798 = score(doc=5115,freq=4.0), product of:
            0.10548963 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.017922899 = queryNorm
            0.5517887 = fieldWeight in 5115, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=5115)
        5.265472E-4 = product of:
          0.0015796415 = sum of:
            0.0015796415 = weight(_text_:a in 5115) [ClassicSimilarity], result of:
              0.0015796415 = score(doc=5115,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.07643694 = fieldWeight in 5115, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5115)
          0.33333334 = coord(1/3)
      0.06666667 = coord(2/30)
    
    Abstract
    Die Uneindeutigkeit von Personennamen erschwert im Rahmen der bibliothekarischen Erschließung die eindeutige Zuordnung von Autorinnen und Autoren zu ihren Werken. Bibliotheken im deutschsprachigen Raum adressieren das Problem der Mehrdeutigkeit von Namen durch den Einsatz der Gemeinsamen Normdatei (GND). Die internationale Initiative ORCID (Open Researcher and Contributor ID) verfolgt das gleiche Ziel. Akteur ist hier jedoch die einzelne Wissenschaftlerin oder der einzelne Wissenschaftler. Das Projekt "ORCID DE - Förderung der Open Researcher and Contributor ID in Deutschland" hat sich, dank der Förderung der Deutschen Forschungsgemeinschaft (DFG), unter anderem zum Ziel gesetzt, einen Brückenschlag zwischen den beiden Systemen - GND und ORCID - zu schaffen, um damit die Datenqualität beider Systeme wechselseitig zu erhöhen. Der vorliegende Beitrag gibt einen Überblick über ORCID und das Projekt ORCID DE. Dabei wird insbesondere auf die angestrebte Verlinkung von GND und ORCID eingegangen.
    Type
    a
  15. O'Neill, E.T.; Bennett, R.; Kammerer, K.: Using authorities to improve subject searches (2014) 0.00
    0.0038836678 = product of:
      0.038836677 = sum of:
        0.033399336 = weight(_text_:post in 1970) [ClassicSimilarity], result of:
          0.033399336 = score(doc=1970,freq=2.0), product of:
            0.10409636 = queryWeight, product of:
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.017922899 = queryNorm
            0.3208502 = fieldWeight in 1970, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1970)
        0.0045597646 = product of:
          0.009119529 = sum of:
            0.009119529 = weight(_text_:online in 1970) [ClassicSimilarity], result of:
              0.009119529 = score(doc=1970,freq=2.0), product of:
                0.05439423 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.017922899 = queryNorm
                0.16765618 = fieldWeight in 1970, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1970)
          0.5 = coord(1/2)
        8.775785E-4 = product of:
          0.0026327355 = sum of:
            0.0026327355 = weight(_text_:a in 1970) [ClassicSimilarity], result of:
              0.0026327355 = score(doc=1970,freq=8.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.12739488 = fieldWeight in 1970, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1970)
          0.33333334 = coord(1/3)
      0.1 = coord(3/30)
    
    Abstract
    Authority files have played an important role in improving the quality of indexing and subject cataloging. Although authorities can significantly improve searching by increasing the number of access points, they are rarely an integral part of the information retrieval process, particularly end-users' searches. A retrieval prototype, searchFAST, was developed to test the feasibility of using an authority file as an index to bibliographic records. searchFAST uses Faceted Application of Subject Terminology (FAST) as an index to OCLC's WorldCat.org bibliographic database. The searchFAST prototype complements, rather than replaces, existing WorldCat.org access. The bibliographic file is searched indirectly; first the authority file is searched to identify appropriate subject headings, then the headings are used to retrieve the matching bibliographic records. The prototype demonstrates the effectiveness and practicality of using an authority file as an index. Searching the authority file leverages authority control work by increasing the number of access points while supporting a simple interface designed for end-users.
    Footnote
    Contribution in a special issue "Beyond libraries: Subject metadata in the digital environment and Semantic Web" - Enthält Beiträge der gleichnamigen IFLA Satellite Post-Conference, 17-18 August 2012, Tallinn.
    Theme
    Verbale Doksprachen im Online-Retrieval
    Type
    a
  16. Ansorge, K.: Das was 2007 (2007) 0.00
    0.0038535683 = product of:
      0.028901761 = sum of:
        0.01714969 = weight(_text_:einzelne in 2405) [ClassicSimilarity], result of:
          0.01714969 = score(doc=2405,freq=2.0), product of:
            0.10548963 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.017922899 = queryNorm
            0.1625723 = fieldWeight in 2405, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2405)
        0.00821756 = weight(_text_:neue in 2405) [ClassicSimilarity], result of:
          0.00821756 = score(doc=2405,freq=2.0), product of:
            0.07302189 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.017922899 = queryNorm
            0.11253557 = fieldWeight in 2405, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2405)
        0.0032242408 = product of:
          0.0064484817 = sum of:
            0.0064484817 = weight(_text_:online in 2405) [ClassicSimilarity], result of:
              0.0064484817 = score(doc=2405,freq=4.0), product of:
                0.05439423 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.017922899 = queryNorm
                0.11855084 = fieldWeight in 2405, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2405)
          0.5 = coord(1/2)
        3.102709E-4 = product of:
          9.308127E-4 = sum of:
            9.308127E-4 = weight(_text_:a in 2405) [ClassicSimilarity], result of:
              9.308127E-4 = score(doc=2405,freq=4.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.045040898 = fieldWeight in 2405, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2405)
          0.33333334 = coord(1/3)
      0.13333334 = coord(4/30)
    
    Content
    "Standardisierung - Auch 2007 ist die Arbeitsstelle für Standardisierung (AfS) auf dem Weg zur Internationalisierung der deutschen Regelwerke, Formate und Normdateien entscheidende Schritte vorangekommen. Im Mittelpunkt der Vorbereitungen für den Format-umstieg standen eine Konkordanz von MAB2 nach MARC 21 und die Festlegung neuer Felder, die für den Umstieg auf nationaler Ebene notwendig sind. Neben einer Vielzahl anderer Aktivitäten hat die DNB zwei Veranstaltungen zum Format-umstieg durchgeführt. In Zusammenarbeit mit den Expertengruppen des Standardisierungsausschusses wurden drei Stellungnahmen zu Entwürfen des Regelwerkes »Resource Description and Access (RDA)« erarbeitet; es fand eine Beteiligung an der internationalen Diskussion zu wichtigen Grundlagen statt. Der Erfüllung des Wunsches nach Einführung der Onlinekommunikation mit Normdateien ist die DNB im vergangenen Jahr deutlich nähergekommen: Änderungen an Normdaten sollen gleichzeitig in die zentral bei der DNB gehaltenen Dateien und in der Verbunddatenbank vollzogen werden. Seit Anfang September ist die erste Stufe der Onlinekommunikation im produktiven Einsatz: Die PND-Redaktionen in den Aleph-Verbünden arbeiten online zusammen. Das neue Verfahren wird sich auf alle bei der DNB geführten Normdaten erstrecken und in einem gestuften Verfahren eingeführt werden. Die DNB war in zahlreichen Standardisierungsgremien zur Weiterentwicklung von Metadatenstandards wie z.B. Dublin Core und ONIX (Online Information eXchange) sowie bei den Entwicklungsarbeiten für The European Library beteiligt. Die Projektarbeiten im Projekt KIM - Kompetenzzentrum Interoperable Metadaten wurden maßgeblich unterstützt. Im Rahmen der Arbeiten zum Gesetz über die Deutsche Nationalbibliothek wurde ein Metadatenkernset für die Übermittlung von Metadaten an die DNB entwickelt und in einer ersten Stufe mit einem ONIX-Mapping versehen. Innerhalb des Projektes »Virtual International Authority File - VIAF« entwickelten die Library of Congress (LoC), die DNB und OCLC - zunächst für Personennamen - gemeinsam eine virtuelle, internationale Normdatei, in der die Normdatensätze der nationalen Normdateien im Web frei zugänglich miteinander verbunden werden sollen. Die bisherigen Projektergebnisse haben die Machbarkeit einer internationalen Normdatei eindrucksvoll unter Beweis gestellt. Darum haben die Projektpartner in einem neuen Abkommen, das auch die Bibliothèque Nationale de France einschließt, im Oktober 2007 ihr Engagement für den VIAF nochmals bekräftigt und damit eine Konsolidierungs- und Erweiterungsphase eingeleitet."
    "DDC-Deutsch - Bereits im Jahr 2006 wurde die Dewey-Dezimalklassifikation (DDC) für die inhaltliche Erschließung der in den Reihen B (Monografien und Periodika außerhalb des Verlagsbuchhandels) und H (Hochschulschriften) der Deutschen Nationalbibliografie angezeigten Publikationen eingeführt. Mit Heft 1/2007 hat die DDC auch in der Reihe A (Monografien und Periodika des Verlagsbuchhandels) Einzug gehalten. Die dort angezeigten Publikationen werden zusätzlich wie bisher vollständig mit RSWK Schlagwortketten erschlossen. Die DNB wird damit zum größten europäischen Lieferanten von Dewey-Notationen und nimmt nach der LoC weltweit die zweite Stelle ein. Durch die Integration der Daten der DNB in den WorldCat werden Sichtbarkeit und Nutzungsmöglichkeiten dieses Angebots auch über den deutschsprachigen Raum hinaus verbessert. Um den Informationsaustausch unter den europäischen DDC-Anwendern zu verbessern, europäische Belange in der Klassifikation stärker durchzusetzen und die Verbreitung in Europa gemeinsam mit OCLC zu koordinieren, wurde die EDUG (European DDC Users' Group) gegründet."
    "DDC-vascoda - Das Projekt DDC-vascoda wurde 2007 abgeschlossen. Für den Sucheinstieg bei vascoda wurde bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungs-)Jahr kombiniert werden kann, angeboten. Die Suche konnte zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Vascoda verwendete die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument. Ziel des Projektes DDC-vascoda war es, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Weiterhin wurde ein HTML-Dienst entwickelt, der es Fachportalen und anderen Datenanbietern ermöglicht, ohne großen Programmieraufwand ein DDC-Browsing über die eigenen Daten bereitzustellen."
    Type
    a
  17. Jeng, L.H.: What authority? : Why control? (2002) 0.00
    0.0035619505 = product of:
      0.035619505 = sum of:
        0.0098013915 = product of:
          0.019602783 = sum of:
            0.019602783 = weight(_text_:29 in 5475) [ClassicSimilarity], result of:
              0.019602783 = score(doc=5475,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.31092256 = fieldWeight in 5475, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5475)
          0.5 = coord(1/2)
        0.0103175705 = product of:
          0.020635141 = sum of:
            0.020635141 = weight(_text_:online in 5475) [ClassicSimilarity], result of:
              0.020635141 = score(doc=5475,freq=4.0), product of:
                0.05439423 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.017922899 = queryNorm
                0.37936267 = fieldWeight in 5475, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5475)
          0.5 = coord(1/2)
        0.01550054 = product of:
          0.023250809 = sum of:
            0.0036480257 = weight(_text_:a in 5475) [ClassicSimilarity], result of:
              0.0036480257 = score(doc=5475,freq=6.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.17652355 = fieldWeight in 5475, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5475)
            0.019602783 = weight(_text_:29 in 5475) [ClassicSimilarity], result of:
              0.019602783 = score(doc=5475,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.31092256 = fieldWeight in 5475, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5475)
          0.6666667 = coord(2/3)
      0.1 = coord(3/30)
    
    Abstract
    This paper compares the difference between approaches to defining database quality in cataloging and in online databases. Authority control is a solution created by catalogers to ensure that access points are both collocated and differentiated in a library catalog. This time consuming and costly method of quality control is used by catalogers based on the principle that the quality of individual cataloging records determines the success rate for user searching the library catalog. The principle is not shared by creators of online databases, who universally prefer speed to uniformity and standardization of access points.
    Date
    29. 7.2006 19:25:17
    Type
    a
  18. Pestana, O.: Alignment in medical sciences : towards improvement of UDC (2015) 0.00
    0.0032471109 = product of:
      0.03247111 = sum of:
        0.0073510436 = product of:
          0.014702087 = sum of:
            0.014702087 = weight(_text_:29 in 2298) [ClassicSimilarity], result of:
              0.014702087 = score(doc=2298,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.23319192 = fieldWeight in 2298, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2298)
          0.5 = coord(1/2)
        0.012739129 = weight(_text_:u in 2298) [ClassicSimilarity], result of:
          0.012739129 = score(doc=2298,freq=2.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.21706703 = fieldWeight in 2298, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.046875 = fieldNorm(doc=2298)
        0.012380935 = product of:
          0.018571403 = sum of:
            0.0038693151 = weight(_text_:a in 2298) [ClassicSimilarity], result of:
              0.0038693151 = score(doc=2298,freq=12.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.18723148 = fieldWeight in 2298, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2298)
            0.014702087 = weight(_text_:29 in 2298) [ClassicSimilarity], result of:
              0.014702087 = score(doc=2298,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.23319192 = fieldWeight in 2298, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2298)
          0.6666667 = coord(2/3)
      0.1 = coord(3/30)
    
    Abstract
    A classification scheme represents a powerful indexing and retrieval tool. Obsolete terminology and misalignment between widely used systems is key impediment to better use of classification. This paper looks into the issues caused by delay in the revision of UDC class of medical sciences and possible solutions. Following a short description of the Universal Decimal Classification (UDC) and of the National Library of Medicine (NLM) Classification, the author analyses the notations and captions included in 61 class of the UDC Summary. All the classes, subclasses and special auxiliary subdivisions are covered in order to find compatible notations between both schemes, out-of-date vocabulary and out-of-date subdivisions of UDC. As a result of this study and in light of the most recent developments in medical sciences, one subdivision is questioned and several vocabulary expressions included in the caption fields are proposed to be changed or updated.
    Source
    Classification and authority control: expanding resource discovery: proceedings of the International UDC Seminar 2015, 29-30 October 2015, Lisbon, Portugal. Eds.: Slavic, A. u. M.I. Cordeiro
    Type
    a
  19. Vukadin, A.: Development of a classification-oriented authority control : the experience of the National and University Library in Zagreb (2015) 0.00
    0.003224636 = product of:
      0.03224636 = sum of:
        0.0073510436 = product of:
          0.014702087 = sum of:
            0.014702087 = weight(_text_:29 in 2296) [ClassicSimilarity], result of:
              0.014702087 = score(doc=2296,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.23319192 = fieldWeight in 2296, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2296)
          0.5 = coord(1/2)
        0.012739129 = weight(_text_:u in 2296) [ClassicSimilarity], result of:
          0.012739129 = score(doc=2296,freq=2.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.21706703 = fieldWeight in 2296, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.046875 = fieldNorm(doc=2296)
        0.012156183 = product of:
          0.018234273 = sum of:
            0.003532186 = weight(_text_:a in 2296) [ClassicSimilarity], result of:
              0.003532186 = score(doc=2296,freq=10.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.1709182 = fieldWeight in 2296, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2296)
            0.014702087 = weight(_text_:29 in 2296) [ClassicSimilarity], result of:
              0.014702087 = score(doc=2296,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.23319192 = fieldWeight in 2296, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2296)
          0.6666667 = coord(2/3)
      0.1 = coord(3/30)
    
    Abstract
    The paper presents experiences and challenges encountered during the planning and creation of the Universal Decimal Classification (UDC) authority database in the National and University Library in Zagreb, Croatia. The project started in 2014 with the objective of facilitating classification data management, improving the indexing consistency at the institutional level and the machine readability of data for eventual sharing and re-use in the Web environment. The paper discusses the advantages and disadvantages of UDC, which is an analytico-synthetic classification scheme tending towards a more faceted structure, in regard to various aspects of authority control. This discussion represents the referential framework for the project. It determines the choice of elements to be included in the authority file, e.g. distinguishing between syntagmatic and paradigmatic combinations of subjects. It also determines the future lines of development, e.g. interlinking with the subject headings authority file in order to provide searching by verbal expressions.
    Source
    Classification and authority control: expanding resource discovery: proceedings of the International UDC Seminar 2015, 29-30 October 2015, Lisbon, Portugal. Eds.: Slavic, A. u. M.I. Cordeiro
    Type
    a
  20. Dobreski, B.; Snow, K.; Moulaison-Sandy, H.: On overlap and otherness : a comparison of three vocabularies' approaches to LGBTQ+ identity (2022) 0.00
    0.0031882054 = product of:
      0.04782308 = sum of:
        0.046759073 = weight(_text_:post in 1141) [ClassicSimilarity], result of:
          0.046759073 = score(doc=1141,freq=2.0), product of:
            0.10409636 = queryWeight, product of:
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.017922899 = queryNorm
            0.4491903 = fieldWeight in 1141, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1141)
        0.0010640075 = product of:
          0.0031920224 = sum of:
            0.0031920224 = weight(_text_:a in 1141) [ClassicSimilarity], result of:
              0.0031920224 = score(doc=1141,freq=6.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.1544581 = fieldWeight in 1141, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1141)
          0.33333334 = coord(1/3)
      0.06666667 = coord(2/30)
    
    Abstract
    Bibliographic records can include information from controlled vocabularies to capture identities about individuals, especially about authors or intended audiences; personal name authority records can also contain information about identity. Employing a systematic analysis of the overlap of the Homosaurus, Library of Congress Subject Headings (LCSH), and Library of Congress Demographic Group Terms (LCDGT), this article explores the extent to which LGBTQ+ identities are represented in the three vocabularies. Despite LCSH's long, iterative history of development and the faceted, post-coordinate nature of LCDGT, neither vocabulary was found to be adequate in covering the complex, LGBTQ+ identities represented in the Homosaurus.
    Type
    a

Authors

Years

Languages

Types

  • a 203
  • el 26
  • m 4
  • b 2
  • s 2
  • r 1
  • x 1
  • More… Less…