Search (109 results, page 1 of 6)

  • × theme_ss:"Normdateien"
  1. Altenhöner, R.; Hannemann, J.; Kett, J.: Linked Data aus und für Bibliotheken : Rückgratstärkung im Semantic Web (2010) 0.02
    0.01799462 = product of:
      0.08397489 = sum of:
        0.024536107 = weight(_text_:web in 4264) [ClassicSimilarity], result of:
          0.024536107 = score(doc=4264,freq=4.0), product of:
            0.08019538 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.024573348 = queryNorm
            0.3059541 = fieldWeight in 4264, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4264)
        0.03979626 = weight(_text_:frankfurt in 4264) [ClassicSimilarity], result of:
          0.03979626 = score(doc=4264,freq=4.0), product of:
            0.10213336 = queryWeight, product of:
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.024573348 = queryNorm
            0.38964993 = fieldWeight in 4264, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.046875 = fieldNorm(doc=4264)
        0.019642524 = product of:
          0.058927573 = sum of:
            0.058927573 = weight(_text_:2010 in 4264) [ClassicSimilarity], result of:
              0.058927573 = score(doc=4264,freq=5.0), product of:
                0.117538005 = queryWeight, product of:
                  4.7831497 = idf(docFreq=1005, maxDocs=44218)
                  0.024573348 = queryNorm
                0.5013491 = fieldWeight in 4264, product of:
                  2.236068 = tf(freq=5.0), with freq of:
                    5.0 = termFreq=5.0
                  4.7831497 = idf(docFreq=1005, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4264)
          0.33333334 = coord(1/3)
      0.21428572 = coord(3/14)
    
    Imprint
    Frankfurt. / M. : DGI
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
    Year
    2010
  2. Geißelmann, F.: Codes in Bibliothekskatalogen : Bericht über die Arbeitsgruppe Codes (2000) 0.02
    0.017013889 = product of:
      0.07939815 = sum of:
        0.0033467256 = weight(_text_:information in 5545) [ClassicSimilarity], result of:
          0.0033467256 = score(doc=5545,freq=2.0), product of:
            0.04313797 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.024573348 = queryNorm
            0.0775819 = fieldWeight in 5545, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=5545)
        0.00993701 = weight(_text_:retrieval in 5545) [ClassicSimilarity], result of:
          0.00993701 = score(doc=5545,freq=2.0), product of:
            0.07433229 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.024573348 = queryNorm
            0.13368362 = fieldWeight in 5545, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03125 = fieldNorm(doc=5545)
        0.06611441 = weight(_text_:kongress in 5545) [ClassicSimilarity], result of:
          0.06611441 = score(doc=5545,freq=4.0), product of:
            0.16122791 = queryWeight, product of:
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.024573348 = queryNorm
            0.41006804 = fieldWeight in 5545, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.03125 = fieldNorm(doc=5545)
      0.21428572 = coord(3/14)
    
    Abstract
    Die Arbeitsgruppe Codes wurde von der Konferenz für Regelwerksfragen 1997 eingesetzt. Sie wird ihre Arbeit im ersten Halbjahr 2000 beenden. Bei einem Bericht über den Stand der Arbeiten kann kein Gesamtüberblick über die Probleme gegeben werden, da das Thema aus zu vielen Details besteht - acht Regelwerksparagraphen und dem Entwurf zu sechs Anlagen mit zusammen 40 Seiten; dazu kommen sieben Seiten Entwurf für Änderungen in MAB. Vielmehr soll hier auf die Grundsätze eingegangen werden, die der Arbeit zugrunde lagen. Zunächst eine Vorbemerkung: Das Thema Codes ist sicherlich ein ungeliebtes Thema. Die Zahl der Kollegen, die sich damit befassen wollen, ist nicht sehr groß und bei Spezialfragen bekommt man oft nur mit großer Mühe eine Antwort, auch ggf. von Einrichtungen, deren genuine Aufgabe gerade die Stellungnahme zu solchen Themen ist. Andere geben Entwürfe im Verbund sehr schnell weiter - in der Hoffnung bei irgend welchen Kollegen Kenntnisse zu den Entwürfen zu finden. Woher kommt diese Skepsis der Bibliothekare'? Zum einen sicherlich aus dem Zweifel, ob der postulierte Hauptzweck, dem Benutzer zusätzliche Möglichkeiten im Retrieval anzubieten, wirklich erreicht werden wird. Unsere OPACs haben noch zahlreiche andere Defizite - wann wird also die Suche mit Codes tatsächlich beim Benutzer ankommen'? Ein zweiter Punkt ist, dass es sich z.T. um sehr spezielle Materien handelt, die für eine eigene Stellungnahme Einarbeitung verlangen, also durchaus einen erheblichen Arbeitsaufwand. Zum dritten handelt es sich um eine sehr trockene Materie, so trocken, wie die Deutsche Bibliotheksstatistik. Jedermann hält deren Ergebnisse für dringend notwendig, wenn er eine zahlenmäßige Untermauerung von irgendwelchen Entscheidungen oder Argumentationen sucht. Die Beantwortung ist aber weder angenehm noch wird sie vermutlich unter den deutschen Bibliotheken auch nur einigermaßen gleichmäßig gehandhabt. Trotzdem ist die Statistik unvermeidlich und müsste durchaus noch differenzierter sein
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  3. Kasprzik, A.; Kett, J.: Vorschläge für eine Weiterentwicklung der Sacherschließung und Schritte zur fortgesetzten strukturellen Aufwertung der GND (2018) 0.02
    0.015456345 = product of:
      0.07212961 = sum of:
        0.020446755 = weight(_text_:web in 4599) [ClassicSimilarity], result of:
          0.020446755 = score(doc=4599,freq=4.0), product of:
            0.08019538 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.024573348 = queryNorm
            0.25496176 = fieldWeight in 4599, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.03926159 = weight(_text_:indexierung in 4599) [ClassicSimilarity], result of:
          0.03926159 = score(doc=4599,freq=2.0), product of:
            0.13215348 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.024573348 = queryNorm
            0.29709086 = fieldWeight in 4599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.012421262 = weight(_text_:retrieval in 4599) [ClassicSimilarity], result of:
          0.012421262 = score(doc=4599,freq=2.0), product of:
            0.07433229 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.024573348 = queryNorm
            0.16710453 = fieldWeight in 4599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
      0.21428572 = coord(3/14)
    
    Abstract
    Aufgrund der fortgesetzten Publikationsflut stellt sich immer dringender die Frage, wie die Schwellen für die Titel- und Normdatenpflege gesenkt werden können - sowohl für die intellektuelle als auch die automatisierte Sacherschließung. Zu einer Verbesserung der Daten- und Arbeitsqualität in der Sacherschließung kann beigetragen werden a) durch eine flexible Visualisierung der Gemeinsamen Normdatei (GND) und anderer Wissensorganisationssysteme, so dass deren Graphstruktur intuitiv erfassbar wird, und b) durch eine investigative Analyse ihrer aktuellen Struktur und die Entwicklung angepasster automatisierter Methoden zur Ermittlung und Korrektur fehlerhafter Muster. Die Deutsche Nationalbibliothek (DNB) prüft im Rahmen des GND-Entwicklungsprogramms 2017-2021, welche Bedingungen für eine fruchtbare community-getriebene Open-Source-Entwicklung entsprechender Werkzeuge gegeben sein müssen. Weiteres Potential steckt in einem langfristigen Übergang zu einer Darstellung von Titel- und Normdaten in Beschreibungssprachen im Sinne des Semantic Web (RDF; OWL, SKOS). So profitiert die GND von der Interoperabilität mit anderen kontrollierten Vokabularen und von einer erleichterten Interaktion mit anderen Fach-Communities und kann umgekehrt auch außerhalb des Bibliothekswesens zu einem noch attraktiveren Wissensorganisationssystem werden. Darüber hinaus bieten die Ansätze aus dem Semantic Web die Möglichkeit, stärker formalisierte, strukturierende Satellitenvokabulare rund um die GND zu entwickeln. Daraus ergeben sich nicht zuletzt auch neue Perspektiven für die automatisierte Sacherschließung. Es wäre lohnend, näher auszuloten, wie und inwieweit semantisch-logische Verfahren den bestehenden Methodenmix bereichern können.
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  4. Russell, B.M.; Spillane, J.L.: Using the Web for name authority work (2001) 0.01
    0.014462883 = product of:
      0.06749345 = sum of:
        0.04958075 = weight(_text_:web in 167) [ClassicSimilarity], result of:
          0.04958075 = score(doc=167,freq=12.0), product of:
            0.08019538 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.024573348 = queryNorm
            0.6182494 = fieldWeight in 167, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=167)
        0.010144223 = weight(_text_:information in 167) [ClassicSimilarity], result of:
          0.010144223 = score(doc=167,freq=6.0), product of:
            0.04313797 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.024573348 = queryNorm
            0.23515764 = fieldWeight in 167, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=167)
        0.007768482 = product of:
          0.023305446 = sum of:
            0.023305446 = weight(_text_:22 in 167) [ClassicSimilarity], result of:
              0.023305446 = score(doc=167,freq=2.0), product of:
                0.08605168 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024573348 = queryNorm
                0.2708308 = fieldWeight in 167, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=167)
          0.33333334 = coord(1/3)
      0.21428572 = coord(3/14)
    
    Abstract
    While many catalogers are using the Web to find the information they need to perform authority work quickly and accurately, the full potential of the Web to assist catalogers in name authority work has yet to be realized. The ever-growing nature of the Web means that available information for creating personal name, corporate name, and other types of headings will increase. In this article, we examine ways in which simple and effective Web searching can save catalogers time and money in the process of authority work. In addition, questions involving evaluating authority information found on the Web are explored.
    Date
    10. 9.2000 17:38:22
  5. Jahns, Y.; Trummer, M.: Crosskonkordanz Wirtschaft (2003) 0.01
    0.011971341 = product of:
      0.05586626 = sum of:
        0.03926159 = weight(_text_:indexierung in 1962) [ClassicSimilarity], result of:
          0.03926159 = score(doc=1962,freq=2.0), product of:
            0.13215348 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.024573348 = queryNorm
            0.29709086 = fieldWeight in 1962, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1962)
        0.004183407 = weight(_text_:information in 1962) [ClassicSimilarity], result of:
          0.004183407 = score(doc=1962,freq=2.0), product of:
            0.04313797 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.024573348 = queryNorm
            0.09697737 = fieldWeight in 1962, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1962)
        0.012421262 = weight(_text_:retrieval in 1962) [ClassicSimilarity], result of:
          0.012421262 = score(doc=1962,freq=2.0), product of:
            0.07433229 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.024573348 = queryNorm
            0.16710453 = fieldWeight in 1962, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1962)
      0.21428572 = coord(3/14)
    
    Abstract
    Die Suche nach wirtschaftswissenschaftlicher Literatur im Internet führt heute zu unterschiedlich erschlossenen Informationsbeständen. Die Antwort auf diese Heterogenität sollte das Angebot einer integrierten sachlichen Suche über verteilte Datenbanken sein. Crosskonkordanzen unterstützen diese Entwicklung, indem sie Suchfragen in die Terminologie verschiedener Thesauri übersetzen. Nutzern von Bibliotheken und Fachinformationszentren wird das Navigieren erleichtert, sie ersparen sich Mehrfachrecherchen und können auf ihre vertraute Indexierungssprache zurückgreifen. Wirtschaftswissenschaftliche Literatur wird in Deutschland mit verschiedenen Thesauri indexiert. Einerseits bieten Hochschulbibliothekskataloge eine sachliche Suche mit den Schlagwörtern der Schlagwortnormdatei (SWD) an, andererseits sind wirtschaftswissenschaftliche Fachdatenbanken mit dem Standard Thesaurus Wirtschaft (STW) erschlossen. Hier setzt das Angebot der Crosskonkordanz Wirtschaft an - ein Retrieval-Instrument für sachlich heterogen erschlossene Datenbestände." Concordans bedeutet »übereinstimmend«, »zusammenhängend«, »verknüpft«, wir verknüpfen also die Deskriptoren (Sachbegriffe) der SWD im Bereich Wirtschaft mit den Deskriptoren des STW. Die SWD, getragen und entwickelt von Der Deutschen Bibliothek und den Bibliotheksverbünden des deutschen Sprachraums, ist das Instrument zur Indexierung der gesamten deutschsprachigen wirtschaftswissenschaftlichen Literatur. Auch unselbstständige Literatur wird beispielsweise von der Universitätsbibliothek Köln als Sondersammelgebiet Betriebswirtschaftslehre mithilfe der SWD erschlossen. Trotz ihres eigentlichen Charakters als Allgemeinthesaurus ist sie im Bereich Wirtschaft besonders differenziert entwickelt und enthält etwa 12.500 Deskriptoren. Der STW ist der bedeutendste Fachthesaurus für Wirtschaftswissenschaften in der Bundesrepublik Deutschland. Getragen vom Hamburgischen WeIt-Wirtschafts-Archiv (HWWA), der Deutschen Zentralbibliothek für Wirtschaftswissenschaften in Kiel (ZBW) und der Gesellschaft für Betriebswirtschaftliche Information München findet er Anwendung in verschiedenen Fachdatenbanken. Der STW enthält rund 5.000 Deskriptoren
  6. O'Neill, E.T.; Bennett, R.; Kammerer, K.: Using authorities to improve subject searches (2012) 0.01
    0.010325753 = product of:
      0.048186846 = sum of:
        0.017349645 = weight(_text_:web in 310) [ClassicSimilarity], result of:
          0.017349645 = score(doc=310,freq=2.0), product of:
            0.08019538 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.024573348 = queryNorm
            0.21634221 = fieldWeight in 310, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=310)
        0.0050200885 = weight(_text_:information in 310) [ClassicSimilarity], result of:
          0.0050200885 = score(doc=310,freq=2.0), product of:
            0.04313797 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.024573348 = queryNorm
            0.116372846 = fieldWeight in 310, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=310)
        0.02581711 = weight(_text_:retrieval in 310) [ClassicSimilarity], result of:
          0.02581711 = score(doc=310,freq=6.0), product of:
            0.07433229 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.024573348 = queryNorm
            0.34732026 = fieldWeight in 310, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=310)
      0.21428572 = coord(3/14)
    
    Abstract
    Authority files have played an important role in improving the quality of indexing and subject cataloging. Although authorities can significantly improve search by increasing the number of access points, they are rarely an integral part of the information retrieval process, particularly end-users searches. A retrieval prototype, searchFAST, was developed to test the feasibility of using an authority file as an index to bibliographic records. searchFAST uses FAST (Faceted Application of Subject Terminology) as an index to OCLC's WorldCat.org bibliographic database. The searchFAST methodology complements, rather than replaces, existing WorldCat.org access. The bibliographic file is searched indirectly; first the authority file is searched to identify appropriate subject headings, then the headings are used to retrieve the matching bibliographic records. The prototype demonstrates the effectiveness and practicality of using an authority file as an index. Searching the authority file leverages authority control work by increasing the number of access points while supporting a simple interface designed for end-users.
    Source
    Beyond libraries - subject metadata in the digital environment and semantic web. IFLA Satellite Post-Conference, 17-18 August 2012, Tallinn
    Theme
    Verbale Doksprachen im Online-Retrieval
  7. Kaiser, M.; Lieder, H.J.; Majcen, K.; Vallant, H.: New ways of sharing and using authority information : the LEAF project (2003) 0.01
    0.010290484 = product of:
      0.03601669 = sum of:
        0.01445804 = weight(_text_:web in 1166) [ClassicSimilarity], result of:
          0.01445804 = score(doc=1166,freq=8.0), product of:
            0.08019538 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.024573348 = queryNorm
            0.18028519 = fieldWeight in 1166, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1166)
        0.003622937 = weight(_text_:information in 1166) [ClassicSimilarity], result of:
          0.003622937 = score(doc=1166,freq=6.0), product of:
            0.04313797 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.024573348 = queryNorm
            0.083984874 = fieldWeight in 1166, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1166)
        0.006210631 = weight(_text_:retrieval in 1166) [ClassicSimilarity], result of:
          0.006210631 = score(doc=1166,freq=2.0), product of:
            0.07433229 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.024573348 = queryNorm
            0.08355226 = fieldWeight in 1166, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1166)
        0.011725084 = weight(_text_:frankfurt in 1166) [ClassicSimilarity], result of:
          0.011725084 = score(doc=1166,freq=2.0), product of:
            0.10213336 = queryWeight, product of:
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.024573348 = queryNorm
            0.114801705 = fieldWeight in 1166, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1166)
      0.2857143 = coord(4/14)
    
    Abstract
    This article presents an overview of the LEAF project (Linking and Exploring Authority Files)1, which has set out to provide a framework for international, collaborative work in the sector of authority data with respect to authority control. Elaborating the virtues of authority control in today's Web environment is an almost futile exercise, since so much has been said and written about it in the last few years.2 The World Wide Web is generally understood to be poorly structured-both with regard to content and to locating required information. Highly structured databases might be viewed as small islands of precision within this chaotic environment. Though the Web in general or any particular structured database would greatly benefit from increased authority control, it should be noted that our following considerations only refer to authority control with regard to databases of "memory institutions" (i.e., libraries, archives, and museums). Moreover, when talking about authority records, we exclusively refer to personal name authority records that describe a specific person. Although different types of authority records could indeed be used in similar ways to the ones presented in this article, discussing those different types is outside the scope of both the LEAF project and this article. Personal name authority records-as are all other "authorities"-are maintained as separate records and linked to various kinds of descriptive records. Name authority records are usually either kept in independent databases or in separate tables in the database containing the descriptive records. This practice points at a crucial benefit: by linking any number of descriptive records to an authorized name record, the records related to this entity are collocated in the database. Variant forms of the authorized name are referenced in the authority records and thus ensure the consistency of the database while enabling search and retrieval operations that produce accurate results. On one hand, authority control may be viewed as a positive prerequisite of a consistent catalogue; on the other, the creation of new authority records is a very time consuming and expensive undertaking. As a consequence, various models of providing access to existing authority records have emerged: the Library of Congress and the French National Library (Bibliothèque nationale de France), for example, make their authority records available to all via a web-based search service.3 In Germany, the Personal Name Authority File (PND, Personennamendatei4) maintained by the German National Library (Die Deutsche Bibliothek, Frankfurt/Main) offers a different approach to shared access: within a closed network, participating institutions have online access to their pooled data. The number of recent projects and initiatives that have addressed the issue of authority control in one way or another is considerable.5 Two important current initiatives should be mentioned here: The Name Authority Cooperative (NACO) and Virtual International Authority File (VIAF).
    NACO was established in 1976 and is hosted by the Library of Congress. At the beginning of 2003, nearly 400 institutions were involved in this undertaking, including 43 institutions from outside the United States.6 Despite the enormous success of NACO and the impressive annual growth of the initiative, there are requirements for participation that form an obstacle for many institutions: they have to follow the Anglo-American Cataloguing Rules (AACR2) and employ the MARC217 data format. Participating institutions also have to belong to either OCLC (Online Computer Library Center) or RLG (Research Libraries Group) in order to be able to contribute records, and they have to provide a specified minimum number of authority records per year. A recent proof of concept project of the Library of Congress, OCLC and the German National Library-Virtual International Authority File (VIAF)8-will, in its first phase, test automatic linking of the records of the Library of Congress Name Authority File (LCNAF) and the German Personal Name Authority File by using matching algorithms and software developed by OCLC. The results are expected to form the basis of a "Virtual International Authority File". The project will then test the maintenance of the virtual authority file by employing the Open Archives Initiative Protocol for Metadata Harvesting (OAI-PMH)9 to harvest the metadata for new, updated, and deleted records. When using the "Virtual International Authority File" a cataloguer will be able to check the system to see whether the authority record he wants to establish already exists. The final phase of the project will test possibilities for displaying records in the preferred language and script of the end user. Currently, there are still some clear limitations associated with the ways in which authority records are used by memory institutions. One of the main problems has to do with limited access: generally only large institutions or those that are part of a library network have unlimited online access to permanently updated authority records. Smaller institutions outside these networks usually have to fall back on less efficient ways of obtaining authority data, or have no access at all. Cross-domain sharing of authority data between libraries, archives, museums and other memory institutions simply does not happen at present. Public users are, by and large, not even aware that such things as name authority records exist and are excluded from access to these information resources.
  8. Danowski, P.: Authority files and Web 2.0 : Wikipedia and the PND. An Example (2007) 0.01
    0.010047056 = product of:
      0.046886258 = sum of:
        0.02891608 = weight(_text_:web in 1291) [ClassicSimilarity], result of:
          0.02891608 = score(doc=1291,freq=8.0), product of:
            0.08019538 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.024573348 = queryNorm
            0.36057037 = fieldWeight in 1291, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1291)
        0.012421262 = weight(_text_:retrieval in 1291) [ClassicSimilarity], result of:
          0.012421262 = score(doc=1291,freq=2.0), product of:
            0.07433229 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.024573348 = queryNorm
            0.16710453 = fieldWeight in 1291, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1291)
        0.0055489163 = product of:
          0.016646748 = sum of:
            0.016646748 = weight(_text_:22 in 1291) [ClassicSimilarity], result of:
              0.016646748 = score(doc=1291,freq=2.0), product of:
                0.08605168 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024573348 = queryNorm
                0.19345059 = fieldWeight in 1291, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1291)
          0.33333334 = coord(1/3)
      0.21428572 = coord(3/14)
    
    Abstract
    More and more users index everything on their own in the web 2.0. There are services for links, videos, pictures, books, encyclopaedic articles and scientific articles. All these services are library independent. But must that really be? Can't libraries help with their experience and tools to make user indexing better? On the experience of a project from German language Wikipedia together with the German person authority files (Personen Namen Datei - PND) located at German National Library (Deutsche Nationalbibliothek) I would like to show what is possible. How users can and will use the authority files, if we let them. We will take a look how the project worked and what we can learn for future projects. Conclusions - Authority files can have a role in the web 2.0 - there must be an open interface/ service for retrieval - everything that is indexed on the net with authority files can be easy integrated in a federated search - O'Reilly: You have to found ways that your data get more important that more it will be used
    Content
    Vortrag anlässlich des Workshops: "Extending the multilingual capacity of The European Library in the EDL project Stockholm, Swedish National Library, 22-23 November 2007".
    Object
    Web 2.0
  9. Wolverton, R.E.: Becoming an authority on authority control : an annotated bibliography of resources (2006) 0.01
    0.009053724 = product of:
      0.04225071 = sum of:
        0.028625458 = weight(_text_:web in 120) [ClassicSimilarity], result of:
          0.028625458 = score(doc=120,freq=4.0), product of:
            0.08019538 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.024573348 = queryNorm
            0.35694647 = fieldWeight in 120, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=120)
        0.00585677 = weight(_text_:information in 120) [ClassicSimilarity], result of:
          0.00585677 = score(doc=120,freq=2.0), product of:
            0.04313797 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.024573348 = queryNorm
            0.13576832 = fieldWeight in 120, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=120)
        0.007768482 = product of:
          0.023305446 = sum of:
            0.023305446 = weight(_text_:22 in 120) [ClassicSimilarity], result of:
              0.023305446 = score(doc=120,freq=2.0), product of:
                0.08605168 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024573348 = queryNorm
                0.2708308 = fieldWeight in 120, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=120)
          0.33333334 = coord(1/3)
      0.21428572 = coord(3/14)
    
    Abstract
    Authority control has long been an important part of the cataloging process. However, few studies have been conducted examining how librarians learn about it. Research conducted to date suggests that many librarians learn about authority control on the job rather than in formal classes. To offer an introduction to authority control information for librarians, an annotated bibliography is provided. It includes monographs, articles and papers, electronic discussion groups, Web sites related to professional conferences, additional Web sites related to authority control, and training offered through the Name Authority Cooperative Program and the Subject Authority Cooperative Program. A summary of possible future trends in authority control is also provided.
    Date
    10. 9.2000 17:38:22
  10. Oberhauser, O.; Labner, J.: Praktische Lösungen für lokale Systematiken (1) : Die neue lokale Multi-Klassifikations-Normdatei der Verbundzentrale (2007) 0.01
    0.0088599175 = product of:
      0.062019423 = sum of:
        0.04711391 = weight(_text_:indexierung in 496) [ClassicSimilarity], result of:
          0.04711391 = score(doc=496,freq=2.0), product of:
            0.13215348 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.024573348 = queryNorm
            0.35650903 = fieldWeight in 496, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.046875 = fieldNorm(doc=496)
        0.014905514 = weight(_text_:retrieval in 496) [ClassicSimilarity], result of:
          0.014905514 = score(doc=496,freq=2.0), product of:
            0.07433229 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.024573348 = queryNorm
            0.20052543 = fieldWeight in 496, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=496)
      0.14285715 = coord(2/14)
    
    Abstract
    Der Beitrag berichtet über eine unter der Bibliothekssoftware "Aleph 500" neu eingerichtete Normdatei, die mehrere "koexistierende" lokale Klassifikationssysteme aus den Bibliotheken des Österreichischen Bibliothekenverbundes aufzunehmen vermag. Implementiert wurden darin als erste Klassifikation jene der Universitätsbibliothek Bodenkultur (Wien), für die nach dem Auslaufen einer früheren Softwarelösung eine neue Plattform gesucht worden war. Folgende Aspekte werden im Detail angesprochen bzw. dokumentiert: Struktur und Besonderheiten dieser Klassifikation, Gliederung des Gesamtprojektes in mehrere Phasen und Realisierung der ersten Phase (Tabellen-Setup inkl. Kategorienschema, Überführung der Daten in die neue Normdatei, Indexierung). Die neue Multi-Klassifikations-Normdatei ist bereit für die Aufnahme weiterer lokaler Systematiken, wobei diese einerseits von den an der Verbundzentrale geführten Lokalsystemen, andererseits aber auch von den anderen Lokalsystemen des Verbundes stammen können.
    Theme
    Klassifikationssysteme im Online-Retrieval
  11. O'Neill, E.T.; Bennett, R.; Kammerer, K.: Using authorities to improve subject searches (2014) 0.01
    0.008604793 = product of:
      0.0401557 = sum of:
        0.01445804 = weight(_text_:web in 1970) [ClassicSimilarity], result of:
          0.01445804 = score(doc=1970,freq=2.0), product of:
            0.08019538 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.024573348 = queryNorm
            0.18028519 = fieldWeight in 1970, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1970)
        0.004183407 = weight(_text_:information in 1970) [ClassicSimilarity], result of:
          0.004183407 = score(doc=1970,freq=2.0), product of:
            0.04313797 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.024573348 = queryNorm
            0.09697737 = fieldWeight in 1970, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1970)
        0.021514257 = weight(_text_:retrieval in 1970) [ClassicSimilarity], result of:
          0.021514257 = score(doc=1970,freq=6.0), product of:
            0.07433229 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.024573348 = queryNorm
            0.28943354 = fieldWeight in 1970, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1970)
      0.21428572 = coord(3/14)
    
    Abstract
    Authority files have played an important role in improving the quality of indexing and subject cataloging. Although authorities can significantly improve searching by increasing the number of access points, they are rarely an integral part of the information retrieval process, particularly end-users' searches. A retrieval prototype, searchFAST, was developed to test the feasibility of using an authority file as an index to bibliographic records. searchFAST uses Faceted Application of Subject Terminology (FAST) as an index to OCLC's WorldCat.org bibliographic database. The searchFAST prototype complements, rather than replaces, existing WorldCat.org access. The bibliographic file is searched indirectly; first the authority file is searched to identify appropriate subject headings, then the headings are used to retrieve the matching bibliographic records. The prototype demonstrates the effectiveness and practicality of using an authority file as an index. Searching the authority file leverages authority control work by increasing the number of access points while supporting a simple interface designed for end-users.
    Footnote
    Contribution in a special issue "Beyond libraries: Subject metadata in the digital environment and Semantic Web" - Enthält Beiträge der gleichnamigen IFLA Satellite Post-Conference, 17-18 August 2012, Tallinn.
    Theme
    Verbale Doksprachen im Online-Retrieval
  12. Niesner, S.: ¬Die Nutzung bibliothekarischer Normdaten im Web am Beispiel von VIAF und Wikipedia (2015) 0.01
    0.008444628 = product of:
      0.059112392 = sum of:
        0.049072213 = weight(_text_:web in 1763) [ClassicSimilarity], result of:
          0.049072213 = score(doc=1763,freq=4.0), product of:
            0.08019538 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.024573348 = queryNorm
            0.6119082 = fieldWeight in 1763, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.09375 = fieldNorm(doc=1763)
        0.010040177 = weight(_text_:information in 1763) [ClassicSimilarity], result of:
          0.010040177 = score(doc=1763,freq=2.0), product of:
            0.04313797 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.024573348 = queryNorm
            0.23274569 = fieldWeight in 1763, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.09375 = fieldNorm(doc=1763)
      0.14285715 = coord(2/14)
    
    Abstract
    Bibliothekarische Normdaten für Personen lassen sich im Web sinnvoll einsetzen.
    Series
    Lesesaal: Digitale Information
  13. Haffner, A.: Internationalisierung der GND durch das Semantic Web (2012) 0.01
    0.0069170506 = product of:
      0.048419353 = sum of:
        0.032004233 = weight(_text_:web in 318) [ClassicSimilarity], result of:
          0.032004233 = score(doc=318,freq=20.0), product of:
            0.08019538 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.024573348 = queryNorm
            0.39907828 = fieldWeight in 318, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.01641512 = weight(_text_:frankfurt in 318) [ClassicSimilarity], result of:
          0.01641512 = score(doc=318,freq=2.0), product of:
            0.10213336 = queryWeight, product of:
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.024573348 = queryNorm
            0.16072239 = fieldWeight in 318, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
      0.14285715 = coord(2/14)
    
    Abstract
    Seit Bestehen der Menschheit sammelt der Mensch Informationen, seit Bestehen des Internets stellt der Mensch Informationen ins Web, seit Bestehen des Semantic Webs sollen auch Maschinen in die Lage versetzt werden mit diesen Informationen umzugehen. Das Bibliothekswesen ist einer der Sammler. Seit Jahrhunderten werden Kataloge und Bibliografien sowie Inventarnachweise geführt. Mit der Aufgabe des Zettelkatalogs hin zum Onlinekatalog wurde es Benutzern plötzlich möglich in Beständen komfortabel zu suchen. Durch die Bereitstellung von Daten aus dem Bibliothekswesen im Semantic Web sollen nicht nur die eigenen Katalogsysteme Zugriff auf diese Informationen erhalten, sondern jede beliebige Anwendung, die auf das Web zugreifen kann. Darüber hinaus ist die Vorstellung, dass sich die im Web befindenden Daten - in sofern möglich - miteinander verlinken und zu einem gigantischen semantischen Netz werden, das als ein großer Datenpool verwendet werden kann. Die Voraussetzung hierfür ist wie beim Übergang zum Onlinekatalog die Aufbereitung der Daten in einem passenden Format. Normdaten dienen im Bibliothekswesen bereits dazu eine Vernetzung der unterschiedlichen Bestände zu erlauben. Bei der Erschließung eines Buches wird nicht bloß gesagt, dass jemand, der Thomas Mann heißt, der Autor ist - es wird eine Verknüpfung vom Katalogisat zu dem Thomas Mann erzeugt, der am 6. Juni 1875 in Lübeck geboren und am 12. August 1955 in Zürich verstorben ist. Der Vorteil von Normdateneintragungen ist, dass sie zum eindeutigen Nachweis der Verfasserschaft oder Mitwirkung an einem Werk beitragen. Auch stehen Normdateneintragungen bereits allen Bibliotheken für die Nachnutzung bereit - der Schritt ins Semantic Web wäre somit die Öffnung der Normdaten für alle denkbaren Nutzergruppen.
    Die Gemeinsame Normdatei (GND) ist seit April 2012 die Datei, die die im deutschsprachigen Bibliothekswesen verwendeten Normdaten enthält. Folglich muss auf Basis dieser Daten eine Repräsentation für die Darstellung als Linked Data im Semantic Web etabliert werden. Neben der eigentlichen Bereitstellung von GND-Daten im Semantic Web sollen die Daten mit bereits als Linked Data vorhandenen Datenbeständen (DBpedia, VIAF etc.) verknüpft und nach Möglichkeit kompatibel sein, wodurch die GND einem internationalen und spartenübergreifenden Publikum zugänglich gemacht wird. Dieses Dokument dient vor allem zur Beschreibung, wie die GND-Linked-Data-Repräsentation entstand und dem Weg zur Spezifikation einer eignen Ontologie. Hierfür werden nach einer kurzen Einführung in die GND die Grundprinzipien und wichtigsten Standards für die Veröffentlichung von Linked Data im Semantic Web vorgestellt, um darauf aufbauend existierende Vokabulare und Ontologien des Bibliothekswesens betrachten zu können. Anschließend folgt ein Exkurs in das generelle Vorgehen für die Bereitstellung von Linked Data, wobei die so oft zitierte Open World Assumption kritisch hinterfragt und damit verbundene Probleme insbesondere in Hinsicht Interoperabilität und Nachnutzbarkeit aufgedeckt werden. Um Probleme der Interoperabilität zu vermeiden, wird den Empfehlungen der Library Linked Data Incubator Group [LLD11] gefolgt.
    Im Kapitel Anwendungsprofile als Basis für die Ontologieentwicklung wird die Spezifikation von Dublin Core Anwendungsprofilen kritisch betrachtet, um auszumachen wann und in welcher Form sich ihre Verwendung bei dem Vorhaben Bereitstellung von Linked Data anbietet. In den nachfolgenden Abschnitten wird die GND-Ontologie, welche als Standard für die Serialisierung von GND-Daten im Semantic Web dient, samt Modellierungsentscheidungen näher vorgestellt. Dabei wird insbesondere der Technik des Vocabulary Alignment eine prominente Position eingeräumt, da darin ein entscheidender Mechanismus zur Steigerung der Interoperabilität und Nachnutzbarkeit gesehen wird. Auch wird sich mit der Verlinkung zu externen Datensets intensiv beschäftigt. Hierfür wurden ausgewählte Datenbestände hinsichtlich ihrer Qualität und Aktualität untersucht und Empfehlungen für die Implementierung innerhalb des GND-Datenbestandes gegeben. Abschließend werden eine Zusammenfassung und ein Ausblick auf weitere Schritte gegeben.
    Imprint
    Frankfurt : Kompetenzzentrum für interoperable Metadaten
  14. Qualität in der Inhaltserschließung (2021) 0.01
    0.0065041007 = product of:
      0.03035247 = sum of:
        0.011566431 = weight(_text_:web in 753) [ClassicSimilarity], result of:
          0.011566431 = score(doc=753,freq=2.0), product of:
            0.08019538 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.024573348 = queryNorm
            0.14422815 = fieldWeight in 753, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.0047329846 = weight(_text_:information in 753) [ClassicSimilarity], result of:
          0.0047329846 = score(doc=753,freq=4.0), product of:
            0.04313797 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.024573348 = queryNorm
            0.10971737 = fieldWeight in 753, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.014053053 = weight(_text_:retrieval in 753) [ClassicSimilarity], result of:
          0.014053053 = score(doc=753,freq=4.0), product of:
            0.07433229 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.024573348 = queryNorm
            0.18905719 = fieldWeight in 753, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
      0.21428572 = coord(3/14)
    
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Footnote
    Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
    Theme
    Verbale Doksprachen im Online-Retrieval
    Klassifikationssysteme im Online-Retrieval
  15. Altenhöner, R; Hengel, C.; Jahns, Y.; Junger, U.; Mahnke, C.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 74. IFLA-Generalkonferenz in Quebec, Kanada : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICADS und UNIMARC sowie der Information Technology Section (2008) 0.01
    0.006389557 = product of:
      0.029817931 = sum of:
        0.00722902 = weight(_text_:web in 2317) [ClassicSimilarity], result of:
          0.00722902 = score(doc=2317,freq=2.0), product of:
            0.08019538 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.024573348 = queryNorm
            0.09014259 = fieldWeight in 2317, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.019630795 = weight(_text_:indexierung in 2317) [ClassicSimilarity], result of:
          0.019630795 = score(doc=2317,freq=2.0), product of:
            0.13215348 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.024573348 = queryNorm
            0.14854543 = fieldWeight in 2317, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.0029581154 = weight(_text_:information in 2317) [ClassicSimilarity], result of:
          0.0029581154 = score(doc=2317,freq=4.0), product of:
            0.04313797 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.024573348 = queryNorm
            0.068573356 = fieldWeight in 2317, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
      0.21428572 = coord(3/14)
    
    Content
    Classification and Indexing Section (Sektion Klassifikation und Indexierung) Deutsches Mitglied im Ständigen Ausschuss der Sektion: Yvonne Jahns (2005-2009; Deutsche Nationalbibliothek) Die Sektion, die sich als Forum für den internationalen Austausch über Methoden der Inhaltserschließung und die Bedeutung des sachlichen Zugangs zu Dokumenten und Wissen versteht, wartete in Quebec mit einem interessanten Vortragprogramm auf. Drei Präsentationen näherten sich dem Thema "Classification and indexing without language borders" von unterschiedlichen Seiten. Anila Angjeli von der Bibliotheque nationale de France (BnF) präsentierte Arbeiten aus dem Projekt STITCH", das sich mit semantischen Suchen in unterschiedlich erschlossenen Beständen von Kulturerbeinstitutionen beschäftigt. Die verwendeten Thesauri und Klassifikationen wurden mittels SKOS in ein vergleichbares Format überführt und stehen so als Semantic-Web-Anwendung zur Recherche bereit. Die Funktionsweise erläuterte Anila Angjeli sehr bildreich durch Beispiel-suchen nach mittelalterlichen Handschriften der BnF und der Königlichen Bibliothek der Niederlande. Vivien Petras vom GESIS Informationszentrum Sozialwissenschaften, Bonn, sprach über die Vielzahl der intellektuell erstellten Crosskonkordanzen zwischen Thesauri in den Sozialwissenschaften. Sie stellte dabei die Evaluierung der KOMOHE-Projektergebnisse vor und konnte die Verbesserung der Suchergebnisse anschaulich machen, die man durch Hinzuziehen der Konkordanzen in der Recherche über heterogen erschlossene Bestände erreicht. Schließlich präsentierte Michael Kreyche von der Kent State University, Ohio/USA, seinen eindrucksvollen jahrelangen Einsatz für die Zugänglichkeit englisch-spanischer Schlagwörter. Im Projekt Icsh-es.org gelang es, viele Vorarbeiten von amerikanischen und spanischen Bibliotheken zusammenzutragen, um eine Datenbank spanischer Entsprechungen der Library of Congress Subject Headings aufzubauen. Diese soll Indexierern helfen und natürlich den vielen spanisch-sprachigen Bibliotheksbenutzern in den USA zugute kommen. Spanisch ist nicht nur eine der meistgesprochenen Sprachen der Welt, sondern aufgrund der zahlreichen Einwanderer in die USA für die Bibliotheksarbeit von großer Wichtigkeit.
  16. Souza, R. de Mattos: ¬The representation of archival information in controlled vocabularies : the context of the archival institutions in Rio de Janeiro (2019) 0.01
    0.0054639834 = product of:
      0.038247883 = sum of:
        0.016733628 = weight(_text_:information in 5490) [ClassicSimilarity], result of:
          0.016733628 = score(doc=5490,freq=32.0), product of:
            0.04313797 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.024573348 = queryNorm
            0.38790947 = fieldWeight in 5490, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5490)
        0.021514257 = weight(_text_:retrieval in 5490) [ClassicSimilarity], result of:
          0.021514257 = score(doc=5490,freq=6.0), product of:
            0.07433229 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.024573348 = queryNorm
            0.28943354 = fieldWeight in 5490, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5490)
      0.14285715 = coord(2/14)
    
    Abstract
    We aim to trace the scenario of the use of controlled vocabularies as tools of research and work in the scope of representation and retrieval of information in institutions that have archival collections, in order to highlight the need for greater emphasis on the subject of representation of archival information in the academic field, increasing the visibility for the study and analysis of the collections in question and their contents, relevant to the information society. We investigate the current scenario of the use of controlled vocabularies in the archival collections of Rio de Janeiro, the theoretical-methodological changes arising from the impacts of information technologies on analysis, representation, such as classification and indexing, content retrieval, information needs in the contemporary world. The representation of information is associated with classification and retrieval of information to the organization of knowledge in information science. There is a gap in the archival area regarding the expression representation of information from the description of the nineteenth century. As for the theoretical-methodological aspect, there was a theoretical survey of the representation of information in publications in the interdisciplinary areas; as to the op-erational methodology, questionnaires were applied to information agencies on the use of controlled vocabularies, in relation to the treatment of information in archival collections. We conclude by demonstrating the importance of adopting the concept of information representation in archives, using controlled vocabularies associated with new information technologies and informational ecology, consolidating the area as a scientific and interdisciplinary field for information science.
  17. Gültekin, V.: ¬An historical look at the studies on the subject authority file in Turkey (2019) 0.00
    0.0047515607 = product of:
      0.033260923 = sum of:
        0.013386902 = weight(_text_:information in 5480) [ClassicSimilarity], result of:
          0.013386902 = score(doc=5480,freq=8.0), product of:
            0.04313797 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.024573348 = queryNorm
            0.3103276 = fieldWeight in 5480, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=5480)
        0.01987402 = weight(_text_:retrieval in 5480) [ClassicSimilarity], result of:
          0.01987402 = score(doc=5480,freq=2.0), product of:
            0.07433229 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.024573348 = queryNorm
            0.26736724 = fieldWeight in 5480, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=5480)
      0.14285715 = coord(2/14)
    
    Abstract
    Libraries are bridges between information and the library user in the context of information retrieval. Library users want to access information resources according to their topic. Therefore, it is important to create subject entries in bibliographic records. If subject added entries and their redirects are done correctly, it will make it easier for users to access the information they are looking for. In this article the collaborative studies and projects made in Turkey are being discussed.
  18. Ansorge, K.: Das was 2007 (2007) 0.00
    0.0046954756 = product of:
      0.021912219 = sum of:
        0.00722902 = weight(_text_:web in 2405) [ClassicSimilarity], result of:
          0.00722902 = score(doc=2405,freq=2.0), product of:
            0.08019538 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.024573348 = queryNorm
            0.09014259 = fieldWeight in 2405, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2405)
        0.0029581154 = weight(_text_:information in 2405) [ClassicSimilarity], result of:
          0.0029581154 = score(doc=2405,freq=4.0), product of:
            0.04313797 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.024573348 = queryNorm
            0.068573356 = fieldWeight in 2405, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2405)
        0.011725084 = weight(_text_:frankfurt in 2405) [ClassicSimilarity], result of:
          0.011725084 = score(doc=2405,freq=2.0), product of:
            0.10213336 = queryWeight, product of:
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.024573348 = queryNorm
            0.114801705 = fieldWeight in 2405, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2405)
      0.21428572 = coord(3/14)
    
    Content
    "Standardisierung - Auch 2007 ist die Arbeitsstelle für Standardisierung (AfS) auf dem Weg zur Internationalisierung der deutschen Regelwerke, Formate und Normdateien entscheidende Schritte vorangekommen. Im Mittelpunkt der Vorbereitungen für den Format-umstieg standen eine Konkordanz von MAB2 nach MARC 21 und die Festlegung neuer Felder, die für den Umstieg auf nationaler Ebene notwendig sind. Neben einer Vielzahl anderer Aktivitäten hat die DNB zwei Veranstaltungen zum Format-umstieg durchgeführt. In Zusammenarbeit mit den Expertengruppen des Standardisierungsausschusses wurden drei Stellungnahmen zu Entwürfen des Regelwerkes »Resource Description and Access (RDA)« erarbeitet; es fand eine Beteiligung an der internationalen Diskussion zu wichtigen Grundlagen statt. Der Erfüllung des Wunsches nach Einführung der Onlinekommunikation mit Normdateien ist die DNB im vergangenen Jahr deutlich nähergekommen: Änderungen an Normdaten sollen gleichzeitig in die zentral bei der DNB gehaltenen Dateien und in der Verbunddatenbank vollzogen werden. Seit Anfang September ist die erste Stufe der Onlinekommunikation im produktiven Einsatz: Die PND-Redaktionen in den Aleph-Verbünden arbeiten online zusammen. Das neue Verfahren wird sich auf alle bei der DNB geführten Normdaten erstrecken und in einem gestuften Verfahren eingeführt werden. Die DNB war in zahlreichen Standardisierungsgremien zur Weiterentwicklung von Metadatenstandards wie z.B. Dublin Core und ONIX (Online Information eXchange) sowie bei den Entwicklungsarbeiten für The European Library beteiligt. Die Projektarbeiten im Projekt KIM - Kompetenzzentrum Interoperable Metadaten wurden maßgeblich unterstützt. Im Rahmen der Arbeiten zum Gesetz über die Deutsche Nationalbibliothek wurde ein Metadatenkernset für die Übermittlung von Metadaten an die DNB entwickelt und in einer ersten Stufe mit einem ONIX-Mapping versehen. Innerhalb des Projektes »Virtual International Authority File - VIAF« entwickelten die Library of Congress (LoC), die DNB und OCLC - zunächst für Personennamen - gemeinsam eine virtuelle, internationale Normdatei, in der die Normdatensätze der nationalen Normdateien im Web frei zugänglich miteinander verbunden werden sollen. Die bisherigen Projektergebnisse haben die Machbarkeit einer internationalen Normdatei eindrucksvoll unter Beweis gestellt. Darum haben die Projektpartner in einem neuen Abkommen, das auch die Bibliothèque Nationale de France einschließt, im Oktober 2007 ihr Engagement für den VIAF nochmals bekräftigt und damit eine Konsolidierungs- und Erweiterungsphase eingeleitet."
    "DDC-vascoda - Das Projekt DDC-vascoda wurde 2007 abgeschlossen. Für den Sucheinstieg bei vascoda wurde bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungs-)Jahr kombiniert werden kann, angeboten. Die Suche konnte zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Vascoda verwendete die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument. Ziel des Projektes DDC-vascoda war es, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Weiterhin wurde ein HTML-Dienst entwickelt, der es Fachportalen und anderen Datenanbietern ermöglicht, ohne großen Programmieraufwand ein DDC-Browsing über die eigenen Daten bereitzustellen."
    Location
    Frankfurt
  19. Dean, R.J.: FAST: development of simplified headings for metadata (2004) 0.00
    0.00460788 = product of:
      0.032255158 = sum of:
        0.017349645 = weight(_text_:web in 5682) [ClassicSimilarity], result of:
          0.017349645 = score(doc=5682,freq=2.0), product of:
            0.08019538 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.024573348 = queryNorm
            0.21634221 = fieldWeight in 5682, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=5682)
        0.014905514 = weight(_text_:retrieval in 5682) [ClassicSimilarity], result of:
          0.014905514 = score(doc=5682,freq=2.0), product of:
            0.07433229 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.024573348 = queryNorm
            0.20052543 = fieldWeight in 5682, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=5682)
      0.14285715 = coord(2/14)
    
    Abstract
    The Library of Congress Subject Headings schema (LCSH) is the most commonly used and widely accepted subject vocabulary for general application. It is the de facto universal controlled vocabulary and has been a model for developing subject heading systems by many countries. However, LCSH's complex syntax and rules for constructing headings restrict its application by requiring highly skilled personnel and limit the effectiveness of automated authority control. Recent trends, driven to a large extent by the rapid growth of the Web, are forcing changes in bibliographic control systems to make them easier to use, understand, and apply, and subject headings are no exception. The purpose of adapting the LCSH with a simplified syntax to create FAST (Faceted Application of Subject Terminology) headings is to retain the very rich vocabulary of LCSH while making the schema easier to understand, control, apply, and use. The schema maintains compatibility with LCSH--any valid Library of Congress subject heading can be converted to FAST headings.
    Theme
    Verbale Doksprachen im Online-Retrieval
  20. Smiraglia, R.P.: Authority control of works: cataloging's chimera? (2004) 0.00
    0.004574908 = product of:
      0.032024354 = sum of:
        0.01445804 = weight(_text_:web in 5678) [ClassicSimilarity], result of:
          0.01445804 = score(doc=5678,freq=2.0), product of:
            0.08019538 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.024573348 = queryNorm
            0.18028519 = fieldWeight in 5678, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5678)
        0.017566316 = weight(_text_:retrieval in 5678) [ClassicSimilarity], result of:
          0.017566316 = score(doc=5678,freq=4.0), product of:
            0.07433229 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.024573348 = queryNorm
            0.23632148 = fieldWeight in 5678, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5678)
      0.14285715 = coord(2/14)
    
    Abstract
    Explicit authority control of works is essentially non-existent. Our catalogs are built on a principle of controlling headings, and primarily headings for names of authors. Our syndetic structure creates a spider's web of networked relationships among forms of headings, but it ends there, despite the potential richness of depth among bibliographic entities. Effective authority control of works could yield richness in the catalog that would enhance retrieval capabilities. Works are considered to constitute the intellectual content of informative artifacts that may be collected and ordered for retrieval. In a 1992 study the author examined a random sample of works drawn from the catalog of the Georgetown University Library. For each progenitor work, an instantiation network (also referred to as a bibliographic family) was constituted. A detailed analysis of the linkages that would be required for authority control of these networks is reviewed here. A new study is also presented, in which Library of Congress authority records for the works in this sample are sought and analyzed. Results demonstrate a near total lack of control, with only 5.6% of works for which authority records were found. From a sample of 410 works, of which nearly half have instantiation networks, only 23 works could be said to have implicit authority control. However, many instantiation networks are made up of successive derivations that can be implicitly linked through collocation. The difficult work of explicitly linking instantiations comes with title changes, translations, and containing relations. The empirical evidence in the present study suggests that explicit control of expressions will provide the best control over instantiation networks because it is instantiations such as translations, abridgments, and adaptations that require explicit linking.

Authors

Years

Languages

  • e 72
  • d 33
  • a 1
  • f 1
  • More… Less…

Types

  • a 97
  • el 14
  • b 2
  • m 2
  • r 1
  • s 1
  • More… Less…