Search (36 results, page 1 of 2)

  • × language_ss:"d"
  • × theme_ss:"Normdateien"
  1. Geißelmann, F.: Codes in Bibliothekskatalogen : Bericht über die Arbeitsgruppe Codes (2000) 0.02
    0.02051729 = product of:
      0.09574735 = sum of:
        0.0040358636 = weight(_text_:information in 5545) [ClassicSimilarity], result of:
          0.0040358636 = score(doc=5545,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.0775819 = fieldWeight in 5545, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=5545)
        0.0119831795 = weight(_text_:retrieval in 5545) [ClassicSimilarity], result of:
          0.0119831795 = score(doc=5545,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.13368362 = fieldWeight in 5545, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03125 = fieldNorm(doc=5545)
        0.079728305 = weight(_text_:kongress in 5545) [ClassicSimilarity], result of:
          0.079728305 = score(doc=5545,freq=4.0), product of:
            0.19442701 = queryWeight, product of:
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.029633347 = queryNorm
            0.41006804 = fieldWeight in 5545, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.03125 = fieldNorm(doc=5545)
      0.21428572 = coord(3/14)
    
    Abstract
    Die Arbeitsgruppe Codes wurde von der Konferenz für Regelwerksfragen 1997 eingesetzt. Sie wird ihre Arbeit im ersten Halbjahr 2000 beenden. Bei einem Bericht über den Stand der Arbeiten kann kein Gesamtüberblick über die Probleme gegeben werden, da das Thema aus zu vielen Details besteht - acht Regelwerksparagraphen und dem Entwurf zu sechs Anlagen mit zusammen 40 Seiten; dazu kommen sieben Seiten Entwurf für Änderungen in MAB. Vielmehr soll hier auf die Grundsätze eingegangen werden, die der Arbeit zugrunde lagen. Zunächst eine Vorbemerkung: Das Thema Codes ist sicherlich ein ungeliebtes Thema. Die Zahl der Kollegen, die sich damit befassen wollen, ist nicht sehr groß und bei Spezialfragen bekommt man oft nur mit großer Mühe eine Antwort, auch ggf. von Einrichtungen, deren genuine Aufgabe gerade die Stellungnahme zu solchen Themen ist. Andere geben Entwürfe im Verbund sehr schnell weiter - in der Hoffnung bei irgend welchen Kollegen Kenntnisse zu den Entwürfen zu finden. Woher kommt diese Skepsis der Bibliothekare'? Zum einen sicherlich aus dem Zweifel, ob der postulierte Hauptzweck, dem Benutzer zusätzliche Möglichkeiten im Retrieval anzubieten, wirklich erreicht werden wird. Unsere OPACs haben noch zahlreiche andere Defizite - wann wird also die Suche mit Codes tatsächlich beim Benutzer ankommen'? Ein zweiter Punkt ist, dass es sich z.T. um sehr spezielle Materien handelt, die für eine eigene Stellungnahme Einarbeitung verlangen, also durchaus einen erheblichen Arbeitsaufwand. Zum dritten handelt es sich um eine sehr trockene Materie, so trocken, wie die Deutsche Bibliotheksstatistik. Jedermann hält deren Ergebnisse für dringend notwendig, wenn er eine zahlenmäßige Untermauerung von irgendwelchen Entscheidungen oder Argumentationen sucht. Die Beantwortung ist aber weder angenehm noch wird sie vermutlich unter den deutschen Bibliotheken auch nur einigermaßen gleichmäßig gehandhabt. Trotzdem ist die Statistik unvermeidlich und müsste durchaus noch differenzierter sein
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  2. Jahns, Y.; Trummer, M.: Crosskonkordanz Wirtschaft (2003) 0.01
    0.0102035375 = product of:
      0.047616508 = sum of:
        0.027592704 = weight(_text_:bibliothek in 1962) [ClassicSimilarity], result of:
          0.027592704 = score(doc=1962,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.22680065 = fieldWeight in 1962, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1962)
        0.0050448296 = weight(_text_:information in 1962) [ClassicSimilarity], result of:
          0.0050448296 = score(doc=1962,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.09697737 = fieldWeight in 1962, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1962)
        0.014978974 = weight(_text_:retrieval in 1962) [ClassicSimilarity], result of:
          0.014978974 = score(doc=1962,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.16710453 = fieldWeight in 1962, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1962)
      0.21428572 = coord(3/14)
    
    Abstract
    Die Suche nach wirtschaftswissenschaftlicher Literatur im Internet führt heute zu unterschiedlich erschlossenen Informationsbeständen. Die Antwort auf diese Heterogenität sollte das Angebot einer integrierten sachlichen Suche über verteilte Datenbanken sein. Crosskonkordanzen unterstützen diese Entwicklung, indem sie Suchfragen in die Terminologie verschiedener Thesauri übersetzen. Nutzern von Bibliotheken und Fachinformationszentren wird das Navigieren erleichtert, sie ersparen sich Mehrfachrecherchen und können auf ihre vertraute Indexierungssprache zurückgreifen. Wirtschaftswissenschaftliche Literatur wird in Deutschland mit verschiedenen Thesauri indexiert. Einerseits bieten Hochschulbibliothekskataloge eine sachliche Suche mit den Schlagwörtern der Schlagwortnormdatei (SWD) an, andererseits sind wirtschaftswissenschaftliche Fachdatenbanken mit dem Standard Thesaurus Wirtschaft (STW) erschlossen. Hier setzt das Angebot der Crosskonkordanz Wirtschaft an - ein Retrieval-Instrument für sachlich heterogen erschlossene Datenbestände." Concordans bedeutet »übereinstimmend«, »zusammenhängend«, »verknüpft«, wir verknüpfen also die Deskriptoren (Sachbegriffe) der SWD im Bereich Wirtschaft mit den Deskriptoren des STW. Die SWD, getragen und entwickelt von Der Deutschen Bibliothek und den Bibliotheksverbünden des deutschen Sprachraums, ist das Instrument zur Indexierung der gesamten deutschsprachigen wirtschaftswissenschaftlichen Literatur. Auch unselbstständige Literatur wird beispielsweise von der Universitätsbibliothek Köln als Sondersammelgebiet Betriebswirtschaftslehre mithilfe der SWD erschlossen. Trotz ihres eigentlichen Charakters als Allgemeinthesaurus ist sie im Bereich Wirtschaft besonders differenziert entwickelt und enthält etwa 12.500 Deskriptoren. Der STW ist der bedeutendste Fachthesaurus für Wirtschaftswissenschaften in der Bundesrepublik Deutschland. Getragen vom Hamburgischen WeIt-Wirtschafts-Archiv (HWWA), der Deutschen Zentralbibliothek für Wirtschaftswissenschaften in Kiel (ZBW) und der Gesellschaft für Betriebswirtschaftliche Information München findet er Anwendung in verschiedenen Fachdatenbanken. Der STW enthält rund 5.000 Deskriptoren
  3. Niesner, S.: ¬Die Nutzung bibliothekarischer Normdaten im Web am Beispiel von VIAF und Wikipedia (2015) 0.01
    0.010183495 = product of:
      0.07128446 = sum of:
        0.05917687 = weight(_text_:web in 1763) [ClassicSimilarity], result of:
          0.05917687 = score(doc=1763,freq=4.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.6119082 = fieldWeight in 1763, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.09375 = fieldNorm(doc=1763)
        0.012107591 = weight(_text_:information in 1763) [ClassicSimilarity], result of:
          0.012107591 = score(doc=1763,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.23274569 = fieldWeight in 1763, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.09375 = fieldNorm(doc=1763)
      0.14285715 = coord(2/14)
    
    Abstract
    Bibliothekarische Normdaten für Personen lassen sich im Web sinnvoll einsetzen.
    Series
    Lesesaal: Digitale Information
  4. Qualität in der Inhaltserschließung (2021) 0.01
    0.007843386 = product of:
      0.036602467 = sum of:
        0.013948122 = weight(_text_:web in 753) [ClassicSimilarity], result of:
          0.013948122 = score(doc=753,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.14422815 = fieldWeight in 753, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.005707573 = weight(_text_:information in 753) [ClassicSimilarity], result of:
          0.005707573 = score(doc=753,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.10971737 = fieldWeight in 753, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.016946774 = weight(_text_:retrieval in 753) [ClassicSimilarity], result of:
          0.016946774 = score(doc=753,freq=4.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.18905719 = fieldWeight in 753, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
      0.21428572 = coord(3/14)
    
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Footnote
    Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
    Theme
    Verbale Doksprachen im Online-Retrieval
    Klassifikationssysteme im Online-Retrieval
  5. Danowski, P.; Pfeifer, B.: Wikipedia und Normdateien : Wege der Vernetzung am Beispiel der Kooperation mit der Personennamendatei (2007) 0.01
    0.007836393 = product of:
      0.05485475 = sum of:
        0.044148326 = weight(_text_:bibliothek in 4594) [ClassicSimilarity], result of:
          0.044148326 = score(doc=4594,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.36288103 = fieldWeight in 4594, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0625 = fieldNorm(doc=4594)
        0.010706427 = product of:
          0.032119278 = sum of:
            0.032119278 = weight(_text_:22 in 4594) [ClassicSimilarity], result of:
              0.032119278 = score(doc=4594,freq=2.0), product of:
                0.103770934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029633347 = queryNorm
                0.30952093 = fieldWeight in 4594, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4594)
          0.33333334 = coord(1/3)
      0.14285715 = coord(2/14)
    
    Date
    16. 7.2011 11:54:22
    Source
    Bibliothek: Forschung und Praxis. 31(2007) H.2, S.149-155
  6. Hubrich, J.: ¬Die Schlagwortrecherche in deutschsprachigen OPACs : Typen der Schlagwortsuche und der Einsatz der Schlagwortnormdatei (SWD) dargelegt unter Rückgriff auf eine empirische Untersuchung (2005) 0.01
    0.0072980025 = product of:
      0.051086016 = sum of:
        0.033111244 = weight(_text_:bibliothek in 3552) [ClassicSimilarity], result of:
          0.033111244 = score(doc=3552,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.27216077 = fieldWeight in 3552, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.046875 = fieldNorm(doc=3552)
        0.01797477 = weight(_text_:retrieval in 3552) [ClassicSimilarity], result of:
          0.01797477 = score(doc=3552,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.20052543 = fieldWeight in 3552, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=3552)
      0.14285715 = coord(2/14)
    
    Abstract
    Schlagwortsuchen sind heutzutage fester Bestandteil vieler Online-Kataloge. Durch die Verknüpfung von Titeldaten mit dokumentspezifischen Schlagwörtern aus der SWD wird ein thematischer Zugang zu den Medien eines Verbundes bzw. einer Bibliothek ermöglicht. Der SWD-Datensatz bietet neben den Ansetzungsformen, die für die Indexate genutzt werden, jedoch noch eine Reihe weiterer Informationen, die, an der richtigen Stelle im Online-Katalog implementiert, das Retrieval seitens des Benutzers optimieren können. Untersucht wurden die Online-Kataloge der großen deutschen Bibliotheksverbünde, des österreichischen Bibliothekenverbunds sowie 106 weiterer OPACs von vorwiegend wissenschaftlichen Bibliotheken. Es wurde betrachtet, welche Suchfeatures für die Schlagwortrecherche zur Verfügung gestellt werden, wie sie gestaltet sind und inwieweit das SWD-Datenmaterial genutzt wird. Dabei zeigte sich, dass zurzeit drei Typen von Schlagwortsuchen verbreitet sind: - die Indexsuche (mehrstufige Schlagwort- bzw. Schlagwortkettensuche) - die einstufige Schlagwort- bzw. Schlagwortkettensuche sowie - die weiterführende Schlagwort- bzw. Schlagwortkettensuche von einer Treffer- bzw. Titelvollanzeige aus.
  7. Altenhöner, R; Hengel, C.; Jahns, Y.; Junger, U.; Mahnke, C.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 74. IFLA-Generalkonferenz in Quebec, Kanada : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICADS und UNIMARC sowie der Information Technology Section (2008) 0.01
    0.006813385 = product of:
      0.031795796 = sum of:
        0.008717576 = weight(_text_:web in 2317) [ClassicSimilarity], result of:
          0.008717576 = score(doc=2317,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.09014259 = fieldWeight in 2317, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.019510988 = weight(_text_:bibliothek in 2317) [ClassicSimilarity], result of:
          0.019510988 = score(doc=2317,freq=4.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.16037227 = fieldWeight in 2317, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.0035672332 = weight(_text_:information in 2317) [ClassicSimilarity], result of:
          0.0035672332 = score(doc=2317,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.068573356 = fieldWeight in 2317, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
      0.21428572 = coord(3/14)
    
    Content
    Classification and Indexing Section (Sektion Klassifikation und Indexierung) Deutsches Mitglied im Ständigen Ausschuss der Sektion: Yvonne Jahns (2005-2009; Deutsche Nationalbibliothek) Die Sektion, die sich als Forum für den internationalen Austausch über Methoden der Inhaltserschließung und die Bedeutung des sachlichen Zugangs zu Dokumenten und Wissen versteht, wartete in Quebec mit einem interessanten Vortragprogramm auf. Drei Präsentationen näherten sich dem Thema "Classification and indexing without language borders" von unterschiedlichen Seiten. Anila Angjeli von der Bibliotheque nationale de France (BnF) präsentierte Arbeiten aus dem Projekt STITCH", das sich mit semantischen Suchen in unterschiedlich erschlossenen Beständen von Kulturerbeinstitutionen beschäftigt. Die verwendeten Thesauri und Klassifikationen wurden mittels SKOS in ein vergleichbares Format überführt und stehen so als Semantic-Web-Anwendung zur Recherche bereit. Die Funktionsweise erläuterte Anila Angjeli sehr bildreich durch Beispiel-suchen nach mittelalterlichen Handschriften der BnF und der Königlichen Bibliothek der Niederlande. Vivien Petras vom GESIS Informationszentrum Sozialwissenschaften, Bonn, sprach über die Vielzahl der intellektuell erstellten Crosskonkordanzen zwischen Thesauri in den Sozialwissenschaften. Sie stellte dabei die Evaluierung der KOMOHE-Projektergebnisse vor und konnte die Verbesserung der Suchergebnisse anschaulich machen, die man durch Hinzuziehen der Konkordanzen in der Recherche über heterogen erschlossene Bestände erreicht. Schließlich präsentierte Michael Kreyche von der Kent State University, Ohio/USA, seinen eindrucksvollen jahrelangen Einsatz für die Zugänglichkeit englisch-spanischer Schlagwörter. Im Projekt Icsh-es.org gelang es, viele Vorarbeiten von amerikanischen und spanischen Bibliotheken zusammenzutragen, um eine Datenbank spanischer Entsprechungen der Library of Congress Subject Headings aufzubauen. Diese soll Indexierern helfen und natürlich den vielen spanisch-sprachigen Bibliotheksbenutzern in den USA zugute kommen. Spanisch ist nicht nur eine der meistgesprochenen Sprachen der Welt, sondern aufgrund der zahlreichen Einwanderer in die USA für die Bibliotheksarbeit von großer Wichtigkeit.
  8. Wiechmann, B.: Individualisierungstest in Der Deutschen Bibliothek (1999) 0.01
    0.0061699166 = product of:
      0.08637883 = sum of:
        0.08637883 = weight(_text_:bibliothek in 3810) [ClassicSimilarity], result of:
          0.08637883 = score(doc=3810,freq=10.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.70999837 = fieldWeight in 3810, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3810)
      0.071428575 = coord(1/14)
    
    Abstract
    Die Deutsche Bibliothek benutzt seit der Einspielung ihrer Personennamen die nationale Normdatei für Personennamen (PND) integriert für die Katalogisierung. Der seit Beginn der redaktionellen Arbeiten an der PND laufenden Diskussion über die Erfassung von Normdatensätzen für einzelnen Personen und deren Verwendung in der Formalerschließung wollen Die Deutschen Bibliothek eine statistisch belegte Grundlage verschaffen und hat deshalb einen Test zur Ermittlung ihres Aufwands für die erweiterte Individualisierung durchgeführt. Der Test ermöglicht Aussagen über den Zeitaufwand und das Verhältnis von nichtindividualisierten zu individualisierten Datensätzen an Der Deutschen Bibliothek und belegt, daß der hauptsächliche Aufwand bei der retrospektiven Zuordnung von Titeln anfällt. Die Deutsche Bibliothek spricht sich auf der Grundlage des Tests für die Fortführung der Individualisierung aus
  9. Kasprzik, A.; Kett, J.: Vorschläge für eine Weiterentwicklung der Sacherschließung und Schritte zur fortgesetzten strukturellen Aufwertung der GND (2018) 0.01
    0.0056622867 = product of:
      0.039636005 = sum of:
        0.02465703 = weight(_text_:web in 4599) [ClassicSimilarity], result of:
          0.02465703 = score(doc=4599,freq=4.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.25496176 = fieldWeight in 4599, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.014978974 = weight(_text_:retrieval in 4599) [ClassicSimilarity], result of:
          0.014978974 = score(doc=4599,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.16710453 = fieldWeight in 4599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
      0.14285715 = coord(2/14)
    
    Abstract
    Aufgrund der fortgesetzten Publikationsflut stellt sich immer dringender die Frage, wie die Schwellen für die Titel- und Normdatenpflege gesenkt werden können - sowohl für die intellektuelle als auch die automatisierte Sacherschließung. Zu einer Verbesserung der Daten- und Arbeitsqualität in der Sacherschließung kann beigetragen werden a) durch eine flexible Visualisierung der Gemeinsamen Normdatei (GND) und anderer Wissensorganisationssysteme, so dass deren Graphstruktur intuitiv erfassbar wird, und b) durch eine investigative Analyse ihrer aktuellen Struktur und die Entwicklung angepasster automatisierter Methoden zur Ermittlung und Korrektur fehlerhafter Muster. Die Deutsche Nationalbibliothek (DNB) prüft im Rahmen des GND-Entwicklungsprogramms 2017-2021, welche Bedingungen für eine fruchtbare community-getriebene Open-Source-Entwicklung entsprechender Werkzeuge gegeben sein müssen. Weiteres Potential steckt in einem langfristigen Übergang zu einer Darstellung von Titel- und Normdaten in Beschreibungssprachen im Sinne des Semantic Web (RDF; OWL, SKOS). So profitiert die GND von der Interoperabilität mit anderen kontrollierten Vokabularen und von einer erleichterten Interaktion mit anderen Fach-Communities und kann umgekehrt auch außerhalb des Bibliothekswesens zu einem noch attraktiveren Wissensorganisationssystem werden. Darüber hinaus bieten die Ansätze aus dem Semantic Web die Möglichkeit, stärker formalisierte, strukturierende Satellitenvokabulare rund um die GND zu entwickeln. Daraus ergeben sich nicht zuletzt auch neue Perspektiven für die automatisierte Sacherschließung. Es wäre lohnend, näher auszuloten, wie und inwieweit semantisch-logische Verfahren den bestehenden Methodenmix bereichern können.
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  10. Gömpel, R.: Standardisierungsarbeit für Bibliotheken : Konzept der Deutschen Bibliothek (2001) 0.01
    0.005518541 = product of:
      0.07725957 = sum of:
        0.07725957 = weight(_text_:bibliothek in 6128) [ClassicSimilarity], result of:
          0.07725957 = score(doc=6128,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.63504183 = fieldWeight in 6128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.109375 = fieldNorm(doc=6128)
      0.071428575 = coord(1/14)
    
  11. Scheven, E.: ¬Die neue Thesaurusnorm ISO 25964 und die GND (2017) 0.01
    0.005234611 = product of:
      0.036642276 = sum of:
        0.024409214 = weight(_text_:web in 3505) [ClassicSimilarity], result of:
          0.024409214 = score(doc=3505,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.25239927 = fieldWeight in 3505, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3505)
        0.012233062 = weight(_text_:information in 3505) [ClassicSimilarity], result of:
          0.012233062 = score(doc=3505,freq=6.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.23515764 = fieldWeight in 3505, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3505)
      0.14285715 = coord(2/14)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  12. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.01
    0.005083029 = product of:
      0.0355812 = sum of:
        0.030849583 = weight(_text_:bibliothek in 632) [ClassicSimilarity], result of:
          0.030849583 = score(doc=632,freq=10.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.25357085 = fieldWeight in 632, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.004731616 = product of:
          0.014194848 = sum of:
            0.014194848 = weight(_text_:22 in 632) [ClassicSimilarity], result of:
              0.014194848 = score(doc=632,freq=4.0), product of:
                0.103770934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029633347 = queryNorm
                0.13679022 = fieldWeight in 632, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=632)
          0.33333334 = coord(1/3)
      0.14285715 = coord(2/14)
    
    Content
    "Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung Matchkey Bei der Verwendung von Meta-Suchmaschinen zur parallelen Recherche in bibliografischen Datenbanken kommt es häufig vor, dass derselbe Titel mehrmals in der Trefferliste auftaucht. In dieser Situation könnte ein so genannter Matchkey Abhilfe schaffen, der jeden Datensatz aus den vorhandenen bibliografischen Daten heraus eindeutig identifiziert. Ein solcher Algorithmus geht von einem bibliografischen Datensatz aus und generiert einen Schlüssel (Matchkey), der wiederum in den Datensatz integriert werden kann. Der Schlüssel muss sortierfähig sein, so dass die Trefferliste nach dem Grad der Ähnlichkeit sortiert werden kann. Eine wichtige Voraussetzung für die erfolgreiche Anwendung des Matchkey ist die Beseitigung der Hausregeln in den Verbünden und Bibliotheken. Bisher hat Die Deutsche Bibliothek das Thema analysiert und strebt nun die Formulierung und Bereitstellung eines ersten Algorithmus an, um eine Implementierung zu Testzwecken voraussichtlich im März/April 2006 zu ermöglichen. Ein klares Ergebnis soll bis Ende 2006 vorliegen.
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum Das HBZ hat seinen am 15. November frei geschalteten Dreiländer-Katalog (Deutschland, Österreich, Schweiz) vorgestellt, dessen Ziel der Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum ist. Der Katalog entstand in Kooperation des HBZ mit dem Bibliotheksverbund Bayern (BVB) und dem Österreichischen Bibliothekenverbund (OBV); die Integration weiterer Bibliotheksbestände aus anderen Regionen ist in Arbeit. Realisiert wurde das Projekt mittels der Suchmaschinentechnologie des HBZ, die Antwortzeiten in Bruchteilen von Sekunden, Ranking und Kategorisierung der Treffermengen ermöglicht. Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben beschlossen, sich die für die Literaturversorgung relevanten Verbunddaten (Titeldaten mit Nachweisen) für den Aufbau verbundbezogener, nicht kommerzieller Dienste auf Gegenseitigkeit kostenfrei zur Verfügung zu stellen. Normdateien Online-Schnittstelle Ziel der Online-Kommunikation mit Normdateien ist es, die Arbeit mit den zentralen Normdateien dadurch zu vereinfachen, dass Änderungen an Normdaten in den zentral bei Der Deutschen Bibliothek gehaltenen Dateien mit dem eigenen Client erfolgen können. Ferner sollen alle Änderungen an den Normdateien zeitnah in die Normdaten-Spiegel der Verbundsysteme transportiert werden (Replikation). Das Verfahren soll sich auf alle bei Der Deutschen Bibliothek geführten Normdaten erstrecken. Als standardisiertes Kommunikationsprotokoll soll Z39.50 SR Extended Services Update genutzt werden. Für die Replikation ist OAI vorgesehen, als Austauschformat zunächst MAB2 bzw. MABXML. Die existierenden Implementierungen erfüllen an mehreren wichtigen Stellen nicht die Anforderungen. Eine Konversion in und aus einem neutralen Transportformat, wie für die Online-Kommunikation mit Normdateien benötigt, ist an der gegenwärtigen Pica-Schnittstelle nicht vorgesehen und lässt sich nur realisieren, wenn wesentliche Veränderungen vorgenommen werden. OCLC PICA plant, diese Veränderungen im 1. Quartal 2006 vorzunehmen. Nach der aktuellen Projektplanung soll die Online-Kommunikation zu Beginn des Jahres 2007 starten.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."
  13. Clavel-Merrin, G.: ¬Der Bedarf nach Kooperation bei Erarbeitung und Pflege mehrsprachiger Schlagwortnormdateien (1999) 0.00
    0.003153452 = product of:
      0.044148326 = sum of:
        0.044148326 = weight(_text_:bibliothek in 4184) [ClassicSimilarity], result of:
          0.044148326 = score(doc=4184,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.36288103 = fieldWeight in 4184, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0625 = fieldNorm(doc=4184)
      0.071428575 = coord(1/14)
    
    Abstract
    Die Aufgabe der Erabeitung, Verwaltung und Pflege mehrsprachiger Schlagwortnormdateien erfordert erheblich Mittel und sollte daher am besten in Kooperation erfolgen. 4 europäische Nationalbibliotheken (die Schweizerische Landesbibliothek, die Bibliothèque de France, Die Deutsche Bibliothek und die British Library) haben gemeinsam eine Machbarkeitsstudie über die Verknüpfung bestehender Schlagwortverzeichnisse in verschiedenen Sprachen erarbeitet, um einen mehrsprachigen Schlagwort-Zugang zu ihren Daten zu ermöglichen
  14. ORCID (2015) 0.00
    0.0031379324 = product of:
      0.043931052 = sum of:
        0.043931052 = weight(_text_:elektronische in 1870) [ClassicSimilarity], result of:
          0.043931052 = score(doc=1870,freq=2.0), product of:
            0.14013545 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.029633347 = queryNorm
            0.3134899 = fieldWeight in 1870, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.046875 = fieldNorm(doc=1870)
      0.071428575 = coord(1/14)
    
    Content
    ORCID soll die elektronische Zuordnung von Publikation und Autoren ermöglichen. Dies ist notwendig, da verschiedene Autoren gleiche Namen haben können, Namen sich ändern (z. B. bei Heirat) und Namen in verschiedenen Publikationen unterschiedlich angegeben werden (z. B. einmal die ausgeschriebenen Vornamen, ein anderes Mal aber nur die Initialen). ORCID soll zum De-facto-Standard für die Autorenidentifikation wissenschaftlicher Publikationen werden. Die Etablierung wird von der Non-Profit-Organisation Open Researcher Contributor Identification Initiative organisiert. Zu den Gründungsmitgliedern der Initiative gehören zahlreiche wissenschaftliche Verlagsgruppen (z. B. Elsevier, Nature Publishing Group, Springer) und Forschungsorganisationen (z. B. EMBO, CERN). Die Planungen für ORCID wurden 2010 auf Umfragen gestützt. ORCID ging am 16. Oktober 2012 offiziell an den Start. Am Jahresende 2012 hatte ORCID 42.918 Registrierte, Jahresende 2013 waren es 460.000 Registrierte und im November 2014 hatte ORCID 1 Million Autorenidentifikationen ausgestellt. Vgl. auch den Zusammenhang mit der GND und den Erfassungsleitfaden der DNB unter: https://wiki.dnb.de/x/vYYGAw.
  15. Wiesenmüller, H.: Verbale Erschließung in Katalogen und Discovery-Systemen : Überlegungen zur Qualität (2021) 0.00
    0.0030957845 = product of:
      0.02167049 = sum of:
        0.014978974 = weight(_text_:retrieval in 374) [ClassicSimilarity], result of:
          0.014978974 = score(doc=374,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.16710453 = fieldWeight in 374, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.0066915164 = product of:
          0.020074548 = sum of:
            0.020074548 = weight(_text_:22 in 374) [ClassicSimilarity], result of:
              0.020074548 = score(doc=374,freq=2.0), product of:
                0.103770934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029633347 = queryNorm
                0.19345059 = fieldWeight in 374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=374)
          0.33333334 = coord(1/3)
      0.14285715 = coord(2/14)
    
    Date
    24. 9.2021 12:22:02
    Theme
    Verbale Doksprachen im Online-Retrieval
  16. Faßnacht, M.: "Druckt die GND Nummer in der Publikation ab!" : Vereinfachung der Normdatenverwendung in Bibliotheken und Datenbanken (2014) 0.00
    0.002365089 = product of:
      0.033111244 = sum of:
        0.033111244 = weight(_text_:bibliothek in 2393) [ClassicSimilarity], result of:
          0.033111244 = score(doc=2393,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.27216077 = fieldWeight in 2393, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.046875 = fieldNorm(doc=2393)
      0.071428575 = coord(1/14)
    
    Abstract
    Normdateien lösen das Problem von unterschiedlichen Namensschreibweisen, Übersetzungen und Namensdoppelungen. Nationale oder an Sprachräume gebundene Normdaten sind mittlerweile im "Virtual International Authority File" Projekt (VIAF) über Konkordanzen miteinander verlinkt. Neben diesen von Bibliotheken erstellten Normdaten entstehen aber auch in anderen Kontexten Identifizierungssysteme, die die Uneindeutigkeit von Personennamen in sehr großen Datenmengen beseitigen sollen. Ein arbeitsaufwändiges Problem ist dabei aber immer noch nicht gelöst: nach wie vor müssen Bibliothekare die Identität der Autoren mühsam recherchieren. Wie einfach wäre es, wenn die GND oder LoC Nummer beim Namen des Autors abgedruckt wäre! An einem Pilotprojekt der UB Tübingen wird demonstriert, wie durch die Zusammenarbeit von Herausgeber, Verlag und Bibliothek die GND-Nummern der Autoren in der Publikation abgedruckt werden können.
  17. Altenhöner, R.; Hannemann, J.; Kett, J.: Linked Data aus und für Bibliotheken : Rückgratstärkung im Semantic Web (2010) 0.00
    0.0021134596 = product of:
      0.029588435 = sum of:
        0.029588435 = weight(_text_:web in 4264) [ClassicSimilarity], result of:
          0.029588435 = score(doc=4264,freq=4.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.3059541 = fieldWeight in 4264, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4264)
      0.071428575 = coord(1/14)
    
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  18. Hengel, C.: Normdaten und Metadaten : die Idee eines internationalen authority file (2003) 0.00
    0.0019709074 = product of:
      0.027592704 = sum of:
        0.027592704 = weight(_text_:bibliothek in 1763) [ClassicSimilarity], result of:
          0.027592704 = score(doc=1763,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.22680065 = fieldWeight in 1763, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1763)
      0.071428575 = coord(1/14)
    
    Abstract
    Normdaten sind Metadaten besonderer Oualität: Metadaten zu Metadaten. In einem getrennt vom Metadaten-Set zur einzelnen Publikation gebildeten Normdaten-Satz werden die unterschiedlichen in den Publikationen verwendeten Namensformen bzw. Bezeichnungen für dasselbe Objekt zusammengeführt und normiert. Durch die Verwendung von Normdaten als Metadaten wird kontrolliert und sichergestellt, dass z. B. für Autoren, Urheber, Verleger, Sachinhalte etc. gleich bleibende, identische Sucheinstiege und Zugriffspunkte gebildet werden (Authority Control). Für die Recherche wirkt sich die Normierung so aus, dass die zugehörigen Publikationen über alle im Normdatensatz beinhalteten Namensformen und Bezeichnungen gefunden werden können. Durch die Angabe von Attributen und Relationen zu den einzelnen Objekten werden zudem zusätzliche, vernetzte Zugriffspunkte bereitgestellt. Normdaten sind damit ideal zur Bildung von semantischen Navigationsnetzen für die Suche und den Zugriff auf Publikationen und andere Objekte geeignet. Das standardisierte Vokabular und das Nummernsystem einer Normdatei hat aber nur im eigenen Anwendungsbereich Gültigkeit, und die gemeinsame Nutzung von Titeldaten kann durch die Nutzung unterschiedlicher Normdateien behindert werden. Die IFLA-Arbeitsgruppe FRANAR hat mit der Vision eines gemeinsamen Virtuellen Authority File ein Modell entwickelt, wie im Bibliothekswesen Interoperabilität zwischen den nationalen Normdateien hergestellt werden kann. Um die Realisierbarkeit eines solchen Vorhabens nachzuweisen, haben die Library of Congress, OCLC und Die Deutsche Bibliothek ein gemeinsames Projekt vereinbart, in dem exemplarisch für den Bereich der Personennormdaten ein VIAF (Virtual International Authority File) aufgebaut werden soll.
  19. Kühn, A.: SWD im SWB : Schlagwortnormdatei im Südwestdeutschen Bibliotheksverbund (2008) 0.00
    0.0019709074 = product of:
      0.027592704 = sum of:
        0.027592704 = weight(_text_:bibliothek in 2176) [ClassicSimilarity], result of:
          0.027592704 = score(doc=2176,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.22680065 = fieldWeight in 2176, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2176)
      0.071428575 = coord(1/14)
    
    Abstract
    Im Südwestdeutschen Bibliotheksverbund (SWB) besteht die Möglichkeit, Titel sachlich sowohl verbal als auch klassifikatorisch zu erschließen. Im Lokaldatenbereich liegt die Verantwortung für die verwendeten Klassifikationen, Thesauri oder freien Begriffe in der alleinigen Verantwortung der jeweiligen Bibliothek. Im Titelbereich stehen für die klassifikatorische Erschließung verschiedene Felder für unterschiedliche Klassifikationen, wie DDC, LCC und MSC zur Verfügung. Als für die SWB-Teilnehmerbibliotheken wichtigste Klassifikation steht die Regensburger Verbundklassifikation (RVK) als Normdatei zur Verknüpfung im Titelbereich in einem eigenen Titelfeld bereit. Die verbale Erschließung auf Titelebene geschieht im SWB ausschließlich durch SWD-Vokabular bzw. RSWK-gerechte Schlagwörter. Die Anwendung der SWD erfolgt produktiv seit dem Sommer 1994. Die verbale Erschließung erfolgt in den allermeisten Fällen durch Kettenbildung nach den RSWK. In der CBS-Verbunddatenbank können Titel- und Exemplarsätze mit regionalen bzw. lokalen Normsätzen verknüpft werden. Im Titelbereich stehen Verknüpfungsfelder zu RVK-Notationen, Körperschaften (GKD), Personen und Schlagwörtern (SWD bzw. PND für Personenschlagwörter) zur Verfügung. Wie in der überregionalen SWD, gehalten in der Datenbank der Deutschen Nationalbibliothek (DNB), sind auch im SWB die für die Sacherschließung genutzten Personen - also Personenschlagwörter - datentechnisch Teil der PND, dies spiegelt sich im Datenformat wider. Derselbe Personendatensatz kann also, sofern er für die Sacherschließung genutzt werden darf, im Titel sowohl aus den Formal- als auch aus den Sacherschließungsfeldern heraus genutzt werden. Bei abweichenden Ansetzungsformen nach RAK und RSWK wird im Titelverknüpfungsfeld für die Formalerschließung die Ansetzungsform nach RAK und im Titelverknüpfungsfeld für die Sacherschließung die Ansetzungsform nach RSWK eingeblendet.
  20. Steeg, F.; Pohl, A.: ¬Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) (2021) 0.00
    0.0017612164 = product of:
      0.02465703 = sum of:
        0.02465703 = weight(_text_:web in 367) [ClassicSimilarity], result of:
          0.02465703 = score(doc=367,freq=4.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.25496176 = fieldWeight in 367, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=367)
      0.071428575 = coord(1/14)
    
    Abstract
    Normdaten spielen speziell im Hinblick auf die Qualität der Inhaltserschließung bibliografischer und archivalischer Ressourcen eine wichtige Rolle. Ein konkretes Ziel der Inhaltserschließung ist z. B., dass alle Werke über Hermann Hesse einheitlich zu finden sind. Hier bieten Normdaten eine Lösung, indem z. B. bei der Erschließung einheitlich die GND-Nummer 11855042X für Hermann Hesse verwendet wird. Das Ergebnis ist eine höhere Qualität der Inhaltserschließung vor allem im Sinne von Einheitlichkeit und Eindeutigkeit und, daraus resultierend, eine bessere Auffindbarkeit. Werden solche Entitäten miteinander verknüpft, z. B. Hermann Hesse mit einem seiner Werke, entsteht ein Knowledge Graph, wie ihn etwa Google bei der Inhaltserschließung des Web verwendet (Singhal 2012). Die Entwicklung des Google Knowledge Graph und das hier vorgestellte Protokoll sind historisch miteinander verbunden: OpenRefine wurde ursprünglich als Google Refine entwickelt, und die Funktionalität zum Abgleich mit externen Datenquellen (Reconciliation) wurde ursprünglich zur Einbindung von Freebase entwickelt, einer der Datenquellen des Google Knowledge Graph. Freebase wurde später in Wikidata integriert. Schon Google Refine wurde zum Abgleich mit Normdaten verwendet, etwa den Library of Congress Subject Headings (Hooland et al. 2013).