Search (113 results, page 1 of 6)

  • × theme_ss:"Normdateien"
  1. Wiesenmüller, H.: Verbale Erschließung in Katalogen und Discovery-Systemen : Überlegungen zur Qualität (2021) 0.09
    0.09111955 = product of:
      0.13667932 = sum of:
        0.050362762 = weight(_text_:im in 374) [ClassicSimilarity], result of:
          0.050362762 = score(doc=374,freq=10.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.34918293 = fieldWeight in 374, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.086316556 = sum of:
          0.025961377 = weight(_text_:online in 374) [ClassicSimilarity], result of:
            0.025961377 = score(doc=374,freq=2.0), product of:
              0.1548489 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.051022716 = queryNorm
              0.16765618 = fieldWeight in 374, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.0390625 = fieldNorm(doc=374)
          0.025790809 = weight(_text_:retrieval in 374) [ClassicSimilarity], result of:
            0.025790809 = score(doc=374,freq=2.0), product of:
              0.15433937 = queryWeight, product of:
                3.024915 = idf(docFreq=5836, maxDocs=44218)
                0.051022716 = queryNorm
              0.16710453 = fieldWeight in 374, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.024915 = idf(docFreq=5836, maxDocs=44218)
                0.0390625 = fieldNorm(doc=374)
          0.03456437 = weight(_text_:22 in 374) [ClassicSimilarity], result of:
            0.03456437 = score(doc=374,freq=2.0), product of:
              0.17867287 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051022716 = queryNorm
              0.19345059 = fieldWeight in 374, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=374)
      0.6666667 = coord(2/3)
    
    Abstract
    Beschäftigt man sich mit Inhaltserschließung, so sind zunächst zwei Dimensionen zu unterscheiden - die Wissensorganisationssysteme selbst (z. B. Normdateien, Thesauri, Schlagwortsprachen, Klassifikationen und Ontologien) und die Metadaten für Dokumente, die mit diesen Wissensorganisationssystemen erschlossen sind. Beides steht in einer Wechselwirkung zueinander: Die Wissensorganisationssysteme sind die Werkzeuge für die Erschließungsarbeit und bilden die Grundlage für die Erstellung konkreter Erschließungsmetadaten. Die praktische Anwendung der Wissensorganisationssysteme in der Erschließung wiederum ist die Basis für deren Pflege und Weiterentwicklung. Zugleich haben Wissensorganisationssysteme auch einen Eigenwert unabhängig von den Erschließungsmetadaten für einzelne Dokumente, indem sie bestimmte Bereiche von Welt- oder Fachwissen modellartig abbilden. Will man nun Aussagen über die Qualität von inhaltlicher Erschließung treffen, so genügt es nicht, den Input - also die Wissensorganisationssysteme und die damit generierten Metadaten - zu betrachten. Man muss auch den Output betrachten, also das, was die Recherchewerkzeuge daraus machen und was folglich bei den Nutzer:innen konkret ankommt. Im vorliegenden Beitrag werden Überlegungen zur Qualität von Recherchewerkzeugen in diesem Bereich angestellt - gewissermaßen als Fortsetzung und Vertiefung der dazu im Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) gegebenen Hinweise. Im Zentrum steht die verbale Erschließung nach den Regeln für die Schlagwortkatalogisierung (RSWK), wie sie sich in Bibliothekskatalogen manifestiert - gleich, ob es sich dabei um herkömmliche Kataloge oder um Resource-Discovery-Systeme (RDS) handelt.
    Date
    24. 9.2021 12:22:02
    Footnote
    Anmerkung: Früher wäre es im RSWK-Kontext aufgefallen, dass es sich bei einer Wortschöpfung 'Erschließungsmetadaten' um einen Pleonasmus handelt.
    Theme
    Verbale Doksprachen im Online-Retrieval
  2. Oberhauser, O.; Labner, J.: Praktische Lösungen für lokale Systematiken (1) : Die neue lokale Multi-Klassifikations-Normdatei der Verbundzentrale (2007) 0.06
    0.05881816 = product of:
      0.08822724 = sum of:
        0.03822265 = weight(_text_:im in 496) [ClassicSimilarity], result of:
          0.03822265 = score(doc=496,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.26501122 = fieldWeight in 496, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=496)
        0.050004594 = product of:
          0.07500689 = sum of:
            0.04405792 = weight(_text_:online in 496) [ClassicSimilarity], result of:
              0.04405792 = score(doc=496,freq=4.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.284522 = fieldWeight in 496, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=496)
            0.03094897 = weight(_text_:retrieval in 496) [ClassicSimilarity], result of:
              0.03094897 = score(doc=496,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.20052543 = fieldWeight in 496, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=496)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Der Beitrag berichtet über eine unter der Bibliothekssoftware "Aleph 500" neu eingerichtete Normdatei, die mehrere "koexistierende" lokale Klassifikationssysteme aus den Bibliotheken des Österreichischen Bibliothekenverbundes aufzunehmen vermag. Implementiert wurden darin als erste Klassifikation jene der Universitätsbibliothek Bodenkultur (Wien), für die nach dem Auslaufen einer früheren Softwarelösung eine neue Plattform gesucht worden war. Folgende Aspekte werden im Detail angesprochen bzw. dokumentiert: Struktur und Besonderheiten dieser Klassifikation, Gliederung des Gesamtprojektes in mehrere Phasen und Realisierung der ersten Phase (Tabellen-Setup inkl. Kategorienschema, Überführung der Daten in die neue Normdatei, Indexierung). Die neue Multi-Klassifikations-Normdatei ist bereit für die Aufnahme weiterer lokaler Systematiken, wobei diese einerseits von den an der Verbundzentrale geführten Lokalsystemen, andererseits aber auch von den anderen Lokalsystemen des Verbundes stammen können.
    Content
    Vgl. auch den Beitrag: Oberhauser, O.; Labner, J. (2006). Entwurf und Implementierung einer neuen Multi-Klassifikations-Normdatei für den Österreichischen Bibliothekenverbund. B.I.T. online. 9(4). 293-302.
    Theme
    Klassifikationssysteme im Online-Retrieval
  3. Hubrich, J.: ¬Die Schlagwortrecherche in deutschsprachigen OPACs : Typen der Schlagwortsuche und der Einsatz der Schlagwortnormdatei (SWD) dargelegt unter Rückgriff auf eine empirische Untersuchung (2005) 0.06
    0.055755522 = product of:
      0.08363328 = sum of:
        0.027027493 = weight(_text_:im in 3552) [ClassicSimilarity], result of:
          0.027027493 = score(doc=3552,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 3552, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=3552)
        0.056605786 = product of:
          0.08490868 = sum of:
            0.053959712 = weight(_text_:online in 3552) [ClassicSimilarity], result of:
              0.053959712 = score(doc=3552,freq=6.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.34846687 = fieldWeight in 3552, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3552)
            0.03094897 = weight(_text_:retrieval in 3552) [ClassicSimilarity], result of:
              0.03094897 = score(doc=3552,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.20052543 = fieldWeight in 3552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3552)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Schlagwortsuchen sind heutzutage fester Bestandteil vieler Online-Kataloge. Durch die Verknüpfung von Titeldaten mit dokumentspezifischen Schlagwörtern aus der SWD wird ein thematischer Zugang zu den Medien eines Verbundes bzw. einer Bibliothek ermöglicht. Der SWD-Datensatz bietet neben den Ansetzungsformen, die für die Indexate genutzt werden, jedoch noch eine Reihe weiterer Informationen, die, an der richtigen Stelle im Online-Katalog implementiert, das Retrieval seitens des Benutzers optimieren können. Untersucht wurden die Online-Kataloge der großen deutschen Bibliotheksverbünde, des österreichischen Bibliothekenverbunds sowie 106 weiterer OPACs von vorwiegend wissenschaftlichen Bibliotheken. Es wurde betrachtet, welche Suchfeatures für die Schlagwortrecherche zur Verfügung gestellt werden, wie sie gestaltet sind und inwieweit das SWD-Datenmaterial genutzt wird. Dabei zeigte sich, dass zurzeit drei Typen von Schlagwortsuchen verbreitet sind: - die Indexsuche (mehrstufige Schlagwort- bzw. Schlagwortkettensuche) - die einstufige Schlagwort- bzw. Schlagwortkettensuche sowie - die weiterführende Schlagwort- bzw. Schlagwortkettensuche von einer Treffer- bzw. Titelvollanzeige aus.
  4. O'Neill, E.T.; Bennett, R.; Kammerer, K.: Using authorities to improve subject searches (2012) 0.06
    0.05568893 = product of:
      0.08353339 = sum of:
        0.027027493 = weight(_text_:im in 310) [ClassicSimilarity], result of:
          0.027027493 = score(doc=310,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 310, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=310)
        0.0565059 = product of:
          0.08475885 = sum of:
            0.031153653 = weight(_text_:online in 310) [ClassicSimilarity], result of:
              0.031153653 = score(doc=310,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.20118743 = fieldWeight in 310, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=310)
            0.05360519 = weight(_text_:retrieval in 310) [ClassicSimilarity], result of:
              0.05360519 = score(doc=310,freq=6.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.34732026 = fieldWeight in 310, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=310)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Authority files have played an important role in improving the quality of indexing and subject cataloging. Although authorities can significantly improve search by increasing the number of access points, they are rarely an integral part of the information retrieval process, particularly end-users searches. A retrieval prototype, searchFAST, was developed to test the feasibility of using an authority file as an index to bibliographic records. searchFAST uses FAST (Faceted Application of Subject Terminology) as an index to OCLC's WorldCat.org bibliographic database. The searchFAST methodology complements, rather than replaces, existing WorldCat.org access. The bibliographic file is searched indirectly; first the authority file is searched to identify appropriate subject headings, then the headings are used to retrieve the matching bibliographic records. The prototype demonstrates the effectiveness and practicality of using an authority file as an index. Searching the authority file leverages authority control work by increasing the number of access points while supporting a simple interface designed for end-users.
    Theme
    Verbale Doksprachen im Online-Retrieval
  5. Qualität in der Inhaltserschließung (2021) 0.06
    0.05544644 = product of:
      0.083169654 = sum of:
        0.044135712 = weight(_text_:im in 753) [ClassicSimilarity], result of:
          0.044135712 = score(doc=753,freq=12.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.30600858 = fieldWeight in 753, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.039033946 = product of:
          0.058550917 = sum of:
            0.029371947 = weight(_text_:online in 753) [ClassicSimilarity], result of:
              0.029371947 = score(doc=753,freq=4.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.18968134 = fieldWeight in 753, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.03125 = fieldNorm(doc=753)
            0.029178968 = weight(_text_:retrieval in 753) [ClassicSimilarity], result of:
              0.029178968 = score(doc=753,freq=4.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.18905719 = fieldWeight in 753, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=753)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Theme
    Verbale Doksprachen im Online-Retrieval
    Klassifikationssysteme im Online-Retrieval
  6. Hubrich, J.: Input und Output der Schlagwortnormdatei (SWD) : Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2005) 0.05
    0.05029873 = product of:
      0.075448096 = sum of:
        0.027027493 = weight(_text_:im in 4183) [ClassicSimilarity], result of:
          0.027027493 = score(doc=4183,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 4183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4183)
        0.0484206 = product of:
          0.0726309 = sum of:
            0.031153653 = weight(_text_:online in 4183) [ClassicSimilarity], result of:
              0.031153653 = score(doc=4183,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.20118743 = fieldWeight in 4183, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4183)
            0.04147724 = weight(_text_:22 in 4183) [ClassicSimilarity], result of:
              0.04147724 = score(doc=4183,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.23214069 = fieldWeight in 4183, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4183)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Die kooperative Führung der Schlagwortnormdatei und die Gewährleistung der Qualität der in ihr enthaltenen Daten sind mit einem enormen Aufwand verbunden, der durch den Einsatz der EDV und geeignete Organisationsstrukturen nur geringfügig reduziert werden kann. Die Erstellung der SWD-Normdatensätze bleibt aufgrund der Vielzahl der den Ansetzungsformen beizufügenden Zusatzinformationen wie Codes, Notationen und Relationen relativ zeitintensiv. Diese lassen jedoch auch die SWD besonders wertvoll für die Recherche werden, da sie die Wiederauffindbarkeit der Daten unterstützen. Während die Schlagwortsuche in deutschen OPACs weit verbreitet ist, haben Codes, Notationen und Relationen bisher nur geringfügig Eingang in den OPAC gefunden. Bei einer Untersuchung von 111 Online-Katalogen wurde festgestellt, dass kein einziger OPAC all die Möglichkeiten nutzt, die mit der SWD gegeben sind. Am meisten werden noch Synonyme und - in geringerem Maße - hierarchische und assoziative Relationen zur Verbesserung des Recalls und zur Benutzerführung eingesetzt. Codes und Notationen finden nur vereinzelt Anwendung.
    Date
    30. 1.2007 18:22:15
  7. O'Neill, E.T.; Bennett, R.; Kammerer, K.: Using authorities to improve subject searches (2014) 0.05
    0.046407443 = product of:
      0.06961116 = sum of:
        0.022522911 = weight(_text_:im in 1970) [ClassicSimilarity], result of:
          0.022522911 = score(doc=1970,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.15615936 = fieldWeight in 1970, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1970)
        0.047088247 = product of:
          0.07063237 = sum of:
            0.025961377 = weight(_text_:online in 1970) [ClassicSimilarity], result of:
              0.025961377 = score(doc=1970,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.16765618 = fieldWeight in 1970, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1970)
            0.04467099 = weight(_text_:retrieval in 1970) [ClassicSimilarity], result of:
              0.04467099 = score(doc=1970,freq=6.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.28943354 = fieldWeight in 1970, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1970)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Authority files have played an important role in improving the quality of indexing and subject cataloging. Although authorities can significantly improve searching by increasing the number of access points, they are rarely an integral part of the information retrieval process, particularly end-users' searches. A retrieval prototype, searchFAST, was developed to test the feasibility of using an authority file as an index to bibliographic records. searchFAST uses Faceted Application of Subject Terminology (FAST) as an index to OCLC's WorldCat.org bibliographic database. The searchFAST prototype complements, rather than replaces, existing WorldCat.org access. The bibliographic file is searched indirectly; first the authority file is searched to identify appropriate subject headings, then the headings are used to retrieve the matching bibliographic records. The prototype demonstrates the effectiveness and practicality of using an authority file as an index. Searching the authority file leverages authority control work by increasing the number of access points while supporting a simple interface designed for end-users.
    Theme
    Verbale Doksprachen im Online-Retrieval
  8. Lucarelli, A.: Semantic authority control and New Soggettario (2004) 0.05
    0.0456195 = product of:
      0.06842925 = sum of:
        0.027027493 = weight(_text_:im in 5674) [ClassicSimilarity], result of:
          0.027027493 = score(doc=5674,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 5674, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=5674)
        0.04140175 = product of:
          0.062102623 = sum of:
            0.031153653 = weight(_text_:online in 5674) [ClassicSimilarity], result of:
              0.031153653 = score(doc=5674,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.20118743 = fieldWeight in 5674, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5674)
            0.03094897 = weight(_text_:retrieval in 5674) [ClassicSimilarity], result of:
              0.03094897 = score(doc=5674,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.20052543 = fieldWeight in 5674, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5674)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Theme
    Verbale Doksprachen im Online-Retrieval
  9. Dean, R.J.: FAST: development of simplified headings for metadata (2004) 0.05
    0.0456195 = product of:
      0.06842925 = sum of:
        0.027027493 = weight(_text_:im in 5682) [ClassicSimilarity], result of:
          0.027027493 = score(doc=5682,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 5682, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=5682)
        0.04140175 = product of:
          0.062102623 = sum of:
            0.031153653 = weight(_text_:online in 5682) [ClassicSimilarity], result of:
              0.031153653 = score(doc=5682,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.20118743 = fieldWeight in 5682, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5682)
            0.03094897 = weight(_text_:retrieval in 5682) [ClassicSimilarity], result of:
              0.03094897 = score(doc=5682,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.20052543 = fieldWeight in 5682, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5682)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Theme
    Verbale Doksprachen im Online-Retrieval
  10. Sandner, M.: Neues aus der Kommission für Sacherschließung : Das neue Tool "NSW online" (2011) 0.05
    0.045440327 = product of:
      0.06816049 = sum of:
        0.054615162 = weight(_text_:im in 4529) [ClassicSimilarity], result of:
          0.054615162 = score(doc=4529,freq=24.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.37866634 = fieldWeight in 4529, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4529)
        0.01354533 = product of:
          0.040635988 = sum of:
            0.040635988 = weight(_text_:online in 4529) [ClassicSimilarity], result of:
              0.040635988 = score(doc=4529,freq=10.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.2624235 = fieldWeight in 4529, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4529)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Content
    "Die "Liste der fachlichen Nachschlagewerke zu den Normdateien" (NSW-Liste) stellt mit ihren derzeit rund 1.660 Einträgen ein verbindliches Arbeitsinstrument für die tägliche Praxis in der kooperativen Normdaten-pflege des deutschsprachigen Raumes, speziell für die Terminologiearbeit in der bibliothekarischen Sacherschließung dar. In jedem Normdatensatz der Schlagwortnormdatei (SWD) werden für den Nachweis und die Begründung der Ansetzungs- und Verweisungsformen eines Deskriptors im Feld "Quelle" Referenzwerke aus der so genannten Prioritätenliste (Rangfolge der Nachschlagewerke), darüber hinaus aus der gesamten NSW-Liste, festgehalten und normiert abgekürzt. In gedruckter Form erscheint diese von der Deutschen Nationalbibliothek (DNB) regelmäßig aktualisierte Liste jährlich mit einem Änderungsdienst (Änderungen, Neuauflagen; Neuaufnahmen) und steht seit einigen Jahren auch elektronisch abrufbar bereit. Dennoch ist sie "in die Jahre" gekommen. Eine verbesserte Form dieser Liste war ein langjähriges Desiderat für die Neuansetzungspraxis in der SWD. Erst eine Projektarbeit im Rahmen des ULG bot 2008/2009 in Wien die Gelegenheit, solch einem elektronischen Hilfsmittel entscheidend näher zu kommen. Das Projektergebnis war praxistauglich und wurde 2010 von der UB Wien in ein Content Management System (CMS) eingebettet. Zahlreiche Tests und funktionelle Anpassungen sowie eine genaue Durchsicht des Grunddatenbestandes und aller Links in den Katalog des Pilotverbundes (OBV) waren noch nötig, und auch die erste Aktualisierung nach der Druckausgabe 2010 führten wir durch, bevor wir im Herbst 2010 der Fachöffentlichkeit eine Beta-Version vorstellen konnten. Seither steht die Suche im NSW-Tool als Alternative zur Benützung der Druckausgabe allen frei zur Verfügung: http://www.univie.ac.at/nsw/. Sämtliche SWD-Kooperationspartner-Redaktionen und die Lokalen Redaktionen (ÖSWD-LRs) des Österreichischen Bibliothekenverbundes (OBV) können über das Web-Frontend von "NSW online" ihre Wünsche an die Redaktion der NSW-Liste (Fachabteilung SE, DNB) direkt im Tool deponieren (Korrekturanträge sowie Vorschläge zur Aufnahme fehlender oder neuer Nachschlagewerke) und frei im Internet zugängliche Volltexte zu den bereits in der Liste vorhandenen Titeln verlinken (Erstanmeldung über den Webmaster: via Hilfe-Seite im Tool).
    Nur die Verbundbibliotheken des OBV können überdies ihre zu den Nachschlagewerken passenden Bestände in Aleph hinzufügen, ggf. selbst via Web-Frontend im Tool einen Link zum eigenen Verbundkatalog neu anlegen, und insbesondere ihre lokal verfügbaren elektronischen Volltexte anbinden3. Im Backend werden neue Datensätze angelegt, vorhandene Einträge korrigiert, redaktionelle Kommentare platziert und Korrekturanträge abgeschöpft sowie Neuauflagen für die richtige Anzeige und Verknüpfung, etwa mit der Rangfolgeliste, zu ihrem "Anker-Datensatz" umgelenkt. Außerdem werden hier HTML-Seiten wie Hilfetext, Rangfolgeliste u. ä. gepflegt. - Zum Administrationsinterface haben nur der Webmaster der UB Wien, die SWD-Zentralredaktion des OBV sowie die Fachabteilung SE der DNB Zugang. (Nicht nur) Sacherschließerinnen können das Tool mit all seinen Vorteilen nutzen und dennoch in gewohnter Weise vorgehen, wenn sie nach Quellen für ihre Neuansetzungen suchen wollen und darin recherchieren müssen, denn die Struktur des Tools folgt dem Aufbau der Druckfassung. Es empfiehlt sich, im jeweiligen Bibliothekssystem für SWD und PND zum Feld Quelle einen Hypertextlink im Erfassungsmodul anzubringen. Die Normdateiarbeit ist komplex und anspruchsvoll. Die Einhaltung der für alle Neuansetzungen verbindlichen Rangfolge wird mit dem Tool und seiner praxisorientierten Aufbereitung ganz entscheidend erleichtert, was von Beginn an zu einer hohen Qualität jedes Normdatensatzes verhilft. Den größten Zeitgewinn in der täglichen Praxis bringt der sofortige Zugriff auf verlinkte Volltexte. - Angesichts des zunehmenden multilateralen Datentausches bei gleichzeitiger dramatischer Verknappung personeller Ressourcen trotz eines erheblichen Anstiegs des inhaltlich zu erschließenden Literaturaufkommens wird dies im Workflow des vor kurzem eingeführten Online-Redaktionsverfahrens (ONR) für Normdateien der wohl nachhaltigste Effekt von "NSW online" sein."
    Object
    NSW online
  11. Förster, F.: Zuweisung von Katalogdatensätzen an Personennormdatensätze mittels Wahrscheinlichkeiten (2020) 0.04
    0.04448698 = product of:
      0.06673047 = sum of:
        0.054615162 = weight(_text_:im in 42) [ClassicSimilarity], result of:
          0.054615162 = score(doc=42,freq=6.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.37866634 = fieldWeight in 42, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=42)
        0.01211531 = product of:
          0.03634593 = sum of:
            0.03634593 = weight(_text_:online in 42) [ClassicSimilarity], result of:
              0.03634593 = score(doc=42,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.23471867 = fieldWeight in 42, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=42)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Im Juni 2020 werden die Tn-Sätze in der Gemeinsamen Normdatei (GND) gelöscht. Die Tp-Sätze für eindeutig identifizierbare Personen bleiben im Bereich des Personenbestandes übrig. Dieser Beitrag soll eine Anreicherung und Bereinigung der Personennamensdatensätze mittels Wahrscheinlichkeiten auf der Datenbasis von GND und k10plus anregen. Zu jedem Tp-Satz kann ein Profil aus verknüpften Informationen erstellt werden: z. B. über Stichwörter, fachliche Schwerpunkte, Ko-Autoren, Zeiten und Orte usw. Im gleichen Maß können abgrenzbare Profile für Tn-Sätze per Algorithmus erkannt werden. Zusätzlich könnten bestehende Verknüpfungen von Personen- in Titeldatensätzen Fehlzuweisungen aufspüren. Die Folgen eines solchen Verfahrens wären eine retrospektive Anreichung des Altbestandes und eine präzisere Ausgestaltung des Katalogs.
    Source
    B.I.T. Online. 23(2020) H.2, S.138-148
  12. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.04
    0.04215273 = product of:
      0.06322909 = sum of:
        0.02758482 = weight(_text_:im in 632) [ClassicSimilarity], result of:
          0.02758482 = score(doc=632,freq=12.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.19125536 = fieldWeight in 632, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.03564427 = product of:
          0.053466406 = sum of:
            0.029025706 = weight(_text_:online in 632) [ClassicSimilarity], result of:
              0.029025706 = score(doc=632,freq=10.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.18744534 = fieldWeight in 632, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=632)
            0.0244407 = weight(_text_:22 in 632) [ClassicSimilarity], result of:
              0.0244407 = score(doc=632,freq=4.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.13679022 = fieldWeight in 632, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=632)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Content
    "Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung Matchkey Bei der Verwendung von Meta-Suchmaschinen zur parallelen Recherche in bibliografischen Datenbanken kommt es häufig vor, dass derselbe Titel mehrmals in der Trefferliste auftaucht. In dieser Situation könnte ein so genannter Matchkey Abhilfe schaffen, der jeden Datensatz aus den vorhandenen bibliografischen Daten heraus eindeutig identifiziert. Ein solcher Algorithmus geht von einem bibliografischen Datensatz aus und generiert einen Schlüssel (Matchkey), der wiederum in den Datensatz integriert werden kann. Der Schlüssel muss sortierfähig sein, so dass die Trefferliste nach dem Grad der Ähnlichkeit sortiert werden kann. Eine wichtige Voraussetzung für die erfolgreiche Anwendung des Matchkey ist die Beseitigung der Hausregeln in den Verbünden und Bibliotheken. Bisher hat Die Deutsche Bibliothek das Thema analysiert und strebt nun die Formulierung und Bereitstellung eines ersten Algorithmus an, um eine Implementierung zu Testzwecken voraussichtlich im März/April 2006 zu ermöglichen. Ein klares Ergebnis soll bis Ende 2006 vorliegen.
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum Das HBZ hat seinen am 15. November frei geschalteten Dreiländer-Katalog (Deutschland, Österreich, Schweiz) vorgestellt, dessen Ziel der Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum ist. Der Katalog entstand in Kooperation des HBZ mit dem Bibliotheksverbund Bayern (BVB) und dem Österreichischen Bibliothekenverbund (OBV); die Integration weiterer Bibliotheksbestände aus anderen Regionen ist in Arbeit. Realisiert wurde das Projekt mittels der Suchmaschinentechnologie des HBZ, die Antwortzeiten in Bruchteilen von Sekunden, Ranking und Kategorisierung der Treffermengen ermöglicht. Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben beschlossen, sich die für die Literaturversorgung relevanten Verbunddaten (Titeldaten mit Nachweisen) für den Aufbau verbundbezogener, nicht kommerzieller Dienste auf Gegenseitigkeit kostenfrei zur Verfügung zu stellen. Normdateien Online-Schnittstelle Ziel der Online-Kommunikation mit Normdateien ist es, die Arbeit mit den zentralen Normdateien dadurch zu vereinfachen, dass Änderungen an Normdaten in den zentral bei Der Deutschen Bibliothek gehaltenen Dateien mit dem eigenen Client erfolgen können. Ferner sollen alle Änderungen an den Normdateien zeitnah in die Normdaten-Spiegel der Verbundsysteme transportiert werden (Replikation). Das Verfahren soll sich auf alle bei Der Deutschen Bibliothek geführten Normdaten erstrecken. Als standardisiertes Kommunikationsprotokoll soll Z39.50 SR Extended Services Update genutzt werden. Für die Replikation ist OAI vorgesehen, als Austauschformat zunächst MAB2 bzw. MABXML. Die existierenden Implementierungen erfüllen an mehreren wichtigen Stellen nicht die Anforderungen. Eine Konversion in und aus einem neutralen Transportformat, wie für die Online-Kommunikation mit Normdateien benötigt, ist an der gegenwärtigen Pica-Schnittstelle nicht vorgesehen und lässt sich nur realisieren, wenn wesentliche Veränderungen vorgenommen werden. OCLC PICA plant, diese Veränderungen im 1. Quartal 2006 vorzunehmen. Nach der aktuellen Projektplanung soll die Online-Kommunikation zu Beginn des Jahres 2007 starten.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."
  13. Hoyer, R.: Normdaten-Kooperation im Kunstbibliotheken-Fachverbund Florenz-München-Rom (2001) 0.04
    0.037805602 = product of:
      0.056708403 = sum of:
        0.044593092 = weight(_text_:im in 6917) [ClassicSimilarity], result of:
          0.044593092 = score(doc=6917,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.30917975 = fieldWeight in 6917, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6917)
        0.01211531 = product of:
          0.03634593 = sum of:
            0.03634593 = weight(_text_:online in 6917) [ClassicSimilarity], result of:
              0.03634593 = score(doc=6917,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.23471867 = fieldWeight in 6917, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=6917)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Die Bibliotheken der drei deutschen universitätsunabhängigen kunsthistorischen Forschungsinstitute Kunsthistorisches Institut in Florenz, Zentralinstitut für Kunstgeschichte in München und Bibliotheca Hertziana (Max-Planck-Institut), Rom, katalogisieren seit 1997 online als eigenständiger, dezentraler EDV-Verbund aus drei Parallelumgebungen unter dem Programmsystem Allegro. Der im Internet unter <http://Www.kubikat.org> zugängliche Verbundkatalog verzeichnete Ende März 2001 knapp 150.000 Titel von Büchern, Zeitschriften und Aufsätzen und wächst infolge laufender Arbeiten zur Konversion der zugunsten des EDV-Verbundes abgebrochenen Zettelkataloge kurzfristig sprunghaft stark an
  14. Hubrich, J.: Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2005) 0.04
    0.037752535 = product of:
      0.0566288 = sum of:
        0.044593092 = weight(_text_:im in 3690) [ClassicSimilarity], result of:
          0.044593092 = score(doc=3690,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.30917975 = fieldWeight in 3690, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3690)
        0.012035711 = product of:
          0.03610713 = sum of:
            0.03610713 = weight(_text_:retrieval in 3690) [ClassicSimilarity], result of:
              0.03610713 = score(doc=3690,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.23394634 = fieldWeight in 3690, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3690)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    »Sacherschließung - können wir uns die noch leisten?« Angesichts des zunehmend geringeren Gesamtetats, der den Bibliotheken zur Verfügung steht, drängt sich diese Frage nahezu auf. Sacherschließung ist teuer und für das moderne Bibliothekswesen nur dann noch tragbar, wenn der Mitteleinsatz in einem angemessenen Verhältnis zum Ergebnis steht, das sich in der Leistungsfähigkeit des Produkts widerspiegelt. Im deutschsprachigen Raum trägt die SWD wesentlich zu einer effektiveren Sacherschließungsarbeit bei. Ihre Pflege und Weiterentwicklung ist jedoch mit einem enormen Aufwand gekoppelt, der nur mit einer entsprechenden Nutzung der Daten für das thematische Retrieval in den OPACs gerechtfertigt werden kann.
  15. Wessel, H.-P.: RSWK und RAK - die Geschichte einer unendlichen Annäherung? (2005) 0.04
    0.036396705 = product of:
      0.054595053 = sum of:
        0.04767202 = weight(_text_:im in 3666) [ClassicSimilarity], result of:
          0.04767202 = score(doc=3666,freq=14.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.33052707 = fieldWeight in 3666, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=3666)
        0.006923034 = product of:
          0.0207691 = sum of:
            0.0207691 = weight(_text_:online in 3666) [ClassicSimilarity], result of:
              0.0207691 = score(doc=3666,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.13412495 = fieldWeight in 3666, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3666)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    "Für die Schlagwortkatalogisierungsregeln ist im Bereich der Ansetzung von Personennamen, Körperschaftsnamen und Titeln, in denen sie sich mit den Formalkatalogisierungsregeln überlappen, eine Konformität mit diesen aus verschiedenen Gründen sehr wünschenswert, wenn nicht geboten."' Diese These von Peter Baader, seinerzeit Leiter der Abteilung Alphabetische Katalogisierung der Deutschen Bibliothek, stammt aus der Zeit vor dem Erscheinen der ersten Auflage (1986) der RSWK und ist heute immer noch genauso aktuell wie im Jahre 1983. Baader warnte vor einer "Zersplitterung" der jeweiligen Regelungen, konnte diese jedoch nicht verhindern, da die RSWK sich letztlich auf etablierte deutsche Schlagwortregelwerke und die Ergebnisse von Abstimmungen durch deutsche Bibliotheksverbünde und Einzelbibliotheken beriefen. Dies geschah nicht zuletzt, um die Akzeptanz der RSWK als neues Einheitsregelwerk zu erhöhen. Zwanzig Jahre später diskutiert die deutschsprachige bibliothekarische Fachwelt endlich ergebnisorientiert über die Angleichung von RAK und RSWK, jetzt allerdings unter Anpassung der RAK an Struktur und Inhalte der Anglo-American Cataloguing Rules (AACR) bzw. ihres Nachfolgers. Die folgende Darstellung unternimmt den Versuch, auf der Grundlage dieser Prämisse das Modell eines für die Formal- und Inhaltserschließung gemeinsamen deutschen Regelwerks zu skizzieren und die noch bestehenden Unterschiede zu dokumentieren. Zum besseren Verständnis des doch so langwierigen Annäherungsprozesses soll zunächst die bisherige Entwicklung betrachtet werden. Eckpunkte der Vorgeschichte - Die DBI-Kommission für Erschließung und Katalogmanagement (KEK) beschließt 1991 in ihrem Arbeitsprogramm den Abgleich beider Regelwerke und erklärt 1992 ihre Absicht, die Ansetzungen der Personennamen in RAK und RSWK zu harmonisieren. - Die Expertengruppe Online-Kataloge empfiehlt 1994 einheitliche Ansetzungsformen in RAK und RSWK für Personen- bzw. Körperschaftsnamen sowie eine umfassende Bestimmung von Einheitssachtiteln. - Die Expertengruppen RAK und RSWK beschließen 1996, dass bei der Ansetzung von Personen- und Körperschaftsnamen substanzielle Abweichungen zwischen den beiden Regelwerken vorläufig erhalten bleiben und stattdessen unterschiedliche Ansetzungsformen miteinander verknüpft werden sollen. Kurz nach dem Beginn der Diskussion über einen möglichen Umstieg auf internationale Formate und Regelwerke (MARC 21, AACR2) fasst der Standardisierungsausschuss im Juni 2002 den Beschluss zur Angleichung von RAK und RSWK. Ausgangspunkt sollen die Ansetzungsformen von Personen und Körperschaften sein. Im Dezember 2002 wird von einem RAK-RSWK-Expertentreffen vorgeschlagen, bei Regeländerungen die AACR2 zu berücksichtigen, ein gemeinsames Datenformat für PND, GKD und SWD zu entwickeln, den Änderungsaufwand in den Normdateien abzuschätzen und einen Zeitplan für ein gestuftes Vorgehen bei den Regeländerungen zu entwickeln. Im Mai 2004 beschließen die Expertengruppen Formalerschließung, PND und RSWK/SWD bei getrennten und überwiegend unterschiedlichen Regelwerkstexten einheitliche Ansetzungsformen in RAK und RSWK für Personennamen. Der Standardisierungsausschuss erklärt seine Absicht, einen für Formal- und Inhaltserschließung gemeinsamen Regelwerkstext zu veröffentlichen. Im Januar 2005 wird von Vertretern der Expertengruppen ein von der Arbeitsstelle für Standardisierung vorgelegtes Arbeitspaket "Gemeinsame Ansetzungsregeln für Körperschaften" (GKR) beschlossen. Im März 2005 legt die Arbeitsstelle für Standardisierung ein Konzept zur Entwicklung eines gemeinsamen Normdatenformats vor.
  16. Danowski, P.; Pfeifer, B.: Wikipedia und Normdateien : Wege der Vernetzung am Beispiel der Kooperation mit der Personennamendatei (2007) 0.04
    0.036313996 = product of:
      0.05447099 = sum of:
        0.03603666 = weight(_text_:im in 4594) [ClassicSimilarity], result of:
          0.03603666 = score(doc=4594,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.24985497 = fieldWeight in 4594, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=4594)
        0.01843433 = product of:
          0.055302992 = sum of:
            0.055302992 = weight(_text_:22 in 4594) [ClassicSimilarity], result of:
              0.055302992 = score(doc=4594,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.30952093 = fieldWeight in 4594, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4594)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Wikipedia und Bibliotheken haben das gleiche Ziel: die einfache und schnelle Wissensvermittlung. Mit der Vernetzung der unterschiedlichen Informationsangebote im Internet wird Wissen umfassend zugänglich gemacht. Ein Beispiel für die Vernetzung zwischen Wikipedia und Bibliothekskatalogen ist die Kooperation mit der Personennamendatei, der Normdatei für Personennamen. Der Artikel möchte beleuchten, wie diese Kooperation funktioniert und welchen Nutzen sie hat.
    Date
    16. 7.2011 11:54:22
  17. Scheven, E.: Qualitätssicherung in der GND (2021) 0.03
    0.034698933 = product of:
      0.052048396 = sum of:
        0.03822265 = weight(_text_:im in 314) [ClassicSimilarity], result of:
          0.03822265 = score(doc=314,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.26501122 = fieldWeight in 314, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=314)
        0.013825747 = product of:
          0.04147724 = sum of:
            0.04147724 = weight(_text_:22 in 314) [ClassicSimilarity], result of:
              0.04147724 = score(doc=314,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.23214069 = fieldWeight in 314, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=314)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Was mag das Akronym GND bedeuten? Lassen wir der Fantasie freien Lauf, kommen wir auf Auflösungen wie Golfer nehmen Datteln, Gerne noch Details, Glück nach Dauerstress, Größter Nutzen Deutschlands und vieles mehr. Eine ernsthaftere Recherche führt zur Gesamtnutzungsdauer oder auf einen Sachverhalt der Elektrotechnik: Die von einer Stromquelle bereitgestellte Spannung bezieht sich stets auf ein Grundniveau. Dieses Grundniveau wird auf Deutsch als Masse, im Englischen aber als ground oder GND bezeichnet. Techniker kennen das Schaltzeichen dafür: Für den informationswissenschaftlichen Bereich steht dagegen GND für die Gemeinsame Normdatei. Auch sie hat (seit 2020) ein Zeichen. Da die Gemeinsame Normdatei (im weiteren Text nur noch GND) auch ein Instrument der Inhaltserschließung ist, beeinflussen ihre Stärken und Schwächen die Qualität der Inhaltserschließung. Deshalb widmet sich dieser Artikel der Qualitätssicherung in der GND.
    Date
    23. 9.2021 19:12:22
  18. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.03
    0.033688195 = product of:
      0.05053229 = sum of:
        0.03901083 = weight(_text_:im in 3780) [ClassicSimilarity], result of:
          0.03901083 = score(doc=3780,freq=6.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.27047595 = fieldWeight in 3780, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.011521457 = product of:
          0.03456437 = sum of:
            0.03456437 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
              0.03456437 = score(doc=3780,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.19345059 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  19. Virtuelle Normdatei (2008) 0.03
    0.032404803 = product of:
      0.0486072 = sum of:
        0.03822265 = weight(_text_:im in 2673) [ClassicSimilarity], result of:
          0.03822265 = score(doc=2673,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.26501122 = fieldWeight in 2673, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=2673)
        0.010384551 = product of:
          0.031153653 = sum of:
            0.031153653 = weight(_text_:online in 2673) [ClassicSimilarity], result of:
              0.031153653 = score(doc=2673,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.20118743 = fieldWeight in 2673, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2673)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Content
    "Die Deutsche Nationalbibliothek, die Bibliothèque nationale de France, die Library of Congress und das Online Computer Library Center (OCLC) sind übereingekommen, gemeinsam den »Virtual International Authority File« (VIAF), eine Virtuelle Internationale Normdatei, aufzubauen und fortzuentwickeln. Die einzelnen Normdateien sollen im VIAF virtuell zu einem gemeinsamen Normdaten-Service integriert werden, der den Zugang zu den Namen aller einbezogenen Normdateien bietet. Die Vereinbarung baut auf einem vorausgegangenen Forschungsprojekt auf, in dem die Deutsche Nationalbibliothek gemeinsam mit der Library of Congress und OCLC durch die Zusammenführung ihrer Personennamendateien nachgewiesen haben, dass der Aufbau eines Virtual International Authority File auch unter den Bedingungen großer Datenbestände machbar ist. Mit der neuen Kooperationsvereinbarung stößt die Bibliothèque nationale de France hinzu, und der VIAF wird um die französischen Normdaten erweitert. Langfristig zielt das VIAF-Projekt darauf ab, die Normdateien möglichst vieler Bibliotheken zu einem globalen VIAF-Service zu integrieren, der für die Nutzer im Web weltweit frei zugänglich ist."
  20. Jahns, Y.; Trummer, M.: Crosskonkordanz Wirtschaft (2003) 0.03
    0.031738512 = product of:
      0.047607765 = sum of:
        0.03901083 = weight(_text_:im in 1962) [ClassicSimilarity], result of:
          0.03901083 = score(doc=1962,freq=6.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.27047595 = fieldWeight in 1962, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1962)
        0.008596936 = product of:
          0.025790809 = sum of:
            0.025790809 = weight(_text_:retrieval in 1962) [ClassicSimilarity], result of:
              0.025790809 = score(doc=1962,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.16710453 = fieldWeight in 1962, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1962)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Die Suche nach wirtschaftswissenschaftlicher Literatur im Internet führt heute zu unterschiedlich erschlossenen Informationsbeständen. Die Antwort auf diese Heterogenität sollte das Angebot einer integrierten sachlichen Suche über verteilte Datenbanken sein. Crosskonkordanzen unterstützen diese Entwicklung, indem sie Suchfragen in die Terminologie verschiedener Thesauri übersetzen. Nutzern von Bibliotheken und Fachinformationszentren wird das Navigieren erleichtert, sie ersparen sich Mehrfachrecherchen und können auf ihre vertraute Indexierungssprache zurückgreifen. Wirtschaftswissenschaftliche Literatur wird in Deutschland mit verschiedenen Thesauri indexiert. Einerseits bieten Hochschulbibliothekskataloge eine sachliche Suche mit den Schlagwörtern der Schlagwortnormdatei (SWD) an, andererseits sind wirtschaftswissenschaftliche Fachdatenbanken mit dem Standard Thesaurus Wirtschaft (STW) erschlossen. Hier setzt das Angebot der Crosskonkordanz Wirtschaft an - ein Retrieval-Instrument für sachlich heterogen erschlossene Datenbestände." Concordans bedeutet »übereinstimmend«, »zusammenhängend«, »verknüpft«, wir verknüpfen also die Deskriptoren (Sachbegriffe) der SWD im Bereich Wirtschaft mit den Deskriptoren des STW. Die SWD, getragen und entwickelt von Der Deutschen Bibliothek und den Bibliotheksverbünden des deutschen Sprachraums, ist das Instrument zur Indexierung der gesamten deutschsprachigen wirtschaftswissenschaftlichen Literatur. Auch unselbstständige Literatur wird beispielsweise von der Universitätsbibliothek Köln als Sondersammelgebiet Betriebswirtschaftslehre mithilfe der SWD erschlossen. Trotz ihres eigentlichen Charakters als Allgemeinthesaurus ist sie im Bereich Wirtschaft besonders differenziert entwickelt und enthält etwa 12.500 Deskriptoren. Der STW ist der bedeutendste Fachthesaurus für Wirtschaftswissenschaften in der Bundesrepublik Deutschland. Getragen vom Hamburgischen WeIt-Wirtschafts-Archiv (HWWA), der Deutschen Zentralbibliothek für Wirtschaftswissenschaften in Kiel (ZBW) und der Gesellschaft für Betriebswirtschaftliche Information München findet er Anwendung in verschiedenen Fachdatenbanken. Der STW enthält rund 5.000 Deskriptoren

Authors

Years

Languages

  • d 56
  • e 55
  • a 1
  • More… Less…

Types

  • a 96
  • el 20
  • m 3
  • x 3
  • b 2
  • s 2
  • r 1
  • More… Less…