Search (188 results, page 1 of 10)

  • × theme_ss:"Normdateien"
  • × type_ss:"a"
  1. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.05
    0.04915047 = product of:
      0.14042991 = sum of:
        0.020300096 = weight(_text_:und in 632) [ClassicSimilarity], result of:
          0.020300096 = score(doc=632,freq=54.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.3181036 = fieldWeight in 632, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.031497695 = weight(_text_:der in 632) [ClassicSimilarity], result of:
          0.031497695 = score(doc=632,freq=126.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.48972595 = fieldWeight in 632, product of:
              11.224972 = tf(freq=126.0), with freq of:
                126.0 = termFreq=126.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.0363947 = weight(_text_:kommunikation in 632) [ClassicSimilarity], result of:
          0.0363947 = score(doc=632,freq=6.0), product of:
            0.14799947 = queryWeight, product of:
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.02879306 = queryNorm
            0.24591103 = fieldWeight in 632, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.020300096 = weight(_text_:und in 632) [ClassicSimilarity], result of:
          0.020300096 = score(doc=632,freq=54.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.3181036 = fieldWeight in 632, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.018297698 = weight(_text_:des in 632) [ClassicSimilarity], result of:
          0.018297698 = score(doc=632,freq=18.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.22947611 = fieldWeight in 632, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.0067434604 = weight(_text_:in in 632) [ClassicSimilarity], result of:
          0.0067434604 = score(doc=632,freq=42.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.17217688 = fieldWeight in 632, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.0068961685 = product of:
          0.013792337 = sum of:
            0.013792337 = weight(_text_:22 in 632) [ClassicSimilarity], result of:
              0.013792337 = score(doc=632,freq=4.0), product of:
                0.10082839 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02879306 = queryNorm
                0.13679022 = fieldWeight in 632, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=632)
          0.5 = coord(1/2)
      0.35 = coord(7/20)
    
    Abstract
    Am 23. und 24. November 2005 hat die Arbeitsgemeinschaft der Verbundsysteme ihre 49. Sitzung auf Einladung des Hochschulbibliothekszentrums NordrheinWestfalen (HBZ) in Köln durchgeführt.
    Content
    "Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung Matchkey Bei der Verwendung von Meta-Suchmaschinen zur parallelen Recherche in bibliografischen Datenbanken kommt es häufig vor, dass derselbe Titel mehrmals in der Trefferliste auftaucht. In dieser Situation könnte ein so genannter Matchkey Abhilfe schaffen, der jeden Datensatz aus den vorhandenen bibliografischen Daten heraus eindeutig identifiziert. Ein solcher Algorithmus geht von einem bibliografischen Datensatz aus und generiert einen Schlüssel (Matchkey), der wiederum in den Datensatz integriert werden kann. Der Schlüssel muss sortierfähig sein, so dass die Trefferliste nach dem Grad der Ähnlichkeit sortiert werden kann. Eine wichtige Voraussetzung für die erfolgreiche Anwendung des Matchkey ist die Beseitigung der Hausregeln in den Verbünden und Bibliotheken. Bisher hat Die Deutsche Bibliothek das Thema analysiert und strebt nun die Formulierung und Bereitstellung eines ersten Algorithmus an, um eine Implementierung zu Testzwecken voraussichtlich im März/April 2006 zu ermöglichen. Ein klares Ergebnis soll bis Ende 2006 vorliegen.
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum Das HBZ hat seinen am 15. November frei geschalteten Dreiländer-Katalog (Deutschland, Österreich, Schweiz) vorgestellt, dessen Ziel der Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum ist. Der Katalog entstand in Kooperation des HBZ mit dem Bibliotheksverbund Bayern (BVB) und dem Österreichischen Bibliothekenverbund (OBV); die Integration weiterer Bibliotheksbestände aus anderen Regionen ist in Arbeit. Realisiert wurde das Projekt mittels der Suchmaschinentechnologie des HBZ, die Antwortzeiten in Bruchteilen von Sekunden, Ranking und Kategorisierung der Treffermengen ermöglicht. Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben beschlossen, sich die für die Literaturversorgung relevanten Verbunddaten (Titeldaten mit Nachweisen) für den Aufbau verbundbezogener, nicht kommerzieller Dienste auf Gegenseitigkeit kostenfrei zur Verfügung zu stellen. Normdateien Online-Schnittstelle Ziel der Online-Kommunikation mit Normdateien ist es, die Arbeit mit den zentralen Normdateien dadurch zu vereinfachen, dass Änderungen an Normdaten in den zentral bei Der Deutschen Bibliothek gehaltenen Dateien mit dem eigenen Client erfolgen können. Ferner sollen alle Änderungen an den Normdateien zeitnah in die Normdaten-Spiegel der Verbundsysteme transportiert werden (Replikation). Das Verfahren soll sich auf alle bei Der Deutschen Bibliothek geführten Normdaten erstrecken. Als standardisiertes Kommunikationsprotokoll soll Z39.50 SR Extended Services Update genutzt werden. Für die Replikation ist OAI vorgesehen, als Austauschformat zunächst MAB2 bzw. MABXML. Die existierenden Implementierungen erfüllen an mehreren wichtigen Stellen nicht die Anforderungen. Eine Konversion in und aus einem neutralen Transportformat, wie für die Online-Kommunikation mit Normdateien benötigt, ist an der gegenwärtigen Pica-Schnittstelle nicht vorgesehen und lässt sich nur realisieren, wenn wesentliche Veränderungen vorgenommen werden. OCLC PICA plant, diese Veränderungen im 1. Quartal 2006 vorzunehmen. Nach der aktuellen Projektplanung soll die Online-Kommunikation zu Beginn des Jahres 2007 starten.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."
    Footnote
    Daneben Berichte der einzelnen Mitglieder
  2. Hubrich, J.: ¬Die Schlagwortrecherche in deutschsprachigen OPACs : Typen der Schlagwortsuche und der Einsatz der Schlagwortnormdatei (SWD) dargelegt unter Rückgriff auf eine empirische Untersuchung (2005) 0.05
    0.048781447 = product of:
      0.13937557 = sum of:
        0.042282857 = weight(_text_:medien in 3552) [ClassicSimilarity], result of:
          0.042282857 = score(doc=3552,freq=2.0), product of:
            0.1355183 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.02879306 = queryNorm
            0.31200847 = fieldWeight in 3552, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.046875 = fieldNorm(doc=3552)
        0.013259968 = weight(_text_:und in 3552) [ClassicSimilarity], result of:
          0.013259968 = score(doc=3552,freq=4.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.20778441 = fieldWeight in 3552, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3552)
        0.025198158 = weight(_text_:der in 3552) [ClassicSimilarity], result of:
          0.025198158 = score(doc=3552,freq=14.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.3917808 = fieldWeight in 3552, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3552)
        0.013259968 = weight(_text_:und in 3552) [ClassicSimilarity], result of:
          0.013259968 = score(doc=3552,freq=4.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.20778441 = fieldWeight in 3552, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3552)
        0.020701483 = weight(_text_:des in 3552) [ClassicSimilarity], result of:
          0.020701483 = score(doc=3552,freq=4.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.25962257 = fieldWeight in 3552, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3552)
        0.003531705 = weight(_text_:in in 3552) [ClassicSimilarity], result of:
          0.003531705 = score(doc=3552,freq=2.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.09017298 = fieldWeight in 3552, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3552)
        0.021141429 = product of:
          0.042282857 = sum of:
            0.042282857 = weight(_text_:medien in 3552) [ClassicSimilarity], result of:
              0.042282857 = score(doc=3552,freq=2.0), product of:
                0.1355183 = queryWeight, product of:
                  4.7066307 = idf(docFreq=1085, maxDocs=44218)
                  0.02879306 = queryNorm
                0.31200847 = fieldWeight in 3552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7066307 = idf(docFreq=1085, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3552)
          0.5 = coord(1/2)
      0.35 = coord(7/20)
    
    Abstract
    Schlagwortsuchen sind heutzutage fester Bestandteil vieler Online-Kataloge. Durch die Verknüpfung von Titeldaten mit dokumentspezifischen Schlagwörtern aus der SWD wird ein thematischer Zugang zu den Medien eines Verbundes bzw. einer Bibliothek ermöglicht. Der SWD-Datensatz bietet neben den Ansetzungsformen, die für die Indexate genutzt werden, jedoch noch eine Reihe weiterer Informationen, die, an der richtigen Stelle im Online-Katalog implementiert, das Retrieval seitens des Benutzers optimieren können. Untersucht wurden die Online-Kataloge der großen deutschen Bibliotheksverbünde, des österreichischen Bibliothekenverbunds sowie 106 weiterer OPACs von vorwiegend wissenschaftlichen Bibliotheken. Es wurde betrachtet, welche Suchfeatures für die Schlagwortrecherche zur Verfügung gestellt werden, wie sie gestaltet sind und inwieweit das SWD-Datenmaterial genutzt wird. Dabei zeigte sich, dass zurzeit drei Typen von Schlagwortsuchen verbreitet sind: - die Indexsuche (mehrstufige Schlagwort- bzw. Schlagwortkettensuche) - die einstufige Schlagwort- bzw. Schlagwortkettensuche sowie - die weiterführende Schlagwort- bzw. Schlagwortkettensuche von einer Treffer- bzw. Titelvollanzeige aus.
  3. Sandner, M.: Neues aus der Kommission für Sacherschließung : Das neue Tool "NSW online" (2011) 0.05
    0.04721665 = product of:
      0.15738882 = sum of:
        0.023840811 = weight(_text_:und in 4529) [ClassicSimilarity], result of:
          0.023840811 = score(doc=4529,freq=38.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.3735868 = fieldWeight in 4529, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4529)
        0.028868115 = weight(_text_:der in 4529) [ClassicSimilarity], result of:
          0.028868115 = score(doc=4529,freq=54.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.44884127 = fieldWeight in 4529, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4529)
        0.023840811 = weight(_text_:und in 4529) [ClassicSimilarity], result of:
          0.023840811 = score(doc=4529,freq=38.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.3735868 = fieldWeight in 4529, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4529)
        0.028320415 = weight(_text_:des in 4529) [ClassicSimilarity], result of:
          0.028320415 = score(doc=4529,freq=22.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.35517356 = fieldWeight in 4529, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4529)
        0.0074280174 = weight(_text_:in in 4529) [ClassicSimilarity], result of:
          0.0074280174 = score(doc=4529,freq=26.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.18965527 = fieldWeight in 4529, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4529)
        0.045090646 = weight(_text_:elektronischen in 4529) [ClassicSimilarity], result of:
          0.045090646 = score(doc=4529,freq=4.0), product of:
            0.15407887 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.02879306 = queryNorm
            0.29264653 = fieldWeight in 4529, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4529)
      0.3 = coord(6/20)
    
    Content
    "Die "Liste der fachlichen Nachschlagewerke zu den Normdateien" (NSW-Liste) stellt mit ihren derzeit rund 1.660 Einträgen ein verbindliches Arbeitsinstrument für die tägliche Praxis in der kooperativen Normdaten-pflege des deutschsprachigen Raumes, speziell für die Terminologiearbeit in der bibliothekarischen Sacherschließung dar. In jedem Normdatensatz der Schlagwortnormdatei (SWD) werden für den Nachweis und die Begründung der Ansetzungs- und Verweisungsformen eines Deskriptors im Feld "Quelle" Referenzwerke aus der so genannten Prioritätenliste (Rangfolge der Nachschlagewerke), darüber hinaus aus der gesamten NSW-Liste, festgehalten und normiert abgekürzt. In gedruckter Form erscheint diese von der Deutschen Nationalbibliothek (DNB) regelmäßig aktualisierte Liste jährlich mit einem Änderungsdienst (Änderungen, Neuauflagen; Neuaufnahmen) und steht seit einigen Jahren auch elektronisch abrufbar bereit. Dennoch ist sie "in die Jahre" gekommen. Eine verbesserte Form dieser Liste war ein langjähriges Desiderat für die Neuansetzungspraxis in der SWD. Erst eine Projektarbeit im Rahmen des ULG bot 2008/2009 in Wien die Gelegenheit, solch einem elektronischen Hilfsmittel entscheidend näher zu kommen. Das Projektergebnis war praxistauglich und wurde 2010 von der UB Wien in ein Content Management System (CMS) eingebettet. Zahlreiche Tests und funktionelle Anpassungen sowie eine genaue Durchsicht des Grunddatenbestandes und aller Links in den Katalog des Pilotverbundes (OBV) waren noch nötig, und auch die erste Aktualisierung nach der Druckausgabe 2010 führten wir durch, bevor wir im Herbst 2010 der Fachöffentlichkeit eine Beta-Version vorstellen konnten. Seither steht die Suche im NSW-Tool als Alternative zur Benützung der Druckausgabe allen frei zur Verfügung: http://www.univie.ac.at/nsw/. Sämtliche SWD-Kooperationspartner-Redaktionen und die Lokalen Redaktionen (ÖSWD-LRs) des Österreichischen Bibliothekenverbundes (OBV) können über das Web-Frontend von "NSW online" ihre Wünsche an die Redaktion der NSW-Liste (Fachabteilung SE, DNB) direkt im Tool deponieren (Korrekturanträge sowie Vorschläge zur Aufnahme fehlender oder neuer Nachschlagewerke) und frei im Internet zugängliche Volltexte zu den bereits in der Liste vorhandenen Titeln verlinken (Erstanmeldung über den Webmaster: via Hilfe-Seite im Tool).
    Nur die Verbundbibliotheken des OBV können überdies ihre zu den Nachschlagewerken passenden Bestände in Aleph hinzufügen, ggf. selbst via Web-Frontend im Tool einen Link zum eigenen Verbundkatalog neu anlegen, und insbesondere ihre lokal verfügbaren elektronischen Volltexte anbinden3. Im Backend werden neue Datensätze angelegt, vorhandene Einträge korrigiert, redaktionelle Kommentare platziert und Korrekturanträge abgeschöpft sowie Neuauflagen für die richtige Anzeige und Verknüpfung, etwa mit der Rangfolgeliste, zu ihrem "Anker-Datensatz" umgelenkt. Außerdem werden hier HTML-Seiten wie Hilfetext, Rangfolgeliste u. ä. gepflegt. - Zum Administrationsinterface haben nur der Webmaster der UB Wien, die SWD-Zentralredaktion des OBV sowie die Fachabteilung SE der DNB Zugang. (Nicht nur) Sacherschließerinnen können das Tool mit all seinen Vorteilen nutzen und dennoch in gewohnter Weise vorgehen, wenn sie nach Quellen für ihre Neuansetzungen suchen wollen und darin recherchieren müssen, denn die Struktur des Tools folgt dem Aufbau der Druckfassung. Es empfiehlt sich, im jeweiligen Bibliothekssystem für SWD und PND zum Feld Quelle einen Hypertextlink im Erfassungsmodul anzubringen. Die Normdateiarbeit ist komplex und anspruchsvoll. Die Einhaltung der für alle Neuansetzungen verbindlichen Rangfolge wird mit dem Tool und seiner praxisorientierten Aufbereitung ganz entscheidend erleichtert, was von Beginn an zu einer hohen Qualität jedes Normdatensatzes verhilft. Den größten Zeitgewinn in der täglichen Praxis bringt der sofortige Zugriff auf verlinkte Volltexte. - Angesichts des zunehmenden multilateralen Datentausches bei gleichzeitiger dramatischer Verknappung personeller Ressourcen trotz eines erheblichen Anstiegs des inhaltlich zu erschließenden Literaturaufkommens wird dies im Workflow des vor kurzem eingeführten Online-Redaktionsverfahrens (ONR) für Normdateien der wohl nachhaltigste Effekt von "NSW online" sein."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 64(2011) H.1, S.93-95
  4. Sandner, M.: NSW online : Elektronisches Tool zur "Liste der fachlichen Nachschlagewerke" (2010) 0.04
    0.038113263 = product of:
      0.1270442 = sum of:
        0.019139115 = weight(_text_:und in 4527) [ClassicSimilarity], result of:
          0.019139115 = score(doc=4527,freq=12.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.29991096 = fieldWeight in 4527, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4527)
        0.02381002 = weight(_text_:der in 4527) [ClassicSimilarity], result of:
          0.02381002 = score(doc=4527,freq=18.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.37019804 = fieldWeight in 4527, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4527)
        0.019139115 = weight(_text_:und in 4527) [ClassicSimilarity], result of:
          0.019139115 = score(doc=4527,freq=12.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.29991096 = fieldWeight in 4527, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4527)
        0.012198467 = weight(_text_:des in 4527) [ClassicSimilarity], result of:
          0.012198467 = score(doc=4527,freq=2.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.15298408 = fieldWeight in 4527, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4527)
        0.0072090626 = weight(_text_:in in 4527) [ClassicSimilarity], result of:
          0.0072090626 = score(doc=4527,freq=12.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.18406484 = fieldWeight in 4527, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4527)
        0.045548428 = weight(_text_:elektronischen in 4527) [ClassicSimilarity], result of:
          0.045548428 = score(doc=4527,freq=2.0), product of:
            0.15407887 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.02879306 = queryNorm
            0.2956176 = fieldWeight in 4527, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4527)
      0.3 = coord(6/20)
    
    Abstract
    Die "Liste der fachlichen Nachschlagewerke zu den Normdateien" (NSW-Liste) stellt mit ihren derzeit rund 1.660 Einträgen ein verbindliches Arbeitsinstrument für die tägliche Praxis in der kooperativen Normdatenpflege des deutsch-sprachigen Raumes, speziell für die Terminologiearbeit in der bibliothekarischen Sacherschließung dar. In jedem Normdatensatz der Schlagwortnormdatei (SWD) werden für den Nachweis und die Begründung der Ansetzungs- und Verweisungsformen eines Deskriptors im Feld "Quelle" Referenzwerke aus der so genannten Prioritätenliste (Rangfolge der Nachschlagewerke), darüber hinaus aus der gesamten NSW-Liste, festgehalten und normiert abgekürzt. In gedruckter Form erscheint sie jährlich aktuali-siert mit einem Änderungsdienst (Änderungen, Neuauflagen; Neuaufnahmen) und steht seit eini-gen Jahren auch elektronisch abrufbar bereit. Dennoch ist diese Liste "in die Jahre" ge-kommen. Vor allem die Durchnummerierung ihrer Einträge ist störend: In jeder neuen Auflage ändern sich die laufenden Nummern, während sich gleichzeitig die meisten Register gerade auf diese Zählung beziehen. - Das einzig gleichbleibende Merkmal jedes aufgelisteten Nachschlagewerks ist seine normierte Abkürzung. Deshalb haben wir uns im neuen elektronischen NSW-Tool für diese Abkürzungen als Anker entschieden. Die Entstehung dieses Tools resultiert aus einer Verkettung günstiger Umstände und hatte so gut wie keine finanzielle Basis. Es beruht auf einem starken Engagement aller Beteiligten. Aus die-sem Grund freuen wir uns ganz besonders über das erreichte Ergebnis und wagen uns nun mit einer Beta-Version an die Fachöffentlichkeit.
  5. Oehlschläger, S.: Treffpunkt Standardisierung : Der Standardisierungsausschuss beim 94. Deutschen Bibliothekartag in Düsseldorf (2005) 0.04
    0.03773737 = product of:
      0.12579122 = sum of:
        0.024082858 = weight(_text_:und in 3691) [ClassicSimilarity], result of:
          0.024082858 = score(doc=3691,freq=76.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.3773797 = fieldWeight in 3691, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3691)
        0.028060379 = weight(_text_:der in 3691) [ClassicSimilarity], result of:
          0.028060379 = score(doc=3691,freq=100.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.43628258 = fieldWeight in 3691, product of:
              10.0 = tf(freq=100.0), with freq of:
                100.0 = termFreq=100.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3691)
        0.024082858 = weight(_text_:und in 3691) [ClassicSimilarity], result of:
          0.024082858 = score(doc=3691,freq=76.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.3773797 = fieldWeight in 3691, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3691)
        0.019287469 = weight(_text_:des in 3691) [ClassicSimilarity], result of:
          0.019287469 = score(doc=3691,freq=20.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.24188907 = fieldWeight in 3691, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3691)
        0.0075034313 = weight(_text_:in in 3691) [ClassicSimilarity], result of:
          0.0075034313 = score(doc=3691,freq=52.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.19158077 = fieldWeight in 3691, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3691)
        0.022774214 = weight(_text_:elektronischen in 3691) [ClassicSimilarity], result of:
          0.022774214 = score(doc=3691,freq=2.0), product of:
            0.15407887 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.02879306 = queryNorm
            0.1478088 = fieldWeight in 3691, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3691)
      0.3 = coord(6/20)
    
    Content
    "Nach Augsburg, Bielefeld und Leipzig hat der Standardisierungsausschuss beim 94. Deutschen Bibliothekartag in Düsseldorf zum vierten Mal in Folge eine Veranstaltung zum Themenfeld Standardisierung durchgeführt, die vom Vorsitzenden, Berndt Dugall, moderiert wurde. Auch in diesem Jahr konnten dafür wieder zwei Referenten aus dem Ausland gewonnen werden, die einen Einblick in internationale Aktivitäten gewährten. Den Auftakt bildete Jeffrey Garrett von der Northwestern University Library in Evanston, Illinois mit seinem Vortrag »Entscheidend auch hier der Einstieg - Wandel und Kontinuität im Ethos des Katalogisierens in den USA«. Zunächst erläuterte der Referent die Losung aus dem Titel, die aus dem Werk »Bücherlabyrinthe: Suchen und Finden im alexandrinischen Zeitalter« von Nikolaus Wegmann stammt. Dieses Buch erinnere daran, dass der Katalog in der Nachfolge von Schrettinger und Dewey den Einstieg des Benutzers in die ansonsten gewaltige Unordnung der Bibliothek ermögliche, und dadurch die »Sichtbarkeit« der modernen Forschungsbibliothek erst her- bzw. sicherstellt. Garrett stellte die Frage nach dem Sinn von Katalogen im elektronischen Zeitalter, einer Zeit, in der bibliografische Angaben beziehungsweise Schlagworte durch Volltextrecherchen, die sich gleichzeitig auf mehrere tausend Publikationen erstrecken können, umgangen werden können, und in welcher der Inhalt eines Textes in ständigem Wandel begriffen ist. In seinem Vortrag hat der Referent einige Entwicklungen auf dem Gebiet des Katalogisierens in den USA teils theoretisch, teils konkret nachgezeichnet, in der Absicht, sowohl den Wandel als auch die Kontinuität im Bereich der Erschließung aufzuzeigen. Die bisweilen geäußerte Feststellung, dass Kataloge auf den Müllhaufen der Geschichte gehörten, bezeichnete Garrett als maßlos übertrieben und nur angesichts des »Google-Schocks« in den USA zu erklären. Der Katalog diene nach wie vor als Beschreibung des Volltexts. Der Moderator kommentierte dazu, dass der Gedanke des »Vanishing catalogue« vergleichbar sei mit dem Traum vom papierlosen Büro. Patrick Le Boeuf, der Vorsitzende der IFLA FRBR Review Group, referierte in seinem Vortrag »Zwischen Traum und Wirklichkeit« über die Functional Requirements for Bibliographic Records (FRBR). Anhand von leicht verständlichen Beispielen erläuterte er, was die FRBR mit den vier Entitäten der Gruppe 1: Werk (work), Fassung (expression), Erscheinungsform (manifestation) und Exemplar (item) sind. Ausführlich ging er auch darauf ein, was die FRBR nicht sind und was sie nicht leisten können. Es handelt sich dabei weder um eine Norm, noch um ein Datenmodell oder gar ein Format. Dennoch haben die FRBR Einfluss auf die Standardisierungsaktivitäten auf internationaler wie nationaler Ebene. In einigen Systemen, Prototypen und Projekten lässt sich das Potenzial des FRBRModells für bibliografische Informationen bereits aufzeigen. Ganz konkret werden die FRBR in die Überlegungen der IFLA Meetings of Experts an an International Cataloguing Code einbezogen und haben Einzug in die »Frankfurt principles« gefunden, deren Ziel eine Aktualisierung der »Paris principles« ist, und die bei nachfolgenden Regionaltreffen bis 2007 von Kolleginnen und Kollegen aus allen Teilen der WeIt weiter diskutiert und modifiziert werden. Durch die gegenwärtige Revision der Anglo-American Cataloguing Rules (AACR) werden die FRBR auch Einzug in das internationale Regelwerk halten.
    Mit großer Spannung wurde der Vortrag von Elisabeth Niggemann und Reiner Diedrichs über das weitere Vorgehen nach Abschluss des Projekts »Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)« erwartet. Unter dem programmatischen Titel »Hinter dem Horizont geht es weiter« stellten der Vorsitzende der Arbeitsgemeinschaft der Verbundsysteme und die Generaldirektorin Der Deutschen Bibliothek vor, wie die Internationalisierung der deutschen Standards im Einzelnen aussehen soll, und welche Maßnahmen erforderlich sind. Die Arbeitsgemeinschaft der Verbundsysteme hatte in ihrer Herbstsitzung 2004 verschiedene Beschlüsse getroffen, welche die Zusammenarbeit der Verbundsysteme fördern und erleichtern sollen. Dazu gehören u. a. die Entwicklung eines prototypischen Verfahrens für einen Neukatalogisierungsdienst mit einheitlichen Datenstrukturen und einheitlichen Formatanwendungen, die Verwendung von MARC21 als einheitlichem Austauschformat und die Entwicklung eines Matchkey-Verfahrens zur verbundübergreifenden Titelerkennung. Außerdem wurden grundsätzliche Anforderungen an das künftige Regelwerk und für eine Reorganisation der Normdatenarbeit formuliert, die die Ziele der Arbeitsgemeinschaft effektiv unterstützen sollen. Der Standardisierungsausschuss hat diese Beschlüsse in seiner 9. Sitzung im Dezember 2004 begrüßt, bestätigt und konkretisiert. Nun gilt es, die Beschlüsse zügig umzusetzen, um die gesteckten Ziele zu verfolgen: einfacher Zugang zu bibliografischer Information national wie international für wissenschaftliche und andere persönliche Nutzer, leichte Austauschbarkeit von bibliografischer Information zwischen professionellen Benutzergruppen und Anwendern und last but not least Kostenreduktion bei der Erschließung. Im Anschluss stellte Renate Gömpel, Die Deutsche Bibliothek, die IFLA-CDNL Allianz für Bibliografische Standards (ICABS) vor, die während des Weltkongresses Bibliothek und Information in Berlin als ein neues strategisches Vorhaben ins Leben gerufen wurde. Mit ICABS streben die National Library of Australia, die Library of Congress, die British Library, die Koninklijke Bibliotheek der Niederlande und Die Deutsche Bibliothek gemeinsam mit der Biblioteca Nacional Portugals, der IFLA und der Conference of Directors of National Libraries (CDNL) die Fortsetzung und Unterstützung von Schlüsselaktivitäten im Bereich der bibliografischen und der Ressourcenkontrolle sowie damit zusammenhängender Formatstandards an. Die Allianz führt damit die Arbeit der Geschäftsstellen der früheren IFLA-Kernprogramme UBCIM (Universal Bibliographic Control and International MARC) und UDT (Universal Dataflow and Telecommunications) fort. In dem Vortrag wurde ein Überblick über Ziele und Vorhaben von ICABS, ihre Organisation sowie deren Arbeit als Dach für facettenreiche Aktivitäten im Bereich bibliografischer Standards gegeben. Koordiniert wird die Arbeit von ICABS durch das Advisory Board, das aus Vertretern aller beteiligten Institutionen und Organisationen besteht und dessen Vorsitz gegenwärtig ebenso wie das Sekretariat bei Der Deutschen Bibliothek angesiedelt ist. Der Standardisierungsausschuss hat bereits erste Planungen für eine Veranstaltung beim 95. Deutschen Bibliothekartag in Dresden angestellt. Dort soll über den Stand der Internationalisierung des deutschen Regelwerks, den Umstieg auf MARC21 und die Weiterentwicklung der Normdateien berichtet werden. Darüber hinaus erwartet die Teilnehmerinnen und Teilnehmer ein Bericht aus dem Joint Steering Committee for Revision of Anglo-American Cataloguing Rules (JSC) über den Stand der AACR3. Es wird sicherlich spannend, merken Sie sich diesen Termin vor."
  6. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.03
    0.03435123 = product of:
      0.1145041 = sum of:
        0.02923548 = weight(_text_:und in 3780) [ClassicSimilarity], result of:
          0.02923548 = score(doc=3780,freq=28.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.45812157 = fieldWeight in 3780, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.022448301 = weight(_text_:der in 3780) [ClassicSimilarity], result of:
          0.022448301 = score(doc=3780,freq=16.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.34902605 = fieldWeight in 3780, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.02923548 = weight(_text_:und in 3780) [ClassicSimilarity], result of:
          0.02923548 = score(doc=3780,freq=28.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.45812157 = fieldWeight in 3780, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.017251236 = weight(_text_:des in 3780) [ClassicSimilarity], result of:
          0.017251236 = score(doc=3780,freq=4.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.21635216 = fieldWeight in 3780, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.006580944 = weight(_text_:in in 3780) [ClassicSimilarity], result of:
          0.006580944 = score(doc=3780,freq=10.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.16802745 = fieldWeight in 3780, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.009752655 = product of:
          0.01950531 = sum of:
            0.01950531 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
              0.01950531 = score(doc=3780,freq=2.0), product of:
                0.10082839 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02879306 = queryNorm
                0.19345059 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  7. Behrens-Neumann, R.: Aus der 56. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. April 2009 in Wien : ein Bericht (2009) 0.03
    0.032881334 = product of:
      0.10960444 = sum of:
        0.020672604 = weight(_text_:und in 3041) [ClassicSimilarity], result of:
          0.020672604 = score(doc=3041,freq=14.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.32394084 = fieldWeight in 3041, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3041)
        0.026322968 = weight(_text_:der in 3041) [ClassicSimilarity], result of:
          0.026322968 = score(doc=3041,freq=22.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.40926933 = fieldWeight in 3041, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3041)
        0.020672604 = weight(_text_:und in 3041) [ClassicSimilarity], result of:
          0.020672604 = score(doc=3041,freq=14.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.32394084 = fieldWeight in 3041, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3041)
        0.024396934 = weight(_text_:des in 3041) [ClassicSimilarity], result of:
          0.024396934 = score(doc=3041,freq=8.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.30596817 = fieldWeight in 3041, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3041)
        0.0077866786 = weight(_text_:in in 3041) [ClassicSimilarity], result of:
          0.0077866786 = score(doc=3041,freq=14.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.19881277 = fieldWeight in 3041, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3041)
        0.009752655 = product of:
          0.01950531 = sum of:
            0.01950531 = weight(_text_:22 in 3041) [ClassicSimilarity], result of:
              0.01950531 = score(doc=3041,freq=2.0), product of:
                0.10082839 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02879306 = queryNorm
                0.19345059 = fieldWeight in 3041, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3041)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Abstract
    Am 23. April 2009 fand die 56. Sitzung der Arbeitsgemeinschaft der Verbundsysteme auf Einladung der Österreichischen Bibliothekenverbund und Service G.m.b.H. (OBVSG) in Wien statt.
    Content
    Darin auch ein Abschnitt zu CrissCross: "Ziel des Projekts ist die Schaffung eines multilingualen, thesaurusbasierten und benutzerorientierten Recherchevokabulars zu heterogen erschlossenen Dokurrenten für die Nutzer des deutschen wissenschaftlichen Bibliothekswesens. Dazu werden die Sachschlagwörter der SWD mit den Notationen der Dewey Dezimalklassifikation verbunden sowie mit ihren Äquivalenten in LCSH und Rameau verknüpft. Das Projektende ist nach Verlängerung des Projektantrags April 2010. In dem Berichtszeitraum wurde die Vergabe von DDC-Notationen für SWD-Terme in dem Katalogisierungsclient WinIBW fortgeführt. Änderungen in dem Redaktionsverfahren der SWD, das im ONS-Projekt eingeführt worden ist, haben sich auf die Arbeitsweise und den Workflow des CrissCross-Projektes ausgewirkt und mussten entsprechend angepasst werden. Nach wie vor steht DNB in Kontakt mit den Betreibern der MACS-Datenbank, die als Arbeitsumgebung für die Verlinkung der multilingualen Terme genutzt werden soll. Im Berichtszeitraum wurden keine größeren IT-Aktivitäten notwendig. Ab April 2009 wird die eigentliche Verlinkungsarbeit beginnen und dann sind auch begleitende IT-Maßnahmen zu erwarten."
    Date
    22. 8.2009 13:11:01
    Footnote
    Darin Abschnitte zu: - Umstieg auf MARC21 - Auswirkungen von RDA auf MARC21 - Gemeinsame Normdatei (GND) - Normdateien und Onlineschnittstelle - vascoda - Kataloganreicherung
  8. Scheven, E.: ¬Die neue Thesaurusnorm ISO 25964 und die GND (2017) 0.03
    0.0322161 = product of:
      0.1288644 = sum of:
        0.026794761 = weight(_text_:und in 3505) [ClassicSimilarity], result of:
          0.026794761 = score(doc=3505,freq=12.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.41987535 = fieldWeight in 3505, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3505)
        0.041574836 = weight(_text_:der in 3505) [ClassicSimilarity], result of:
          0.041574836 = score(doc=3505,freq=28.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.6464053 = fieldWeight in 3505, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3505)
        0.026794761 = weight(_text_:und in 3505) [ClassicSimilarity], result of:
          0.026794761 = score(doc=3505,freq=12.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.41987535 = fieldWeight in 3505, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3505)
        0.029579712 = weight(_text_:des in 3505) [ClassicSimilarity], result of:
          0.029579712 = score(doc=3505,freq=6.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.3709667 = fieldWeight in 3505, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3505)
        0.0041203224 = weight(_text_:in in 3505) [ClassicSimilarity], result of:
          0.0041203224 = score(doc=3505,freq=2.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.10520181 = fieldWeight in 3505, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3505)
      0.25 = coord(5/20)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.13
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  9. Gruber, A.: Vom Knüpfen feministischer Begriffsnetze : Ariadnes Faden & geschlechtersensible Normdaten (2022) 0.03
    0.030670715 = product of:
      0.12268286 = sum of:
        0.02446016 = weight(_text_:und in 577) [ClassicSimilarity], result of:
          0.02446016 = score(doc=577,freq=10.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.38329202 = fieldWeight in 577, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=577)
        0.040062513 = weight(_text_:der in 577) [ClassicSimilarity], result of:
          0.040062513 = score(doc=577,freq=26.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.6228917 = fieldWeight in 577, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=577)
        0.02446016 = weight(_text_:und in 577) [ClassicSimilarity], result of:
          0.02446016 = score(doc=577,freq=10.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.38329202 = fieldWeight in 577, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=577)
        0.029579712 = weight(_text_:des in 577) [ClassicSimilarity], result of:
          0.029579712 = score(doc=577,freq=6.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.3709667 = fieldWeight in 577, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=577)
        0.0041203224 = weight(_text_:in in 577) [ClassicSimilarity], result of:
          0.0041203224 = score(doc=577,freq=2.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.10520181 = fieldWeight in 577, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=577)
      0.25 = coord(5/20)
    
    Abstract
    Feministische Thesauri sind Begriffsnetze der Frauen*- und Geschlechterforschung, die in der bibliothekarischen Praxis jene Lücken schließen, die konventionelle Normdateien bei der Sacherschließung relevanter Literatur hinterlassen. Mit thesaurA wurde Mitte der 1990er Jahren der erste kooperative frauen*spezifische Fachthesaurus Österreichs erstellt. Der SAR-Index der Ariadne, der Frauen*- und Geschlechterdokumentationsstelle der Österreichischen Nationalbibliothek (ÖNB), ist eine lokale Weiterentwicklung. Ein Wechsel des Bibliothekssystems an der ÖNB macht eine Migration des Vokabulars erforderlich. Der Beitrag beleuchtet das Migrationsprojekt im Kontext feministischer Beschlagwortung und entwickelt Überlegungen zu kooperativen Thesaurus-Projekten weiter, die unabhängig der fachlichen Ausrichtung Relevanz entfalten können.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 75(2022) H.1, S.262-288
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  10. Zedlitz, J.: Biographische Normdaten : ein Überblick (2017) 0.03
    0.0280924 = product of:
      0.093641326 = sum of:
        0.022966936 = weight(_text_:und in 3502) [ClassicSimilarity], result of:
          0.022966936 = score(doc=3502,freq=12.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.35989314 = fieldWeight in 3502, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3502)
        0.013468982 = weight(_text_:der in 3502) [ClassicSimilarity], result of:
          0.013468982 = score(doc=3502,freq=4.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.20941564 = fieldWeight in 3502, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3502)
        0.022966936 = weight(_text_:und in 3502) [ClassicSimilarity], result of:
          0.022966936 = score(doc=3502,freq=12.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.35989314 = fieldWeight in 3502, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3502)
        0.014638159 = weight(_text_:des in 3502) [ClassicSimilarity], result of:
          0.014638159 = score(doc=3502,freq=2.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.18358089 = fieldWeight in 3502, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3502)
        0.007897133 = weight(_text_:in in 3502) [ClassicSimilarity], result of:
          0.007897133 = score(doc=3502,freq=10.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.20163295 = fieldWeight in 3502, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3502)
        0.011703186 = product of:
          0.023406371 = sum of:
            0.023406371 = weight(_text_:22 in 3502) [ClassicSimilarity], result of:
              0.023406371 = score(doc=3502,freq=2.0), product of:
                0.10082839 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02879306 = queryNorm
                0.23214069 = fieldWeight in 3502, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3502)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Abstract
    Um das Leben und Werk historischer Personen und historische Ereignisse verstehen zu können, benötigen Wissenschaftler als primäre Quelle historische Dokumente. Das Entdecken und Auffinden dieser Dokumente in Archiven ist seit jeher eine aufwändige Aufgabe. In vielen Fällen ist sie mit einer großen Portion Glück verbunden, die richtige Archivalie im Bestand ausfindig zu machen. Mit Katalogen und anderen Findmitteln helfen Archive Forschern bereits beim Aufspüren dieser Quellen. Um Material zu einer bestimmten Person auffindbar zu machen, werden in der Regel biographische Normdaten bereitgehalten, die als Einstiegspunkt in eine Suche dienen. Der Begriff "Normdaten" kann unter zwei Aspekten verstanden werden: 1. Vergabe und Verwendung einer eindeutigen Kennung für eine Person, um sie in verschiedenen Systemen zu finden und 2. als eine normierte Schreibweise, um biographische Daten zu einer Person so aufzuschreiben, dass die Daten interoperabel, also auch außerhalb des ursprünglichen Systems (nach-)genutzt werden können.
    Source
    Archivar. 70(2017) H.1, S.22-25
  11. Wiechmann, B.: Individualisierungstest in Der Deutschen Bibliothek (1999) 0.03
    0.027579004 = product of:
      0.110316016 = sum of:
        0.02446016 = weight(_text_:und in 3810) [ClassicSimilarity], result of:
          0.02446016 = score(doc=3810,freq=10.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.38329202 = fieldWeight in 3810, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3810)
        0.038490824 = weight(_text_:der in 3810) [ClassicSimilarity], result of:
          0.038490824 = score(doc=3810,freq=24.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.5984551 = fieldWeight in 3810, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3810)
        0.02446016 = weight(_text_:und in 3810) [ClassicSimilarity], result of:
          0.02446016 = score(doc=3810,freq=10.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.38329202 = fieldWeight in 3810, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3810)
        0.017077852 = weight(_text_:des in 3810) [ClassicSimilarity], result of:
          0.017077852 = score(doc=3810,freq=2.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.2141777 = fieldWeight in 3810, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3810)
        0.005827016 = weight(_text_:in in 3810) [ClassicSimilarity], result of:
          0.005827016 = score(doc=3810,freq=4.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.14877784 = fieldWeight in 3810, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3810)
      0.25 = coord(5/20)
    
    Abstract
    Die Deutsche Bibliothek benutzt seit der Einspielung ihrer Personennamen die nationale Normdatei für Personennamen (PND) integriert für die Katalogisierung. Der seit Beginn der redaktionellen Arbeiten an der PND laufenden Diskussion über die Erfassung von Normdatensätzen für einzelnen Personen und deren Verwendung in der Formalerschließung wollen Die Deutschen Bibliothek eine statistisch belegte Grundlage verschaffen und hat deshalb einen Test zur Ermittlung ihres Aufwands für die erweiterte Individualisierung durchgeführt. Der Test ermöglicht Aussagen über den Zeitaufwand und das Verhältnis von nichtindividualisierten zu individualisierten Datensätzen an Der Deutschen Bibliothek und belegt, daß der hauptsächliche Aufwand bei der retrospektiven Zuordnung von Titeln anfällt. Die Deutsche Bibliothek spricht sich auf der Grundlage des Tests für die Fortführung der Individualisierung aus
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 46(1999) H.3, S.227-241
  12. Wiesenmüller, H.: Verbale Erschließung in Katalogen und Discovery-Systemen : Überlegungen zur Qualität (2021) 0.03
    0.027574377 = product of:
      0.09191459 = sum of:
        0.02344053 = weight(_text_:und in 374) [ClassicSimilarity], result of:
          0.02344053 = score(doc=374,freq=18.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.3673144 = fieldWeight in 374, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.015873346 = weight(_text_:der in 374) [ClassicSimilarity], result of:
          0.015873346 = score(doc=374,freq=8.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.2467987 = fieldWeight in 374, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.02344053 = weight(_text_:und in 374) [ClassicSimilarity], result of:
          0.02344053 = score(doc=374,freq=18.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.3673144 = fieldWeight in 374, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.012198467 = weight(_text_:des in 374) [ClassicSimilarity], result of:
          0.012198467 = score(doc=374,freq=2.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.15298408 = fieldWeight in 374, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.0072090626 = weight(_text_:in in 374) [ClassicSimilarity], result of:
          0.0072090626 = score(doc=374,freq=12.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.18406484 = fieldWeight in 374, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.009752655 = product of:
          0.01950531 = sum of:
            0.01950531 = weight(_text_:22 in 374) [ClassicSimilarity], result of:
              0.01950531 = score(doc=374,freq=2.0), product of:
                0.10082839 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02879306 = queryNorm
                0.19345059 = fieldWeight in 374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=374)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Abstract
    Beschäftigt man sich mit Inhaltserschließung, so sind zunächst zwei Dimensionen zu unterscheiden - die Wissensorganisationssysteme selbst (z. B. Normdateien, Thesauri, Schlagwortsprachen, Klassifikationen und Ontologien) und die Metadaten für Dokumente, die mit diesen Wissensorganisationssystemen erschlossen sind. Beides steht in einer Wechselwirkung zueinander: Die Wissensorganisationssysteme sind die Werkzeuge für die Erschließungsarbeit und bilden die Grundlage für die Erstellung konkreter Erschließungsmetadaten. Die praktische Anwendung der Wissensorganisationssysteme in der Erschließung wiederum ist die Basis für deren Pflege und Weiterentwicklung. Zugleich haben Wissensorganisationssysteme auch einen Eigenwert unabhängig von den Erschließungsmetadaten für einzelne Dokumente, indem sie bestimmte Bereiche von Welt- oder Fachwissen modellartig abbilden. Will man nun Aussagen über die Qualität von inhaltlicher Erschließung treffen, so genügt es nicht, den Input - also die Wissensorganisationssysteme und die damit generierten Metadaten - zu betrachten. Man muss auch den Output betrachten, also das, was die Recherchewerkzeuge daraus machen und was folglich bei den Nutzer:innen konkret ankommt. Im vorliegenden Beitrag werden Überlegungen zur Qualität von Recherchewerkzeugen in diesem Bereich angestellt - gewissermaßen als Fortsetzung und Vertiefung der dazu im Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) gegebenen Hinweise. Im Zentrum steht die verbale Erschließung nach den Regeln für die Schlagwortkatalogisierung (RSWK), wie sie sich in Bibliothekskatalogen manifestiert - gleich, ob es sich dabei um herkömmliche Kataloge oder um Resource-Discovery-Systeme (RDS) handelt.
    Date
    24. 9.2021 12:22:02
    Series
    Bibliotheks- und Informationspraxis; 70
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a
  13. Balzer, D.; Fischer, B.K.; Kett, J.; Laux, S.; Lill, J.M.; Lindenthal, J.; Manecke, M.; Rosenkötter, M.; Vitzthum, A.: ¬Das Projekt "GND für Kulturdaten"; (GND4C) (2019) 0.03
    0.027355393 = product of:
      0.10942157 = sum of:
        0.025772743 = weight(_text_:und in 5721) [ClassicSimilarity], result of:
          0.025772743 = score(doc=5721,freq=34.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.40386027 = fieldWeight in 5721, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5721)
        0.025397355 = weight(_text_:der in 5721) [ClassicSimilarity], result of:
          0.025397355 = score(doc=5721,freq=32.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.3948779 = fieldWeight in 5721, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5721)
        0.025772743 = weight(_text_:und in 5721) [ClassicSimilarity], result of:
          0.025772743 = score(doc=5721,freq=34.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.40386027 = fieldWeight in 5721, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5721)
        0.025819287 = weight(_text_:des in 5721) [ClassicSimilarity], result of:
          0.025819287 = score(doc=5721,freq=14.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.32380626 = fieldWeight in 5721, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=5721)
        0.006659447 = weight(_text_:in in 5721) [ClassicSimilarity], result of:
          0.006659447 = score(doc=5721,freq=16.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.17003182 = fieldWeight in 5721, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=5721)
      0.25 = coord(5/20)
    
    Abstract
    Die zunehmende Präsenz von Museen, Archiven, Forschungs- und anderen Kulturgut verwahrenden Einrichtungen mit ihren Sammlungsobjekten im Internet verstärkt das Bedürfnis nach Vernetzung der Daten. Eine Voraussetzung für die semantische Verknüpfung von Datensätzen sind gemeinsam verwendete Normdaten. Die Gemeinsame Normdatei (GND), geführt von der Deutschen Nationalbibliothek, ist ein weithin anerkanntes Vokabular für die Beschreibung und das Information­Retrieval in der Bibliothekswelt. Veröffentlicht als Linked Open Data, unterstützt die GND semantische Interoperabilität und Nachnutzung von Daten. Objekte aus verschiedenen Häusern können zusammen aufgefunden werden und disziplinenübergreifende Forschung wird erleichtert. Doch um die GND sparten­ und fächerübergreifend öffnen zu können, muss sie an die neuen Anforderungen angepasst und aktiv zwischen den Communities geteilt werden. In den vier Teilen des Beitrags geben Mitarbeiterinnen und Mitarbeiter des DFG­geförderten Projekts "GND für Kulturdaten" (GND4C) einen Einblick in den Stand der Untersuchungen, welche konzeptuellen Veränderungen erforderlich sein werden und wo sich die GND bereits heute als flexibel genug für die Wünsche der neuen Anwendungen erweist.
    Der erste Teil des Beitrags erläutert Ziel und Vorgehensweise des Projektes in vier thematischen Schwerpunkten: Organisationsstruktur des GND­Netzwerks, Datenmodell und Regelwerk der GND, technische Infrastruktur sowie Erfordernisse eines Dialogs über die Grenzen der Bibliothekswelt hinaus. Der zweite Teil beschreibt die Bedingungen und Erfordernisse für die Integration von Normdaten für Personen und Sachbegriffe in die GND, soweit diese nicht durch die Erschließungsarbeit der Bibliotheken vorgegeben sind. Daraufhin werden die Möglichkeiten des bestehenden Datenmodells und der bisher geltenden Regeln hinsichtlich ihres Anpassungspotenzials für historische Geografika sowie Bauwerke untersucht. Als ortsgebundene Entitäten haben Bauwerke Eigenschaften mit natürlichen Geografika gemeinsam, teilen als künstliche Objekte aber auch Eigenschaften der von Menschen geschaffenen Werke. Diese Dualität ortsgebundender Objekte gilt es, in der GND darstellbar zu machen. Im letzten Beitragsteil wird erläutert, warum es nur einen geringen Bedarf an einer konzeptionellen Änderung des Basisdatenmodells der GND gibt. Allerdings werden auch spezifische Eigenschaften identifiziert, die für Objekte aus Museen oder Archiven relevant sind und nicht vom aktuellen GND­Datenmodell abgedeckt werden. Diese zusätzlichen Anforderungen werden durch die Spezifikation von CORE­ und PLUS­Bereichen erfüllt. Das CORE­PLUS­Modell unterscheidet zwischen Minimalanforderungen an einen Normdatensatz in einem CORE­Modell und zusätzlichen Regeln für einen jeweils community­spezifischen PLUS­Bereich. Ausblick und Fazit zeigen die noch offenen Fragen auf, deren Lösung in der zweiten Hälfte der Projektlaufzeit ansteht.
  14. Oberhauser, O.; Labner, J.: Entwurf und Implementierung einer neuen Multi-Klassifikations-Normdatei für den Österreichischen Bibliothekenverbund (2006) 0.03
    0.027103497 = product of:
      0.10841399 = sum of:
        0.026794761 = weight(_text_:und in 5001) [ClassicSimilarity], result of:
          0.026794761 = score(doc=5001,freq=12.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.41987535 = fieldWeight in 5001, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5001)
        0.02484572 = weight(_text_:der in 5001) [ClassicSimilarity], result of:
          0.02484572 = score(doc=5001,freq=10.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.38630107 = fieldWeight in 5001, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5001)
        0.026794761 = weight(_text_:und in 5001) [ClassicSimilarity], result of:
          0.026794761 = score(doc=5001,freq=12.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.41987535 = fieldWeight in 5001, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5001)
        0.024151731 = weight(_text_:des in 5001) [ClassicSimilarity], result of:
          0.024151731 = score(doc=5001,freq=4.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.302893 = fieldWeight in 5001, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5001)
        0.005827016 = weight(_text_:in in 5001) [ClassicSimilarity], result of:
          0.005827016 = score(doc=5001,freq=4.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.14877784 = fieldWeight in 5001, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5001)
      0.25 = coord(5/20)
    
    Abstract
    Der Beitrag berichtet über eine in diesem Jahr im zentralen System des Österreichischen Bibliothekenverbundes unter der Bibliothekssoftware "Aleph 500" neu eingerichtete Normdatei, die mehrere "koexistierende" Klassifikationssysteme aufzunehmen vermag. Implementiert wurden darin bisher die Mathematics Subject Classification (MSC) und die Basisklassifikation (BK). Folgende Aspekte werden im Detail angesprochen bzw. dokumentiert: Ziele und Nutzungserwartungen, konzeptionelle Überlegungen, redaktionelle Arbeiten, Parameter- und Tabellen-Setup inklusive Kategorienschema und Indexierung, Einbettung in die Verbundarchitektur einschließlich der Nutzungsmöglichkeiten durch die lokalen Bibliothekssysteme des Verbundes, Arbeitsschritte bei der Implementierung. Der Artikel schließt mit einer Übersicht über die derzeit realisierten Funktionalitäten im Bearbeitungs- und OPAC-Bereich sowie einem kurzen Ausblick auf zukünftige Entwicklungen.
  15. Alscher, H.J.: Frankfurt ist niederösterreichisch geworden : Von der Lokalbibliothek über die Integration der Normdateien zur österreichischen DDB-Clearingstelle (2005) 0.03
    0.026714325 = product of:
      0.1068573 = sum of:
        0.023388384 = weight(_text_:und in 2616) [ClassicSimilarity], result of:
          0.023388384 = score(doc=2616,freq=28.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.36649725 = fieldWeight in 2616, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2616)
        0.030450359 = weight(_text_:der in 2616) [ClassicSimilarity], result of:
          0.030450359 = score(doc=2616,freq=46.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.473442 = fieldWeight in 2616, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2616)
        0.023388384 = weight(_text_:und in 2616) [ClassicSimilarity], result of:
          0.023388384 = score(doc=2616,freq=28.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.36649725 = fieldWeight in 2616, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2616)
        0.02182128 = weight(_text_:des in 2616) [ClassicSimilarity], result of:
          0.02182128 = score(doc=2616,freq=10.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.27366623 = fieldWeight in 2616, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=2616)
        0.007808894 = weight(_text_:in in 2616) [ClassicSimilarity], result of:
          0.007808894 = score(doc=2616,freq=22.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.19937998 = fieldWeight in 2616, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2616)
      0.25 = coord(5/20)
    
    Abstract
    Die Niederösterreichische Landesbibliothek hat am 25.10.1995 von der Deutschen Bibliothek in Frankfurt den Grundbestand der SWD (Schlagwortnormdatei) erworben und in die BIS-C-Katalogdatenbank der Druckschriftensammlung importiert (letztes Komplettupdate 24.11.2004); seit damals wird auch der wöchentliche Änderungsdienst der SWD in MAB (Maschinelles Austauschformat für Bibliotheken) bezogen und importiert. Die Einführung des Sacherschließungsregelwerkes RSWK (Regeln für den Schlagwortkatalog, 1. Auflage 1986) hatte bereits zuvor, zugleich mit der Einführung des Bibliotheks-Informations-Systems BIS-C 2000 der Fa. DABIS, am 1.1.1994 stattgefunden. Damals wurde mit der Onlinekatalogisierung in einer leeren Datenbank neu begonnen; der Altbestand, der durch Abschreiben des Band- bzw. Zettelkataloges in der Zeit von 1984-1993 bereits als elektronischer Katalog in einer STAIRS-Datenbank vorlag, wurde in eine eigene BIS-C 2000 Datenbank konvertiert. Im Rahmen der Übersiedlung der Niederösterreichischen Landesbibliothek in die neue Landeshauptstadt St. Pölten wurde der Benutzungsbetrieb im Herbst 1996 eingestellt und am 1.10.1997 in St. Pölten wieder aufgenommen; dieser Zeitraum wurde für die Fusion der beiden Datenbanken (Neubestand ab 1994 und Altbestand bis 1993) genutzt. Die hauptsächliche Arbeit bestand darin, die Personen-, Körperschafts- und Schlagwortdatensätze des Altbestandes von Dubletten zu befreien, mit den Normdateien bzw. den lokalen Datensätzen des Neubestandes abzugleichen und den verbleibenden Rest oberflächlich zu überarbeiten und als Altbestandsdatensätze zu kennzeichnen. Aus dem Altbestand verblieben 34.000 Personendatensätze (zuvor 45.000), 400 Körperschaftsdatensätze (zuvor 5.000) und 2.000 Schlagwortdatensätze (zuvor 25.000). Am 1.8.2000 wurden auch der Grundbestand der PND (Personennamendatei) und GKD (Gemeinsame Körperschaftsdatei) erworben und in die Katalogdatenbank integriert (letztes Kompiettupdate Mai bzw. August 2004), natürlich ebenfalls mit wöchentlichen MAB-Änderungsdiensten, wodurch sich die Zahl der lokalen Personen- und Körperschaftsdatensätze weiter reduziert hat. Die Niederösterreichische Landesbibliothek war also spätestens seit diesem Zeitpunkt Vollanwender der Regelwerke RAK-WB (Regeln für die Alphabetische Katalogisierung in Wissenschaftlichen Bibliotheken) und RSWK sowie der Normdateien PND, GKD und SWD.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.3, S.38-40
  16. Wessel, H.-P.: RSWK und RAK - die Geschichte einer unendlichen Annäherung? (2005) 0.03
    0.026427558 = product of:
      0.10571023 = sum of:
        0.031254042 = weight(_text_:und in 3666) [ClassicSimilarity], result of:
          0.031254042 = score(doc=3666,freq=50.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.48975253 = fieldWeight in 3666, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3666)
        0.027676126 = weight(_text_:der in 3666) [ClassicSimilarity], result of:
          0.027676126 = score(doc=3666,freq=38.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.43030822 = fieldWeight in 3666, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3666)
        0.031254042 = weight(_text_:und in 3666) [ClassicSimilarity], result of:
          0.031254042 = score(doc=3666,freq=50.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.48975253 = fieldWeight in 3666, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3666)
        0.009758773 = weight(_text_:des in 3666) [ClassicSimilarity], result of:
          0.009758773 = score(doc=3666,freq=2.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.12238726 = fieldWeight in 3666, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=3666)
        0.0057672504 = weight(_text_:in in 3666) [ClassicSimilarity], result of:
          0.0057672504 = score(doc=3666,freq=12.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.14725187 = fieldWeight in 3666, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=3666)
      0.25 = coord(5/20)
    
    Abstract
    "Für die Schlagwortkatalogisierungsregeln ist im Bereich der Ansetzung von Personennamen, Körperschaftsnamen und Titeln, in denen sie sich mit den Formalkatalogisierungsregeln überlappen, eine Konformität mit diesen aus verschiedenen Gründen sehr wünschenswert, wenn nicht geboten."' Diese These von Peter Baader, seinerzeit Leiter der Abteilung Alphabetische Katalogisierung der Deutschen Bibliothek, stammt aus der Zeit vor dem Erscheinen der ersten Auflage (1986) der RSWK und ist heute immer noch genauso aktuell wie im Jahre 1983. Baader warnte vor einer "Zersplitterung" der jeweiligen Regelungen, konnte diese jedoch nicht verhindern, da die RSWK sich letztlich auf etablierte deutsche Schlagwortregelwerke und die Ergebnisse von Abstimmungen durch deutsche Bibliotheksverbünde und Einzelbibliotheken beriefen. Dies geschah nicht zuletzt, um die Akzeptanz der RSWK als neues Einheitsregelwerk zu erhöhen. Zwanzig Jahre später diskutiert die deutschsprachige bibliothekarische Fachwelt endlich ergebnisorientiert über die Angleichung von RAK und RSWK, jetzt allerdings unter Anpassung der RAK an Struktur und Inhalte der Anglo-American Cataloguing Rules (AACR) bzw. ihres Nachfolgers. Die folgende Darstellung unternimmt den Versuch, auf der Grundlage dieser Prämisse das Modell eines für die Formal- und Inhaltserschließung gemeinsamen deutschen Regelwerks zu skizzieren und die noch bestehenden Unterschiede zu dokumentieren. Zum besseren Verständnis des doch so langwierigen Annäherungsprozesses soll zunächst die bisherige Entwicklung betrachtet werden. Eckpunkte der Vorgeschichte - Die DBI-Kommission für Erschließung und Katalogmanagement (KEK) beschließt 1991 in ihrem Arbeitsprogramm den Abgleich beider Regelwerke und erklärt 1992 ihre Absicht, die Ansetzungen der Personennamen in RAK und RSWK zu harmonisieren. - Die Expertengruppe Online-Kataloge empfiehlt 1994 einheitliche Ansetzungsformen in RAK und RSWK für Personen- bzw. Körperschaftsnamen sowie eine umfassende Bestimmung von Einheitssachtiteln. - Die Expertengruppen RAK und RSWK beschließen 1996, dass bei der Ansetzung von Personen- und Körperschaftsnamen substanzielle Abweichungen zwischen den beiden Regelwerken vorläufig erhalten bleiben und stattdessen unterschiedliche Ansetzungsformen miteinander verknüpft werden sollen. Kurz nach dem Beginn der Diskussion über einen möglichen Umstieg auf internationale Formate und Regelwerke (MARC 21, AACR2) fasst der Standardisierungsausschuss im Juni 2002 den Beschluss zur Angleichung von RAK und RSWK. Ausgangspunkt sollen die Ansetzungsformen von Personen und Körperschaften sein. Im Dezember 2002 wird von einem RAK-RSWK-Expertentreffen vorgeschlagen, bei Regeländerungen die AACR2 zu berücksichtigen, ein gemeinsames Datenformat für PND, GKD und SWD zu entwickeln, den Änderungsaufwand in den Normdateien abzuschätzen und einen Zeitplan für ein gestuftes Vorgehen bei den Regeländerungen zu entwickeln. Im Mai 2004 beschließen die Expertengruppen Formalerschließung, PND und RSWK/SWD bei getrennten und überwiegend unterschiedlichen Regelwerkstexten einheitliche Ansetzungsformen in RAK und RSWK für Personennamen. Der Standardisierungsausschuss erklärt seine Absicht, einen für Formal- und Inhaltserschließung gemeinsamen Regelwerkstext zu veröffentlichen. Im Januar 2005 wird von Vertretern der Expertengruppen ein von der Arbeitsstelle für Standardisierung vorgelegtes Arbeitspaket "Gemeinsame Ansetzungsregeln für Körperschaften" (GKR) beschlossen. Im März 2005 legt die Arbeitsstelle für Standardisierung ein Konzept zur Entwicklung eines gemeinsamen Normdatenformats vor.
  17. Altenhöner, R; Hengel, C.; Jahns, Y.; Junger, U.; Mahnke, C.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 74. IFLA-Generalkonferenz in Quebec, Kanada : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICADS und UNIMARC sowie der Information Technology Section (2008) 0.03
    0.026236316 = product of:
      0.104945265 = sum of:
        0.024397679 = weight(_text_:und in 2317) [ClassicSimilarity], result of:
          0.024397679 = score(doc=2317,freq=78.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.38231295 = fieldWeight in 2317, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.029960286 = weight(_text_:der in 2317) [ClassicSimilarity], result of:
          0.029960286 = score(doc=2317,freq=114.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.46582234 = fieldWeight in 2317, product of:
              10.677078 = tf(freq=114.0), with freq of:
                114.0 = termFreq=114.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.024397679 = weight(_text_:und in 2317) [ClassicSimilarity], result of:
          0.024397679 = score(doc=2317,freq=78.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.38231295 = fieldWeight in 2317, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.019287469 = weight(_text_:des in 2317) [ClassicSimilarity], result of:
          0.019287469 = score(doc=2317,freq=20.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.24188907 = fieldWeight in 2317, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.006902152 = weight(_text_:in in 2317) [ClassicSimilarity], result of:
          0.006902152 = score(doc=2317,freq=44.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.17622867 = fieldWeight in 2317, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
      0.25 = coord(5/20)
    
    Abstract
    Der 74. Weltkongress der International Federation of Library Associations and Institutions (IFLA) hat vom 10. bis 14. August 2008 unter dem Motto "Libraries without borders: Navigating towards global understanding" in Quebec, Kanada, stattgefunden. Dort trafen sich mehr als 3000 Bibliothekarinnen und Bibliothekare aus 150 Ländern der Welt zu insgesamt 224 Veranstaltungen und verschiedenen Satellitenkonferenzen. Die IFLA-Präsidentin Prof. Dr. Claudia Lux aus Berlin leitete die Tagung und war gleichzeitig prominenteste Vertreterin der deutschen Delegation, die aus mehr als 80 Kolleginnen und Kollegen bestand und damit im Vergleich zum Vorjahr erfreulich groß war. Wer nicht dabei sein konnte und sich dennoch einen Eindruck über die Konferenz und die Atmosphäre verschaffen möchte, kann dies online tun. Neben dem Programm und einer Vielzahl von Vorträgen sind auf der Website der IFLA auch Links zu Fotos, Videos und Blogs vorhanden. Innerhalb der IFLA wird derzeit an einer Neuorganisation und damit verbunden einer neuen Satzung gearbeitet, unter anderem sollen auch der interne und externe Informationsfluss verbessert werden. Dazu soll Anfang 2009 eine neu gestaltete Website mit einem Content Managementsystem frei geschaltet werden. Das Design der neuen Site wurde in Quebec vorgestellt, eine Präsentation ist im IFLAnet zu finden. Wie in den vergangenen Jahren soll auch in diesem Jahr über die Veranstaltungen der Division IV Bibliographic Control mit ihren Sektionen Bibliography, Cataloguing, Classification and Indexing sowie Knowledge Managament berichtet werden.
    Content
    Darin u.a.: Cataloguing Section Deutsches Mitglied im Ständigen Ausschuss der Sektion: Renate Gömpel (2005-2009; Deutsche Nationalbibliothek) und Ulrike Junger (2007-2011; Staatsbibliothek zu Berlin) Der Schwerpunkt der Arbeit dieser Sektion liegt auf der Erarbeitung bzw. internationalen Harmonisierung von Strukturen, Regeln und Arbeitsverfahren mit dem Ziel, die internationale Kooperation im Katalogisierungsbereich zu verbessern. Die beiden Arbeitssitzungen des Ständigen Ausschusses der Sektion Katalogisierung dienen neben der Abwicklung von Routinegeschäften, der Entgegennahme bzw. Verabschiedung von Berichten der einzelnen Arbeitsgruppen, der Vorbereitung der Veranstaltungen sowie der Fortschreibung des Strategieplans der Sektion.
    Classification and Indexing Section (Sektion Klassifikation und Indexierung) Deutsches Mitglied im Ständigen Ausschuss der Sektion: Yvonne Jahns (2005-2009; Deutsche Nationalbibliothek) Die Sektion, die sich als Forum für den internationalen Austausch über Methoden der Inhaltserschließung und die Bedeutung des sachlichen Zugangs zu Dokumenten und Wissen versteht, wartete in Quebec mit einem interessanten Vortragprogramm auf. Drei Präsentationen näherten sich dem Thema "Classification and indexing without language borders" von unterschiedlichen Seiten. Anila Angjeli von der Bibliotheque nationale de France (BnF) präsentierte Arbeiten aus dem Projekt STITCH", das sich mit semantischen Suchen in unterschiedlich erschlossenen Beständen von Kulturerbeinstitutionen beschäftigt. Die verwendeten Thesauri und Klassifikationen wurden mittels SKOS in ein vergleichbares Format überführt und stehen so als Semantic-Web-Anwendung zur Recherche bereit. Die Funktionsweise erläuterte Anila Angjeli sehr bildreich durch Beispiel-suchen nach mittelalterlichen Handschriften der BnF und der Königlichen Bibliothek der Niederlande. Vivien Petras vom GESIS Informationszentrum Sozialwissenschaften, Bonn, sprach über die Vielzahl der intellektuell erstellten Crosskonkordanzen zwischen Thesauri in den Sozialwissenschaften. Sie stellte dabei die Evaluierung der KOMOHE-Projektergebnisse vor und konnte die Verbesserung der Suchergebnisse anschaulich machen, die man durch Hinzuziehen der Konkordanzen in der Recherche über heterogen erschlossene Bestände erreicht. Schließlich präsentierte Michael Kreyche von der Kent State University, Ohio/USA, seinen eindrucksvollen jahrelangen Einsatz für die Zugänglichkeit englisch-spanischer Schlagwörter. Im Projekt Icsh-es.org gelang es, viele Vorarbeiten von amerikanischen und spanischen Bibliotheken zusammenzutragen, um eine Datenbank spanischer Entsprechungen der Library of Congress Subject Headings aufzubauen. Diese soll Indexierern helfen und natürlich den vielen spanisch-sprachigen Bibliotheksbenutzern in den USA zugute kommen. Spanisch ist nicht nur eine der meistgesprochenen Sprachen der Welt, sondern aufgrund der zahlreichen Einwanderer in die USA für die Bibliotheksarbeit von großer Wichtigkeit.
    Am Programm für den nächsten Weltkongress arbeitet der Ständige Ausschuss bereits. Es steht unter dem Motto "Foundations to Build Future Subject Access". Geplant ist auch eine Satellitenkonferenz, die am 20. und 21. August 2009 in Florenz unter dem Titel "Past Lessons, Future Challenges in Subject Access" stattfindet, zu der alle an Klassifikationen und Indexierungsprozessen Interessierte herzlich eingeladen sind. Die Arbeitsgruppen der Sektion trafen sich in Quebec, konnten jedoch bislang keine abschließenden Ergebnisse vorlegen. So sind bisher weder die Richtlinien für multilinguale Thesauri redigiert und publiziert, noch ist mit dem Erscheinen der Richtlinien für Sacherschließungsdaten in Nationalbibliografien vor 2009 zu rechnen. Die Teilnehmer verständigten sich darauf, dass die Weiterarbeit an einem multilingualen Wörterbuch zur Katalogisierung im Zeitalter von FRBR und RDA wichtiger denn je ist. Nach dem Release der neuen IFLA-Website soll dieses Online-Nachschlagewerk auf den Webseiten eine Heimat finden und wartet auf die Mitarbeit von Katalogisierern aus aller Welt. Die Arbeitsgruppe zu den Functional Requirements for Subject Authority Records (FRSAR) traf sich 2008 mehrfach und stellte zuletzt während der Konferenz der International Society of Knowledge Organization (ISKO) in Montreal ihre Arbeitsergebnisse zur Diskussion. Leider sind keine aktuellen Papiere zu den FRSAR online verfügbar. Ein internationales Stellungnahmeverfahren zu dem Modell zu Katalogisaten von Themen von Werken im Rahmen des FRBR-Modells kann jedoch 2009 erwartet werden. Mehr Informationen dazu gibt es z.B. in der neuen Publikation "New Perspectives on Subject Indexing and Classification", einer Gedenkschrift für die verstorbene Kollegin und ehemaliges Mitglied des Ständigen Ausschusses, Magda Heiner-Freiling. Die Idee dazu entstand während des IFLA-Kongresses in Durban. Dank der zahlreichen Beitragenden aus aller Welt gelang es, im Laufe des vergangenen Jahres eine interessante Sammlung rund um die Themen DDC, verbale Sacherschließung, Terminologiearbeit und multilinguale sachliche Suchen zusammenzustellen.
    Am Rande des Weltkongresses fanden zum wiederholten Male DDC- und UDC-Anwendertreffen statt. Für alle an der DDC Interessierten ist das Programm im Dewey-Blog vom 19. August 2008 zu finden. Besonders interessant ist der neue OCLC-Service namens "Classify", der als Webservice aufgesetzt werden soll und dem Anwender aus WorldCat-Daten zuverlässige Notationen herausfiltert - eine gute Hilfe beim Klassifizieren (zur Fremddatenübernahme) und beim Orientieren in einer internationalen DDC-Umgebung. Hingewiesen sei noch auf die anlässlich des Kongresses frei geschaltete Suchoberfläche der ortsansässigen Bibliotheque de l'Universite Lava Ariane 2.0 ist eine intuitive und einfach zu bedienende Katalogsuchmaschine, die insbesondere die Schlagwörter des Repertoire de vedettes-matiere (RVM) zur Navigation benutzt. RVM ist die französischsprachige Schlagwortnormdatei Kanadas, in enger Anlehnung an die LCSH entstanden und heute in enger Kooperation zu den Rameau der BnF gepflegt und von Library and Archives Canada als der französische Indexierungsstandard Kanadas betrachtet. Für die Pflege ist die Laval-Universitätsbibliothek verantwortlich. Eben erschien der neue "Guide pratique du RVM" - ein schwergewichtiger Führer durch die Schlagwortwelt und ein kleines Indexierungsregelwerk.
  18. Kasprzik, A.; Kett, J.: Vorschläge für eine Weiterentwicklung der Sacherschließung und Schritte zur fortgesetzten strukturellen Aufwertung der GND (2018) 0.03
    0.025951328 = product of:
      0.10380531 = sum of:
        0.025914485 = weight(_text_:und in 4599) [ClassicSimilarity], result of:
          0.025914485 = score(doc=4599,freq=22.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.40608138 = fieldWeight in 4599, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.020998465 = weight(_text_:der in 4599) [ClassicSimilarity], result of:
          0.020998465 = score(doc=4599,freq=14.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.326484 = fieldWeight in 4599, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.025914485 = weight(_text_:und in 4599) [ClassicSimilarity], result of:
          0.025914485 = score(doc=4599,freq=22.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.40608138 = fieldWeight in 4599, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.024396934 = weight(_text_:des in 4599) [ClassicSimilarity], result of:
          0.024396934 = score(doc=4599,freq=8.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.30596817 = fieldWeight in 4599, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.006580944 = weight(_text_:in in 4599) [ClassicSimilarity], result of:
          0.006580944 = score(doc=4599,freq=10.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.16802745 = fieldWeight in 4599, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
      0.25 = coord(5/20)
    
    Abstract
    Aufgrund der fortgesetzten Publikationsflut stellt sich immer dringender die Frage, wie die Schwellen für die Titel- und Normdatenpflege gesenkt werden können - sowohl für die intellektuelle als auch die automatisierte Sacherschließung. Zu einer Verbesserung der Daten- und Arbeitsqualität in der Sacherschließung kann beigetragen werden a) durch eine flexible Visualisierung der Gemeinsamen Normdatei (GND) und anderer Wissensorganisationssysteme, so dass deren Graphstruktur intuitiv erfassbar wird, und b) durch eine investigative Analyse ihrer aktuellen Struktur und die Entwicklung angepasster automatisierter Methoden zur Ermittlung und Korrektur fehlerhafter Muster. Die Deutsche Nationalbibliothek (DNB) prüft im Rahmen des GND-Entwicklungsprogramms 2017-2021, welche Bedingungen für eine fruchtbare community-getriebene Open-Source-Entwicklung entsprechender Werkzeuge gegeben sein müssen. Weiteres Potential steckt in einem langfristigen Übergang zu einer Darstellung von Titel- und Normdaten in Beschreibungssprachen im Sinne des Semantic Web (RDF; OWL, SKOS). So profitiert die GND von der Interoperabilität mit anderen kontrollierten Vokabularen und von einer erleichterten Interaktion mit anderen Fach-Communities und kann umgekehrt auch außerhalb des Bibliothekswesens zu einem noch attraktiveren Wissensorganisationssystem werden. Darüber hinaus bieten die Ansätze aus dem Semantic Web die Möglichkeit, stärker formalisierte, strukturierende Satellitenvokabulare rund um die GND zu entwickeln. Daraus ergeben sich nicht zuletzt auch neue Perspektiven für die automatisierte Sacherschließung. Es wäre lohnend, näher auszuloten, wie und inwieweit semantisch-logische Verfahren den bestehenden Methodenmix bereichern können.
    Content
    Vortrag anlässlich des 107. Deutschen Bibliothekartages 2018 in Berlin, Themenkreis "Fokus Erschließen & Bewahren". https://www.o-bib.de/article/view/5390/7450. https://doi.org/10.5282/o-bib/2018H4S127-140.
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  19. Hubrich, J.: Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2005) 0.03
    0.025456738 = product of:
      0.10182695 = sum of:
        0.018946756 = weight(_text_:und in 3690) [ClassicSimilarity], result of:
          0.018946756 = score(doc=3690,freq=6.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.2968967 = fieldWeight in 3690, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3690)
        0.02721712 = weight(_text_:der in 3690) [ClassicSimilarity], result of:
          0.02721712 = score(doc=3690,freq=12.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.4231716 = fieldWeight in 3690, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3690)
        0.018946756 = weight(_text_:und in 3690) [ClassicSimilarity], result of:
          0.018946756 = score(doc=3690,freq=6.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.2968967 = fieldWeight in 3690, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3690)
        0.029579712 = weight(_text_:des in 3690) [ClassicSimilarity], result of:
          0.029579712 = score(doc=3690,freq=6.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.3709667 = fieldWeight in 3690, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3690)
        0.0071366085 = weight(_text_:in in 3690) [ClassicSimilarity], result of:
          0.0071366085 = score(doc=3690,freq=6.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.1822149 = fieldWeight in 3690, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3690)
      0.25 = coord(5/20)
    
    Abstract
    »Sacherschließung - können wir uns die noch leisten?« Angesichts des zunehmend geringeren Gesamtetats, der den Bibliotheken zur Verfügung steht, drängt sich diese Frage nahezu auf. Sacherschließung ist teuer und für das moderne Bibliothekswesen nur dann noch tragbar, wenn der Mitteleinsatz in einem angemessenen Verhältnis zum Ergebnis steht, das sich in der Leistungsfähigkeit des Produkts widerspiegelt. Im deutschsprachigen Raum trägt die SWD wesentlich zu einer effektiveren Sacherschließungsarbeit bei. Ihre Pflege und Weiterentwicklung ist jedoch mit einem enormen Aufwand gekoppelt, der nur mit einer entsprechenden Nutzung der Daten für das thematische Retrieval in den OPACs gerechtfertigt werden kann.
  20. Ansorge, K.: Das was 2007 (2007) 0.02
    0.024875255 = product of:
      0.09950102 = sum of:
        0.022099946 = weight(_text_:und in 2405) [ClassicSimilarity], result of:
          0.022099946 = score(doc=2405,freq=64.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.34630734 = fieldWeight in 2405, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2405)
        0.025097964 = weight(_text_:der in 2405) [ClassicSimilarity], result of:
          0.025097964 = score(doc=2405,freq=80.0), product of:
            0.06431698 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02879306 = queryNorm
            0.390223 = fieldWeight in 2405, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2405)
        0.022099946 = weight(_text_:und in 2405) [ClassicSimilarity], result of:
          0.022099946 = score(doc=2405,freq=64.0), product of:
            0.06381599 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02879306 = queryNorm
            0.34630734 = fieldWeight in 2405, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2405)
        0.02362223 = weight(_text_:des in 2405) [ClassicSimilarity], result of:
          0.02362223 = score(doc=2405,freq=30.0), product of:
            0.079736836 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02879306 = queryNorm
            0.2962524 = fieldWeight in 2405, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2405)
        0.006580944 = weight(_text_:in in 2405) [ClassicSimilarity], result of:
          0.006580944 = score(doc=2405,freq=40.0), product of:
            0.039165888 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02879306 = queryNorm
            0.16802745 = fieldWeight in 2405, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2405)
      0.25 = coord(5/20)
    
    Content
    Darin u.a: "Netzpublikationen - Die DNB hat mit Inkrafttreten des Gesetzes über die Deutsche Nationalbibliothek im Jahr 2006 den Auftrag der Sammlung, Erschließung, Verzeichnung und Archivierung von Netzpublikationen erhalten. Zum Sammelgebiet Netzpublikationen gehören alle Darstellungen in Schrift, Bild und Ton, die in öffentlichen Netzen zugänglich gemacht werden. Die Abgabepflicht umfasst sowohl Internetveröffentlichungen mit Entsprechungen zum Printbereich als auch webspezifische Medienwerke." "Kataloganreicherung - In Gesprächen mit dem Deutschen Bibliotheksverband und dem Börsenverein des Deutschen Buchhandels hatte sich die DNB bereiterklärt, die Rolle eines zentralen Dienstleisters bei der Verbreitung digitaler Zusatzinformationen zu bibliografischen Daten zu übernehmen. Für die Anreicherung der Daten der Deutschen Nationalbibliografie mit qualitativ hochwertigen Zusatzinformationen (recherchierbare PDF-Dokumente) konnten im Jahr 2007 die Weichen gestellt werden. Seit Jahresbeginn 2008 werden die Inhaltsverzeichnisse der jährlich rund 75.000 monografischen Neuerscheinungen des Verlagsbuchhandels gescannt und als ergänzende bibliografische Daten über das Internet und die Datendienste der DNB angeboten. Im Rahmen der bestehenden Kooperation mit der MVB Marketing- und Verlagsservice des Buchhandels GmbH werden zukünftig neben den Daten des VLB (Verzeichnis Lieferbarer Bücher) auch die entstehenden Zusatzinformationen ausgetauscht."
    "Standardisierung - Auch 2007 ist die Arbeitsstelle für Standardisierung (AfS) auf dem Weg zur Internationalisierung der deutschen Regelwerke, Formate und Normdateien entscheidende Schritte vorangekommen. Im Mittelpunkt der Vorbereitungen für den Format-umstieg standen eine Konkordanz von MAB2 nach MARC 21 und die Festlegung neuer Felder, die für den Umstieg auf nationaler Ebene notwendig sind. Neben einer Vielzahl anderer Aktivitäten hat die DNB zwei Veranstaltungen zum Format-umstieg durchgeführt. In Zusammenarbeit mit den Expertengruppen des Standardisierungsausschusses wurden drei Stellungnahmen zu Entwürfen des Regelwerkes »Resource Description and Access (RDA)« erarbeitet; es fand eine Beteiligung an der internationalen Diskussion zu wichtigen Grundlagen statt. Der Erfüllung des Wunsches nach Einführung der Onlinekommunikation mit Normdateien ist die DNB im vergangenen Jahr deutlich nähergekommen: Änderungen an Normdaten sollen gleichzeitig in die zentral bei der DNB gehaltenen Dateien und in der Verbunddatenbank vollzogen werden. Seit Anfang September ist die erste Stufe der Onlinekommunikation im produktiven Einsatz: Die PND-Redaktionen in den Aleph-Verbünden arbeiten online zusammen. Das neue Verfahren wird sich auf alle bei der DNB geführten Normdaten erstrecken und in einem gestuften Verfahren eingeführt werden. Die DNB war in zahlreichen Standardisierungsgremien zur Weiterentwicklung von Metadatenstandards wie z.B. Dublin Core und ONIX (Online Information eXchange) sowie bei den Entwicklungsarbeiten für The European Library beteiligt. Die Projektarbeiten im Projekt KIM - Kompetenzzentrum Interoperable Metadaten wurden maßgeblich unterstützt. Im Rahmen der Arbeiten zum Gesetz über die Deutsche Nationalbibliothek wurde ein Metadatenkernset für die Übermittlung von Metadaten an die DNB entwickelt und in einer ersten Stufe mit einem ONIX-Mapping versehen. Innerhalb des Projektes »Virtual International Authority File - VIAF« entwickelten die Library of Congress (LoC), die DNB und OCLC - zunächst für Personennamen - gemeinsam eine virtuelle, internationale Normdatei, in der die Normdatensätze der nationalen Normdateien im Web frei zugänglich miteinander verbunden werden sollen. Die bisherigen Projektergebnisse haben die Machbarkeit einer internationalen Normdatei eindrucksvoll unter Beweis gestellt. Darum haben die Projektpartner in einem neuen Abkommen, das auch die Bibliothèque Nationale de France einschließt, im Oktober 2007 ihr Engagement für den VIAF nochmals bekräftigt und damit eine Konsolidierungs- und Erweiterungsphase eingeleitet."
    "DDC-Deutsch - Bereits im Jahr 2006 wurde die Dewey-Dezimalklassifikation (DDC) für die inhaltliche Erschließung der in den Reihen B (Monografien und Periodika außerhalb des Verlagsbuchhandels) und H (Hochschulschriften) der Deutschen Nationalbibliografie angezeigten Publikationen eingeführt. Mit Heft 1/2007 hat die DDC auch in der Reihe A (Monografien und Periodika des Verlagsbuchhandels) Einzug gehalten. Die dort angezeigten Publikationen werden zusätzlich wie bisher vollständig mit RSWK Schlagwortketten erschlossen. Die DNB wird damit zum größten europäischen Lieferanten von Dewey-Notationen und nimmt nach der LoC weltweit die zweite Stelle ein. Durch die Integration der Daten der DNB in den WorldCat werden Sichtbarkeit und Nutzungsmöglichkeiten dieses Angebots auch über den deutschsprachigen Raum hinaus verbessert. Um den Informationsaustausch unter den europäischen DDC-Anwendern zu verbessern, europäische Belange in der Klassifikation stärker durchzusetzen und die Verbreitung in Europa gemeinsam mit OCLC zu koordinieren, wurde die EDUG (European DDC Users' Group) gegründet."
    "CrissCross - Ende Januar 2006 startete das von der DNB und der Fachhochschule Köln gemeinsam betriebene und von der DFG geförderte Projekt CrissCross. Das Projekt soll ein multilinguales, thesaurusbasiertes und benutzergerechtes Recherchevokabular schaffen. Hierzu werden die Sachschlagwörter der Schlagwortnormdatei (SWD) mit den DDC-Notationen verbunden. Die Multilingualität wird durch die Verknüpfung mit ihren Äquivalenten in den beiden umfassenden Schlagwortnormdateien Library of Congress Subject Headings (LCSH) und Rameau (Répertoire d'autorité-matière encyclopédique et alphabétique unifié) erreicht. Die im Rahmen des Projekts erarbeiteten Festlegungen zur methodischen Vorgehensweise bei der Verknüpfung der DDC mit den SWD-Sachschlagwörtern wurden weiter präzisiert und fortentwickelt. Für die zweite Komponente des Projekts, die Anreicherung der in der Datenbank des MACS-Projekts vorliegenden Verbindungen zwischen LCSH und Rameau um den äquivalenten SWD-Terminus, wurde eine Vervollständigung und eine Verbesserung der Datenbasis erreicht und Tests der Verlinkung durchgeführt."
    "DDC-vascoda - Das Projekt DDC-vascoda wurde 2007 abgeschlossen. Für den Sucheinstieg bei vascoda wurde bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungs-)Jahr kombiniert werden kann, angeboten. Die Suche konnte zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Vascoda verwendete die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument. Ziel des Projektes DDC-vascoda war es, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Weiterhin wurde ein HTML-Dienst entwickelt, der es Fachportalen und anderen Datenanbietern ermöglicht, ohne großen Programmieraufwand ein DDC-Browsing über die eigenen Daten bereitzustellen."

Authors

Years

Languages

Types