Search (35 results, page 1 of 2)

  • × author_ss:"Wiesenmüller, H."
  • × type_ss:"a"
  1. Wiesenmüller, H.: Informationsaufbereitung I : Formale Erfassung (2004) 0.07
    0.07013473 = product of:
      0.23044269 = sum of:
        0.018799042 = weight(_text_:und in 2914) [ClassicSimilarity], result of:
          0.018799042 = score(doc=2914,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.35989314 = fieldWeight in 2914, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.031703662 = weight(_text_:informationswissenschaft in 2914) [ClassicSimilarity], result of:
          0.031703662 = score(doc=2914,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.29862255 = fieldWeight in 2914, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.05126371 = weight(_text_:katalogisierung in 2914) [ClassicSimilarity], result of:
          0.05126371 = score(doc=2914,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 2914, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.051075295 = product of:
          0.10215059 = sum of:
            0.10215059 = weight(_text_:titelaufnahme in 2914) [ClassicSimilarity], result of:
              0.10215059 = score(doc=2914,freq=2.0), product of:
                0.19056913 = queryWeight, product of:
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.023567878 = queryNorm
                0.53602904 = fieldWeight in 2914, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2914)
          0.5 = coord(1/2)
        0.05126371 = weight(_text_:katalogisierung in 2914) [ClassicSimilarity], result of:
          0.05126371 = score(doc=2914,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 2914, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.02162337 = weight(_text_:im in 2914) [ClassicSimilarity], result of:
          0.02162337 = score(doc=2914,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.32457113 = fieldWeight in 2914, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.0047139092 = product of:
          0.0094278185 = sum of:
            0.0094278185 = weight(_text_:1 in 2914) [ClassicSimilarity], result of:
              0.0094278185 = score(doc=2914,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.16284466 = fieldWeight in 2914, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2914)
          0.5 = coord(1/2)
      0.3043478 = coord(7/23)
    
    Abstract
    Formale Erfassung wird auch als formale Analyse, Formalerschließung, Formalkatalogisierung, alphabetische Katalogisierung oder Titelaufnahme bezeichnet. Dabei wird der letzte Terminus nicht nur für den Vorgang der Erfassung verwendet, sondern kann auch sein Ergebnis beschreiben. Andere Bezeichnungen dafür sind Katalogisat oder Metadaten (Daten über Daten). Unter formaler Erfassung versteht man die konsistent nach bestimmten Regeln erfolgende Beschreibung und das Wiederauffindbar-Machen von Objekten nach äußerlichen, formalen Kriterien. Gegenstand einer formalen Erfassung können Objekte aller Art sein, also beispielsweise auch die Produktionspalette eines Industrieunternehmens. Im Informations- und Dokumentationswesen bezieht sich die formale Erfassung üblicherweise auf Dokumente (z. B. Druckschriften, audiovisuelle Materialien, Archivalien, Internet-Ressourcen, Museumsobjekte), wobei je nach Dokumenttyp unterschiedliche Merkmale zu erfassen sind. Die Formalerschließung stellt seit jeher eine zentrale Aufgabe von IuD-Institutionen dar. Sie bildet sozusagen das Fundament, auf dem die inhaltliche Erschließung aufsetzt. Diese erfolgt im deutschsprachigen Raum oft erst in einem zweiten, deutlich getrennten Arbeitsschritt. Im angelsächsischen Gebiet werden hingegen formale und sachliche Erschließung typischerweise gleichzeitig und durch denselben Bearbeiter vorgenommen.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  2. Wiesenmüller, H.: Formale Erschließung (2023) 0.05
    0.053090084 = product of:
      0.203512 = sum of:
        0.03377264 = weight(_text_:buch in 784) [ClassicSimilarity], result of:
          0.03377264 = score(doc=784,freq=2.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.3082126 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.023024032 = weight(_text_:und in 784) [ClassicSimilarity], result of:
          0.023024032 = score(doc=784,freq=18.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.4407773 = fieldWeight in 784, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.031703662 = weight(_text_:informationswissenschaft in 784) [ClassicSimilarity], result of:
          0.031703662 = score(doc=784,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.29862255 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.05126371 = weight(_text_:katalogisierung in 784) [ClassicSimilarity], result of:
          0.05126371 = score(doc=784,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.05126371 = weight(_text_:katalogisierung in 784) [ClassicSimilarity], result of:
          0.05126371 = score(doc=784,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.012484257 = weight(_text_:im in 784) [ClassicSimilarity], result of:
          0.012484257 = score(doc=784,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
      0.26086956 = coord(6/23)
    
    Abstract
    Bei der formalen Erschließung bzw. Formalerschließung, die auch als formale Analyse, formale Erfassung, Formalbeschreibung oder (Formal-)Katalogisierung bezeichnet wird, "werden Ressourcen gemäß festgelegten Regeln nach äußerlichen, formalen Kriterien beschrieben und auffindbar gemacht". Diese Ressourcen können alle Arten von physischen und digitalen Objekten sein, die z. B. in Bibliotheken, Archiven, Museen oder Dokumentationsstellen gesammelt oder verzeichnet werden. Formale Aspekte bei einem gedruckten Buch sind u. a. der*die Autor*in, der Titel, der Verlag, das Erscheinungsdatum, der Umfang und die ISBN. Bei einer Skulptur sind es u. a. der*die Künstler*in, das Entstehungsdatum, Werkstoff und Technik, die Maße und die Besitzgeschichte. Bei einem im Internet zur Verfügung gestellten digitalen Foto sind es u. a. der*die Fotograf*in, der Zeitpunkt der Aufnahme und die Koordinaten des Aufnahmeorts, technische Daten zur Aufnahme (z. B. Belichtungszeit), der Dateiname, das Dateiformat und die Dateigröße sowie die URL und ggf. ein Persistent Identifier (z. B. DOI oder URN).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  3. Wiesenmüller, H.: Von Fröschen und Strategen : Ein kleiner Leitfaden zur AACR2-Debatte (2002) 0.05
    0.047055222 = product of:
      0.18037835 = sum of:
        0.018799042 = weight(_text_:und in 636) [ClassicSimilarity], result of:
          0.018799042 = score(doc=636,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.35989314 = fieldWeight in 636, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
        0.015522547 = product of:
          0.031045094 = sum of:
            0.031045094 = weight(_text_:bibliothekswesen in 636) [ClassicSimilarity], result of:
              0.031045094 = score(doc=636,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2955047 = fieldWeight in 636, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=636)
          0.5 = coord(1/2)
        0.031045094 = weight(_text_:bibliothekswesen in 636) [ClassicSimilarity], result of:
          0.031045094 = score(doc=636,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.2955047 = fieldWeight in 636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
        0.05126371 = weight(_text_:katalogisierung in 636) [ClassicSimilarity], result of:
          0.05126371 = score(doc=636,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
        0.05126371 = weight(_text_:katalogisierung in 636) [ClassicSimilarity], result of:
          0.05126371 = score(doc=636,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
        0.012484257 = weight(_text_:im in 636) [ClassicSimilarity], result of:
          0.012484257 = score(doc=636,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
      0.26086956 = coord(6/23)
    
    Abstract
    Zu den bestbesuchten Veranstaltungen des diesjährigen Bibliothekartages in Augsburg gehörte die Diskussion um die Reform der Formalerschließung. Ganz offensichtlich spielt die Katalogisierung - trotz Internet, Digitalisierung, Dublin Core etc. - im täglichen Geschäft nach wie vor eine bedeutende Rolle. Die Debatte um Regelwerke und Datenformate wird jedenfalls mit großem Ernst und Engagement geführt. Doch die Diskussion droht mittlerweile unübersichtlich zu werden, fachliche Argumente, technische Erfordernisse und bibliothekspolitische Positionen gehen munter durcheinander.
    Content
    "Bemerkenswerterweise argumentieren die RAK-Befürworter so gut wie nie formalistisch oder traditionalistisch, sondern meist pragmatisch und benutzerorientiert" - "Eine hundertprozentige Übereinstimmung von deutschen und anglo-amerikanischen Daten bliebe auch nach dem Umstieg eine Utopie. Der versprochene Effekt bei der Nachnutzung von AACR2-Datensätzen ist deshalb deutlich zu relativieren." - "Der Standardisierungsauschuss hat mit seinem Beschluss die Weiterentwicklung der RAK2 faktisch gestoppt. Aber kann es sich das deutsche Bibliothekswesen wirklich leisten, zwei Jahre lang keine eigenständige Regelwerksarbeit zu betreiben?"
  4. Wiesenmüller, H.: Zeitenwende in der Katalogisierung : vom RAK- zum RDA-Unterricht (2017) 0.03
    0.02968247 = product of:
      0.13653937 = sum of:
        0.007674677 = weight(_text_:und in 3464) [ClassicSimilarity], result of:
          0.007674677 = score(doc=3464,freq=2.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.14692576 = fieldWeight in 3464, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3464)
        0.05126371 = weight(_text_:katalogisierung in 3464) [ClassicSimilarity], result of:
          0.05126371 = score(doc=3464,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 3464, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=3464)
        0.05126371 = weight(_text_:katalogisierung in 3464) [ClassicSimilarity], result of:
          0.05126371 = score(doc=3464,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 3464, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=3464)
        0.02162337 = weight(_text_:im in 3464) [ClassicSimilarity], result of:
          0.02162337 = score(doc=3464,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.32457113 = fieldWeight in 3464, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=3464)
        0.0047139092 = product of:
          0.0094278185 = sum of:
            0.0094278185 = weight(_text_:1 in 3464) [ClassicSimilarity], result of:
              0.0094278185 = score(doc=3464,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.16284466 = fieldWeight in 3464, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3464)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Abstract
    Der Beitrag beschreibt die Umstellung der Lehre vom bisherigen Katalogisierungsregelwerk RAK auf den neuen Standard RDA im Studiengang Bibliotheksund Informationsmanagement an der Stuttgarter Hochschule der Medien (HdM). Schon seit langem wurden Informationen zu RDA in den Unterricht integriert. Seit 2014/15 beginnen die Studienanfänger mit RDA; für die "Umsteiger", die noch mit RAK begonnen hatten, gibt es besondere Angebote. Das zugrundeliegende FRBR-Modell stellt die Studierenden kaum vor Probleme. Jedoch lassen sich viele Aspekte von RDA in realen Erfassungsformaten nur schwer erkennen, weshalb im Unterricht teilweise mit formatfreien Katalogisaten in tabellarischer Form gearbeitet wird. Anders als RAK bietet RDA den Katalogisierern viele Ermessensspielraume, worauf man sich im Unterricht einstellen muss. Die älteren Standards RAK und ISBD spielen in der Lehre nur noch eine untergeordnete Rolle.
    Date
    1. 3.2017 19:31:34
  5. Woppowa, B.; Wiesenmüller, H.: Öffentliche Bibliotheken und Katalogisierung : eine Analyse der aktuellen Praxis in Deutschland (2018) 0.03
    0.028984686 = product of:
      0.22221594 = sum of:
        0.0171611 = weight(_text_:und in 4482) [ClassicSimilarity], result of:
          0.0171611 = score(doc=4482,freq=10.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.328536 = fieldWeight in 4482, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4482)
        0.10252742 = weight(_text_:katalogisierung in 4482) [ClassicSimilarity], result of:
          0.10252742 = score(doc=4482,freq=8.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.7594565 = fieldWeight in 4482, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=4482)
        0.10252742 = weight(_text_:katalogisierung in 4482) [ClassicSimilarity], result of:
          0.10252742 = score(doc=4482,freq=8.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.7594565 = fieldWeight in 4482, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=4482)
      0.13043478 = coord(3/23)
    
    Abstract
    Der Beitrag gibt einen Überblick über den aktuellen Stand der Katalogisierungspraxis öffentlicher Bibliotheken in Deutschland. Mithilfe einer Online-Befragung wurden repräsentativ ausgewählte öffentliche Bibliotheken zu ihrem Vorgehen bei der Katalogisierung befragt, z.B. zur Fremddatenübernahme und zum eingesetzten Personal. Auch die Ansichten und Einschätzungen in Bezug auf die Bedeutung der Katalogisierung und die für die Katalogisierungstätigkeit benötigten Kenntnisse und Kompetenzen wurden abgefragt. Die Ergebnisse der 187 teilnehmenden Bibliotheken zeigen auf, wie vielfältig die Katalogisierungspraxis an deutschen öffentlichen Bibliotheken ist, machen dabei aber auch deutlich, dass die Bedeutung der Katalogisierung an öffentlichen Bibliotheken viel größer ist als oftmals angenommen.
  6. Wiesenmüller, H.: Versuch eines Fazits (2002) 0.01
    0.013292036 = product of:
      0.06114337 = sum of:
        0.012532695 = weight(_text_:und in 1100) [ClassicSimilarity], result of:
          0.012532695 = score(doc=1100,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.23992877 = fieldWeight in 1100, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1100)
        0.010348365 = product of:
          0.02069673 = sum of:
            0.02069673 = weight(_text_:bibliothekswesen in 1100) [ClassicSimilarity], result of:
              0.02069673 = score(doc=1100,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.19700313 = fieldWeight in 1100, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1100)
          0.5 = coord(1/2)
        0.02069673 = weight(_text_:bibliothekswesen in 1100) [ClassicSimilarity], result of:
          0.02069673 = score(doc=1100,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.19700313 = fieldWeight in 1100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.03125 = fieldNorm(doc=1100)
        0.011770271 = weight(_text_:im in 1100) [ClassicSimilarity], result of:
          0.011770271 = score(doc=1100,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.17667414 = fieldWeight in 1100, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=1100)
        0.0057953056 = product of:
          0.011590611 = sum of:
            0.011590611 = weight(_text_:international in 1100) [ClassicSimilarity], result of:
              0.011590611 = score(doc=1100,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.14742646 = fieldWeight in 1100, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1100)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Abstract
    Von der Vielzahl der Aspekte' die in den Referaten und der Diskussion angesprochen wurden' seien im Folgenden nur die wichtigsten (in subjektiver Auswahl und Wertung) angeführt: Trotz gemeinsamer Grundlagen sind die Unterschiede zwischen den RAK und den AACR2 beträchtlich. Dies machte ein Vergleich der beiden Regelwerke deutlich' den Prof. Margarete Payer (Hochschule der Medien Stuttgart) im Allgemeinen und Ursula Hoffmann (WLB Stuttgart) speziell für den Bereich der Zeitschriften anstellte. Betroffen sind dabei sowohl allgemeine Prinzipien als auch unzählige Details' so banal diese oft auch erscheinen mögen. Dabei sind die nach dem einen Regelwerk erstellten Titelaufnahmen nicht besser' oder 'schlechter' als die anderen - sie sind einfach 'anders'. Klar wurde freilich auch' dass die Frage RAK oder AACR?' die Thematik in unzulässiger Weise verkürzt. Die beiden Systeme muss man sich vielmehr als Endpunkte auf einer Skala vorstellen' zwischen denen vielerlei Varianten denkbar sind. Schon die Ergebnisse der bisherigen RAK2-Arbeit, die Monika Münnich (UB Heidelberg) vorstellte' sind beeindruckend. Mancher Zuhörer staunte ob der keineswegs zaghaften Einschnitte der Entwickler hin zu einem schlanken' modernen und international kompatiblen Regelwerk. Auch für die nächsten Schritte gibt es konkrete Überlegungen. Anzustreben ist dabei - wie Frau Münnich erläuterte - vor allem die Angleichung der sogenannten 'Entitäten': Es geht also nicht um Gleichmacherei an der Oberfläche (z. B. durch identische Ansetzungen)' sondern um strukturelle Anpassungen' die eine entsprechende 'Übersetzung' vom einen ins andere System ermöglichen (z. B. über virtuelle Normdateien). Die Umsetzung solcher Ideen in die Praxis dürfte freilich nicht immer einfach sein: Als besonderer Knackpunkt entpuppte sich die Individualisierung von Autorennamen, die einige Teilnehmer für zu aufwändig hielten. Einigkeit hingegen herrschte darüber' dass die Arbeit an den RAK2 schnellstmöglich wieder aufgenommen werden müsse - und zwar nicht nur bei besonders dringlichen Punkten (wie es der Beschluss vom 6. Dezember vorsieht)' sondern mit voller Kraft.
    Footnote
    Teil eines Heftschwerpunktes: 'Amerikanische Standards für das deutsche Bibliothekswesen?: RAK - AACR2'
  7. Wiesenmüller, H.: Verbale Erschließung in Katalogen und Discovery-Systemen : Überlegungen zur Qualität (2021) 0.01
    0.012492292 = product of:
      0.071830675 = sum of:
        0.019186692 = weight(_text_:und in 374) [ClassicSimilarity], result of:
          0.019186692 = score(doc=374,freq=18.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.3673144 = fieldWeight in 374, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.021398142 = product of:
          0.042796284 = sum of:
            0.042796284 = weight(_text_:kataloge in 374) [ClassicSimilarity], result of:
              0.042796284 = score(doc=374,freq=2.0), product of:
                0.1351219 = queryWeight, product of:
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.023567878 = queryNorm
                0.31672353 = fieldWeight in 374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=374)
          0.5 = coord(1/2)
        0.02326304 = weight(_text_:im in 374) [ClassicSimilarity], result of:
          0.02326304 = score(doc=374,freq=10.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.34918293 = fieldWeight in 374, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.007982805 = product of:
          0.01596561 = sum of:
            0.01596561 = weight(_text_:22 in 374) [ClassicSimilarity], result of:
              0.01596561 = score(doc=374,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.19345059 = fieldWeight in 374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=374)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Beschäftigt man sich mit Inhaltserschließung, so sind zunächst zwei Dimensionen zu unterscheiden - die Wissensorganisationssysteme selbst (z. B. Normdateien, Thesauri, Schlagwortsprachen, Klassifikationen und Ontologien) und die Metadaten für Dokumente, die mit diesen Wissensorganisationssystemen erschlossen sind. Beides steht in einer Wechselwirkung zueinander: Die Wissensorganisationssysteme sind die Werkzeuge für die Erschließungsarbeit und bilden die Grundlage für die Erstellung konkreter Erschließungsmetadaten. Die praktische Anwendung der Wissensorganisationssysteme in der Erschließung wiederum ist die Basis für deren Pflege und Weiterentwicklung. Zugleich haben Wissensorganisationssysteme auch einen Eigenwert unabhängig von den Erschließungsmetadaten für einzelne Dokumente, indem sie bestimmte Bereiche von Welt- oder Fachwissen modellartig abbilden. Will man nun Aussagen über die Qualität von inhaltlicher Erschließung treffen, so genügt es nicht, den Input - also die Wissensorganisationssysteme und die damit generierten Metadaten - zu betrachten. Man muss auch den Output betrachten, also das, was die Recherchewerkzeuge daraus machen und was folglich bei den Nutzer:innen konkret ankommt. Im vorliegenden Beitrag werden Überlegungen zur Qualität von Recherchewerkzeugen in diesem Bereich angestellt - gewissermaßen als Fortsetzung und Vertiefung der dazu im Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) gegebenen Hinweise. Im Zentrum steht die verbale Erschließung nach den Regeln für die Schlagwortkatalogisierung (RSWK), wie sie sich in Bibliothekskatalogen manifestiert - gleich, ob es sich dabei um herkömmliche Kataloge oder um Resource-Discovery-Systeme (RDS) handelt.
    Date
    24. 9.2021 12:22:02
    Footnote
    Anmerkung: Früher wäre es im RSWK-Kontext aufgefallen, dass es sich bei einer Wortschöpfung 'Erschließungsmetadaten' um einen Pleonasmus handelt.
    Series
    Bibliotheks- und Informationspraxis; 70
    Theme
    Verbale Doksprachen im Online-Retrieval
  8. Syré, L.; Wiesenmüller, H.: ¬Die Virtuelle Deutsche Landesbibliographie : Metasuchmaschine für Landes- und Regionalbibliographien (2003) 0.01
    0.009422151 = product of:
      0.07223649 = sum of:
        0.01790758 = weight(_text_:und in 1928) [ClassicSimilarity], result of:
          0.01790758 = score(doc=1928,freq=8.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.34282678 = fieldWeight in 1928, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1928)
        0.018109638 = product of:
          0.036219276 = sum of:
            0.036219276 = weight(_text_:bibliothekswesen in 1928) [ClassicSimilarity], result of:
              0.036219276 = score(doc=1928,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.34475547 = fieldWeight in 1928, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1928)
          0.5 = coord(1/2)
        0.036219276 = weight(_text_:bibliothekswesen in 1928) [ClassicSimilarity], result of:
          0.036219276 = score(doc=1928,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.34475547 = fieldWeight in 1928, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1928)
      0.13043478 = coord(3/23)
    
    Abstract
    Die 15 laufenden deutschen Landesbibliographien dokumentieren die Literatur über die einzelnen Länder, ihre Regionen, Orte und Persönlichkeiten in regelmäßig erscheinenden Bibliographien. Neben bzw. an die Stelle der gedruckten Bibliographie ist die Online-Datenbank getreten, die über das Internet weltweit zur Verfügung steht. Die nach der Methode des KVK funktionierende Virtuelle Deutsche Landesbibliographie fasst diese Internet-Datenbanken nun unter einer gemeinsamen Suchoberfläche zusammen. Sie ermöglicht die Abfrage gleich mehrerer Bibliographien in einem Schritt und vergrößert die Treffermenge bei länderübergreifenden, regional unspezifischen sowie biographischen Fragestellungen.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.5, S.251-259
  9. Wiesenmüller, H.: Daten härter arbeiten lassen und besser präsentieren : Sacherschließung und Normdaten in Online-Katalogen (2010) 0.01
    0.008938403 = product of:
      0.051395815 = sum of:
        0.015665868 = weight(_text_:und in 2902) [ClassicSimilarity], result of:
          0.015665868 = score(doc=2902,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.29991096 = fieldWeight in 2902, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2902)
        0.021398142 = product of:
          0.042796284 = sum of:
            0.042796284 = weight(_text_:kataloge in 2902) [ClassicSimilarity], result of:
              0.042796284 = score(doc=2902,freq=2.0), product of:
                0.1351219 = queryWeight, product of:
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.023567878 = queryNorm
                0.31672353 = fieldWeight in 2902, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2902)
          0.5 = coord(1/2)
        0.010403548 = weight(_text_:im in 2902) [ClassicSimilarity], result of:
          0.010403548 = score(doc=2902,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.15615936 = fieldWeight in 2902, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2902)
        0.0039282576 = product of:
          0.007856515 = sum of:
            0.007856515 = weight(_text_:1 in 2902) [ClassicSimilarity], result of:
              0.007856515 = score(doc=2902,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.13570388 = fieldWeight in 2902, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2902)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Mit dem Umstieg von konventionellen Zettelkatalogen auf Online-Kataloge ist - so die gängige Meinung - alles viel einfacher und komfortabler geworden. Wirklich? Bei der inhaltlichen Recherche scheint im Opac vieles eher schwieriger geworden zu sein. Dies liegt nicht etwa an einem Versagen der Regelwerke, sich auf die Online-Umgebung einzustellen, sondern vor allem daran, dass man sich viel zu wenig darum bemüht hat, adäquate Formen für Recherche und Anzeige von Sacherschließungsdaten in Online-Katalogen zu finden. Auch das Potenzial der bibliothekarischen Normdateien wird in den Online-Katalogen bisher nur bruchstückhaft ausgeschöpft. Ein erschreckend hoher Anteil der bibliothekarischen Erschließungsleistung kommt nicht bei unseren Kunden an - können wir uns das wirklich leisten? Es ist überfällig, sich intensiv mit der Gestaltung unserer Retrievalwerkzeuge zu beschäftigen, um das Input-Output-Verhältnis unserer Dienstleistung in eine gesunde Balance zu bringen und einen echten Mehrwert für unsere Benutzer zu schaffen. Neben vielen anderen wichtigen Aspekten, die man gemeinhin mit dem »Katalog 2.0« oder »next generation catalogue« verbindet, muss deshalb der bibliothekarischen Sacherschließung und den Normdateien besondere Aufmerksamkeit gelten: Die Daten müssen nicht nur besser präsentiert werden, man muss sie auch »härter arbeiten« lassen als bisher.
    Source
    BuB. 62(2010) H.1, S.48-54
  10. Wiesenmüller, H.: Schlagwortketten in Online-Katalogen : Realität und Potenzial (2008) 0.01
    0.007795598 = product of:
      0.05976625 = sum of:
        0.013536857 = weight(_text_:und in 2410) [ClassicSimilarity], result of:
          0.013536857 = score(doc=2410,freq=14.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.25915268 = fieldWeight in 2410, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2410)
        0.024209233 = product of:
          0.048418466 = sum of:
            0.048418466 = weight(_text_:kataloge in 2410) [ClassicSimilarity], result of:
              0.048418466 = score(doc=2410,freq=4.0), product of:
                0.1351219 = queryWeight, product of:
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.023567878 = queryNorm
                0.35833174 = fieldWeight in 2410, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2410)
          0.5 = coord(1/2)
        0.022020161 = weight(_text_:im in 2410) [ClassicSimilarity], result of:
          0.022020161 = score(doc=2410,freq=14.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.33052707 = fieldWeight in 2410, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=2410)
      0.13043478 = coord(3/23)
    
    Abstract
    Das Prinzip, zur Wiedergabe eines komplexen Gegenstands mehrere Schlagwörter in Form einer Schlagwortkette zu verknüpfen, gehört zum zentralen Kern der 'Regeln für den Schlagwortkatalog' (RSWK). Während die Bildung solcher Schlagwortketten - also der Input - umfassend geregelt ist, verzichtet das Regelwerk jedoch darauf, auch für den Output nähere Vorgaben zu machen: "Die Gestaltung des Retrievals von Schlagwörtern und ihrer Anzeige im Online-Katalog" sei "Aufgabe des jeweiligen OPACs", weshalb man sich auf "einzelne Hinweise" beschränke (§ 20,1). Explizit genannt werden immerhin die "Suche nach Schlagwortketten" und das Browsing im Schlagwortkettenindex (5 20,5). Freilich ist seit langem bekannt, dass Schlagwortketten in vielen OPACs recht 'stiefmütterlich' behandelt werden. Eine aussagekräftige Bestandsaufnahme über die tatsächliche Nutzung der Schlagwortketten in aktuellen OPACs fehlte jedoch. Eine solche hat die Verfasserin im Februar 2008 unternommen. Den Hintergrund dafür bildeten die Überlegungen der vom Standardisierungsausschuss eingesetzten Ad-hoc-Arbeitsgruppe "Strategie der Sacherschließung" unter dem Vorsitz von Dr. Friedrich Geißelmann (UB Regensburg). In diesem Rahmen wurde auch über Wege diskutiert, um das große Potenzial der Schlagwortketten besser für das Retrieval nutzbar zu machen. Für die Untersuchung wurden - ohne Anspruch auf Vollständigkeit - 40 Online-Kataloge mit Schlagwortkettenfunktionalitäten analysiert. Zehn unterschiedliche Katalogsysteme waren dabei vertreten: Aleph, Allegro, Biber, Bond, Horizon, Libero, PICA, SISIS-Sunrise, Urica und Virtua. Eine Liste der betrachteten OPACs inkl. ihrer URLs und der im Folgenden verwendeten Siglen ist im Anhang zu finden. Die Darstellung stellt zwangsläufig eine Momentaufnahme dar, denn die OPACs sind natürlich keine statischen Systeme: Schon bei Abfassung des vorliegenden Beitrags im Juli 2008 waren einige Änderungen einzuarbeiten, die sich seit Februar ergeben hatten; weitere Umgestaltungen der Kataloge sind nur eine Frage der Zeit. Desungeachtet gibt die Studie einen Überblick über derzeit implementierte Funktionalitäten sowie aktuelle Trends, und ermöglicht auch das Aufzeigen von Problemfeldern und Verbesserungsmöglichkeiten.
    Theme
    Verbale Doksprachen im Online-Retrieval
  11. Wiesenmüller, H.: Vier Thesen (2003) 0.01
    0.006594596 = product of:
      0.05055857 = sum of:
        0.016969351 = weight(_text_:und in 3362) [ClassicSimilarity], result of:
          0.016969351 = score(doc=3362,freq=22.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.3248651 = fieldWeight in 3362, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3362)
        0.01441558 = weight(_text_:im in 3362) [ClassicSimilarity], result of:
          0.01441558 = score(doc=3362,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.21638076 = fieldWeight in 3362, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=3362)
        0.01917364 = sum of:
          0.0062852125 = weight(_text_:1 in 3362) [ClassicSimilarity], result of:
            0.0062852125 = score(doc=3362,freq=2.0), product of:
              0.057894554 = queryWeight, product of:
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.023567878 = queryNorm
              0.1085631 = fieldWeight in 3362, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.03125 = fieldNorm(doc=3362)
          0.012888429 = weight(_text_:29 in 3362) [ClassicSimilarity], result of:
            0.012888429 = score(doc=3362,freq=2.0), product of:
              0.08290443 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.023567878 = queryNorm
              0.15546128 = fieldWeight in 3362, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.03125 = fieldNorm(doc=3362)
      0.13043478 = coord(3/23)
    
    Abstract
    Was brauchen unsere Benutzer wirklich? Angesichts begrenzter Ressourcen hat diese Frage im Mittelpunkt unserer Überlegungen zu stehen. Das Ergebnis müssen pragmatische Strategien für die Bibliotheken sein. Anstatt visionäre Ideen vorzutragen, wie eine ideale Erschließung in einer fernen Zukunft aussehen könnte, seien deshalb vier recht simple Thesen formuliert.
    Content
    "1. These: Bibliotheken und Benutzer brauchen keinen neuen Katalogbruch, sondern eine sinnvolle Weiterentwicklung des Vorhandenen! 2. These: Besser irgendeine Sacherschließung als überhaupt keine! 3. These: Die beste Erschließung nützt nichts, wenn sie den Benutzern nicht angemessen präsentiert wird! 4. These: Bibliotheken müssen die wachsende Vielfalt vorhandener Daten akzeptieren und das Beste daraus machen!"
    Footnote
    Vgl. auch die Kommentierung von E. Plassmann in einer Rezension in ZfBB 52(2005) H.2, S.99: Vieles wirkt erfrischend. Um das heftig umstrittene Thema RAK und AACR herauszugreifen,das imTagungsband ganz vorne steht: Auf die knappe, gleichwohl qualifizierte und nachdenkliche Einführung von Ulrich Hohoff folgen kurze, unbefangen kritische Statements von der Art, die man sich in der Fachdiskussion öfter wünschte - ohne die verbreitete, nicht selten pharisäische correctness. Bernhard Eversberg wird vielen Kolleginnen und Kollegen aus der Seele gesprochen haben, wenn er sagt: »Das Katalogisierungspersonal sollte frühzeitig die Möglichkeit zum Einblick in neue Texte und Entwürfe haben. Engagierte Mitarbeiterinnen wünschen sich Möglichkeiten, eigene Erfahrungen, Meinungen und Fragen einzubringen.« Oder, wenn er feststellt: »Technische Verbesserungen sind aber kein Ziel an sich. Wichtig ist zuallererst, die eigentlichen Ziele des Katalogisierens neu zu überdenken, zu erweitern oder zu modifizieren. Dies kann eine neue technische Grundlage nur unterstützen, nicht ersetzen. Zu den neuen Herausforderungen gehören vernetzte, internationalisierte Normdateien.« (beide Zitate S.75) - In eine etwas andere Richtung pointiert Heidrun Wiesenmüller das Thema: »Der Plan eines Umstiegs auf AACR2/MARC stellt nicht zuletzt den anachronistischen Versuch dar, eine heterogene Datenwelt durch Verordnung eines Standards von oben zu vereinheitlichen. Eine zeitgemäße Lösung kann jedoch nur darin bestehen, Tools und Informationssysteme auf Meta-Ebene zu entwickeln.« (S. 79) Dem ist zu diesem Thema nichts hinzuzufügen.
    Imprint
    Jülich : ASpB / Sektion 5 im DBV
    Source
    Bibliotheken und Informationseinrichtungen - Aufgaben, Strukturen, Ziele: 29. Arbeits- und Fortbildungstagung der ASpB / Sektion 5 im DBV in Zusammenarbeit mit der BDB, BIB, DBV, DGI und VDB, zugleich DBV-Jahrestagung, 8.-11.4.2003 in Stuttgart. Red.: Margit Bauer
  12. Hasubick, J.; Wiesenmüller, H.: RVK-Registerbegriffe in der Katalogrecherche : Chancen und Grenzen (2022) 0.01
    0.006142028 = product of:
      0.047088884 = sum of:
        0.018799042 = weight(_text_:und in 538) [ClassicSimilarity], result of:
          0.018799042 = score(doc=538,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.35989314 = fieldWeight in 538, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=538)
        0.02162337 = weight(_text_:im in 538) [ClassicSimilarity], result of:
          0.02162337 = score(doc=538,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.32457113 = fieldWeight in 538, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=538)
        0.0066664745 = product of:
          0.013332949 = sum of:
            0.013332949 = weight(_text_:1 in 538) [ClassicSimilarity], result of:
              0.013332949 = score(doc=538,freq=4.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.23029712 = fieldWeight in 538, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=538)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Die Registerbegriffe der Regensburger Verbundklassifikation (RVK) werden bisher in der Regel nur für die Suche nach passenden Systemstellen verwendet. Die vor einigen Jahren erfolgte Verknüpfung der RVK mit der Gemeinsamen Normdatei (GND) und die Aufbereitung der RVK als Normdatei lassen es jedoch denkbar erscheinen, die Registerbegriffe auch im Rahmen der Katalogrecherche zu nutzen - insbesondere für weiterführende und explorierende Recherchen im Anschluss an eine "known-item search". Der Aufsatz stellt die Ergebnisse einer Studie zu einer möglichen Einbindung von RVK-Registerbegriffen in die Katalogrecherche am Beispiel des K10plus vor. Dabei wurde für Notationsstichproben aus fünf Fachsystematiken sowohl der quantitative als auch der qualitative Mehrwert einer Recherche mit entsprechenden Registerbegriffen ermittelt. Es ergaben sich drei Kategorien von Notationen und ihren Registereinträgen: eindeutig geeignete, eindeutig nicht geeignete und ein großer Teil von Fällen, die nur nach umfassenden Vorarbeiten sinnvoll eingebunden werden könnten. Die herausgearbeiteten Fall-Cluster geben einen Überblick über die Chancen und Grenzen einer möglichen Einbindung der RVK-Registerbegriffe in die Katalogrecherche.
    Source
    o-bib: Das offene Bibliotheksjournal. 9(2022) Nr.1, S.1-19
    Theme
    Klassifikationssysteme im Online-Retrieval
  13. Wiesenmüller, H.: Erste Erfahrungen mit RDA an wissenschaftlichen Universalbibliotheken in Deutschland : Ergebnisse aus Fokusgruppengesprächen mit Katalogisierenden (2017) 0.01
    0.005426863 = product of:
      0.041605953 = sum of:
        0.015508419 = weight(_text_:und in 3565) [ClassicSimilarity], result of:
          0.015508419 = score(doc=3565,freq=6.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.2968967 = fieldWeight in 3565, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3565)
        0.020597974 = weight(_text_:im in 3565) [ClassicSimilarity], result of:
          0.020597974 = score(doc=3565,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.30917975 = fieldWeight in 3565, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3565)
        0.005499561 = product of:
          0.010999122 = sum of:
            0.010999122 = weight(_text_:1 in 3565) [ClassicSimilarity], result of:
              0.010999122 = score(doc=3565,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.18998542 = fieldWeight in 3565, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3565)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Einige Monate nach dem Umstieg auf das neue Regelwerk "Resource Description and Access" (RDA) wurden an 18 großen deutschen wissenschaftlichen Universalbibliotheken Fokusgruppengespräche mit Katalogisierererinnen und Katalogisierern durchgeführt. Die Katalogisierenden wurden u.a. befragt, wie sicher sie sich bei der Anwendung von RDA fühlen, was sie am neuen Regelwerk gut oder schlecht finden, wie sie den Aufwand im Vergleich zum früheren Regelwerk RAK einschätzen, welche Informations- und Hilfsmittel sie verwenden und wie sie zu den regelmäßigen Änderungen im Standard stehen. Der vorliegende Aufsatz dokumentiert die Ergebnisse der Gespräche.
    Source
    o-bib: Das offene Bibliotheksjournal. 4(2017) Nr.1, S.170-200
  14. Wiesenmüller, H.: AACR und kein Ende? : Ein kritischer Rück- und Ausblick auf die Regelwerksdiskussion (2005) 0.01
    0.005119493 = product of:
      0.03924945 = sum of:
        0.018447628 = weight(_text_:und in 3426) [ClassicSimilarity], result of:
          0.018447628 = score(doc=3426,freq=26.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.3531656 = fieldWeight in 3426, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3426)
        0.01441558 = weight(_text_:im in 3426) [ClassicSimilarity], result of:
          0.01441558 = score(doc=3426,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.21638076 = fieldWeight in 3426, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=3426)
        0.006386244 = product of:
          0.012772488 = sum of:
            0.012772488 = weight(_text_:22 in 3426) [ClassicSimilarity], result of:
              0.012772488 = score(doc=3426,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.15476047 = fieldWeight in 3426, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3426)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Nach einer zeitweise sehr heftig geführten Debatte um die Zukunft der Regelwerke schien der Umstieg von RAK auf die Anglo-American Cataloguing Rules (AACR) in weite Ferne gerückt zu sein. Zu stark war die Gegenwehr vor allem bei den Spezialisten aus der bibliothekarischen Praxis, die sich von einem Wechsel keine großen Vorteile für die Verbundkatalogisierung und Opac-Recherche versprachen. Die Kritiker monierten zudem, dass der Umstellungsaufwand vordem Hintergrund knapper Finanzen vor allem für die kleineren Bibliotheken kaum zu schultern sei. Der Umstieg auf AACR und MARC bleibt dennoch ein Dauerbrenner: Durch die internationale Fachdiskussion um gemeinsame Regelwerke hat das Thema in jüngster Zeit wieder neue Nahrung bekommen. Im Mai des vergangenen Jahres ging ein kollektives Aufatmen durch die Bibliothekswelt: Einen Umstieg auf AACR2 - so wurde kolportiert - werde es nicht geben, das Projekt sei »gestorben«. Die offizielle Sprachregelung des Standardisierungsausschusses freilich gab schon damals Anlass zur Skepsis: »Nach Aussage der Studie stehen einem Umstieg keine grundsätzlichen Hindernisse entgegen, statt dessen werden Vorteile eines Umstiegs aufgezeigt. Die Befürworter sehen jedoch zurzeit keine Möglichkeit, einen Umstieg generell durchzusetzen, und sprechen sich für eine schrittweise Internationalisierung des deutschen Regelwerks aus.« Es war daher damit zu rechnen, dass das Thema eher früher als später wieder aus der Schublade gezogen würde. Und tatsächlich: Schon bei der nächsten Sitzung im Dezember 2004 lag der Vorschlag auf dem Tisch, ein neues Regelwerk auf der Basis einer deutschen AACR-Übersetzung zu erarbeiten. Zwar wurde dieser sehr radikale Antrag zurückgezogen; nichtsdestoweniger wurden mit der Umstellung auf MARC21 und der Einführung von Deutsch als Ansetzungssprache Beschlüsse von weitreichender Konsequenz gefasst. Trotz der verständlichen Ermüdungserscheinungen, mit denen viele Kolleginnen und Kollegen der anhaltenden Regelwerksdiskussion mittlerweile begegnen, seien deshalb im Folgenden einige wichtige Entwicklungen und Ergebnisse der vergangenen Zeit nachgezeichnet und kommentiert.
    Content
    Nachtrag in BuB 57(2005) H.5, S.324: "AACR und kein Ende? Heidrun Wiesenmüllers kritischer Rück- und Ausblick auf die Regelwerksdiskussion, »AACR und kein Ende?«, ist in BuB Heft 3/2005 (Seite 198 bis 204) wegen einer technischen Panne ohne die zugehörigen Fußnoten publiziert worden. Die vollständige Fassung ist online verfügbar unter <www.bibliothek.uni-augsburg.de/kfe/mat/Wiesenmueller_BuB_57_3.pdf>."
    Date
    22. 5.2005 19:39:44
  15. Wiesenmüller, H.: ¬Das neue Sacherschließungskonzept der DNB in der FAZ (2017) 0.00
    0.0047909324 = product of:
      0.036730483 = sum of:
        0.018089388 = weight(_text_:und in 3777) [ClassicSimilarity], result of:
          0.018089388 = score(doc=3777,freq=16.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.34630734 = fieldWeight in 3777, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3777)
        0.014712838 = weight(_text_:im in 3777) [ClassicSimilarity], result of:
          0.014712838 = score(doc=3777,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.22084267 = fieldWeight in 3777, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3777)
        0.0039282576 = product of:
          0.007856515 = sum of:
            0.007856515 = weight(_text_:1 in 3777) [ClassicSimilarity], result of:
              0.007856515 = score(doc=3777,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.13570388 = fieldWeight in 3777, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3777)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    "Im Mai veröffentlichte die DNB ein neues Sacherschließungskonzept unter dem Titel Grundzüge und erste Schritte der künftigen inhaltlichen Erschließung von Publikationen in der Deutschen Nationalbibliothek (vgl. außerdem die Mitteilung zu den Änderungen ab September 2017 auf der DNB-Website). Ich hatte bisher den Eindruck, dass die dort angekündigten, durchaus einschneidenden Änderungen in der bibliothekarischen Öffentlichkeit bisher kaum zur Kenntnis genommen worden sind."
    Content
    Vgl. auch: Im " Newsletter Standardisierung und Erschließung Nr. 35, August 2017 [http://d-nb.info/1137843217/34] wird auf das GND-Entwicklungsprogramm 2017-2021 verwiesen: https://wiki.dnb.de/download/attachments/125418325/GND_Entwicklungsprogramm17-21_2017-06.pdf?version=1&modificationDate=1496747446000&api=v2 Ab Seite 12: "....zurück in die spartenspezifischen Standardisierungsgremien gespielt werden. Ein weiterer ungeklärter Bereich ist der Umgang mit automatisierter Datenerzeugung: Bei GND-Partnern kommen zunehmend auch maschinelle Verfahren zum Einsatz. Die GND muss sich zu dieser Entwicklung positionieren und klären, auf welche Weise sie automatisierte Prozesse unterstützen kann, ohne dabei die Verlässlichkeit und Qualität der GND zu verwässern. Wichtigstes Konzept, um den unterschiedlichen Interessen gerecht zu werden, ist die Einführung von Anwendergruppen und gruppenspezifischer Bereiche und Sichten: Einige Datenbereiche sind Teil eines von allen Anwendern spartenübergreifend gepflegten und redaktionell bearbeiteten Datensets (GND-CORE), andere Teile werden von den verschiedenen Anwendergruppen gegenseitig als optionale Ergänzungen begriffen, die genutzt werden können, aber redaktionell unabhängig sind (GND-PLUS). Weiterhin müssen ausgefeilte Bearbeitungsrichtlinien und Workflows geschaffen werden......" [Posting Inetbib von A. Meyer vom 09.08.2017].
  16. Wiesenmüller, H.: ¬Der RDA-Umstieg in Deutschland : Herausforderungen für das Metadatenmanagement (2015) 0.00
    0.0042453283 = product of:
      0.03254752 = sum of:
        0.015349354 = weight(_text_:und in 2149) [ClassicSimilarity], result of:
          0.015349354 = score(doc=2149,freq=8.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.29385152 = fieldWeight in 2149, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2149)
        0.012484257 = weight(_text_:im in 2149) [ClassicSimilarity], result of:
          0.012484257 = score(doc=2149,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 2149, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=2149)
        0.0047139092 = product of:
          0.0094278185 = sum of:
            0.0094278185 = weight(_text_:1 in 2149) [ClassicSimilarity], result of:
              0.0094278185 = score(doc=2149,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.16284466 = fieldWeight in 2149, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2149)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Der Umstieg der deutschsprachigen Länder auf den neuen Katalogisierungsstandard RDA wirft die Frage auf, wie mit den gemäß RAK erschlossenen Altdaten umgegangen werden soll. Der vorliegende Beitrag untersucht aus datentechnischer Sicht, ob bzw. inwieweit RAK-Katalogisate (Titel- und Normdatensätze) mit maschinellen Mitteln auf RDA angehoben werden könnten. Beispielhaft betrachtet werden dabei u. a. die zu übertragenden Elemente in der bibliografischen Beschreibung, der Inhaltstyp sowie die Aufspaltung in getrennte bibliografische Identitäten im Fall von Pseudonymen. Es wird gezeigt, dass RDA-Upgrades möglich, aber hochkomplex sind.
    Content
    Beim vorliegenden Beitrag handelt es sich um die erweiterte und aktualisierte Fassung eines Vortrags, der am 5. Dezember 2014 auf dem Symposium "Forschung für die Praxis - Perspektiven für Bibliotheks- und Informationsmanagement" an der Hochschule der Medien in Stuttgart gehalten wurde. Vortragsfolien unter https://www.hdm-stuttgart.de/ bi/symposium/skripte/Wiesenmueller_RDA-Umstieg_Forum1_14-12-05.pdf (10.05.2015). Vgl. auch den Veranstaltungsbericht: Vonhof, Cornelia; Stang, Richard; Wiesenmüller, Heidrun: Forschung für die Praxis - Perspektiven für Bibliotheks- und Informationsmanagement. In: o-bib 2 (2015), H. 1, S. 68-74. http://dx.doi.org/10.5282/o-bib/2015H1S6. Vgl.: http://dx.doi.org/10.5282/o-bib/2015H2.
  17. Wiesenmüller, H.; Pfeffer, M.: Abgleichen, anreichern, verknüpfen : das Clustering-Verfahren - eine neue Möglichkeit für die Analyse und Verbesserung von Katalogdaten (2013) 0.00
    0.0036459703 = product of:
      0.041928656 = sum of:
        0.020305287 = weight(_text_:und in 1275) [ClassicSimilarity], result of:
          0.020305287 = score(doc=1275,freq=14.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.38872904 = fieldWeight in 1275, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1275)
        0.02162337 = weight(_text_:im in 1275) [ClassicSimilarity], result of:
          0.02162337 = score(doc=1275,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.32457113 = fieldWeight in 1275, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=1275)
      0.08695652 = coord(2/23)
    
    Abstract
    Ein vergleichsweise einfaches Verfah ren bildet die Grundlage: Über einen Abgleich einiger weniger Kategorien lassen sich mit großer Zuverlässigkeit diejenigen bibliografischen Datensätze aus einem Datenpool (der auch aus mehreren Katalogen bestehen kann) zusammenführen, die zum selben Werk gehören. Ein solches Werk-Cluster umfasst dann unterschiedliche Ausgaben und Auflagen eines Werkes ebenso wie Übersetzungen. Zu einem Cluster gehören alle Datensätze, die im Einheitssachtitel beziehungsweise in Sachtitel und Zusätzen übereinstimmen und mindestens eine verknüpfte Person oder Körperschaft gemeinsam haben.
    Footnote
    Neben den gewohnten Vortragsveranstaltungen in großen Sälen wartete der Leipziger Bibliothekskongress im März 2013 mit einem neuen Veranstaltungsformat auf: Verschiedene Workshops boten die Gelegenheit, Themen intensiv zu beleuchten und in kleinen Gruppen zu diskutieren. Einer dieser Workshops wurde von den Autoren des vorliegenden Beitrags gestaltet und war neuartigen Möglichkeiten für die Analyse und Verbesserung von Katalogdaten gewidmet. Als dritter Referent wurde Markus Geipel von der Deutschen Nationalbibliothek (DNB) über Google Hangout virtuell zugeschaltet. Initiiert wurde die Veranstaltung von der AG Bibliotheken der Deutschen Gesellschaft für Klassifikation, die damit an ihre Hildesheimer Tagung von 2012 anknüpfte' Im Folgenden werden die wichtigsten Ergebnisse zusammengefasst.
  18. Wiesenmüller, H.: Langzeitarchivierung von Online-Publikationen an Regionalbibliotheken : Das Projekt 'Baden-Württembergisches Online-Archiv' (BOA) (2004) 0.00
    0.0034114055 = product of:
      0.039231163 = sum of:
        0.021211687 = weight(_text_:und in 2283) [ClassicSimilarity], result of:
          0.021211687 = score(doc=2283,freq=22.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.40608138 = fieldWeight in 2283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2283)
        0.018019475 = weight(_text_:im in 2283) [ClassicSimilarity], result of:
          0.018019475 = score(doc=2283,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.27047595 = fieldWeight in 2283, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2283)
      0.08695652 = coord(2/23)
    
    Abstract
    Elektronisches Publizieren im Internet ist heute in vielen Bereichen Realität geworden - bei der 'grauen Literatur` vielleicht mehr noch als bei den Verlagen. Immer häufiger erhält man z. B. bei Zeitschriften die Auskunft "erscheint nur noch online". Dabei sind es keineswegs nur Mitteilungsblätter und Jahresberichte kleiner Vereine, die nicht mehr gedruckt werden - auch eine Institution wie beispielsweise das Statistische Landesamt Baden-Württemberg will wichtige Publikationen wie die Statistischen Berichte` künftig ausschließlich im Internet anbieten. Ebenso ist es bei der Arbeit in den bibliographischen Stellen (z. B. Landesbibliographie, Hölderlin-Bibliographie), Sonderabteilungen und Fachreferaten alltäglich geworden, auf einschlägige und inhaltlich substanzielle Online-Ressourcen zu stoßen, die man gerne festhalten und dauerhaft archivieren würde. Der praktische Umgang damit war bisher jedoch meist von einer gewissen Hilflosigkeit geprägt; die Materialien wurden - mit wenigen Ausnahmen' - allenfalls in Linklisten aufgenommen oder gar auf Papier ausgedruckt. Gleichzeitig wuchs in den vergangenen Jahren die Einsicht, dass - trotz aller technischen Schwierigkeiten und der allgegenwärtigen Personalknappheit - der Sammel- und Archivierungsauftrag der regionalen Pflichtexemplarbibliotheken vor den Netzpublikationen nicht Halt machen dürfe. Die beiden badenwürttembergischen Landesbibliotheken in Karlsruhe und Stuttgart wollten sich der neuen Verantwortung offensiv stellen, wobei sich als natürlicher Kooperationspartner das Bibliotheksservice-Zentrum in Konstanz anbot. Im Oktober 2002 - kurz vor dem von Der Deutschen Bibliothek initiierten Workshop 'Langzeitverfügbarkeit elektronischer Dokumente' - wurde deshalb eine Vereinbarung zwischen der Badischen Landesbibliothek (BLB), der Württembergischen Landesbibliothek (WLB) und dem Bibliotheksservice-Zentrum Baden-Württemberg (BSZ) geschlossen. Das Ziel war die gemeinsame Entwicklung einer technischen Plattform und eines Geschäftsgangs für die Erschließung und Speicherung relevanter Netzpublikationen. Seit Herbst 2003 trägt das Projekt den Namen 'Baden-Württembergisches Online-Archiv' (BOA) und ist unter der URL http://www.boa-bw.de erreichbar
  19. Wiesenmüller, H.: Zehn Jahre 'Functional Requirements for Bibliographic Records' (FRBR) : Vision, Theorie und praktische Anwendung (2008) 0.00
    0.0032270856 = product of:
      0.037111484 = sum of:
        0.020465806 = weight(_text_:und in 4586) [ClassicSimilarity], result of:
          0.020465806 = score(doc=4586,freq=8.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.39180204 = fieldWeight in 4586, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4586)
        0.016645677 = weight(_text_:im in 4586) [ClassicSimilarity], result of:
          0.016645677 = score(doc=4586,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.24985497 = fieldWeight in 4586, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=4586)
      0.08695652 = coord(2/23)
    
    Abstract
    Mithilfe der FRBR, an denen sich auch das neue Regelwerk RDA orientiert, sollen Katalognutzer auf neuartige Weise im 'bibliographischen Universum' navigieren können. Der Beitrag erläutert und diskutiert einerseits die zentralen Elemente des theoretischen Modells, andererseits die Chancen und Probleme einer praktischen Umsetzung. Die in Deutschland vorhandenen Datenstrukturen bilden dafür eine vergleichsweise gute Ausgangsbasis. Denkbar ist aber auch eine virtuelle 'FRBRisierung' ohne Eingriff in den Datenbestand.
    Source
    Bibliothek: Forschung und Praxis. 32(2008) H.3, S.348-358
  20. Wiesenmüller, H.: Gewogen und für zu leicht befunden : die Ergebnisse des RDA Tests in den USA (2011) 0.00
    0.0032150196 = product of:
      0.036972724 = sum of:
        0.015349354 = weight(_text_:und in 5660) [ClassicSimilarity], result of:
          0.015349354 = score(doc=5660,freq=8.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.29385152 = fieldWeight in 5660, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5660)
        0.02162337 = weight(_text_:im in 5660) [ClassicSimilarity], result of:
          0.02162337 = score(doc=5660,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.32457113 = fieldWeight in 5660, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=5660)
      0.08695652 = coord(2/23)
    
    Abstract
    Seit Juli 2010 lief in den USA ein groß angelegter Test des neuen Regelwerks "Resource Description and Access" (RDA) und des Online-Werkzeugs "RDA Toolkit": Nach einer dreimonatigen Lernphase wurden im Laufe von weiteren drei Monaten über 10.000 Titeldaten- und 12.000 Normdatensätze von den drei US-amerikanischen Nationalbibliotheken (Library of Congress, National Agricultural Library, National Library of Medicine), den 23 offiziellen Testpartnern sowie weiteren informellen Testern angelegt. Im Laufe des ersten Quartals 2011 wertete das "U.S. RDA Test Coordinating Committee" die Ergebnisse aus und erstellte einen Bericht für die Direktoren der drei Nationalbibliotheken. Mit Spannung war nun die Entscheidung "on whether or not to implement RDA"' - so die Formulierung, mit der die drei Nationalbibliotheken im Mai 2008 ihr Testvorhaben angekündigt hatten - erwartet worden. Am 14. Juni wurde das "executive summary" zusammen mit einer Verlautbarung der Direktoren veröffentlicht; seit dem 17. Juni liegt der vollständige Bericht inklusive der Empfehlungen vor.