Search (41 results, page 2 of 3)

  • × author_ss:"Wiesenmüller, H."
  1. Wiesenmüller, H.: ¬Der RDA-Umstieg in Deutschland : Herausforderungen für das Metadatenmanagement (2015) 0.01
    0.011232431 = product of:
      0.067394584 = sum of:
        0.0143061085 = weight(_text_:und in 2149) [ClassicSimilarity], result of:
          0.0143061085 = score(doc=2149,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29385152 = fieldWeight in 2149, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2149)
        0.021797419 = weight(_text_:der in 2149) [ClassicSimilarity], result of:
          0.021797419 = score(doc=2149,freq=18.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.44423765 = fieldWeight in 2149, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2149)
        0.0143061085 = weight(_text_:und in 2149) [ClassicSimilarity], result of:
          0.0143061085 = score(doc=2149,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29385152 = fieldWeight in 2149, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2149)
        0.016984947 = product of:
          0.033969894 = sum of:
            0.033969894 = weight(_text_:deutschland in 2149) [ClassicSimilarity], result of:
              0.033969894 = score(doc=2149,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.32018375 = fieldWeight in 2149, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2149)
          0.5 = coord(1/2)
      0.16666667 = coord(4/24)
    
    Abstract
    Der Umstieg der deutschsprachigen Länder auf den neuen Katalogisierungsstandard RDA wirft die Frage auf, wie mit den gemäß RAK erschlossenen Altdaten umgegangen werden soll. Der vorliegende Beitrag untersucht aus datentechnischer Sicht, ob bzw. inwieweit RAK-Katalogisate (Titel- und Normdatensätze) mit maschinellen Mitteln auf RDA angehoben werden könnten. Beispielhaft betrachtet werden dabei u. a. die zu übertragenden Elemente in der bibliografischen Beschreibung, der Inhaltstyp sowie die Aufspaltung in getrennte bibliografische Identitäten im Fall von Pseudonymen. Es wird gezeigt, dass RDA-Upgrades möglich, aber hochkomplex sind.
    Content
    Beim vorliegenden Beitrag handelt es sich um die erweiterte und aktualisierte Fassung eines Vortrags, der am 5. Dezember 2014 auf dem Symposium "Forschung für die Praxis - Perspektiven für Bibliotheks- und Informationsmanagement" an der Hochschule der Medien in Stuttgart gehalten wurde. Vortragsfolien unter https://www.hdm-stuttgart.de/ bi/symposium/skripte/Wiesenmueller_RDA-Umstieg_Forum1_14-12-05.pdf (10.05.2015). Vgl. auch den Veranstaltungsbericht: Vonhof, Cornelia; Stang, Richard; Wiesenmüller, Heidrun: Forschung für die Praxis - Perspektiven für Bibliotheks- und Informationsmanagement. In: o-bib 2 (2015), H. 1, S. 68-74. http://dx.doi.org/10.5282/o-bib/2015H1S6. Vgl.: http://dx.doi.org/10.5282/o-bib/2015H2.
  2. Wiesenmüller, H.: Gewogen und für zu leicht befunden : die Ergebnisse des RDA Tests in den USA (2011) 0.01
    0.011198963 = product of:
      0.06719378 = sum of:
        0.0143061085 = weight(_text_:und in 5660) [ClassicSimilarity], result of:
          0.0143061085 = score(doc=5660,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29385152 = fieldWeight in 5660, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5660)
        0.022334723 = weight(_text_:des in 5660) [ClassicSimilarity], result of:
          0.022334723 = score(doc=5660,freq=8.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.36716178 = fieldWeight in 5660, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5660)
        0.016246837 = weight(_text_:der in 5660) [ClassicSimilarity], result of:
          0.016246837 = score(doc=5660,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3311152 = fieldWeight in 5660, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5660)
        0.0143061085 = weight(_text_:und in 5660) [ClassicSimilarity], result of:
          0.0143061085 = score(doc=5660,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29385152 = fieldWeight in 5660, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5660)
      0.16666667 = coord(4/24)
    
    Abstract
    Seit Juli 2010 lief in den USA ein groß angelegter Test des neuen Regelwerks "Resource Description and Access" (RDA) und des Online-Werkzeugs "RDA Toolkit": Nach einer dreimonatigen Lernphase wurden im Laufe von weiteren drei Monaten über 10.000 Titeldaten- und 12.000 Normdatensätze von den drei US-amerikanischen Nationalbibliotheken (Library of Congress, National Agricultural Library, National Library of Medicine), den 23 offiziellen Testpartnern sowie weiteren informellen Testern angelegt. Im Laufe des ersten Quartals 2011 wertete das "U.S. RDA Test Coordinating Committee" die Ergebnisse aus und erstellte einen Bericht für die Direktoren der drei Nationalbibliotheken. Mit Spannung war nun die Entscheidung "on whether or not to implement RDA"' - so die Formulierung, mit der die drei Nationalbibliotheken im Mai 2008 ihr Testvorhaben angekündigt hatten - erwartet worden. Am 14. Juni wurde das "executive summary" zusammen mit einer Verlautbarung der Direktoren veröffentlicht; seit dem 17. Juni liegt der vollständige Bericht inklusive der Empfehlungen vor.
  3. Wiesenmüller, H.; Pfeffer, M.: Abgleichen, anreichern, verknüpfen : das Clustering-Verfahren - eine neue Möglichkeit für die Analyse und Verbesserung von Katalogdaten (2013) 0.01
    0.010877434 = product of:
      0.065264605 = sum of:
        0.018925203 = weight(_text_:und in 1275) [ClassicSimilarity], result of:
          0.018925203 = score(doc=1275,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38872904 = fieldWeight in 1275, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1275)
        0.011167361 = weight(_text_:des in 1275) [ClassicSimilarity], result of:
          0.011167361 = score(doc=1275,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 1275, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1275)
        0.016246837 = weight(_text_:der in 1275) [ClassicSimilarity], result of:
          0.016246837 = score(doc=1275,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3311152 = fieldWeight in 1275, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1275)
        0.018925203 = weight(_text_:und in 1275) [ClassicSimilarity], result of:
          0.018925203 = score(doc=1275,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38872904 = fieldWeight in 1275, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1275)
      0.16666667 = coord(4/24)
    
    Abstract
    Ein vergleichsweise einfaches Verfah ren bildet die Grundlage: Über einen Abgleich einiger weniger Kategorien lassen sich mit großer Zuverlässigkeit diejenigen bibliografischen Datensätze aus einem Datenpool (der auch aus mehreren Katalogen bestehen kann) zusammenführen, die zum selben Werk gehören. Ein solches Werk-Cluster umfasst dann unterschiedliche Ausgaben und Auflagen eines Werkes ebenso wie Übersetzungen. Zu einem Cluster gehören alle Datensätze, die im Einheitssachtitel beziehungsweise in Sachtitel und Zusätzen übereinstimmen und mindestens eine verknüpfte Person oder Körperschaft gemeinsam haben.
    Footnote
    Neben den gewohnten Vortragsveranstaltungen in großen Sälen wartete der Leipziger Bibliothekskongress im März 2013 mit einem neuen Veranstaltungsformat auf: Verschiedene Workshops boten die Gelegenheit, Themen intensiv zu beleuchten und in kleinen Gruppen zu diskutieren. Einer dieser Workshops wurde von den Autoren des vorliegenden Beitrags gestaltet und war neuartigen Möglichkeiten für die Analyse und Verbesserung von Katalogdaten gewidmet. Als dritter Referent wurde Markus Geipel von der Deutschen Nationalbibliothek (DNB) über Google Hangout virtuell zugeschaltet. Initiiert wurde die Veranstaltung von der AG Bibliotheken der Deutschen Gesellschaft für Klassifikation, die damit an ihre Hildesheimer Tagung von 2012 anknüpfte' Im Folgenden werden die wichtigsten Ergebnisse zusammengefasst.
  4. Wiesenmüller, H.: Erste Erfahrungen mit RDA an wissenschaftlichen Universalbibliotheken in Deutschland : Ergebnisse aus Fokusgruppengesprächen mit Katalogisierenden (2017) 0.01
    0.010567783 = product of:
      0.0634067 = sum of:
        0.014454362 = weight(_text_:und in 3565) [ClassicSimilarity], result of:
          0.014454362 = score(doc=3565,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 3565, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3565)
        0.014682204 = weight(_text_:der in 3565) [ClassicSimilarity], result of:
          0.014682204 = score(doc=3565,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.29922754 = fieldWeight in 3565, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3565)
        0.014454362 = weight(_text_:und in 3565) [ClassicSimilarity], result of:
          0.014454362 = score(doc=3565,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 3565, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3565)
        0.01981577 = product of:
          0.03963154 = sum of:
            0.03963154 = weight(_text_:deutschland in 3565) [ClassicSimilarity], result of:
              0.03963154 = score(doc=3565,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.3735477 = fieldWeight in 3565, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3565)
          0.5 = coord(1/2)
      0.16666667 = coord(4/24)
    
    Abstract
    Einige Monate nach dem Umstieg auf das neue Regelwerk "Resource Description and Access" (RDA) wurden an 18 großen deutschen wissenschaftlichen Universalbibliotheken Fokusgruppengespräche mit Katalogisierererinnen und Katalogisierern durchgeführt. Die Katalogisierenden wurden u.a. befragt, wie sicher sie sich bei der Anwendung von RDA fühlen, was sie am neuen Regelwerk gut oder schlecht finden, wie sie den Aufwand im Vergleich zum früheren Regelwerk RAK einschätzen, welche Informations- und Hilfsmittel sie verwenden und wie sie zu den regelmäßigen Änderungen im Standard stehen. Der vorliegende Aufsatz dokumentiert die Ergebnisse der Gespräche.
  5. Wiesenmüller, H.: Von Fröschen und Strategen : Ein kleiner Leitfaden zur AACR2-Debatte (2002) 0.01
    0.010409478 = product of:
      0.062456865 = sum of:
        0.017521333 = weight(_text_:und in 636) [ClassicSimilarity], result of:
          0.017521333 = score(doc=636,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 636, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
        0.011167361 = weight(_text_:des in 636) [ClassicSimilarity], result of:
          0.011167361 = score(doc=636,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
        0.016246837 = weight(_text_:der in 636) [ClassicSimilarity], result of:
          0.016246837 = score(doc=636,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3311152 = fieldWeight in 636, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
        0.017521333 = weight(_text_:und in 636) [ClassicSimilarity], result of:
          0.017521333 = score(doc=636,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 636, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
      0.16666667 = coord(4/24)
    
    Abstract
    Zu den bestbesuchten Veranstaltungen des diesjährigen Bibliothekartages in Augsburg gehörte die Diskussion um die Reform der Formalerschließung. Ganz offensichtlich spielt die Katalogisierung - trotz Internet, Digitalisierung, Dublin Core etc. - im täglichen Geschäft nach wie vor eine bedeutende Rolle. Die Debatte um Regelwerke und Datenformate wird jedenfalls mit großem Ernst und Engagement geführt. Doch die Diskussion droht mittlerweile unübersichtlich zu werden, fachliche Argumente, technische Erfordernisse und bibliothekspolitische Positionen gehen munter durcheinander.
    Content
    "Bemerkenswerterweise argumentieren die RAK-Befürworter so gut wie nie formalistisch oder traditionalistisch, sondern meist pragmatisch und benutzerorientiert" - "Eine hundertprozentige Übereinstimmung von deutschen und anglo-amerikanischen Daten bliebe auch nach dem Umstieg eine Utopie. Der versprochene Effekt bei der Nachnutzung von AACR2-Datensätzen ist deshalb deutlich zu relativieren." - "Der Standardisierungsauschuss hat mit seinem Beschluss die Weiterentwicklung der RAK2 faktisch gestoppt. Aber kann es sich das deutsche Bibliothekswesen wirklich leisten, zwei Jahre lang keine eigenständige Regelwerksarbeit zu betreiben?"
  6. Wiesenmüller, H.: Baustelle RDA : die Dynamik des Regelwerks als Herausforderung (2017) 0.01
    0.010383045 = product of:
      0.06229827 = sum of:
        0.013328929 = weight(_text_:und in 4000) [ClassicSimilarity], result of:
          0.013328929 = score(doc=4000,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27378 = fieldWeight in 4000, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4000)
        0.02080915 = weight(_text_:des in 4000) [ClassicSimilarity], result of:
          0.02080915 = score(doc=4000,freq=10.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.3420828 = fieldWeight in 4000, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4000)
        0.014831265 = weight(_text_:der in 4000) [ClassicSimilarity], result of:
          0.014831265 = score(doc=4000,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.30226544 = fieldWeight in 4000, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4000)
        0.013328929 = weight(_text_:und in 4000) [ClassicSimilarity], result of:
          0.013328929 = score(doc=4000,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27378 = fieldWeight in 4000, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4000)
      0.16666667 = coord(4/24)
    
    Abstract
    Der Beitrag beschreibt die dynamische Entwicklung des Katalogisierungsregelwerks "Resource Description and Access" (RDA) und die weitreichenden Konsequenzen, die sich daraus für den deutschsprachigen Raum ergeben. Seit seinem ersten Erscheinen im Jahr 2010 hat sich RDA erheblich verändert. Größere Regeländerungen wurden bisher einmal jährlich in den Standard eingearbeitet, kleinere sogar viermal jährlich. Im Rahmen des 3R-Projekts (RDA Toolkit Restructure and Redesign Project) erfolgt derzeit eine umfassende Umstrukturierung und Neugestaltung des Regelwerkstextes. Auch danach ist nicht mit einem merklichen Nachlassen der Dynamik zu rechnen. Jede Änderung am Standard muss verarbeitet und für die D-A-CH-Länder aufbereitet werden. Der Aufwand dafür ist hoch: Vielfach müssen Anwendungsregeln angepasst werden, und neben der deutschen Übersetzung sind zahlreiche weitere Dokumente zu aktualisieren. Teilweise wirken sich Änderungen auch auf die Implementierung aus. Schließlich müssen alle Neuerungen umfassend kommuniziert werden. Zur Unterstützung der komplexen Prozesse werden professionelle und mächtige Werkzeuge benötigt. Noch wichtiger ist es jedoch, ein Bewusstsein dafür zu schaffen, dass für die Arbeiten dauerhaft ausreichende Personalressourcen bereitgestellt werden müssen. Denn nur der Umstieg auf RDA ist abgeschlossen - die kontinuierliche Arbeit am Regelwerk geht weiter.
    Footnote
    Vortrag anlässlich des Bibliothekartages 2017 in Frankfurt.
  7. Kneissl, J.; Wiesenmüller, H.: Resource Discovery Systeme im Zusammenspiel mit anderen Rechercheinstrumenten : Herausforderung für Wissenschaftler/innen und Bibliotheken (2019) 0.01
    0.010148659 = product of:
      0.060891952 = sum of:
        0.014454362 = weight(_text_:und in 5407) [ClassicSimilarity], result of:
          0.014454362 = score(doc=5407,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 5407, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5407)
        0.013028587 = weight(_text_:des in 5407) [ClassicSimilarity], result of:
          0.013028587 = score(doc=5407,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2141777 = fieldWeight in 5407, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5407)
        0.018954644 = weight(_text_:der in 5407) [ClassicSimilarity], result of:
          0.018954644 = score(doc=5407,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.38630107 = fieldWeight in 5407, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5407)
        0.014454362 = weight(_text_:und in 5407) [ClassicSimilarity], result of:
          0.014454362 = score(doc=5407,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 5407, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5407)
      0.16666667 = coord(4/24)
    
    Abstract
    In einer 2018 an der Evangelischen Hochschule Nürnberg durchgeführten Studie wurde das Zusammenspiel unterschiedlicher Rechercheinstrumente nach der Einführung eines Resource Discovery Systems ("OPACplus") untersucht. Eine Online-Nutzerbefragung ergab einerseits - trotz verschiedener Probleme - eine große Zufriedenheit sowohl mit dem OPAC als auch mit dem OPACplus, zeigte aber auch, dass das Nebeneinander Schwierigkeiten macht und der OPACplus noch intensiver genutzt werden könnte. Ein Fokusgruppengespräch mit den Mitarbeitenden zeigte u.a., dass der OPACplus besser beworben werden muss. Es werden einige Vorschläge für Verbesserungen der Nutzeroberfläche des OPACplus und eine Marketingstrategie gemacht. Jedoch kann das Resource Discovery System derzeit weder die Fachdatenbanken noch den OPAC vollständig ersetzen.
  8. Wiesenmüller, H.: DNB-Sacherschließung : Neues für die Reihen A und B (2019) 0.01
    0.00983385 = product of:
      0.059003096 = sum of:
        0.0143061085 = weight(_text_:und in 5212) [ClassicSimilarity], result of:
          0.0143061085 = score(doc=5212,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29385152 = fieldWeight in 5212, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5212)
        0.011167361 = weight(_text_:des in 5212) [ClassicSimilarity], result of:
          0.011167361 = score(doc=5212,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 5212, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5212)
        0.019223517 = weight(_text_:der in 5212) [ClassicSimilarity], result of:
          0.019223517 = score(doc=5212,freq=14.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3917808 = fieldWeight in 5212, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5212)
        0.0143061085 = weight(_text_:und in 5212) [ClassicSimilarity], result of:
          0.0143061085 = score(doc=5212,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29385152 = fieldWeight in 5212, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5212)
      0.16666667 = coord(4/24)
    
    Abstract
    "Alle paar Jahre wird die Bibliothekscommunity mit Veränderungen in der inhaltlichen Erschließung durch die Deutsche Nationalbibliothek konfrontiert. Sicher werden sich viele noch an die Einschnitte des Jahres 2014 für die Reihe A erinnern: Seither werden u.a. Ratgeber, Sprachwörterbücher, Reiseführer und Kochbücher nicht mehr mit Schlagwörtern erschlossen (vgl. das DNB-Konzept von 2014). Das Jahr 2017 brachte die Einführung der maschinellen Indexierung für die Reihen B und H bei gleichzeitigem Verlust der DDC-Tiefenerschließung (vgl. DNB-Informationen von 2017). Virulent war seither die Frage, was mit der Reihe A passieren würde. Seit wenigen Tagen kann man dies nun auf der Website der DNB nachlesen. (Nebenbei: Es ist zu befürchten, dass viele Links in diesem Blog-Beitrag in absehbarer Zeit nicht mehr funktionieren werden, da ein Relaunch der DNB-Website angekündigt ist. Wie beim letzten Mal wird es vermutlich auch diesmal keine Weiterleitungen von den alten auf die neuen URLs geben.)"
    Source
    https://www.basiswissen-rda.de/dnb-sacherschliessung-reihen-a-und-b/
  9. Syré, L.; Wiesenmüller, H.: ¬Die Virtuelle Deutsche Landesbibliographie : Metasuchmaschine für Landes- und Regionalbibliographien (2003) 0.01
    0.009732913 = product of:
      0.05839748 = sum of:
        0.016690461 = weight(_text_:und in 1928) [ClassicSimilarity], result of:
          0.016690461 = score(doc=1928,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34282678 = fieldWeight in 1928, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1928)
        0.013028587 = weight(_text_:des in 1928) [ClassicSimilarity], result of:
          0.013028587 = score(doc=1928,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2141777 = fieldWeight in 1928, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1928)
        0.011987969 = weight(_text_:der in 1928) [ClassicSimilarity], result of:
          0.011987969 = score(doc=1928,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.24431825 = fieldWeight in 1928, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1928)
        0.016690461 = weight(_text_:und in 1928) [ClassicSimilarity], result of:
          0.016690461 = score(doc=1928,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34282678 = fieldWeight in 1928, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1928)
      0.16666667 = coord(4/24)
    
    Abstract
    Die 15 laufenden deutschen Landesbibliographien dokumentieren die Literatur über die einzelnen Länder, ihre Regionen, Orte und Persönlichkeiten in regelmäßig erscheinenden Bibliographien. Neben bzw. an die Stelle der gedruckten Bibliographie ist die Online-Datenbank getreten, die über das Internet weltweit zur Verfügung steht. Die nach der Methode des KVK funktionierende Virtuelle Deutsche Landesbibliographie fasst diese Internet-Datenbanken nun unter einer gemeinsamen Suchoberfläche zusammen. Sie ermöglicht die Abfrage gleich mehrerer Bibliographien in einem Schritt und vergrößert die Treffermenge bei länderübergreifenden, regional unspezifischen sowie biographischen Fragestellungen.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.5, S.251-259
  10. Wiesenmüller, H.: Schlagwortketten in Online-Katalogen : Realität und Potenzial (2008) 0.01
    0.008907706 = product of:
      0.05344623 = sum of:
        0.012616802 = weight(_text_:und in 2410) [ClassicSimilarity], result of:
          0.012616802 = score(doc=2410,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.25915268 = fieldWeight in 2410, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2410)
        0.012894959 = weight(_text_:des in 2410) [ClassicSimilarity], result of:
          0.012894959 = score(doc=2410,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.21198097 = fieldWeight in 2410, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=2410)
        0.015317665 = weight(_text_:der in 2410) [ClassicSimilarity], result of:
          0.015317665 = score(doc=2410,freq=20.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3121784 = fieldWeight in 2410, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2410)
        0.012616802 = weight(_text_:und in 2410) [ClassicSimilarity], result of:
          0.012616802 = score(doc=2410,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.25915268 = fieldWeight in 2410, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2410)
      0.16666667 = coord(4/24)
    
    Abstract
    Das Prinzip, zur Wiedergabe eines komplexen Gegenstands mehrere Schlagwörter in Form einer Schlagwortkette zu verknüpfen, gehört zum zentralen Kern der 'Regeln für den Schlagwortkatalog' (RSWK). Während die Bildung solcher Schlagwortketten - also der Input - umfassend geregelt ist, verzichtet das Regelwerk jedoch darauf, auch für den Output nähere Vorgaben zu machen: "Die Gestaltung des Retrievals von Schlagwörtern und ihrer Anzeige im Online-Katalog" sei "Aufgabe des jeweiligen OPACs", weshalb man sich auf "einzelne Hinweise" beschränke (§ 20,1). Explizit genannt werden immerhin die "Suche nach Schlagwortketten" und das Browsing im Schlagwortkettenindex (5 20,5). Freilich ist seit langem bekannt, dass Schlagwortketten in vielen OPACs recht 'stiefmütterlich' behandelt werden. Eine aussagekräftige Bestandsaufnahme über die tatsächliche Nutzung der Schlagwortketten in aktuellen OPACs fehlte jedoch. Eine solche hat die Verfasserin im Februar 2008 unternommen. Den Hintergrund dafür bildeten die Überlegungen der vom Standardisierungsausschuss eingesetzten Ad-hoc-Arbeitsgruppe "Strategie der Sacherschließung" unter dem Vorsitz von Dr. Friedrich Geißelmann (UB Regensburg). In diesem Rahmen wurde auch über Wege diskutiert, um das große Potenzial der Schlagwortketten besser für das Retrieval nutzbar zu machen. Für die Untersuchung wurden - ohne Anspruch auf Vollständigkeit - 40 Online-Kataloge mit Schlagwortkettenfunktionalitäten analysiert. Zehn unterschiedliche Katalogsysteme waren dabei vertreten: Aleph, Allegro, Biber, Bond, Horizon, Libero, PICA, SISIS-Sunrise, Urica und Virtua. Eine Liste der betrachteten OPACs inkl. ihrer URLs und der im Folgenden verwendeten Siglen ist im Anhang zu finden. Die Darstellung stellt zwangsläufig eine Momentaufnahme dar, denn die OPACs sind natürlich keine statischen Systeme: Schon bei Abfassung des vorliegenden Beitrags im Juli 2008 waren einige Änderungen einzuarbeiten, die sich seit Februar ergeben hatten; weitere Umgestaltungen der Kataloge sind nur eine Frage der Zeit. Desungeachtet gibt die Studie einen Überblick über derzeit implementierte Funktionalitäten sowie aktuelle Trends, und ermöglicht auch das Aufzeigen von Problemfeldern und Verbesserungsmöglichkeiten.
  11. Wiesenmüller, H.: LCSH goes RSWK? : Überlegungen zur Diskussion um die "Library of Congress subject headings" (2009) 0.01
    0.0077079455 = product of:
      0.046247672 = sum of:
        0.008429956 = weight(_text_:und in 3039) [ClassicSimilarity], result of:
          0.008429956 = score(doc=3039,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.17315367 = fieldWeight in 3039, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3039)
        0.009306135 = weight(_text_:des in 3039) [ClassicSimilarity], result of:
          0.009306135 = score(doc=3039,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.15298408 = fieldWeight in 3039, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3039)
        0.020081628 = weight(_text_:der in 3039) [ClassicSimilarity], result of:
          0.020081628 = score(doc=3039,freq=22.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.40926933 = fieldWeight in 3039, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3039)
        0.008429956 = weight(_text_:und in 3039) [ClassicSimilarity], result of:
          0.008429956 = score(doc=3039,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.17315367 = fieldWeight in 3039, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3039)
      0.16666667 = coord(4/24)
    
    Abstract
    Im Jahr 1898 begann die Library of Congress mit der Arbeit an einem Schlagwortkatalog - die Geburtsstunde der 'Library of Congress subject headings' (LCSH). Heute stellen die LCSH das zentrale Werkzeug zur verbalen inhaltlichen Erschließung in der gesamten angloamerikanischen Welt dar. Auch die Kritik an diesem Erschließungssystem hat eine lange Geschichte: Sie lässt sich bis in die Mitte des vergangenen Jahrhunderts zurückverfolgen und betraf im Lauf der Zeit recht unterschiedliche Aspekte. Neu an der Debatte der letzten Jahre ist, dass die Struktur der LCSH ganz grundsätzlich in Frage gestellt wird. Eine Projektgruppe der Bibliothek der University of California etwa urteilte 2005: "LCSH's complex syntax and rules for constructing headings restrict its application by requiring highly skilled personnel and limit the effectiveness of automated authority control." In einer für die Library of Congress erstellten Expertise mit dem Titel 'On the record' von 2008 heißt es: "LCSH suffers (...) from a structure that is cumbersome from both administrative and automation points of view". Es wird empfohlen, die LCSH in ein flexibleres Werkzeug zu verwandeln: "Transform LCSH into a tool that provides a more flexible means to create and modify subject authority data." Dies beinhaltet zum einen ein "de-coupling of subject strings", also eine 'Entkoppelung' der fest zusammengefügten (präkombinierten) Eintragungen, und zum anderen die Möglichkeit, das LCSH-Vokabular für "faceted browsing and discovery" nutzbar zu machen . Besonders drastische Worte wurden 2006 im sogenannten 'Calhoun Report' gefunden - einem Papier, das mit seinen radikalen Thesen in der amerikanischen Bibliothekswelt viel Aufsehen erregte: Man müsse die Library of Congress dazu bringen, die LCSH zu 'zerschlagen' ("urge LC to dismantle LCSH") - ja, sie gar zu 'eliminieren' ("eliminate LCSH").
  12. Wiesenmüller, H.: Langzeitarchivierung von Online-Publikationen an Regionalbibliotheken : Das Projekt 'Baden-Württembergisches Online-Archiv' (BOA) (2004) 0.01
    0.007452703 = product of:
      0.059621625 = sum of:
        0.019769998 = weight(_text_:und in 2283) [ClassicSimilarity], result of:
          0.019769998 = score(doc=2283,freq=22.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.40608138 = fieldWeight in 2283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2283)
        0.020081628 = weight(_text_:der in 2283) [ClassicSimilarity], result of:
          0.020081628 = score(doc=2283,freq=22.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.40926933 = fieldWeight in 2283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2283)
        0.019769998 = weight(_text_:und in 2283) [ClassicSimilarity], result of:
          0.019769998 = score(doc=2283,freq=22.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.40608138 = fieldWeight in 2283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2283)
      0.125 = coord(3/24)
    
    Abstract
    Elektronisches Publizieren im Internet ist heute in vielen Bereichen Realität geworden - bei der 'grauen Literatur` vielleicht mehr noch als bei den Verlagen. Immer häufiger erhält man z. B. bei Zeitschriften die Auskunft "erscheint nur noch online". Dabei sind es keineswegs nur Mitteilungsblätter und Jahresberichte kleiner Vereine, die nicht mehr gedruckt werden - auch eine Institution wie beispielsweise das Statistische Landesamt Baden-Württemberg will wichtige Publikationen wie die Statistischen Berichte` künftig ausschließlich im Internet anbieten. Ebenso ist es bei der Arbeit in den bibliographischen Stellen (z. B. Landesbibliographie, Hölderlin-Bibliographie), Sonderabteilungen und Fachreferaten alltäglich geworden, auf einschlägige und inhaltlich substanzielle Online-Ressourcen zu stoßen, die man gerne festhalten und dauerhaft archivieren würde. Der praktische Umgang damit war bisher jedoch meist von einer gewissen Hilflosigkeit geprägt; die Materialien wurden - mit wenigen Ausnahmen' - allenfalls in Linklisten aufgenommen oder gar auf Papier ausgedruckt. Gleichzeitig wuchs in den vergangenen Jahren die Einsicht, dass - trotz aller technischen Schwierigkeiten und der allgegenwärtigen Personalknappheit - der Sammel- und Archivierungsauftrag der regionalen Pflichtexemplarbibliotheken vor den Netzpublikationen nicht Halt machen dürfe. Die beiden badenwürttembergischen Landesbibliotheken in Karlsruhe und Stuttgart wollten sich der neuen Verantwortung offensiv stellen, wobei sich als natürlicher Kooperationspartner das Bibliotheksservice-Zentrum in Konstanz anbot. Im Oktober 2002 - kurz vor dem von Der Deutschen Bibliothek initiierten Workshop 'Langzeitverfügbarkeit elektronischer Dokumente' - wurde deshalb eine Vereinbarung zwischen der Badischen Landesbibliothek (BLB), der Württembergischen Landesbibliothek (WLB) und dem Bibliotheksservice-Zentrum Baden-Württemberg (BSZ) geschlossen. Das Ziel war die gemeinsame Entwicklung einer technischen Plattform und eines Geschäftsgangs für die Erschließung und Speicherung relevanter Netzpublikationen. Seit Herbst 2003 trägt das Projekt den Namen 'Baden-Württembergisches Online-Archiv' (BOA) und ist unter der URL http://www.boa-bw.de erreichbar
  13. Wiesenmüller, H.: ¬Das neue Sacherschließungskonzept der DNB in der FAZ (2017) 0.01
    0.0063556866 = product of:
      0.050845493 = sum of:
        0.016859911 = weight(_text_:und in 3777) [ClassicSimilarity], result of:
          0.016859911 = score(doc=3777,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34630734 = fieldWeight in 3777, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3777)
        0.01712567 = weight(_text_:der in 3777) [ClassicSimilarity], result of:
          0.01712567 = score(doc=3777,freq=16.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34902605 = fieldWeight in 3777, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3777)
        0.016859911 = weight(_text_:und in 3777) [ClassicSimilarity], result of:
          0.016859911 = score(doc=3777,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34630734 = fieldWeight in 3777, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3777)
      0.125 = coord(3/24)
    
    Abstract
    "Im Mai veröffentlichte die DNB ein neues Sacherschließungskonzept unter dem Titel Grundzüge und erste Schritte der künftigen inhaltlichen Erschließung von Publikationen in der Deutschen Nationalbibliothek (vgl. außerdem die Mitteilung zu den Änderungen ab September 2017 auf der DNB-Website). Ich hatte bisher den Eindruck, dass die dort angekündigten, durchaus einschneidenden Änderungen in der bibliothekarischen Öffentlichkeit bisher kaum zur Kenntnis genommen worden sind."
    Content
    Vgl. auch: Im " Newsletter Standardisierung und Erschließung Nr. 35, August 2017 [http://d-nb.info/1137843217/34] wird auf das GND-Entwicklungsprogramm 2017-2021 verwiesen: https://wiki.dnb.de/download/attachments/125418325/GND_Entwicklungsprogramm17-21_2017-06.pdf?version=1&modificationDate=1496747446000&api=v2 Ab Seite 12: "....zurück in die spartenspezifischen Standardisierungsgremien gespielt werden. Ein weiterer ungeklärter Bereich ist der Umgang mit automatisierter Datenerzeugung: Bei GND-Partnern kommen zunehmend auch maschinelle Verfahren zum Einsatz. Die GND muss sich zu dieser Entwicklung positionieren und klären, auf welche Weise sie automatisierte Prozesse unterstützen kann, ohne dabei die Verlässlichkeit und Qualität der GND zu verwässern. Wichtigstes Konzept, um den unterschiedlichen Interessen gerecht zu werden, ist die Einführung von Anwendergruppen und gruppenspezifischer Bereiche und Sichten: Einige Datenbereiche sind Teil eines von allen Anwendern spartenübergreifend gepflegten und redaktionell bearbeiteten Datensets (GND-CORE), andere Teile werden von den verschiedenen Anwendergruppen gegenseitig als optionale Ergänzungen begriffen, die genutzt werden können, aber redaktionell unabhängig sind (GND-PLUS). Weiterhin müssen ausgefeilte Bearbeitungsrichtlinien und Workflows geschaffen werden......" [Posting Inetbib von A. Meyer vom 09.08.2017].
  14. Wiesenmüller, H.: Monografische Reihen : Abschaffung der hierarchischen Beschreibung? (2016) 0.01
    0.005982921 = product of:
      0.047863368 = sum of:
        0.014454362 = weight(_text_:und in 3002) [ClassicSimilarity], result of:
          0.014454362 = score(doc=3002,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 3002, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3002)
        0.018954644 = weight(_text_:der in 3002) [ClassicSimilarity], result of:
          0.018954644 = score(doc=3002,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.38630107 = fieldWeight in 3002, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3002)
        0.014454362 = weight(_text_:und in 3002) [ClassicSimilarity], result of:
          0.014454362 = score(doc=3002,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 3002, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3002)
      0.125 = coord(3/24)
    
    Abstract
    Unter RDA ist es nicht mehr zwingend vorgeschrieben, gezählte monografische Reihen hierarchisch zu beschreiben. Der HeBIS-Verbund hat die hierarchische Beschreibung monografischer Reihen vor kurzem vollständig abgeschafft: "Teile aus monografischen Reihen werden analytisch unter Verzicht auf eine Verknüpfung zur Aufnahme der Reihe erschlossen", heißt es in den Verbundfestlegungen (Version 3, Stand 10.12.2015, S. 2). Soweit ich weiß, haben drei weitere Verbünde (BVB, KOBV und GBV) die Anwendung "flexibilisiert", d.h. es ihren Bibliotheken freigestellt, ob sie die hierarchische Beschreibung für monografische Reihen weiter verwenden oder nicht. Ich verfolge diese Entwicklung mit großer Sorge und, offen gesprochen, auch mit einigem Unverständnis. Denn nach meiner Einschätzung ist die hierarchische Beschreibung der analytischen nicht nur im Ergebnis merklich überlegen, sondern sie ist auch weitaus effizienter und rationeller.
    Source
    http://www.basiswissen-rda.de/2016/06/10/monografische-reihen-abschaffung-der-hierarchischen-beschreibung/
  15. Wiesenmüller, H.: Informationsaufbereitung I : Formale Erfassung (2004) 0.01
    0.0059534265 = product of:
      0.04762741 = sum of:
        0.017521333 = weight(_text_:und in 2914) [ClassicSimilarity], result of:
          0.017521333 = score(doc=2914,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 2914, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.012584748 = weight(_text_:der in 2914) [ClassicSimilarity], result of:
          0.012584748 = score(doc=2914,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.25648075 = fieldWeight in 2914, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.017521333 = weight(_text_:und in 2914) [ClassicSimilarity], result of:
          0.017521333 = score(doc=2914,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 2914, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
      0.125 = coord(3/24)
    
    Abstract
    Formale Erfassung wird auch als formale Analyse, Formalerschließung, Formalkatalogisierung, alphabetische Katalogisierung oder Titelaufnahme bezeichnet. Dabei wird der letzte Terminus nicht nur für den Vorgang der Erfassung verwendet, sondern kann auch sein Ergebnis beschreiben. Andere Bezeichnungen dafür sind Katalogisat oder Metadaten (Daten über Daten). Unter formaler Erfassung versteht man die konsistent nach bestimmten Regeln erfolgende Beschreibung und das Wiederauffindbar-Machen von Objekten nach äußerlichen, formalen Kriterien. Gegenstand einer formalen Erfassung können Objekte aller Art sein, also beispielsweise auch die Produktionspalette eines Industrieunternehmens. Im Informations- und Dokumentationswesen bezieht sich die formale Erfassung üblicherweise auf Dokumente (z. B. Druckschriften, audiovisuelle Materialien, Archivalien, Internet-Ressourcen, Museumsobjekte), wobei je nach Dokumenttyp unterschiedliche Merkmale zu erfassen sind. Die Formalerschließung stellt seit jeher eine zentrale Aufgabe von IuD-Institutionen dar. Sie bildet sozusagen das Fundament, auf dem die inhaltliche Erschließung aufsetzt. Diese erfolgt im deutschsprachigen Raum oft erst in einem zweiten, deutlich getrennten Arbeitsschritt. Im angelsächsischen Gebiet werden hingegen formale und sachliche Erschließung typischerweise gleichzeitig und durch denselben Bearbeiter vorgenommen.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  16. Wiesenmüller, H.: Daten härter arbeiten lassen und besser präsentieren : Sacherschließung und Normdaten in Online-Katalogen (2010) 0.01
    0.0057909866 = product of:
      0.046327893 = sum of:
        0.014601111 = weight(_text_:und in 2902) [ClassicSimilarity], result of:
          0.014601111 = score(doc=2902,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29991096 = fieldWeight in 2902, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2902)
        0.01712567 = weight(_text_:der in 2902) [ClassicSimilarity], result of:
          0.01712567 = score(doc=2902,freq=16.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34902605 = fieldWeight in 2902, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2902)
        0.014601111 = weight(_text_:und in 2902) [ClassicSimilarity], result of:
          0.014601111 = score(doc=2902,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29991096 = fieldWeight in 2902, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2902)
      0.125 = coord(3/24)
    
    Abstract
    Mit dem Umstieg von konventionellen Zettelkatalogen auf Online-Kataloge ist - so die gängige Meinung - alles viel einfacher und komfortabler geworden. Wirklich? Bei der inhaltlichen Recherche scheint im Opac vieles eher schwieriger geworden zu sein. Dies liegt nicht etwa an einem Versagen der Regelwerke, sich auf die Online-Umgebung einzustellen, sondern vor allem daran, dass man sich viel zu wenig darum bemüht hat, adäquate Formen für Recherche und Anzeige von Sacherschließungsdaten in Online-Katalogen zu finden. Auch das Potenzial der bibliothekarischen Normdateien wird in den Online-Katalogen bisher nur bruchstückhaft ausgeschöpft. Ein erschreckend hoher Anteil der bibliothekarischen Erschließungsleistung kommt nicht bei unseren Kunden an - können wir uns das wirklich leisten? Es ist überfällig, sich intensiv mit der Gestaltung unserer Retrievalwerkzeuge zu beschäftigen, um das Input-Output-Verhältnis unserer Dienstleistung in eine gesunde Balance zu bringen und einen echten Mehrwert für unsere Benutzer zu schaffen. Neben vielen anderen wichtigen Aspekten, die man gemeinhin mit dem »Katalog 2.0« oder »next generation catalogue« verbindet, muss deshalb der bibliothekarischen Sacherschließung und den Normdateien besondere Aufmerksamkeit gelten: Die Daten müssen nicht nur besser präsentiert werden, man muss sie auch »härter arbeiten« lassen als bisher.
    Series
    Lesesaal: Der Katalog der Zukunft
  17. Wiesenmüller, H.; Maylein, L.; Pfeffer, M.: Mehr aus der Schlagwortnormdatei herausholen : Implementierung einer geographischen Facette in den Online-Katalogen der UB Heidelberg und der UB Mannheim (2011) 0.01
    0.005545956 = product of:
      0.04436765 = sum of:
        0.011801938 = weight(_text_:und in 2563) [ClassicSimilarity], result of:
          0.011801938 = score(doc=2563,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24241515 = fieldWeight in 2563, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2563)
        0.020763772 = weight(_text_:der in 2563) [ClassicSimilarity], result of:
          0.020763772 = score(doc=2563,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4231716 = fieldWeight in 2563, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2563)
        0.011801938 = weight(_text_:und in 2563) [ClassicSimilarity], result of:
          0.011801938 = score(doc=2563,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24241515 = fieldWeight in 2563, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2563)
      0.125 = coord(3/24)
    
    Abstract
    Heutige Bibliothekskatalog werten nur einen Bruchteil der in den Schlagwortnomsätzen abgelegten Informationen aus, obwohl die Recherche dadurch signifikant verbessert werden könnte. So können die ISO-Ländercodes, die nicht nur bei Geografika, sondern z.B. auch bei Personen erfasst werden, als Basis für eine Einschränkung nach dem geografischen Raum dienen. Ein erster Ansatz zur Einbeziehung dieser Ländercodes in die Recherche stellt die Einführung einer geografischen Facette dar, wie sie in den auf Suchmaschinentechnologie basierenden Katalogen der UB Heidelberg und der UB Mannheim realisiert wurde.
  18. Wiesenmüller, H.: Versuch eines Fazits (2002) 0.01
    0.00501768 = product of:
      0.04014144 = sum of:
        0.011680889 = weight(_text_:und in 1100) [ClassicSimilarity], result of:
          0.011680889 = score(doc=1100,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.23992877 = fieldWeight in 1100, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1100)
        0.016779663 = weight(_text_:der in 1100) [ClassicSimilarity], result of:
          0.016779663 = score(doc=1100,freq=24.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34197432 = fieldWeight in 1100, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1100)
        0.011680889 = weight(_text_:und in 1100) [ClassicSimilarity], result of:
          0.011680889 = score(doc=1100,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.23992877 = fieldWeight in 1100, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1100)
      0.125 = coord(3/24)
    
    Abstract
    Von der Vielzahl der Aspekte' die in den Referaten und der Diskussion angesprochen wurden' seien im Folgenden nur die wichtigsten (in subjektiver Auswahl und Wertung) angeführt: Trotz gemeinsamer Grundlagen sind die Unterschiede zwischen den RAK und den AACR2 beträchtlich. Dies machte ein Vergleich der beiden Regelwerke deutlich' den Prof. Margarete Payer (Hochschule der Medien Stuttgart) im Allgemeinen und Ursula Hoffmann (WLB Stuttgart) speziell für den Bereich der Zeitschriften anstellte. Betroffen sind dabei sowohl allgemeine Prinzipien als auch unzählige Details' so banal diese oft auch erscheinen mögen. Dabei sind die nach dem einen Regelwerk erstellten Titelaufnahmen nicht besser' oder 'schlechter' als die anderen - sie sind einfach 'anders'. Klar wurde freilich auch' dass die Frage RAK oder AACR?' die Thematik in unzulässiger Weise verkürzt. Die beiden Systeme muss man sich vielmehr als Endpunkte auf einer Skala vorstellen' zwischen denen vielerlei Varianten denkbar sind. Schon die Ergebnisse der bisherigen RAK2-Arbeit, die Monika Münnich (UB Heidelberg) vorstellte' sind beeindruckend. Mancher Zuhörer staunte ob der keineswegs zaghaften Einschnitte der Entwickler hin zu einem schlanken' modernen und international kompatiblen Regelwerk. Auch für die nächsten Schritte gibt es konkrete Überlegungen. Anzustreben ist dabei - wie Frau Münnich erläuterte - vor allem die Angleichung der sogenannten 'Entitäten': Es geht also nicht um Gleichmacherei an der Oberfläche (z. B. durch identische Ansetzungen)' sondern um strukturelle Anpassungen' die eine entsprechende 'Übersetzung' vom einen ins andere System ermöglichen (z. B. über virtuelle Normdateien). Die Umsetzung solcher Ideen in die Praxis dürfte freilich nicht immer einfach sein: Als besonderer Knackpunkt entpuppte sich die Individualisierung von Autorennamen, die einige Teilnehmer für zu aufwändig hielten. Einigkeit hingegen herrschte darüber' dass die Arbeit an den RAK2 schnellstmöglich wieder aufgenommen werden müsse - und zwar nicht nur bei besonders dringlichen Punkten (wie es der Beschluss vom 6. Dezember vorsieht)' sondern mit voller Kraft.
  19. Wiesenmüller, H.; Kähler, D.: Sacherschließung und Fachstudium : eine untrennbare Verbindung? (2014) 0.00
    0.004129818 = product of:
      0.049557816 = sum of:
        0.024778908 = weight(_text_:und in 2148) [ClassicSimilarity], result of:
          0.024778908 = score(doc=2148,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.5089658 = fieldWeight in 2148, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2148)
        0.024778908 = weight(_text_:und in 2148) [ClassicSimilarity], result of:
          0.024778908 = score(doc=2148,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.5089658 = fieldWeight in 2148, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2148)
      0.083333336 = coord(2/24)
    
    Source
    Bibliothekare zwischen Verwaltung und Wissenschaft. Hrsg. von Irmgard Siebert, und Thorsten Lemanski
  20. Wiesenmüller, H.: Sacherschließung im Bachelorstudiengang Bibliotheks- und Informationsmanagement an der Hochschule der Medien Stuttgart : ein Erfahrungsbericht (2008) 0.00
    0.0028011305 = product of:
      0.022409044 = sum of:
        0.005960879 = weight(_text_:und in 2203) [ClassicSimilarity], result of:
          0.005960879 = score(doc=2203,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.12243814 = fieldWeight in 2203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2203)
        0.010487288 = weight(_text_:der in 2203) [ClassicSimilarity], result of:
          0.010487288 = score(doc=2203,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.21373394 = fieldWeight in 2203, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2203)
        0.005960879 = weight(_text_:und in 2203) [ClassicSimilarity], result of:
          0.005960879 = score(doc=2203,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.12243814 = fieldWeight in 2203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2203)
      0.125 = coord(3/24)
    
    Abstract
    The article describes the experiences and personal impressions of a young lecturer in teaching indexing and classification in the Bachelor programme »Library and Information Management« at the Stuttgart Media University (Hochschule der Medien, HdM). Although, in Germany, subject cataloguing is traditionally seen as the business of senior-level librarians, it still plays a major role in the education of upper-level librarians at the HdM. A sound knowledge of indexing and classification seems especially important as they bear the brunt of work at the reference desk, where questions on searching by subject abound. The courses aim at a healthy balance between theory and practice. Practical exercises (which unfortunately tend to be somewhat artificial) and field trips are part of the lectures. Optional courses can also involve project work. It is important to note that students are not only on the receiving end: They can also do valuable research for the library community, especially in their Bachelor theses. Contacts and communication between students and faculty of the HdM on the one hand and working librarians on the other should be upheld and even intensified, which makes networking a very useful skill for teaching staff.