Search (36 results, page 1 of 2)

  • × author_ss:"Wiesenmüller, H."
  1. Wiesenmüller, H.: Verbale Erschließung in Katalogen und Discovery-Systemen : Überlegungen zur Qualität (2021) 0.08
    0.082142755 = product of:
      0.15401766 = sum of:
        0.023199033 = weight(_text_:23 in 374) [ClassicSimilarity], result of:
          0.023199033 = score(doc=374,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.1979932 = fieldWeight in 374, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.023199033 = weight(_text_:23 in 374) [ClassicSimilarity], result of:
          0.023199033 = score(doc=374,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.1979932 = fieldWeight in 374, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.026614847 = weight(_text_:und in 374) [ClassicSimilarity], result of:
          0.026614847 = score(doc=374,freq=18.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.3673144 = fieldWeight in 374, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.023199033 = weight(_text_:23 in 374) [ClassicSimilarity], result of:
          0.023199033 = score(doc=374,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.1979932 = fieldWeight in 374, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.024215251 = weight(_text_:zur in 374) [ClassicSimilarity], result of:
          0.024215251 = score(doc=374,freq=4.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.24055663 = fieldWeight in 374, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.008185315 = weight(_text_:in in 374) [ClassicSimilarity], result of:
          0.008185315 = score(doc=374,freq=12.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.18406484 = fieldWeight in 374, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.018022915 = weight(_text_:der in 374) [ClassicSimilarity], result of:
          0.018022915 = score(doc=374,freq=8.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.2467987 = fieldWeight in 374, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.00738224 = product of:
          0.02214672 = sum of:
            0.02214672 = weight(_text_:22 in 374) [ClassicSimilarity], result of:
              0.02214672 = score(doc=374,freq=2.0), product of:
                0.114482574 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032692216 = queryNorm
                0.19345059 = fieldWeight in 374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=374)
          0.33333334 = coord(1/3)
      0.53333336 = coord(8/15)
    
    Abstract
    Beschäftigt man sich mit Inhaltserschließung, so sind zunächst zwei Dimensionen zu unterscheiden - die Wissensorganisationssysteme selbst (z. B. Normdateien, Thesauri, Schlagwortsprachen, Klassifikationen und Ontologien) und die Metadaten für Dokumente, die mit diesen Wissensorganisationssystemen erschlossen sind. Beides steht in einer Wechselwirkung zueinander: Die Wissensorganisationssysteme sind die Werkzeuge für die Erschließungsarbeit und bilden die Grundlage für die Erstellung konkreter Erschließungsmetadaten. Die praktische Anwendung der Wissensorganisationssysteme in der Erschließung wiederum ist die Basis für deren Pflege und Weiterentwicklung. Zugleich haben Wissensorganisationssysteme auch einen Eigenwert unabhängig von den Erschließungsmetadaten für einzelne Dokumente, indem sie bestimmte Bereiche von Welt- oder Fachwissen modellartig abbilden. Will man nun Aussagen über die Qualität von inhaltlicher Erschließung treffen, so genügt es nicht, den Input - also die Wissensorganisationssysteme und die damit generierten Metadaten - zu betrachten. Man muss auch den Output betrachten, also das, was die Recherchewerkzeuge daraus machen und was folglich bei den Nutzer:innen konkret ankommt. Im vorliegenden Beitrag werden Überlegungen zur Qualität von Recherchewerkzeugen in diesem Bereich angestellt - gewissermaßen als Fortsetzung und Vertiefung der dazu im Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) gegebenen Hinweise. Im Zentrum steht die verbale Erschließung nach den Regeln für die Schlagwortkatalogisierung (RSWK), wie sie sich in Bibliothekskatalogen manifestiert - gleich, ob es sich dabei um herkömmliche Kataloge oder um Resource-Discovery-Systeme (RDS) handelt.
    Date
    23. 9.2021 16:09:53
    24. 9.2021 12:22:02
    Series
    Bibliotheks- und Informationspraxis; 70
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a
  2. Wiesenmüller, H.: Von Fröschen und Strategen : Ein kleiner Leitfaden zur AACR2-Debatte (2002) 0.07
    0.07388789 = product of:
      0.1583312 = sum of:
        0.02783884 = weight(_text_:23 in 636) [ClassicSimilarity], result of:
          0.02783884 = score(doc=636,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.23759183 = fieldWeight in 636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
        0.02783884 = weight(_text_:23 in 636) [ClassicSimilarity], result of:
          0.02783884 = score(doc=636,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.23759183 = fieldWeight in 636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
        0.026077118 = weight(_text_:und in 636) [ClassicSimilarity], result of:
          0.026077118 = score(doc=636,freq=12.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.35989314 = fieldWeight in 636, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
        0.02783884 = weight(_text_:23 in 636) [ClassicSimilarity], result of:
          0.02783884 = score(doc=636,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.23759183 = fieldWeight in 636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
        0.020547325 = weight(_text_:zur in 636) [ClassicSimilarity], result of:
          0.020547325 = score(doc=636,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.20411909 = fieldWeight in 636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
        0.0040099686 = weight(_text_:in in 636) [ClassicSimilarity], result of:
          0.0040099686 = score(doc=636,freq=2.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.09017298 = fieldWeight in 636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
        0.024180276 = weight(_text_:der in 636) [ClassicSimilarity], result of:
          0.024180276 = score(doc=636,freq=10.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.3311152 = fieldWeight in 636, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
      0.46666667 = coord(7/15)
    
    Abstract
    Zu den bestbesuchten Veranstaltungen des diesjährigen Bibliothekartages in Augsburg gehörte die Diskussion um die Reform der Formalerschließung. Ganz offensichtlich spielt die Katalogisierung - trotz Internet, Digitalisierung, Dublin Core etc. - im täglichen Geschäft nach wie vor eine bedeutende Rolle. Die Debatte um Regelwerke und Datenformate wird jedenfalls mit großem Ernst und Engagement geführt. Doch die Diskussion droht mittlerweile unübersichtlich zu werden, fachliche Argumente, technische Erfordernisse und bibliothekspolitische Positionen gehen munter durcheinander.
    Content
    "Bemerkenswerterweise argumentieren die RAK-Befürworter so gut wie nie formalistisch oder traditionalistisch, sondern meist pragmatisch und benutzerorientiert" - "Eine hundertprozentige Übereinstimmung von deutschen und anglo-amerikanischen Daten bliebe auch nach dem Umstieg eine Utopie. Der versprochene Effekt bei der Nachnutzung von AACR2-Datensätzen ist deshalb deutlich zu relativieren." - "Der Standardisierungsauschuss hat mit seinem Beschluss die Weiterentwicklung der RAK2 faktisch gestoppt. Aber kann es sich das deutsche Bibliothekswesen wirklich leisten, zwei Jahre lang keine eigenständige Regelwerksarbeit zu betreiben?"
    Date
    13. 7.2002 16:23:42
  3. Wiesenmüller, H.: Gewogen und für zu leicht befunden : die Ergebnisse des RDA Tests in den USA (2011) 0.05
    0.05386385 = product of:
      0.13465962 = sum of:
        0.02783884 = weight(_text_:23 in 5660) [ClassicSimilarity], result of:
          0.02783884 = score(doc=5660,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.23759183 = fieldWeight in 5660, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5660)
        0.02783884 = weight(_text_:23 in 5660) [ClassicSimilarity], result of:
          0.02783884 = score(doc=5660,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.23759183 = fieldWeight in 5660, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5660)
        0.021291878 = weight(_text_:und in 5660) [ClassicSimilarity], result of:
          0.021291878 = score(doc=5660,freq=8.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.29385152 = fieldWeight in 5660, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5660)
        0.02783884 = weight(_text_:23 in 5660) [ClassicSimilarity], result of:
          0.02783884 = score(doc=5660,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.23759183 = fieldWeight in 5660, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5660)
        0.005670953 = weight(_text_:in in 5660) [ClassicSimilarity], result of:
          0.005670953 = score(doc=5660,freq=4.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.12752387 = fieldWeight in 5660, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=5660)
        0.024180276 = weight(_text_:der in 5660) [ClassicSimilarity], result of:
          0.024180276 = score(doc=5660,freq=10.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.3311152 = fieldWeight in 5660, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5660)
      0.4 = coord(6/15)
    
    Abstract
    Seit Juli 2010 lief in den USA ein groß angelegter Test des neuen Regelwerks "Resource Description and Access" (RDA) und des Online-Werkzeugs "RDA Toolkit": Nach einer dreimonatigen Lernphase wurden im Laufe von weiteren drei Monaten über 10.000 Titeldaten- und 12.000 Normdatensätze von den drei US-amerikanischen Nationalbibliotheken (Library of Congress, National Agricultural Library, National Library of Medicine), den 23 offiziellen Testpartnern sowie weiteren informellen Testern angelegt. Im Laufe des ersten Quartals 2011 wertete das "U.S. RDA Test Coordinating Committee" die Ergebnisse aus und erstellte einen Bericht für die Direktoren der drei Nationalbibliotheken. Mit Spannung war nun die Entscheidung "on whether or not to implement RDA"' - so die Formulierung, mit der die drei Nationalbibliotheken im Mai 2008 ihr Testvorhaben angekündigt hatten - erwartet worden. Am 14. Juni wurde das "executive summary" zusammen mit einer Verlautbarung der Direktoren veröffentlicht; seit dem 17. Juni liegt der vollständige Bericht inklusive der Empfehlungen vor.
  4. Wiesenmüller, H.: Maschinelle Indexierung am Beispiel der DNB : Analyse und Entwicklungmöglichkeiten (2018) 0.04
    0.042358886 = product of:
      0.12707666 = sum of:
        0.03979285 = weight(_text_:software in 5209) [ClassicSimilarity], result of:
          0.03979285 = score(doc=5209,freq=2.0), product of:
            0.12969498 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032692216 = queryNorm
            0.30681872 = fieldWeight in 5209, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5209)
        0.030423306 = weight(_text_:und in 5209) [ClassicSimilarity], result of:
          0.030423306 = score(doc=5209,freq=12.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.41987535 = fieldWeight in 5209, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5209)
        0.023971878 = weight(_text_:zur in 5209) [ClassicSimilarity], result of:
          0.023971878 = score(doc=5209,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.23813893 = fieldWeight in 5209, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5209)
        0.004678297 = weight(_text_:in in 5209) [ClassicSimilarity], result of:
          0.004678297 = score(doc=5209,freq=2.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.10520181 = fieldWeight in 5209, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5209)
        0.028210325 = weight(_text_:der in 5209) [ClassicSimilarity], result of:
          0.028210325 = score(doc=5209,freq=10.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.38630107 = fieldWeight in 5209, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5209)
      0.33333334 = coord(5/15)
    
    Abstract
    Der Beitrag untersucht die Ergebnisse des bei der Deutschen Nationalbibliothek (DNB) eingesetzten Verfahrens zur automatischen Vergabe von Schlagwörtern. Seit 2017 kommt dieses auch bei Printausgaben der Reihen B und H der Deutschen Nationalbibliografie zum Einsatz. Die zentralen Problembereiche werden dargestellt und an Beispielen illustriert - beispielsweise dass nicht alle im Inhaltsverzeichnis vorkommenden Wörter tatsächlich thematische Aspekte ausdrücken und dass die Software sehr häufig Körperschaften und andere "Named entities" nicht erkennt. Die maschinell generierten Ergebnisse sind derzeit sehr unbefriedigend. Es werden Überlegungen für mögliche Verbesserungen und sinnvolle Strategien angestellt.
    Content
    Vortrag anlässlich des 107. Deutschen Bibliothekartages 2018 in Berlin, Themenkreis "Fokus Erschließen & Bewahren". https://www.o-bib.de/article/view/5396. https://doi.org/10.5282/o-bib/2018H4S141-153.
  5. Wiesenmüller, H.: Sacherschließung im Bachelorstudiengang Bibliotheks- und Informationsmanagement an der Hochschule der Medien Stuttgart : ein Erfahrungsbericht (2008) 0.04
    0.04090493 = product of:
      0.102262326 = sum of:
        0.023199033 = weight(_text_:23 in 2203) [ClassicSimilarity], result of:
          0.023199033 = score(doc=2203,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.1979932 = fieldWeight in 2203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2203)
        0.023199033 = weight(_text_:23 in 2203) [ClassicSimilarity], result of:
          0.023199033 = score(doc=2203,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.1979932 = fieldWeight in 2203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2203)
        0.008871616 = weight(_text_:und in 2203) [ClassicSimilarity], result of:
          0.008871616 = score(doc=2203,freq=2.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.12243814 = fieldWeight in 2203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2203)
        0.023199033 = weight(_text_:23 in 2203) [ClassicSimilarity], result of:
          0.023199033 = score(doc=2203,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.1979932 = fieldWeight in 2203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2203)
        0.008185315 = weight(_text_:in in 2203) [ClassicSimilarity], result of:
          0.008185315 = score(doc=2203,freq=12.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.18406484 = fieldWeight in 2203, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2203)
        0.015608302 = weight(_text_:der in 2203) [ClassicSimilarity], result of:
          0.015608302 = score(doc=2203,freq=6.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.21373394 = fieldWeight in 2203, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2203)
      0.4 = coord(6/15)
    
    Abstract
    The article describes the experiences and personal impressions of a young lecturer in teaching indexing and classification in the Bachelor programme »Library and Information Management« at the Stuttgart Media University (Hochschule der Medien, HdM). Although, in Germany, subject cataloguing is traditionally seen as the business of senior-level librarians, it still plays a major role in the education of upper-level librarians at the HdM. A sound knowledge of indexing and classification seems especially important as they bear the brunt of work at the reference desk, where questions on searching by subject abound. The courses aim at a healthy balance between theory and practice. Practical exercises (which unfortunately tend to be somewhat artificial) and field trips are part of the lectures. Optional courses can also involve project work. It is important to note that students are not only on the receiving end: They can also do valuable research for the library community, especially in their Bachelor theses. Contacts and communication between students and faculty of the HdM on the one hand and working librarians on the other should be upheld and even intensified, which makes networking a very useful skill for teaching staff.
    Date
    15. 8.2008 14:23:12
    Source
    New pespectives on subject indexing and classification: essays in honour of Magda Heiner-Freiling. Red.: K. Knull-Schlomann, u.a
  6. Wiesenmüller, H.; Hinrichs, I.: Computerunterstützte Inhaltserschließung : Bericht über einen Workshop an der UB Stuttgart - mit einem Exkurs zum neuen Inhaltserschließungskonzept der DNB (2017) 0.03
    0.029558836 = product of:
      0.110845625 = sum of:
        0.030423306 = weight(_text_:und in 3880) [ClassicSimilarity], result of:
          0.030423306 = score(doc=3880,freq=12.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.41987535 = fieldWeight in 3880, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3880)
        0.033901356 = weight(_text_:zur in 3880) [ClassicSimilarity], result of:
          0.033901356 = score(doc=3880,freq=4.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.3367793 = fieldWeight in 3880, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3880)
        0.004678297 = weight(_text_:in in 3880) [ClassicSimilarity], result of:
          0.004678297 = score(doc=3880,freq=2.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.10520181 = fieldWeight in 3880, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3880)
        0.041842673 = weight(_text_:der in 3880) [ClassicSimilarity], result of:
          0.041842673 = score(doc=3880,freq=22.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.57297707 = fieldWeight in 3880, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3880)
      0.26666668 = coord(4/15)
    
    Abstract
    Am 8. und 9. Mai 2017 fand an der Universitätsbibliothek Stuttgart ein Workshop zum Thema "Computerunterstützte Inhaltserschließung" mit über 50 Teilnehmenden statt. Ausgangspunkt der Veranstaltung war die Einführung des sogenannten "Digitalen Assistenten" - eines Werkzeugs zur maschinellen Unterstützung der verbalen Sacherschließung - an der UB Stuttgart und weiteren Bibliotheken in Baden-Württemberg. Doch ging der Workshop auch darüber hinaus und bot die Gelegenheit, sich grundsätzlicher mit der Frage nach dem Wert von Inhaltserschließung und nach der aktuellen und künftigen Rolle von intellektuellen, halbautomatischen und vollautomatischen Verfahren auseinanderzusetzen. Alle Vortragsfolien stehen auf der Website der UB Stuttgart zur Verfügung.
  7. Wiesenmüller, H.: Formale Erschließung (2023) 0.03
    0.027968325 = product of:
      0.10488121 = sum of:
        0.03193782 = weight(_text_:und in 784) [ClassicSimilarity], result of:
          0.03193782 = score(doc=784,freq=18.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.4407773 = fieldWeight in 784, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.029058306 = weight(_text_:zur in 784) [ClassicSimilarity], result of:
          0.029058306 = score(doc=784,freq=4.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.28866798 = fieldWeight in 784, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.008019937 = weight(_text_:in in 784) [ClassicSimilarity], result of:
          0.008019937 = score(doc=784,freq=8.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.18034597 = fieldWeight in 784, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.035865147 = weight(_text_:der in 784) [ClassicSimilarity], result of:
          0.035865147 = score(doc=784,freq=22.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.4911232 = fieldWeight in 784, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
      0.26666668 = coord(4/15)
    
    Abstract
    Bei der formalen Erschließung bzw. Formalerschließung, die auch als formale Analyse, formale Erfassung, Formalbeschreibung oder (Formal-)Katalogisierung bezeichnet wird, "werden Ressourcen gemäß festgelegten Regeln nach äußerlichen, formalen Kriterien beschrieben und auffindbar gemacht". Diese Ressourcen können alle Arten von physischen und digitalen Objekten sein, die z. B. in Bibliotheken, Archiven, Museen oder Dokumentationsstellen gesammelt oder verzeichnet werden. Formale Aspekte bei einem gedruckten Buch sind u. a. der*die Autor*in, der Titel, der Verlag, das Erscheinungsdatum, der Umfang und die ISBN. Bei einer Skulptur sind es u. a. der*die Künstler*in, das Entstehungsdatum, Werkstoff und Technik, die Maße und die Besitzgeschichte. Bei einem im Internet zur Verfügung gestellten digitalen Foto sind es u. a. der*die Fotograf*in, der Zeitpunkt der Aufnahme und die Koordinaten des Aufnahmeorts, technische Daten zur Aufnahme (z. B. Belichtungszeit), der Dateiname, das Dateiformat und die Dateigröße sowie die URL und ggf. ein Persistent Identifier (z. B. DOI oder URN).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  8. Wiesenmüller, H.: AACR und kein Ende? : Ein kritischer Rück- und Ausblick auf die Regelwerksdiskussion (2005) 0.03
    0.026669344 = product of:
      0.08000803 = sum of:
        0.025589654 = weight(_text_:und in 3426) [ClassicSimilarity], result of:
          0.025589654 = score(doc=3426,freq=26.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.3531656 = fieldWeight in 3426, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3426)
        0.013698216 = weight(_text_:zur in 3426) [ClassicSimilarity], result of:
          0.013698216 = score(doc=3426,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.13607939 = fieldWeight in 3426, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03125 = fieldNorm(doc=3426)
        0.0059777093 = weight(_text_:in in 3426) [ClassicSimilarity], result of:
          0.0059777093 = score(doc=3426,freq=10.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.13442196 = fieldWeight in 3426, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=3426)
        0.028836664 = weight(_text_:der in 3426) [ClassicSimilarity], result of:
          0.028836664 = score(doc=3426,freq=32.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.3948779 = fieldWeight in 3426, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3426)
        0.005905792 = product of:
          0.017717376 = sum of:
            0.017717376 = weight(_text_:22 in 3426) [ClassicSimilarity], result of:
              0.017717376 = score(doc=3426,freq=2.0), product of:
                0.114482574 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032692216 = queryNorm
                0.15476047 = fieldWeight in 3426, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3426)
          0.33333334 = coord(1/3)
      0.33333334 = coord(5/15)
    
    Abstract
    Nach einer zeitweise sehr heftig geführten Debatte um die Zukunft der Regelwerke schien der Umstieg von RAK auf die Anglo-American Cataloguing Rules (AACR) in weite Ferne gerückt zu sein. Zu stark war die Gegenwehr vor allem bei den Spezialisten aus der bibliothekarischen Praxis, die sich von einem Wechsel keine großen Vorteile für die Verbundkatalogisierung und Opac-Recherche versprachen. Die Kritiker monierten zudem, dass der Umstellungsaufwand vordem Hintergrund knapper Finanzen vor allem für die kleineren Bibliotheken kaum zu schultern sei. Der Umstieg auf AACR und MARC bleibt dennoch ein Dauerbrenner: Durch die internationale Fachdiskussion um gemeinsame Regelwerke hat das Thema in jüngster Zeit wieder neue Nahrung bekommen. Im Mai des vergangenen Jahres ging ein kollektives Aufatmen durch die Bibliothekswelt: Einen Umstieg auf AACR2 - so wurde kolportiert - werde es nicht geben, das Projekt sei »gestorben«. Die offizielle Sprachregelung des Standardisierungsausschusses freilich gab schon damals Anlass zur Skepsis: »Nach Aussage der Studie stehen einem Umstieg keine grundsätzlichen Hindernisse entgegen, statt dessen werden Vorteile eines Umstiegs aufgezeigt. Die Befürworter sehen jedoch zurzeit keine Möglichkeit, einen Umstieg generell durchzusetzen, und sprechen sich für eine schrittweise Internationalisierung des deutschen Regelwerks aus.« Es war daher damit zu rechnen, dass das Thema eher früher als später wieder aus der Schublade gezogen würde. Und tatsächlich: Schon bei der nächsten Sitzung im Dezember 2004 lag der Vorschlag auf dem Tisch, ein neues Regelwerk auf der Basis einer deutschen AACR-Übersetzung zu erarbeiten. Zwar wurde dieser sehr radikale Antrag zurückgezogen; nichtsdestoweniger wurden mit der Umstellung auf MARC21 und der Einführung von Deutsch als Ansetzungssprache Beschlüsse von weitreichender Konsequenz gefasst. Trotz der verständlichen Ermüdungserscheinungen, mit denen viele Kolleginnen und Kollegen der anhaltenden Regelwerksdiskussion mittlerweile begegnen, seien deshalb im Folgenden einige wichtige Entwicklungen und Ergebnisse der vergangenen Zeit nachgezeichnet und kommentiert.
    Content
    Nachtrag in BuB 57(2005) H.5, S.324: "AACR und kein Ende? Heidrun Wiesenmüllers kritischer Rück- und Ausblick auf die Regelwerksdiskussion, »AACR und kein Ende?«, ist in BuB Heft 3/2005 (Seite 198 bis 204) wegen einer technischen Panne ohne die zugehörigen Fußnoten publiziert worden. Die vollständige Fassung ist online verfügbar unter <www.bibliothek.uni-augsburg.de/kfe/mat/Wiesenmueller_BuB_57_3.pdf>."
    Date
    22. 5.2005 19:39:44
    Footnote
    Vgl. auch: Gömpel, R.: Ein Silberstreif am Horizont: Die Internationalisierung der deutschen Standards. In: BuB. 57(2005) H.4, S.288-291.
  9. Fischer, K.; Wiesenmüller, H.: ¬Der Einsatz der Personalgruppen in der Sacherschließung an wissenschaftlichen Bibliotheken : Ergebnisse einer Umfrage (2016) 0.03
    0.025899073 = product of:
      0.09712152 = sum of:
        0.024840524 = weight(_text_:und in 3128) [ClassicSimilarity], result of:
          0.024840524 = score(doc=3128,freq=8.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.34282678 = fieldWeight in 3128, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3128)
        0.023971878 = weight(_text_:zur in 3128) [ClassicSimilarity], result of:
          0.023971878 = score(doc=3128,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.23813893 = fieldWeight in 3128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3128)
        0.010460991 = weight(_text_:in in 3128) [ClassicSimilarity], result of:
          0.010460991 = score(doc=3128,freq=10.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.23523843 = fieldWeight in 3128, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3128)
        0.037848122 = weight(_text_:der in 3128) [ClassicSimilarity], result of:
          0.037848122 = score(doc=3128,freq=18.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.5182773 = fieldWeight in 3128, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3128)
      0.26666668 = coord(4/15)
    
    Abstract
    Der Beitrag stellt die Ergebnisse einer Umfrage zum Einsatz der verschiedenen Personalgruppen in der Sacherschließung an deutschen wissenschaftlichen Bibliotheken vor. Es wurde untersucht, inwieweit mehrere Personalgruppen eingesetzt werden, welche Modelle es für die Aufgabenteilung gibt und wie sich diese bewähren. Von Interesse war dabei insbesondere der Einsatz von Diplom- bzw. Bachelor-Bibliothekarinnen und -Bibliothekaren. Ebenfalls ermittelt wurde die Haltung von Mitarbeiterinnen und Mitarbeitern, die selbst in der Sacherschließung tätig sind, zur Rolle des höheren und des gehobenen Dienstes in der Sacherschließung.
    Content
    Beitrag als ausgearbeitete Form eines Vortrages während des 104. Deutschen Bibliothekartages in Nürnberg. Vgl.: https://www.o-bib.de/article/view/2016H2S56-77.
  10. Wiesenmüller, H.: ¬Die Zukunft der Bibliotheksverbünde : Ein kritischer Blick auf die Empfehlungen des Wissenschaftsrates und der Deutschen Forschungsgemeinschaft (2011) 0.03
    0.025665155 = product of:
      0.09624433 = sum of:
        0.018439308 = weight(_text_:und in 202) [ClassicSimilarity], result of:
          0.018439308 = score(doc=202,freq=6.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.2544829 = fieldWeight in 202, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=202)
        0.035589006 = weight(_text_:zur in 202) [ClassicSimilarity], result of:
          0.035589006 = score(doc=202,freq=6.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.3535446 = fieldWeight in 202, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.046875 = fieldNorm(doc=202)
        0.008019937 = weight(_text_:in in 202) [ClassicSimilarity], result of:
          0.008019937 = score(doc=202,freq=8.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.18034597 = fieldWeight in 202, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=202)
        0.03419608 = weight(_text_:der in 202) [ClassicSimilarity], result of:
          0.03419608 = score(doc=202,freq=20.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.46826762 = fieldWeight in 202, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=202)
      0.26666668 = coord(4/15)
    
    Abstract
    Ende 2006 beauftragte die Kultusministerkonferenz den Wissenschaftsrat mit einer Evaluierung der deutschen Bibliotheksverbünde - Mitte 2009 begannen die Arbeiten. Als Abschlussbericht wurden am 28. Januar 2011 »Empfehlungen zur Zukunft des bibliothekarischen Verbundsystems in Deutschland« vorgelegt. Die Gutachter hatten dabei nicht mehr einzelne regionale Verbünde, sondern ein Gesamtsystem auf nationaler Ebene vor Augen. Parallel dazu beschäftigte sich der »Ausschuss für wissenschaftliche Bibliotheken und Informationssysteme« der Deutschen Forschungsgemeinschaft mit dem Thema und veröffentlichte am 2. Februar 2011 ein knapper gehaltenes »Positionspapier zur Weiterentwicklung der Bibliotheksverbünde als Teil einer überregionalen Informationsinfrastruktur«. Die Papiere unterscheiden sich in Nuancen, haben aber denselben Grundtenor. Schließlich präsentierten die beiden eine dreiseitige gemeinsame Erklärung »Zur Zukunft der Bibliotheksverbünde als Teil einer überregionalen Informationsinfrastruktur«. Ihr Gesamturteil ist überaus kritisch. Im folgenden Beitrag nimmt Heidrun Wiesenmüller, Professorin an der Hochschule der Medien in Stuttgart, Stellung zu den Empfehlungen.
    Footnote
    Vgl. dazu den Leserbrief von M. Kühn-Ludewig in: BuB 64(2012) H.2, S.105-106.
    Series
    Lesesaal: Schwerpunkt Neuausrichtung der Verbünde
  11. Wiesenmüller, H.; Maylein, L.; Pfeffer, M.: Mehr aus der Schlagwortnormdatei herausholen : Implementierung einer geographischen Facette in den Online-Katalogen der UB Heidelberg und der UB Mannheim (2011) 0.02
    0.021812331 = product of:
      0.08179624 = sum of:
        0.017564904 = weight(_text_:und in 2563) [ClassicSimilarity], result of:
          0.017564904 = score(doc=2563,freq=4.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.24241515 = fieldWeight in 2563, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2563)
        0.023971878 = weight(_text_:zur in 2563) [ClassicSimilarity], result of:
          0.023971878 = score(doc=2563,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.23813893 = fieldWeight in 2563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2563)
        0.009356594 = weight(_text_:in in 2563) [ClassicSimilarity], result of:
          0.009356594 = score(doc=2563,freq=8.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.21040362 = fieldWeight in 2563, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2563)
        0.030902863 = weight(_text_:der in 2563) [ClassicSimilarity], result of:
          0.030902863 = score(doc=2563,freq=12.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.4231716 = fieldWeight in 2563, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2563)
      0.26666668 = coord(4/15)
    
    Abstract
    Heutige Bibliothekskatalog werten nur einen Bruchteil der in den Schlagwortnomsätzen abgelegten Informationen aus, obwohl die Recherche dadurch signifikant verbessert werden könnte. So können die ISO-Ländercodes, die nicht nur bei Geografika, sondern z.B. auch bei Personen erfasst werden, als Basis für eine Einschränkung nach dem geografischen Raum dienen. Ein erster Ansatz zur Einbeziehung dieser Ländercodes in die Recherche stellt die Einführung einer geografischen Facette dar, wie sie in den auf Suchmaschinentechnologie basierenden Katalogen der UB Heidelberg und der UB Mannheim realisiert wurde.
  12. Woppowa, B.; Wiesenmüller, H.: Öffentliche Bibliotheken und Katalogisierung : eine Analyse der aktuellen Praxis in Deutschland (2018) 0.02
    0.021595413 = product of:
      0.0809828 = sum of:
        0.023805045 = weight(_text_:und in 4482) [ClassicSimilarity], result of:
          0.023805045 = score(doc=4482,freq=10.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.328536 = fieldWeight in 4482, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4482)
        0.020547325 = weight(_text_:zur in 4482) [ClassicSimilarity], result of:
          0.020547325 = score(doc=4482,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.20411909 = fieldWeight in 4482, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.046875 = fieldNorm(doc=4482)
        0.008019937 = weight(_text_:in in 4482) [ClassicSimilarity], result of:
          0.008019937 = score(doc=4482,freq=8.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.18034597 = fieldWeight in 4482, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4482)
        0.028610492 = weight(_text_:der in 4482) [ClassicSimilarity], result of:
          0.028610492 = score(doc=4482,freq=14.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.3917808 = fieldWeight in 4482, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4482)
      0.26666668 = coord(4/15)
    
    Abstract
    Der Beitrag gibt einen Überblick über den aktuellen Stand der Katalogisierungspraxis öffentlicher Bibliotheken in Deutschland. Mithilfe einer Online-Befragung wurden repräsentativ ausgewählte öffentliche Bibliotheken zu ihrem Vorgehen bei der Katalogisierung befragt, z.B. zur Fremddatenübernahme und zum eingesetzten Personal. Auch die Ansichten und Einschätzungen in Bezug auf die Bedeutung der Katalogisierung und die für die Katalogisierungstätigkeit benötigten Kenntnisse und Kompetenzen wurden abgefragt. Die Ergebnisse der 187 teilnehmenden Bibliotheken zeigen auf, wie vielfältig die Katalogisierungspraxis an deutschen öffentlichen Bibliotheken ist, machen dabei aber auch deutlich, dass die Bedeutung der Katalogisierung an öffentlichen Bibliotheken viel größer ist als oftmals angenommen.
    Footnote
    Vgl. auch: Graf, K.: Abwechslungsreiche Gemüseküche: ein sehr kurzer Blick in die altbackene Welt deutscher öffentlicher Bibliotheken. Unter: https://archivalia.hypotheses.org/85268.
  13. Wiesenmüller, H.; Jendral, L.; Schäffler, H.; Schomburg, S.; Höck, C.; Kohlmann, M.: Auswahlkriterien für das Sammeln von Netzpublikationen im Rahmen des elektronischen Pflichtexemplars Empfehlungen der Arbeitsgemeinschaft der Regionalbibliotheken (2004) 0.02
    0.019975634 = product of:
      0.07490862 = sum of:
        0.019837536 = weight(_text_:und in 2983) [ClassicSimilarity], result of:
          0.019837536 = score(doc=2983,freq=10.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.27378 = fieldWeight in 2983, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2983)
        0.01712277 = weight(_text_:zur in 2983) [ClassicSimilarity], result of:
          0.01712277 = score(doc=2983,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.17009923 = fieldWeight in 2983, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2983)
        0.009451588 = weight(_text_:in in 2983) [ClassicSimilarity], result of:
          0.009451588 = score(doc=2983,freq=16.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.21253976 = fieldWeight in 2983, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2983)
        0.028496731 = weight(_text_:der in 2983) [ClassicSimilarity], result of:
          0.028496731 = score(doc=2983,freq=20.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.390223 = fieldWeight in 2983, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2983)
      0.26666668 = coord(4/15)
    
    Abstract
    Als Archivbibliotheken der deutschen Bundesländer haben die regionalen Pflichtexemplarbibliotheken den Auftrag, die in ihrem jeweiligen Sammelgebiet erschienenen Veröffentlichungen auf der Grundlage von Pflichtexemplargesetzen zu sammeln, zu erschließen, für die Benutzung zur Verfügung zu stellen und dauerhaft zu bewahren. Neue Herausforderungen ergeben sich durch die wachsende Zahl und Bedeutung von Netzpublikationen, die künftig ebenfalls in den Sammelauftrag mit einbezogen werden müssen. Seit 2002 beschäftigt sich deshalb die Arbeitsgemeinschaft der Regionalbibliotheken in der Sektion 4 des Deutschen Bibliotheksverbands (AGRB) intensiv mit dem Thema Netzpublikationen. In einer Arbeitsgruppe wurde ein Musterentwurf für ein novelliertes Pflichtexemplargesetz auf Länderebene erarbeitet, der im Herbst 2003 in den politischen Prozess eingebracht wurde. Neben der rechtlichen Grundlage für das Sammeln von Netzpublikationen sind weitere Fragen zu klären. So werden beispielsweise technische und organisatorische Aspekte seit einiger Zeit in zwei Pilotprojekten in Rheinland-Pfalz und BadenWürttemberg praktisch erprobt. In einer gemeinsamen Arbeitsgruppe mit Der Deutschen Bibliothek wurde ein Modell für den Austausch von Metadaten und archivierten Objekten als Grundlage für entsprechende Kooperationen erarbeitet. Von besonderer Bedeutung ist die Frage, welche Arten von Netzpublikationen überhaupt gesammelt werden sollen. Mit diesem Thema hat sich eine Arbeitsgruppe der AGRB befasst, deren Ergebnisse im Folgenden vorgestellt werden
  14. Wiesenmüller, H.: LCSH goes RSWK? : Überlegungen zur Diskussion um die "Library of Congress subject headings" (2009) 0.02
    0.019955881 = product of:
      0.07483455 = sum of:
        0.01254636 = weight(_text_:und in 3039) [ClassicSimilarity], result of:
          0.01254636 = score(doc=3039,freq=4.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.17315367 = fieldWeight in 3039, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3039)
        0.024215251 = weight(_text_:zur in 3039) [ClassicSimilarity], result of:
          0.024215251 = score(doc=3039,freq=4.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.24055663 = fieldWeight in 3039, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3039)
        0.008185315 = weight(_text_:in in 3039) [ClassicSimilarity], result of:
          0.008185315 = score(doc=3039,freq=12.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.18406484 = fieldWeight in 3039, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3039)
        0.029887622 = weight(_text_:der in 3039) [ClassicSimilarity], result of:
          0.029887622 = score(doc=3039,freq=22.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.40926933 = fieldWeight in 3039, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3039)
      0.26666668 = coord(4/15)
    
    Abstract
    Im Jahr 1898 begann die Library of Congress mit der Arbeit an einem Schlagwortkatalog - die Geburtsstunde der 'Library of Congress subject headings' (LCSH). Heute stellen die LCSH das zentrale Werkzeug zur verbalen inhaltlichen Erschließung in der gesamten angloamerikanischen Welt dar. Auch die Kritik an diesem Erschließungssystem hat eine lange Geschichte: Sie lässt sich bis in die Mitte des vergangenen Jahrhunderts zurückverfolgen und betraf im Lauf der Zeit recht unterschiedliche Aspekte. Neu an der Debatte der letzten Jahre ist, dass die Struktur der LCSH ganz grundsätzlich in Frage gestellt wird. Eine Projektgruppe der Bibliothek der University of California etwa urteilte 2005: "LCSH's complex syntax and rules for constructing headings restrict its application by requiring highly skilled personnel and limit the effectiveness of automated authority control." In einer für die Library of Congress erstellten Expertise mit dem Titel 'On the record' von 2008 heißt es: "LCSH suffers (...) from a structure that is cumbersome from both administrative and automation points of view". Es wird empfohlen, die LCSH in ein flexibleres Werkzeug zu verwandeln: "Transform LCSH into a tool that provides a more flexible means to create and modify subject authority data." Dies beinhaltet zum einen ein "de-coupling of subject strings", also eine 'Entkoppelung' der fest zusammengefügten (präkombinierten) Eintragungen, und zum anderen die Möglichkeit, das LCSH-Vokabular für "faceted browsing and discovery" nutzbar zu machen . Besonders drastische Worte wurden 2006 im sogenannten 'Calhoun Report' gefunden - einem Papier, das mit seinen radikalen Thesen in der amerikanischen Bibliothekswelt viel Aufsehen erregte: Man müsse die Library of Congress dazu bringen, die LCSH zu 'zerschlagen' ("urge LC to dismantle LCSH") - ja, sie gar zu 'eliminieren' ("eliminate LCSH").
  15. Syré, L.; Wiesenmüller, H.: ¬Die Virtuelle Deutsche Landesbibliographie : Metasuchmaschine für Landes- und Regionalbibliographien (2003) 0.02
    0.019538745 = product of:
      0.07327029 = sum of:
        0.024840524 = weight(_text_:und in 1928) [ClassicSimilarity], result of:
          0.024840524 = score(doc=1928,freq=8.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.34282678 = fieldWeight in 1928, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1928)
        0.023971878 = weight(_text_:zur in 1928) [ClassicSimilarity], result of:
          0.023971878 = score(doc=1928,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.23813893 = fieldWeight in 1928, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1928)
        0.0066161114 = weight(_text_:in in 1928) [ClassicSimilarity], result of:
          0.0066161114 = score(doc=1928,freq=4.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.14877784 = fieldWeight in 1928, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1928)
        0.017841775 = weight(_text_:der in 1928) [ClassicSimilarity], result of:
          0.017841775 = score(doc=1928,freq=4.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.24431825 = fieldWeight in 1928, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1928)
      0.26666668 = coord(4/15)
    
    Abstract
    Die 15 laufenden deutschen Landesbibliographien dokumentieren die Literatur über die einzelnen Länder, ihre Regionen, Orte und Persönlichkeiten in regelmäßig erscheinenden Bibliographien. Neben bzw. an die Stelle der gedruckten Bibliographie ist die Online-Datenbank getreten, die über das Internet weltweit zur Verfügung steht. Die nach der Methode des KVK funktionierende Virtuelle Deutsche Landesbibliographie fasst diese Internet-Datenbanken nun unter einer gemeinsamen Suchoberfläche zusammen. Sie ermöglicht die Abfrage gleich mehrerer Bibliographien in einem Schritt und vergrößert die Treffermenge bei länderübergreifenden, regional unspezifischen sowie biographischen Fragestellungen.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.5, S.251-259
  16. Wiesenmüller, H.: Informationsaufbereitung I : Formale Erfassung (2004) 0.02
    0.018940099 = product of:
      0.071025364 = sum of:
        0.026077118 = weight(_text_:und in 2914) [ClassicSimilarity], result of:
          0.026077118 = score(doc=2914,freq=12.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.35989314 = fieldWeight in 2914, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.020547325 = weight(_text_:zur in 2914) [ClassicSimilarity], result of:
          0.020547325 = score(doc=2914,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.20411909 = fieldWeight in 2914, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.005670953 = weight(_text_:in in 2914) [ClassicSimilarity], result of:
          0.005670953 = score(doc=2914,freq=4.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.12752387 = fieldWeight in 2914, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.018729964 = weight(_text_:der in 2914) [ClassicSimilarity], result of:
          0.018729964 = score(doc=2914,freq=6.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.25648075 = fieldWeight in 2914, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
      0.26666668 = coord(4/15)
    
    Abstract
    Formale Erfassung wird auch als formale Analyse, Formalerschließung, Formalkatalogisierung, alphabetische Katalogisierung oder Titelaufnahme bezeichnet. Dabei wird der letzte Terminus nicht nur für den Vorgang der Erfassung verwendet, sondern kann auch sein Ergebnis beschreiben. Andere Bezeichnungen dafür sind Katalogisat oder Metadaten (Daten über Daten). Unter formaler Erfassung versteht man die konsistent nach bestimmten Regeln erfolgende Beschreibung und das Wiederauffindbar-Machen von Objekten nach äußerlichen, formalen Kriterien. Gegenstand einer formalen Erfassung können Objekte aller Art sein, also beispielsweise auch die Produktionspalette eines Industrieunternehmens. Im Informations- und Dokumentationswesen bezieht sich die formale Erfassung üblicherweise auf Dokumente (z. B. Druckschriften, audiovisuelle Materialien, Archivalien, Internet-Ressourcen, Museumsobjekte), wobei je nach Dokumenttyp unterschiedliche Merkmale zu erfassen sind. Die Formalerschließung stellt seit jeher eine zentrale Aufgabe von IuD-Institutionen dar. Sie bildet sozusagen das Fundament, auf dem die inhaltliche Erschließung aufsetzt. Diese erfolgt im deutschsprachigen Raum oft erst in einem zweiten, deutlich getrennten Arbeitsschritt. Im angelsächsischen Gebiet werden hingegen formale und sachliche Erschließung typischerweise gleichzeitig und durch denselben Bearbeiter vorgenommen.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  17. Wiesenmüller, H.: Schlagwortketten in Online-Katalogen : Realität und Potenzial (2008) 0.02
    0.016333595 = product of:
      0.061250977 = sum of:
        0.01877767 = weight(_text_:und in 2410) [ClassicSimilarity], result of:
          0.01877767 = score(doc=2410,freq=14.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.25915268 = fieldWeight in 2410, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2410)
        0.013698216 = weight(_text_:zur in 2410) [ClassicSimilarity], result of:
          0.013698216 = score(doc=2410,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.13607939 = fieldWeight in 2410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03125 = fieldNorm(doc=2410)
        0.0059777093 = weight(_text_:in in 2410) [ClassicSimilarity], result of:
          0.0059777093 = score(doc=2410,freq=10.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.13442196 = fieldWeight in 2410, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2410)
        0.022797385 = weight(_text_:der in 2410) [ClassicSimilarity], result of:
          0.022797385 = score(doc=2410,freq=20.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.3121784 = fieldWeight in 2410, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2410)
      0.26666668 = coord(4/15)
    
    Abstract
    Das Prinzip, zur Wiedergabe eines komplexen Gegenstands mehrere Schlagwörter in Form einer Schlagwortkette zu verknüpfen, gehört zum zentralen Kern der 'Regeln für den Schlagwortkatalog' (RSWK). Während die Bildung solcher Schlagwortketten - also der Input - umfassend geregelt ist, verzichtet das Regelwerk jedoch darauf, auch für den Output nähere Vorgaben zu machen: "Die Gestaltung des Retrievals von Schlagwörtern und ihrer Anzeige im Online-Katalog" sei "Aufgabe des jeweiligen OPACs", weshalb man sich auf "einzelne Hinweise" beschränke (§ 20,1). Explizit genannt werden immerhin die "Suche nach Schlagwortketten" und das Browsing im Schlagwortkettenindex (5 20,5). Freilich ist seit langem bekannt, dass Schlagwortketten in vielen OPACs recht 'stiefmütterlich' behandelt werden. Eine aussagekräftige Bestandsaufnahme über die tatsächliche Nutzung der Schlagwortketten in aktuellen OPACs fehlte jedoch. Eine solche hat die Verfasserin im Februar 2008 unternommen. Den Hintergrund dafür bildeten die Überlegungen der vom Standardisierungsausschuss eingesetzten Ad-hoc-Arbeitsgruppe "Strategie der Sacherschließung" unter dem Vorsitz von Dr. Friedrich Geißelmann (UB Regensburg). In diesem Rahmen wurde auch über Wege diskutiert, um das große Potenzial der Schlagwortketten besser für das Retrieval nutzbar zu machen. Für die Untersuchung wurden - ohne Anspruch auf Vollständigkeit - 40 Online-Kataloge mit Schlagwortkettenfunktionalitäten analysiert. Zehn unterschiedliche Katalogsysteme waren dabei vertreten: Aleph, Allegro, Biber, Bond, Horizon, Libero, PICA, SISIS-Sunrise, Urica und Virtua. Eine Liste der betrachteten OPACs inkl. ihrer URLs und der im Folgenden verwendeten Siglen ist im Anhang zu finden. Die Darstellung stellt zwangsläufig eine Momentaufnahme dar, denn die OPACs sind natürlich keine statischen Systeme: Schon bei Abfassung des vorliegenden Beitrags im Juli 2008 waren einige Änderungen einzuarbeiten, die sich seit Februar ergeben hatten; weitere Umgestaltungen der Kataloge sind nur eine Frage der Zeit. Desungeachtet gibt die Studie einen Überblick über derzeit implementierte Funktionalitäten sowie aktuelle Trends, und ermöglicht auch das Aufzeigen von Problemfeldern und Verbesserungsmöglichkeiten.
  18. Wiesenmüller, H.: RDA in der bibliothekarischen Ausbildung : der Umstieg auf das neue Regelwerk aus Sicht von Lehrenden und Unterrichtenden (2013) 0.02
    0.015159425 = product of:
      0.075797126 = sum of:
        0.02838917 = weight(_text_:und in 3865) [ClassicSimilarity], result of:
          0.02838917 = score(doc=3865,freq=8.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.39180204 = fieldWeight in 3865, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3865)
        0.009260627 = weight(_text_:in in 3865) [ClassicSimilarity], result of:
          0.009260627 = score(doc=3865,freq=6.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.2082456 = fieldWeight in 3865, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=3865)
        0.038147323 = weight(_text_:der in 3865) [ClassicSimilarity], result of:
          0.038147323 = score(doc=3865,freq=14.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.5223744 = fieldWeight in 3865, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3865)
      0.2 = coord(3/15)
    
    Abstract
    Die Einführung des neuen Katalogisierungsstandards RDA stellt eine besondere Herausforderung für Lehrende und Unterrichtende in der bibliothekarischen Ausbildung dar. Da die Details der Umsetzung noch nicht bekannt sind, ist die Vermittlung vorerst nur sehr eingeschränkt möglich. In einer Online-Umfrage wurden der Stand der Vorbereitungen bei den Lehrenden, ihre besonderen Bedürfnisse und Schwierigkeiten sowie ihre Erwartungen für die Zukunft erfragt. Der Beitrag stellt die Ergebnisse vor und interpretiert sie.
  19. Wiesenmüller, H.: Neues vom "Katalog der Zukunft" : Bericht von der dritten Stuttgarter OPAC-Fortbildung (2011) 0.01
    0.014779608 = product of:
      0.07389804 = sum of:
        0.021291878 = weight(_text_:und in 4073) [ClassicSimilarity], result of:
          0.021291878 = score(doc=4073,freq=8.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.29385152 = fieldWeight in 4073, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4073)
        0.008019937 = weight(_text_:in in 4073) [ClassicSimilarity], result of:
          0.008019937 = score(doc=4073,freq=8.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.18034597 = fieldWeight in 4073, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4073)
        0.044586226 = weight(_text_:der in 4073) [ClassicSimilarity], result of:
          0.044586226 = score(doc=4073,freq=34.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.61054623 = fieldWeight in 4073, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4073)
      0.2 = coord(3/15)
    
    Abstract
    Nach einschlägigen Fortbildungsveranstaltungen in Stuttgart in den Jahren 2004 und 20071 beschäftigte sich der Regionalverband Südwest des Vereins Deutscher Bibliothekare (VDB) bereits zum dritten Mal in einer Vortragsveranstaltung mit aktuellen und zukünftigen Entwicklungen bei Bibliothekskatalogen: "Der Katalog der Zukunft (Teil 3): Die Benutzer in den Mittelpunkt!" war der Titel der Veranstaltung am 11. November 2010. Gastgeber war - wie schon bei der Premiere der Veranstaltungsreihe im Jahr 2004 - die Universitätsbibliothek Stuttgart. Da der Landesverband Baden-Württemberg des Berufsverband Information Bibliothek (BIB) ebenfalls an der Thematik interessiert war, bot es sich an, die Fortbildung gemeinsam durchzuführen. Zugleich sollte damit ein Zeichen für eine engere Kooperation der beiden Berufsverbände gesetzt werden. Entsprechend wurde auch die Moderation geteilt: Vormittags moderierte Heidrun Wiesenmüller von der Stuttgarter Hochschule der Medien (VDB Südwest), nachmittags Isabell Leibing von der Bibliothek der Universität Konstanz (BIB Baden-Württemberg). Die Vortragsfolien und weitere Materialien können über die Websites des VDB-Regionalverbands Südwest und der BIB-Landesgruppe Baden-Württemberg abgerufen werden.
  20. Hasubick, J.; Wiesenmüller, H.: RVK-Registerbegriffe in der Katalogrecherche : Chancen und Grenzen (2022) 0.01
    0.013992441 = product of:
      0.0699622 = sum of:
        0.026077118 = weight(_text_:und in 538) [ClassicSimilarity], result of:
          0.026077118 = score(doc=538,freq=12.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.35989314 = fieldWeight in 538, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=538)
        0.008019937 = weight(_text_:in in 538) [ClassicSimilarity], result of:
          0.008019937 = score(doc=538,freq=8.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.18034597 = fieldWeight in 538, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=538)
        0.035865147 = weight(_text_:der in 538) [ClassicSimilarity], result of:
          0.035865147 = score(doc=538,freq=22.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.4911232 = fieldWeight in 538, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=538)
      0.2 = coord(3/15)
    
    Abstract
    Die Registerbegriffe der Regensburger Verbundklassifikation (RVK) werden bisher in der Regel nur für die Suche nach passenden Systemstellen verwendet. Die vor einigen Jahren erfolgte Verknüpfung der RVK mit der Gemeinsamen Normdatei (GND) und die Aufbereitung der RVK als Normdatei lassen es jedoch denkbar erscheinen, die Registerbegriffe auch im Rahmen der Katalogrecherche zu nutzen - insbesondere für weiterführende und explorierende Recherchen im Anschluss an eine "known-item search". Der Aufsatz stellt die Ergebnisse einer Studie zu einer möglichen Einbindung von RVK-Registerbegriffen in die Katalogrecherche am Beispiel des K10plus vor. Dabei wurde für Notationsstichproben aus fünf Fachsystematiken sowohl der quantitative als auch der qualitative Mehrwert einer Recherche mit entsprechenden Registerbegriffen ermittelt. Es ergaben sich drei Kategorien von Notationen und ihren Registereinträgen: eindeutig geeignete, eindeutig nicht geeignete und ein großer Teil von Fällen, die nur nach umfassenden Vorarbeiten sinnvoll eingebunden werden könnten. Die herausgearbeiteten Fall-Cluster geben einen Überblick über die Chancen und Grenzen einer möglichen Einbindung der RVK-Registerbegriffe in die Katalogrecherche.