Search (41 results, page 1 of 3)

  • × author_ss:"Wiesenmüller, H."
  1. Wiesenmüller, H.; Horny, S.: Basiswissen RDA : eine Einführung für deutschsprachige Anwender (2015) 0.04
    0.036007088 = product of:
      0.15945996 = sum of:
        0.038282767 = weight(_text_:sprache in 4003) [ClassicSimilarity], result of:
          0.038282767 = score(doc=4003,freq=2.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.34422392 = fieldWeight in 4003, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.046875 = fieldNorm(doc=4003)
        0.015595603 = weight(_text_:und in 4003) [ClassicSimilarity], result of:
          0.015595603 = score(doc=4003,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.328536 = fieldWeight in 4003, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4003)
        0.03257833 = weight(_text_:literatur in 4003) [ClassicSimilarity], result of:
          0.03257833 = score(doc=4003,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 4003, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=4003)
        0.03257833 = weight(_text_:literatur in 4003) [ClassicSimilarity], result of:
          0.03257833 = score(doc=4003,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 4003, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=4003)
        0.016044816 = weight(_text_:im in 4003) [ClassicSimilarity], result of:
          0.016044816 = score(doc=4003,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.26501122 = fieldWeight in 4003, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4003)
        0.008784524 = product of:
          0.017569048 = sum of:
            0.017569048 = weight(_text_:29 in 4003) [ClassicSimilarity], result of:
              0.017569048 = score(doc=4003,freq=2.0), product of:
                0.07534158 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02141793 = queryNorm
                0.23319192 = fieldWeight in 4003, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4003)
          0.5 = coord(1/2)
        0.015595603 = weight(_text_:und in 4003) [ClassicSimilarity], result of:
          0.015595603 = score(doc=4003,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.328536 = fieldWeight in 4003, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4003)
      0.22580644 = coord(7/31)
    
    Abstract
    Basiswissen RDA bietet eine Einführung in das neue, aus der angloamerikanischen Tradition stammende Katalogisierungsregelwerk RDA (Resource Description and Access), das das bisherige deutsche Regelwerk RAK ablöst. In verständlicher Sprache geschrieben und mit zahlreichen Beispielen illustriert, leistet dieses Lehrbuch praktische Hilfestellung, um den Schritt von der Theorie in die Umsetzung zu unterstützen.
    Content
    Vgl. auch: http://www.basiswissen-rda.de/. Im Laufe des Jahres 2015 wird das bisherige deutsche Katalogisierungsregelwerk, die "Regeln für die alphabetische Katalogisierung" (RAK), durch einen neuen, internationalen Standard abgelöst: "Resource Description and Access" (RDA). Das am 27. März 2015 im Verlag De Gruyter erschienene Lehrbuch Basiswissen RDA von Heidrun Wiesenmüller und Silke Horny führt in das neue Regelwerk ein. Die Begleitwebsite ergänzt das Lehrbuch durch Aktualisierungen und zusätzliche Materialien und bietet außerdem in einem Blog Neuigkeiten und Informationen rund um das Thema RDA. 2. Aufl. 2017.
    Date
    29. 3.2013 10:52:50
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  2. Wiesenmüller, H.; Horny, S.: Basiswissen RDA : eine Einführung für deutschsprachige Anwender (2017) 0.03
    0.03308352 = product of:
      0.14651273 = sum of:
        0.021140529 = weight(_text_:und in 5027) [ClassicSimilarity], result of:
          0.021140529 = score(doc=5027,freq=54.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.44534507 = fieldWeight in 5027, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5027)
        0.019004026 = weight(_text_:literatur in 5027) [ClassicSimilarity], result of:
          0.019004026 = score(doc=5027,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.18523395 = fieldWeight in 5027, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5027)
        0.019004026 = weight(_text_:literatur in 5027) [ClassicSimilarity], result of:
          0.019004026 = score(doc=5027,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.18523395 = fieldWeight in 5027, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5027)
        0.0017111484 = weight(_text_:e in 5027) [ClassicSimilarity], result of:
          0.0017111484 = score(doc=5027,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.05558295 = fieldWeight in 5027, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5027)
        0.005124306 = product of:
          0.010248612 = sum of:
            0.010248612 = weight(_text_:29 in 5027) [ClassicSimilarity], result of:
              0.010248612 = score(doc=5027,freq=2.0), product of:
                0.07534158 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02141793 = queryNorm
                0.13602862 = fieldWeight in 5027, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5027)
          0.5 = coord(1/2)
        0.059388172 = weight(_text_:werke in 5027) [ClassicSimilarity], result of:
          0.059388172 = score(doc=5027,freq=6.0), product of:
            0.13780719 = queryWeight, product of:
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.02141793 = queryNorm
            0.43095118 = fieldWeight in 5027, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5027)
        0.021140529 = weight(_text_:und in 5027) [ClassicSimilarity], result of:
          0.021140529 = score(doc=5027,freq=54.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.44534507 = fieldWeight in 5027, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5027)
      0.22580644 = coord(7/31)
    
    Abstract
    Mit der ersten Auflage von Basiswissen RDA lag erstmals ein deutschsprachiges Lehrbuch für das neue, internationale Katalogisierungsregelwerk RDA (Resource Description and Access) vor. Seither wurde nicht nur das Regelwerk selbst an vielen Stellen verändert, sondern auch die deutschsprachigen Anwendungsrichtlinien wurden erheblich erweitert und verfeinert - nicht zuletzt aufgrund der Praxiserfahrungen seit dem Beginn der aktiven Katalogisierung mit RDA. Die überarbeitete und erweiterte Neuauflage - präsentiert die Katalogisierungsregeln auf dem aktuellen Stand von 2017 - bietet an vielen Stellen zusätzliche Details und Erläuterungen - geht besonders auf typische Fragen und Probleme ein, die beim Katalogisieren mit RDA auftreten - wurde um Beispiele und Erklärungen für verschiedene Themenbereiche erweitert (u.a. Reproduktionen, E-Books, Sprachkurse) - behandelt auch das neue theoretische Modell IFLA LRM und die geplante Weiterentwicklung von RDA Die zweite Auflage von Basiswissen RDA ist ein unverzichtbarer Begleiter für Studierende, Auszubildende und Beschäftigte in Bibliotheken, die mit RDA arbeiten. Das Lehrbuch unterstützt nicht nur beim Anfertigen von korrekten Katalogisaten, sondern auch dabei, das neue Regelwerk zu verstehen.
    Content
    Vgl. auch: http://www.basiswissen-rda.de/. IAllgemeiner Teil; 1 Formalerschließung: Konzepte und Standards; 1.1 Ziele von Formalerschließung; 1.2 Bisherige Regelwerke; 1.3 Bibliografische Beschreibung; 1.4 Eintragungen und Verweisungen; 1.5 EDV-Katalogisierung; 1.6 Aktuelle Herausforderungen; 2 Das FRBR-Modell; 2.1 Grundlagen; 2.2 Entitäten der Gruppe 1; 2.3 Entitäten der Gruppe 2; 2.4 FRBR in der Praxis; 3 RDA: Grundlagen; 3.1 Die Entwicklung von RDA; 3.2 RDA und FRBR; 3.3 Weitere Grundprinzipien von RDA; 3.4 Das RDA Toolkit; Haupteil; 4 Manifestationen und Exemplare; 4.1 Allgemeines 4.2 Grundprinzipien beim Erfassen und Übertragen4.3 Informationsquellen; 4.4 Titel der Manifestation; 4.5 Verantwortlichkeitsangabe; 4.6 Ausgabevermerk; 4.7 Erscheinungsvermerk; 4.8 Gesamttitelangabe; 4.9 Erscheinungsweise; 4.10 Identifikator für die Manifestation; 4.11 Anmerkung zur Manifestation; 4.12 Medientyp und Datenträgertyp; 4.13 Umfang; 4.14 Weitere Merkmale von Datenträgern; 4.15 Bezugs- und Zugangsinformationen; 4.16 Merkmale auf Exemplar-Ebene; 4.17 Begleitmaterial; 4.18 Beschreibung von mehrteiligen Monografien; 4.19 Beschreibung von monografischen Reihen 4.20 Beschreibung von integrierenden Ressourcen
    5 Werke und Expressionen; 5.1 Allgemeines; 5.2 Titel des Werks; 5.3 Weitere Merkmale von Werken; 5.4 Inhaltstyp; 5.5 Weitere Merkmale von Expressionen; 5.6 Sucheinstiege für Werke und Expressionen; 5.7 Beschreibung des Inhalts; 6 Personen, Familien und Körperschaften; 6.1 Allgemeines; 6.2 Moderne Personennamen; 6.3 Moderne Personen: Merkmale und Sucheinstiege; 6.4 Besondere Personengruppen; 6.5 Familien; 6.6 Namen von Körperschaften; 6.7 Namen von untergeordneten Körperschaften; 6.8 Körperschaften: Merkmale und Sucheinstiege; 6.9 Gebietskörperschaften und die ihnen untergeordneten Körperschaften6.10 Konferenzen und ähnliche Veranstaltungen; 7 Geografika; 7.1 Allgemeines; 7.2 Namen von Geografika; 8 Primärbeziehungen; 8.1 Allgemeines; 8.2 Primärbeziehungen und Datenmodelle; 8.3 Kernelemente bei den Primärbeziehungen;
    9 Beziehungen zu Personen, Familien und Körperschaften; 9.1 Allgemeines; 9.2 Geistiger Schöpfer: Allgemeines; 9.3 Körperschaft als geistiger Schöpfer; 9.4 Sonstige Person, Familie oder Körperschaft, die mit einem Werk in Verbindung steht; 9.5 Mitwirkender 9.6 Geistige Schöpfer und Mitwirkende: Besondere Fälle9.7 Beziehungen auf der Manifestationsebene; 9.8 Beziehungen auf der Exemplar-Ebene; 10 Beziehungen zwischen Werken, Expressionen, Manifestationen und Exemplaren; 10.1 Allgemeines; 10.2 In Beziehung stehende Werke; 10.3 In Beziehung stehende Expressionen; 10.4 In Beziehung stehende Manifestationen; 10.5 In Beziehung stehende Exemplare; 11 Beziehungen zwischen Personen, Familien und Körperschaften; 11.1 Allgemeines; 11.2 In Beziehung stehende Personen; 11.3 In Beziehung stehende Familien; 11.4 In Beziehung stehende Körperschaften; 12 Sacherschließung in RDA
    Date
    29. 3.2013 10:52:50
    Issue
    2., überarbeitete und erweiterte Auflage.
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  3. Wiesenmüller, H.; Pfeffer, M.: Abgleichen, anreichern, verknüpfen : das Clustering-Verfahren - eine neue Möglichkeit für die Analyse und Verbesserung von Katalogdaten (2013) 0.02
    0.023572251 = product of:
      0.14614797 = sum of:
        0.018452967 = weight(_text_:und in 1275) [ClassicSimilarity], result of:
          0.018452967 = score(doc=1275,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.38872904 = fieldWeight in 1275, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1275)
        0.019650806 = weight(_text_:im in 1275) [ClassicSimilarity], result of:
          0.019650806 = score(doc=1275,freq=6.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.32457113 = fieldWeight in 1275, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=1275)
        0.04479561 = weight(_text_:autoren in 1275) [ClassicSimilarity], result of:
          0.04479561 = score(doc=1275,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.37235492 = fieldWeight in 1275, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.046875 = fieldNorm(doc=1275)
        0.04479561 = weight(_text_:autoren in 1275) [ClassicSimilarity], result of:
          0.04479561 = score(doc=1275,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.37235492 = fieldWeight in 1275, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.046875 = fieldNorm(doc=1275)
        0.018452967 = weight(_text_:und in 1275) [ClassicSimilarity], result of:
          0.018452967 = score(doc=1275,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.38872904 = fieldWeight in 1275, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1275)
      0.16129032 = coord(5/31)
    
    Abstract
    Ein vergleichsweise einfaches Verfah ren bildet die Grundlage: Über einen Abgleich einiger weniger Kategorien lassen sich mit großer Zuverlässigkeit diejenigen bibliografischen Datensätze aus einem Datenpool (der auch aus mehreren Katalogen bestehen kann) zusammenführen, die zum selben Werk gehören. Ein solches Werk-Cluster umfasst dann unterschiedliche Ausgaben und Auflagen eines Werkes ebenso wie Übersetzungen. Zu einem Cluster gehören alle Datensätze, die im Einheitssachtitel beziehungsweise in Sachtitel und Zusätzen übereinstimmen und mindestens eine verknüpfte Person oder Körperschaft gemeinsam haben.
    Footnote
    Neben den gewohnten Vortragsveranstaltungen in großen Sälen wartete der Leipziger Bibliothekskongress im März 2013 mit einem neuen Veranstaltungsformat auf: Verschiedene Workshops boten die Gelegenheit, Themen intensiv zu beleuchten und in kleinen Gruppen zu diskutieren. Einer dieser Workshops wurde von den Autoren des vorliegenden Beitrags gestaltet und war neuartigen Möglichkeiten für die Analyse und Verbesserung von Katalogdaten gewidmet. Als dritter Referent wurde Markus Geipel von der Deutschen Nationalbibliothek (DNB) über Google Hangout virtuell zugeschaltet. Initiiert wurde die Veranstaltung von der AG Bibliotheken der Deutschen Gesellschaft für Klassifikation, die damit an ihre Hildesheimer Tagung von 2012 anknüpfte' Im Folgenden werden die wichtigsten Ergebnisse zusammengefasst.
  4. Syré, L.; Wiesenmüller, H.: ¬Die Virtuelle Deutsche Landesbibliographie : Metasuchmaschine für Landes- und Regionalbibliographien (2003) 0.02
    0.019529082 = product of:
      0.12108031 = sum of:
        0.016273987 = weight(_text_:und in 1928) [ClassicSimilarity], result of:
          0.016273987 = score(doc=1928,freq=8.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.34282678 = fieldWeight in 1928, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1928)
        0.038008053 = weight(_text_:literatur in 1928) [ClassicSimilarity], result of:
          0.038008053 = score(doc=1928,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.3704679 = fieldWeight in 1928, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1928)
        0.038008053 = weight(_text_:literatur in 1928) [ClassicSimilarity], result of:
          0.038008053 = score(doc=1928,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.3704679 = fieldWeight in 1928, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1928)
        0.012516229 = weight(_text_:20 in 1928) [ClassicSimilarity], result of:
          0.012516229 = score(doc=1928,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.21259327 = fieldWeight in 1928, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1928)
        0.016273987 = weight(_text_:und in 1928) [ClassicSimilarity], result of:
          0.016273987 = score(doc=1928,freq=8.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.34282678 = fieldWeight in 1928, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1928)
      0.16129032 = coord(5/31)
    
    Abstract
    Die 15 laufenden deutschen Landesbibliographien dokumentieren die Literatur über die einzelnen Länder, ihre Regionen, Orte und Persönlichkeiten in regelmäßig erscheinenden Bibliographien. Neben bzw. an die Stelle der gedruckten Bibliographie ist die Online-Datenbank getreten, die über das Internet weltweit zur Verfügung steht. Die nach der Methode des KVK funktionierende Virtuelle Deutsche Landesbibliographie fasst diese Internet-Datenbanken nun unter einer gemeinsamen Suchoberfläche zusammen. Sie ermöglicht die Abfrage gleich mehrerer Bibliographien in einem Schritt und vergrößert die Treffermenge bei länderübergreifenden, regional unspezifischen sowie biographischen Fragestellungen.
    Date
    2.11.2003 20:05:40
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.5, S.251-259
  5. Wiesenmüller, H.: Langzeitarchivierung von Online-Publikationen an Regionalbibliotheken : Das Projekt 'Baden-Württembergisches Online-Archiv' (BOA) (2004) 0.02
    0.017617138 = product of:
      0.10922626 = sum of:
        0.019276682 = weight(_text_:und in 2283) [ClassicSimilarity], result of:
          0.019276682 = score(doc=2283,freq=22.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.40608138 = fieldWeight in 2283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2283)
        0.027148608 = weight(_text_:literatur in 2283) [ClassicSimilarity], result of:
          0.027148608 = score(doc=2283,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.26461992 = fieldWeight in 2283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2283)
        0.027148608 = weight(_text_:literatur in 2283) [ClassicSimilarity], result of:
          0.027148608 = score(doc=2283,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.26461992 = fieldWeight in 2283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2283)
        0.016375672 = weight(_text_:im in 2283) [ClassicSimilarity], result of:
          0.016375672 = score(doc=2283,freq=6.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.27047595 = fieldWeight in 2283, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2283)
        0.019276682 = weight(_text_:und in 2283) [ClassicSimilarity], result of:
          0.019276682 = score(doc=2283,freq=22.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.40608138 = fieldWeight in 2283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2283)
      0.16129032 = coord(5/31)
    
    Abstract
    Elektronisches Publizieren im Internet ist heute in vielen Bereichen Realität geworden - bei der 'grauen Literatur` vielleicht mehr noch als bei den Verlagen. Immer häufiger erhält man z. B. bei Zeitschriften die Auskunft "erscheint nur noch online". Dabei sind es keineswegs nur Mitteilungsblätter und Jahresberichte kleiner Vereine, die nicht mehr gedruckt werden - auch eine Institution wie beispielsweise das Statistische Landesamt Baden-Württemberg will wichtige Publikationen wie die Statistischen Berichte` künftig ausschließlich im Internet anbieten. Ebenso ist es bei der Arbeit in den bibliographischen Stellen (z. B. Landesbibliographie, Hölderlin-Bibliographie), Sonderabteilungen und Fachreferaten alltäglich geworden, auf einschlägige und inhaltlich substanzielle Online-Ressourcen zu stoßen, die man gerne festhalten und dauerhaft archivieren würde. Der praktische Umgang damit war bisher jedoch meist von einer gewissen Hilflosigkeit geprägt; die Materialien wurden - mit wenigen Ausnahmen' - allenfalls in Linklisten aufgenommen oder gar auf Papier ausgedruckt. Gleichzeitig wuchs in den vergangenen Jahren die Einsicht, dass - trotz aller technischen Schwierigkeiten und der allgegenwärtigen Personalknappheit - der Sammel- und Archivierungsauftrag der regionalen Pflichtexemplarbibliotheken vor den Netzpublikationen nicht Halt machen dürfe. Die beiden badenwürttembergischen Landesbibliotheken in Karlsruhe und Stuttgart wollten sich der neuen Verantwortung offensiv stellen, wobei sich als natürlicher Kooperationspartner das Bibliotheksservice-Zentrum in Konstanz anbot. Im Oktober 2002 - kurz vor dem von Der Deutschen Bibliothek initiierten Workshop 'Langzeitverfügbarkeit elektronischer Dokumente' - wurde deshalb eine Vereinbarung zwischen der Badischen Landesbibliothek (BLB), der Württembergischen Landesbibliothek (WLB) und dem Bibliotheksservice-Zentrum Baden-Württemberg (BSZ) geschlossen. Das Ziel war die gemeinsame Entwicklung einer technischen Plattform und eines Geschäftsgangs für die Erschließung und Speicherung relevanter Netzpublikationen. Seit Herbst 2003 trägt das Projekt den Namen 'Baden-Württembergisches Online-Archiv' (BOA) und ist unter der URL http://www.boa-bw.de erreichbar
  6. Wiesenmüller, H.: Verbale Erschließung in Katalogen und Discovery-Systemen : Überlegungen zur Qualität (2021) 0.02
    0.016815517 = product of:
      0.104256205 = sum of:
        0.017436413 = weight(_text_:und in 374) [ClassicSimilarity], result of:
          0.017436413 = score(doc=374,freq=18.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3673144 = fieldWeight in 374, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.021140901 = weight(_text_:im in 374) [ClassicSimilarity], result of:
          0.021140901 = score(doc=374,freq=10.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.34918293 = fieldWeight in 374, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.04098789 = weight(_text_:einzelne in 374) [ClassicSimilarity], result of:
          0.04098789 = score(doc=374,freq=2.0), product of:
            0.1260605 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02141793 = queryNorm
            0.3251446 = fieldWeight in 374, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.017436413 = weight(_text_:und in 374) [ClassicSimilarity], result of:
          0.017436413 = score(doc=374,freq=18.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3673144 = fieldWeight in 374, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.007254585 = product of:
          0.01450917 = sum of:
            0.01450917 = weight(_text_:22 in 374) [ClassicSimilarity], result of:
              0.01450917 = score(doc=374,freq=2.0), product of:
                0.07500195 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02141793 = queryNorm
                0.19345059 = fieldWeight in 374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=374)
          0.5 = coord(1/2)
      0.16129032 = coord(5/31)
    
    Abstract
    Beschäftigt man sich mit Inhaltserschließung, so sind zunächst zwei Dimensionen zu unterscheiden - die Wissensorganisationssysteme selbst (z. B. Normdateien, Thesauri, Schlagwortsprachen, Klassifikationen und Ontologien) und die Metadaten für Dokumente, die mit diesen Wissensorganisationssystemen erschlossen sind. Beides steht in einer Wechselwirkung zueinander: Die Wissensorganisationssysteme sind die Werkzeuge für die Erschließungsarbeit und bilden die Grundlage für die Erstellung konkreter Erschließungsmetadaten. Die praktische Anwendung der Wissensorganisationssysteme in der Erschließung wiederum ist die Basis für deren Pflege und Weiterentwicklung. Zugleich haben Wissensorganisationssysteme auch einen Eigenwert unabhängig von den Erschließungsmetadaten für einzelne Dokumente, indem sie bestimmte Bereiche von Welt- oder Fachwissen modellartig abbilden. Will man nun Aussagen über die Qualität von inhaltlicher Erschließung treffen, so genügt es nicht, den Input - also die Wissensorganisationssysteme und die damit generierten Metadaten - zu betrachten. Man muss auch den Output betrachten, also das, was die Recherchewerkzeuge daraus machen und was folglich bei den Nutzer:innen konkret ankommt. Im vorliegenden Beitrag werden Überlegungen zur Qualität von Recherchewerkzeugen in diesem Bereich angestellt - gewissermaßen als Fortsetzung und Vertiefung der dazu im Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) gegebenen Hinweise. Im Zentrum steht die verbale Erschließung nach den Regeln für die Schlagwortkatalogisierung (RSWK), wie sie sich in Bibliothekskatalogen manifestiert - gleich, ob es sich dabei um herkömmliche Kataloge oder um Resource-Discovery-Systeme (RDS) handelt.
    Date
    24. 9.2021 12:22:02
    Footnote
    Anmerkung: Früher wäre es im RSWK-Kontext aufgefallen, dass es sich bei einer Wortschöpfung 'Erschließungsmetadaten' um einen Pleonasmus handelt.
    Series
    Bibliotheks- und Informationspraxis; 70
    Theme
    Verbale Doksprachen im Online-Retrieval
  7. Wiesenmüller, H.: ¬Die Zukunft der Bibliotheksverbünde : Ein kritischer Blick auf die Empfehlungen des Wissenschaftsrates und der Deutschen Forschungsgemeinschaft (2011) 0.01
    0.010927931 = product of:
      0.08469147 = sum of:
        0.0120803015 = weight(_text_:und in 202) [ClassicSimilarity], result of:
          0.0120803015 = score(doc=202,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.2544829 = fieldWeight in 202, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=202)
        0.011345398 = weight(_text_:im in 202) [ClassicSimilarity], result of:
          0.011345398 = score(doc=202,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.18739122 = fieldWeight in 202, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=202)
        0.04918547 = weight(_text_:einzelne in 202) [ClassicSimilarity], result of:
          0.04918547 = score(doc=202,freq=2.0), product of:
            0.1260605 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02141793 = queryNorm
            0.39017352 = fieldWeight in 202, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=202)
        0.0120803015 = weight(_text_:und in 202) [ClassicSimilarity], result of:
          0.0120803015 = score(doc=202,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.2544829 = fieldWeight in 202, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=202)
      0.12903225 = coord(4/31)
    
    Abstract
    Ende 2006 beauftragte die Kultusministerkonferenz den Wissenschaftsrat mit einer Evaluierung der deutschen Bibliotheksverbünde - Mitte 2009 begannen die Arbeiten. Als Abschlussbericht wurden am 28. Januar 2011 »Empfehlungen zur Zukunft des bibliothekarischen Verbundsystems in Deutschland« vorgelegt. Die Gutachter hatten dabei nicht mehr einzelne regionale Verbünde, sondern ein Gesamtsystem auf nationaler Ebene vor Augen. Parallel dazu beschäftigte sich der »Ausschuss für wissenschaftliche Bibliotheken und Informationssysteme« der Deutschen Forschungsgemeinschaft mit dem Thema und veröffentlichte am 2. Februar 2011 ein knapper gehaltenes »Positionspapier zur Weiterentwicklung der Bibliotheksverbünde als Teil einer überregionalen Informationsinfrastruktur«. Die Papiere unterscheiden sich in Nuancen, haben aber denselben Grundtenor. Schließlich präsentierten die beiden eine dreiseitige gemeinsame Erklärung »Zur Zukunft der Bibliotheksverbünde als Teil einer überregionalen Informationsinfrastruktur«. Ihr Gesamturteil ist überaus kritisch. Im folgenden Beitrag nimmt Heidrun Wiesenmüller, Professorin an der Hochschule der Medien in Stuttgart, Stellung zu den Empfehlungen.
  8. Wiesenmüller, H.: AACR und kein Ende? : Ein kritischer Rück- und Ausblick auf die Regelwerksdiskussion (2005) 0.01
    0.010088448 = product of:
      0.062548384 = sum of:
        0.01676477 = weight(_text_:und in 3426) [ClassicSimilarity], result of:
          0.01676477 = score(doc=3426,freq=26.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3531656 = fieldWeight in 3426, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3426)
        0.013100538 = weight(_text_:im in 3426) [ClassicSimilarity], result of:
          0.013100538 = score(doc=3426,freq=6.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.21638076 = fieldWeight in 3426, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=3426)
        0.010114641 = weight(_text_:20 in 3426) [ClassicSimilarity], result of:
          0.010114641 = score(doc=3426,freq=4.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.17180131 = fieldWeight in 3426, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.03125 = fieldNorm(doc=3426)
        0.01676477 = weight(_text_:und in 3426) [ClassicSimilarity], result of:
          0.01676477 = score(doc=3426,freq=26.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3531656 = fieldWeight in 3426, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3426)
        0.005803668 = product of:
          0.011607336 = sum of:
            0.011607336 = weight(_text_:22 in 3426) [ClassicSimilarity], result of:
              0.011607336 = score(doc=3426,freq=2.0), product of:
                0.07500195 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02141793 = queryNorm
                0.15476047 = fieldWeight in 3426, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3426)
          0.5 = coord(1/2)
      0.16129032 = coord(5/31)
    
    Abstract
    Nach einer zeitweise sehr heftig geführten Debatte um die Zukunft der Regelwerke schien der Umstieg von RAK auf die Anglo-American Cataloguing Rules (AACR) in weite Ferne gerückt zu sein. Zu stark war die Gegenwehr vor allem bei den Spezialisten aus der bibliothekarischen Praxis, die sich von einem Wechsel keine großen Vorteile für die Verbundkatalogisierung und Opac-Recherche versprachen. Die Kritiker monierten zudem, dass der Umstellungsaufwand vordem Hintergrund knapper Finanzen vor allem für die kleineren Bibliotheken kaum zu schultern sei. Der Umstieg auf AACR und MARC bleibt dennoch ein Dauerbrenner: Durch die internationale Fachdiskussion um gemeinsame Regelwerke hat das Thema in jüngster Zeit wieder neue Nahrung bekommen. Im Mai des vergangenen Jahres ging ein kollektives Aufatmen durch die Bibliothekswelt: Einen Umstieg auf AACR2 - so wurde kolportiert - werde es nicht geben, das Projekt sei »gestorben«. Die offizielle Sprachregelung des Standardisierungsausschusses freilich gab schon damals Anlass zur Skepsis: »Nach Aussage der Studie stehen einem Umstieg keine grundsätzlichen Hindernisse entgegen, statt dessen werden Vorteile eines Umstiegs aufgezeigt. Die Befürworter sehen jedoch zurzeit keine Möglichkeit, einen Umstieg generell durchzusetzen, und sprechen sich für eine schrittweise Internationalisierung des deutschen Regelwerks aus.« Es war daher damit zu rechnen, dass das Thema eher früher als später wieder aus der Schublade gezogen würde. Und tatsächlich: Schon bei der nächsten Sitzung im Dezember 2004 lag der Vorschlag auf dem Tisch, ein neues Regelwerk auf der Basis einer deutschen AACR-Übersetzung zu erarbeiten. Zwar wurde dieser sehr radikale Antrag zurückgezogen; nichtsdestoweniger wurden mit der Umstellung auf MARC21 und der Einführung von Deutsch als Ansetzungssprache Beschlüsse von weitreichender Konsequenz gefasst. Trotz der verständlichen Ermüdungserscheinungen, mit denen viele Kolleginnen und Kollegen der anhaltenden Regelwerksdiskussion mittlerweile begegnen, seien deshalb im Folgenden einige wichtige Entwicklungen und Ergebnisse der vergangenen Zeit nachgezeichnet und kommentiert.
    Content
    Nachtrag in BuB 57(2005) H.5, S.324: "AACR und kein Ende? Heidrun Wiesenmüllers kritischer Rück- und Ausblick auf die Regelwerksdiskussion, »AACR und kein Ende?«, ist in BuB Heft 3/2005 (Seite 198 bis 204) wegen einer technischen Panne ohne die zugehörigen Fußnoten publiziert worden. Die vollständige Fassung ist online verfügbar unter <www.bibliothek.uni-augsburg.de/kfe/mat/Wiesenmueller_BuB_57_3.pdf>."
    Date
    20. 9.1996 20:25:49
    22. 5.2005 19:39:44
  9. Wiesenmüller, H.: Schlagwortketten in Online-Katalogen : Realität und Potenzial (2008) 0.01
    0.009987828 = product of:
      0.07740567 = sum of:
        0.012301977 = weight(_text_:und in 2410) [ClassicSimilarity], result of:
          0.012301977 = score(doc=2410,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.25915268 = fieldWeight in 2410, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2410)
        0.020011403 = weight(_text_:im in 2410) [ClassicSimilarity], result of:
          0.020011403 = score(doc=2410,freq=14.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.33052707 = fieldWeight in 2410, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=2410)
        0.032790314 = weight(_text_:einzelne in 2410) [ClassicSimilarity], result of:
          0.032790314 = score(doc=2410,freq=2.0), product of:
            0.1260605 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02141793 = queryNorm
            0.26011568 = fieldWeight in 2410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=2410)
        0.012301977 = weight(_text_:und in 2410) [ClassicSimilarity], result of:
          0.012301977 = score(doc=2410,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.25915268 = fieldWeight in 2410, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2410)
      0.12903225 = coord(4/31)
    
    Abstract
    Das Prinzip, zur Wiedergabe eines komplexen Gegenstands mehrere Schlagwörter in Form einer Schlagwortkette zu verknüpfen, gehört zum zentralen Kern der 'Regeln für den Schlagwortkatalog' (RSWK). Während die Bildung solcher Schlagwortketten - also der Input - umfassend geregelt ist, verzichtet das Regelwerk jedoch darauf, auch für den Output nähere Vorgaben zu machen: "Die Gestaltung des Retrievals von Schlagwörtern und ihrer Anzeige im Online-Katalog" sei "Aufgabe des jeweiligen OPACs", weshalb man sich auf "einzelne Hinweise" beschränke (§ 20,1). Explizit genannt werden immerhin die "Suche nach Schlagwortketten" und das Browsing im Schlagwortkettenindex (5 20,5). Freilich ist seit langem bekannt, dass Schlagwortketten in vielen OPACs recht 'stiefmütterlich' behandelt werden. Eine aussagekräftige Bestandsaufnahme über die tatsächliche Nutzung der Schlagwortketten in aktuellen OPACs fehlte jedoch. Eine solche hat die Verfasserin im Februar 2008 unternommen. Den Hintergrund dafür bildeten die Überlegungen der vom Standardisierungsausschuss eingesetzten Ad-hoc-Arbeitsgruppe "Strategie der Sacherschließung" unter dem Vorsitz von Dr. Friedrich Geißelmann (UB Regensburg). In diesem Rahmen wurde auch über Wege diskutiert, um das große Potenzial der Schlagwortketten besser für das Retrieval nutzbar zu machen. Für die Untersuchung wurden - ohne Anspruch auf Vollständigkeit - 40 Online-Kataloge mit Schlagwortkettenfunktionalitäten analysiert. Zehn unterschiedliche Katalogsysteme waren dabei vertreten: Aleph, Allegro, Biber, Bond, Horizon, Libero, PICA, SISIS-Sunrise, Urica und Virtua. Eine Liste der betrachteten OPACs inkl. ihrer URLs und der im Folgenden verwendeten Siglen ist im Anhang zu finden. Die Darstellung stellt zwangsläufig eine Momentaufnahme dar, denn die OPACs sind natürlich keine statischen Systeme: Schon bei Abfassung des vorliegenden Beitrags im Juli 2008 waren einige Änderungen einzuarbeiten, die sich seit Februar ergeben hatten; weitere Umgestaltungen der Kataloge sind nur eine Frage der Zeit. Desungeachtet gibt die Studie einen Überblick über derzeit implementierte Funktionalitäten sowie aktuelle Trends, und ermöglicht auch das Aufzeigen von Problemfeldern und Verbesserungsmöglichkeiten.
    Theme
    Verbale Doksprachen im Online-Retrieval
  10. Wiesenmüller, H.: Zehn Jahre 'Functional Requirements for Bibliographic Records' (FRBR) : Vision, Theorie und praktische Anwendung (2008) 0.01
    0.008597309 = product of:
      0.06662914 = sum of:
        0.018598842 = weight(_text_:und in 4586) [ClassicSimilarity], result of:
          0.018598842 = score(doc=4586,freq=8.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.39180204 = fieldWeight in 4586, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4586)
        0.015127198 = weight(_text_:im in 4586) [ClassicSimilarity], result of:
          0.015127198 = score(doc=4586,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.24985497 = fieldWeight in 4586, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=4586)
        0.014304262 = weight(_text_:20 in 4586) [ClassicSimilarity], result of:
          0.014304262 = score(doc=4586,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.24296375 = fieldWeight in 4586, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0625 = fieldNorm(doc=4586)
        0.018598842 = weight(_text_:und in 4586) [ClassicSimilarity], result of:
          0.018598842 = score(doc=4586,freq=8.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.39180204 = fieldWeight in 4586, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4586)
      0.12903225 = coord(4/31)
    
    Abstract
    Mithilfe der FRBR, an denen sich auch das neue Regelwerk RDA orientiert, sollen Katalognutzer auf neuartige Weise im 'bibliographischen Universum' navigieren können. Der Beitrag erläutert und diskutiert einerseits die zentralen Elemente des theoretischen Modells, andererseits die Chancen und Probleme einer praktischen Umsetzung. Die in Deutschland vorhandenen Datenstrukturen bilden dafür eine vergleichsweise gute Ausgangsbasis. Denkbar ist aber auch eine virtuelle 'FRBRisierung' ohne Eingriff in den Datenbestand.
    Date
    11.12.1998 20:07:30
    Source
    Bibliothek: Forschung und Praxis. 32(2008) H.3, S.348-358
  11. Wiesenmüller, H.: Vier Thesen (2003) 0.01
    0.008347609 = product of:
      0.05175518 = sum of:
        0.015421345 = weight(_text_:und in 3362) [ClassicSimilarity], result of:
          0.015421345 = score(doc=3362,freq=22.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3248651 = fieldWeight in 3362, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3362)
        0.013100538 = weight(_text_:im in 3362) [ClassicSimilarity], result of:
          0.013100538 = score(doc=3362,freq=6.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.21638076 = fieldWeight in 3362, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=3362)
        0.0019555981 = weight(_text_:e in 3362) [ClassicSimilarity], result of:
          0.0019555981 = score(doc=3362,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.063523374 = fieldWeight in 3362, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=3362)
        0.0058563496 = product of:
          0.011712699 = sum of:
            0.011712699 = weight(_text_:29 in 3362) [ClassicSimilarity], result of:
              0.011712699 = score(doc=3362,freq=2.0), product of:
                0.07534158 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02141793 = queryNorm
                0.15546128 = fieldWeight in 3362, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3362)
          0.5 = coord(1/2)
        0.015421345 = weight(_text_:und in 3362) [ClassicSimilarity], result of:
          0.015421345 = score(doc=3362,freq=22.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3248651 = fieldWeight in 3362, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3362)
      0.16129032 = coord(5/31)
    
    Abstract
    Was brauchen unsere Benutzer wirklich? Angesichts begrenzter Ressourcen hat diese Frage im Mittelpunkt unserer Überlegungen zu stehen. Das Ergebnis müssen pragmatische Strategien für die Bibliotheken sein. Anstatt visionäre Ideen vorzutragen, wie eine ideale Erschließung in einer fernen Zukunft aussehen könnte, seien deshalb vier recht simple Thesen formuliert.
    Content
    "1. These: Bibliotheken und Benutzer brauchen keinen neuen Katalogbruch, sondern eine sinnvolle Weiterentwicklung des Vorhandenen! 2. These: Besser irgendeine Sacherschließung als überhaupt keine! 3. These: Die beste Erschließung nützt nichts, wenn sie den Benutzern nicht angemessen präsentiert wird! 4. These: Bibliotheken müssen die wachsende Vielfalt vorhandener Daten akzeptieren und das Beste daraus machen!"
    Footnote
    Vgl. auch die Kommentierung von E. Plassmann in einer Rezension in ZfBB 52(2005) H.2, S.99: Vieles wirkt erfrischend. Um das heftig umstrittene Thema RAK und AACR herauszugreifen,das imTagungsband ganz vorne steht: Auf die knappe, gleichwohl qualifizierte und nachdenkliche Einführung von Ulrich Hohoff folgen kurze, unbefangen kritische Statements von der Art, die man sich in der Fachdiskussion öfter wünschte - ohne die verbreitete, nicht selten pharisäische correctness. Bernhard Eversberg wird vielen Kolleginnen und Kollegen aus der Seele gesprochen haben, wenn er sagt: »Das Katalogisierungspersonal sollte frühzeitig die Möglichkeit zum Einblick in neue Texte und Entwürfe haben. Engagierte Mitarbeiterinnen wünschen sich Möglichkeiten, eigene Erfahrungen, Meinungen und Fragen einzubringen.« Oder, wenn er feststellt: »Technische Verbesserungen sind aber kein Ziel an sich. Wichtig ist zuallererst, die eigentlichen Ziele des Katalogisierens neu zu überdenken, zu erweitern oder zu modifizieren. Dies kann eine neue technische Grundlage nur unterstützen, nicht ersetzen. Zu den neuen Herausforderungen gehören vernetzte, internationalisierte Normdateien.« (beide Zitate S.75) - In eine etwas andere Richtung pointiert Heidrun Wiesenmüller das Thema: »Der Plan eines Umstiegs auf AACR2/MARC stellt nicht zuletzt den anachronistischen Versuch dar, eine heterogene Datenwelt durch Verordnung eines Standards von oben zu vereinheitlichen. Eine zeitgemäße Lösung kann jedoch nur darin bestehen, Tools und Informationssysteme auf Meta-Ebene zu entwickeln.« (S. 79) Dem ist zu diesem Thema nichts hinzuzufügen.
    Imprint
    Jülich : ASpB / Sektion 5 im DBV
    Source
    Bibliotheken und Informationseinrichtungen - Aufgaben, Strukturen, Ziele: 29. Arbeits- und Fortbildungstagung der ASpB / Sektion 5 im DBV in Zusammenarbeit mit der BDB, BIB, DBV, DGI und VDB, zugleich DBV-Jahrestagung, 8.-11.4.2003 in Stuttgart. Red.: Margit Bauer
  12. Wiesenmüller, H.: Formale Erschließung (2023) 0.01
    0.008247869 = product of:
      0.06392099 = sum of:
        0.020923696 = weight(_text_:und in 784) [ClassicSimilarity], result of:
          0.020923696 = score(doc=784,freq=18.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.4407773 = fieldWeight in 784, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.011345398 = weight(_text_:im in 784) [ClassicSimilarity], result of:
          0.011345398 = score(doc=784,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.18739122 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.010728197 = weight(_text_:20 in 784) [ClassicSimilarity], result of:
          0.010728197 = score(doc=784,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.18222281 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.020923696 = weight(_text_:und in 784) [ClassicSimilarity], result of:
          0.020923696 = score(doc=784,freq=18.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.4407773 = fieldWeight in 784, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
      0.12903225 = coord(4/31)
    
    Abstract
    Bei der formalen Erschließung bzw. Formalerschließung, die auch als formale Analyse, formale Erfassung, Formalbeschreibung oder (Formal-)Katalogisierung bezeichnet wird, "werden Ressourcen gemäß festgelegten Regeln nach äußerlichen, formalen Kriterien beschrieben und auffindbar gemacht". Diese Ressourcen können alle Arten von physischen und digitalen Objekten sein, die z. B. in Bibliotheken, Archiven, Museen oder Dokumentationsstellen gesammelt oder verzeichnet werden. Formale Aspekte bei einem gedruckten Buch sind u. a. der*die Autor*in, der Titel, der Verlag, das Erscheinungsdatum, der Umfang und die ISBN. Bei einer Skulptur sind es u. a. der*die Künstler*in, das Entstehungsdatum, Werkstoff und Technik, die Maße und die Besitzgeschichte. Bei einem im Internet zur Verfügung gestellten digitalen Foto sind es u. a. der*die Fotograf*in, der Zeitpunkt der Aufnahme und die Koordinaten des Aufnahmeorts, technische Daten zur Aufnahme (z. B. Belichtungszeit), der Dateiname, das Dateiformat und die Dateigröße sowie die URL und ggf. ein Persistent Identifier (z. B. DOI oder URN).
    Date
    24.11.2022 11:42:20
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  13. Wiesenmüller, H.: Sacherschließung unter FRBR und RDA in Theorie und Praxis (2016) 0.01
    0.008018357 = product of:
      0.062142268 = sum of:
        0.018194871 = weight(_text_:und in 3302) [ClassicSimilarity], result of:
          0.018194871 = score(doc=3302,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.38329202 = fieldWeight in 3302, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3302)
        0.013236298 = weight(_text_:im in 3302) [ClassicSimilarity], result of:
          0.013236298 = score(doc=3302,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.2186231 = fieldWeight in 3302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3302)
        0.012516229 = weight(_text_:20 in 3302) [ClassicSimilarity], result of:
          0.012516229 = score(doc=3302,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.21259327 = fieldWeight in 3302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3302)
        0.018194871 = weight(_text_:und in 3302) [ClassicSimilarity], result of:
          0.018194871 = score(doc=3302,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.38329202 = fieldWeight in 3302, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3302)
      0.12903225 = coord(4/31)
    
    Abstract
    Der Beitrag untersucht die Rolle der Sacherschließung in den "Functional Requirements for Bibliographic Records" (FRBR) und den damit verwandten Modellen (FRAD, FRSAD, FRBR-LRM) sowie im neuen Katalogisierungsstandard "Resource Description and Access" (RDA). Ebenfalls betrachtet wird die Praxis der verbalen Sacherschließung in Deutschland vor dem Hintergrund der RDA-Einführung. Der vorliegende Beitrag ist eine ausformulierte und deutlich erweiterte Fassung von: Heidrun Wiesenmüller, Sacherschließung in einer RDA-Welt. Möglichkeiten und Grenzen , Vortrag auf der 16. InetBib-Tagung in Stuttgart am 11.02.2016, http://dx.doi.org/10.17877/DE290R-16919.
    Date
    30. 9.2016 20:18:28
  14. Wiesenmüller, H.: ¬Das Konzept der "Virtuellen Bibliothek" im deutschen Bibliothekswesen der 1990er Jahre (2000) 0.01
    0.007328829 = product of:
      0.056798425 = sum of:
        0.011624276 = weight(_text_:und in 123) [ClassicSimilarity], result of:
          0.011624276 = score(doc=123,freq=2.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.24487628 = fieldWeight in 123, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=123)
        0.018908998 = weight(_text_:im in 123) [ClassicSimilarity], result of:
          0.018908998 = score(doc=123,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.3123187 = fieldWeight in 123, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.078125 = fieldNorm(doc=123)
        0.014640874 = product of:
          0.029281748 = sum of:
            0.029281748 = weight(_text_:29 in 123) [ClassicSimilarity], result of:
              0.029281748 = score(doc=123,freq=2.0), product of:
                0.07534158 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02141793 = queryNorm
                0.38865322 = fieldWeight in 123, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=123)
          0.5 = coord(1/2)
        0.011624276 = weight(_text_:und in 123) [ClassicSimilarity], result of:
          0.011624276 = score(doc=123,freq=2.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.24487628 = fieldWeight in 123, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=123)
      0.12903225 = coord(4/31)
    
    Date
    18. 7.2002 19:36:29
    Series
    Kölner Arbeiten zum Bibliotheks- und Dokumentationswesen; H.26
  15. Wiesenmüller, H.: Neues vom "Katalog der Zukunft" : Bericht von der dritten Stuttgarter OPAC-Fortbildung (2011) 0.01
    0.0064479806 = product of:
      0.049971852 = sum of:
        0.013949131 = weight(_text_:und in 4073) [ClassicSimilarity], result of:
          0.013949131 = score(doc=4073,freq=8.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.29385152 = fieldWeight in 4073, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4073)
        0.011345398 = weight(_text_:im in 4073) [ClassicSimilarity], result of:
          0.011345398 = score(doc=4073,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.18739122 = fieldWeight in 4073, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4073)
        0.010728197 = weight(_text_:20 in 4073) [ClassicSimilarity], result of:
          0.010728197 = score(doc=4073,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.18222281 = fieldWeight in 4073, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.046875 = fieldNorm(doc=4073)
        0.013949131 = weight(_text_:und in 4073) [ClassicSimilarity], result of:
          0.013949131 = score(doc=4073,freq=8.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.29385152 = fieldWeight in 4073, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4073)
      0.12903225 = coord(4/31)
    
    Abstract
    Nach einschlägigen Fortbildungsveranstaltungen in Stuttgart in den Jahren 2004 und 20071 beschäftigte sich der Regionalverband Südwest des Vereins Deutscher Bibliothekare (VDB) bereits zum dritten Mal in einer Vortragsveranstaltung mit aktuellen und zukünftigen Entwicklungen bei Bibliothekskatalogen: "Der Katalog der Zukunft (Teil 3): Die Benutzer in den Mittelpunkt!" war der Titel der Veranstaltung am 11. November 2010. Gastgeber war - wie schon bei der Premiere der Veranstaltungsreihe im Jahr 2004 - die Universitätsbibliothek Stuttgart. Da der Landesverband Baden-Württemberg des Berufsverband Information Bibliothek (BIB) ebenfalls an der Thematik interessiert war, bot es sich an, die Fortbildung gemeinsam durchzuführen. Zugleich sollte damit ein Zeichen für eine engere Kooperation der beiden Berufsverbände gesetzt werden. Entsprechend wurde auch die Moderation geteilt: Vormittags moderierte Heidrun Wiesenmüller von der Stuttgarter Hochschule der Medien (VDB Südwest), nachmittags Isabell Leibing von der Bibliothek der Universität Konstanz (BIB Baden-Württemberg). Die Vortragsfolien und weitere Materialien können über die Websites des VDB-Regionalverbands Südwest und der BIB-Landesgruppe Baden-Württemberg abgerufen werden.
    Date
    20. 3.2011 19:40:41
  16. Wiesenmüller, H.: Informationsaufbereitung I : Formale Erfassung (2004) 0.01
    0.005208296 = product of:
      0.053819057 = sum of:
        0.017084125 = weight(_text_:und in 2914) [ClassicSimilarity], result of:
          0.017084125 = score(doc=2914,freq=12.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.35989314 = fieldWeight in 2914, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.019650806 = weight(_text_:im in 2914) [ClassicSimilarity], result of:
          0.019650806 = score(doc=2914,freq=6.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.32457113 = fieldWeight in 2914, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.017084125 = weight(_text_:und in 2914) [ClassicSimilarity], result of:
          0.017084125 = score(doc=2914,freq=12.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.35989314 = fieldWeight in 2914, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
      0.09677419 = coord(3/31)
    
    Abstract
    Formale Erfassung wird auch als formale Analyse, Formalerschließung, Formalkatalogisierung, alphabetische Katalogisierung oder Titelaufnahme bezeichnet. Dabei wird der letzte Terminus nicht nur für den Vorgang der Erfassung verwendet, sondern kann auch sein Ergebnis beschreiben. Andere Bezeichnungen dafür sind Katalogisat oder Metadaten (Daten über Daten). Unter formaler Erfassung versteht man die konsistent nach bestimmten Regeln erfolgende Beschreibung und das Wiederauffindbar-Machen von Objekten nach äußerlichen, formalen Kriterien. Gegenstand einer formalen Erfassung können Objekte aller Art sein, also beispielsweise auch die Produktionspalette eines Industrieunternehmens. Im Informations- und Dokumentationswesen bezieht sich die formale Erfassung üblicherweise auf Dokumente (z. B. Druckschriften, audiovisuelle Materialien, Archivalien, Internet-Ressourcen, Museumsobjekte), wobei je nach Dokumenttyp unterschiedliche Merkmale zu erfassen sind. Die Formalerschließung stellt seit jeher eine zentrale Aufgabe von IuD-Institutionen dar. Sie bildet sozusagen das Fundament, auf dem die inhaltliche Erschließung aufsetzt. Diese erfolgt im deutschsprachigen Raum oft erst in einem zweiten, deutlich getrennten Arbeitsschritt. Im angelsächsischen Gebiet werden hingegen formale und sachliche Erschließung typischerweise gleichzeitig und durch denselben Bearbeiter vorgenommen.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  17. Hasubick, J.; Wiesenmüller, H.: RVK-Registerbegriffe in der Katalogrecherche : Chancen und Grenzen (2022) 0.01
    0.005208296 = product of:
      0.053819057 = sum of:
        0.017084125 = weight(_text_:und in 538) [ClassicSimilarity], result of:
          0.017084125 = score(doc=538,freq=12.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.35989314 = fieldWeight in 538, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=538)
        0.019650806 = weight(_text_:im in 538) [ClassicSimilarity], result of:
          0.019650806 = score(doc=538,freq=6.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.32457113 = fieldWeight in 538, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=538)
        0.017084125 = weight(_text_:und in 538) [ClassicSimilarity], result of:
          0.017084125 = score(doc=538,freq=12.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.35989314 = fieldWeight in 538, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=538)
      0.09677419 = coord(3/31)
    
    Abstract
    Die Registerbegriffe der Regensburger Verbundklassifikation (RVK) werden bisher in der Regel nur für die Suche nach passenden Systemstellen verwendet. Die vor einigen Jahren erfolgte Verknüpfung der RVK mit der Gemeinsamen Normdatei (GND) und die Aufbereitung der RVK als Normdatei lassen es jedoch denkbar erscheinen, die Registerbegriffe auch im Rahmen der Katalogrecherche zu nutzen - insbesondere für weiterführende und explorierende Recherchen im Anschluss an eine "known-item search". Der Aufsatz stellt die Ergebnisse einer Studie zu einer möglichen Einbindung von RVK-Registerbegriffen in die Katalogrecherche am Beispiel des K10plus vor. Dabei wurde für Notationsstichproben aus fünf Fachsystematiken sowohl der quantitative als auch der qualitative Mehrwert einer Recherche mit entsprechenden Registerbegriffen ermittelt. Es ergaben sich drei Kategorien von Notationen und ihren Registereinträgen: eindeutig geeignete, eindeutig nicht geeignete und ein großer Teil von Fällen, die nur nach umfassenden Vorarbeiten sinnvoll eingebunden werden könnten. Die herausgearbeiteten Fall-Cluster geben einen Überblick über die Chancen und Grenzen einer möglichen Einbindung der RVK-Registerbegriffe in die Katalogrecherche.
    Theme
    Klassifikationssysteme im Online-Retrieval
  18. Wiesenmüller, H.: Maschinelle Indexierung am Beispiel der DNB : Analyse und Entwicklungmöglichkeiten (2018) 0.01
    0.005138638 = product of:
      0.05309926 = sum of:
        0.019931482 = weight(_text_:und in 5209) [ClassicSimilarity], result of:
          0.019931482 = score(doc=5209,freq=12.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.41987535 = fieldWeight in 5209, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5209)
        0.013236298 = weight(_text_:im in 5209) [ClassicSimilarity], result of:
          0.013236298 = score(doc=5209,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.2186231 = fieldWeight in 5209, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5209)
        0.019931482 = weight(_text_:und in 5209) [ClassicSimilarity], result of:
          0.019931482 = score(doc=5209,freq=12.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.41987535 = fieldWeight in 5209, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5209)
      0.09677419 = coord(3/31)
    
    Abstract
    Der Beitrag untersucht die Ergebnisse des bei der Deutschen Nationalbibliothek (DNB) eingesetzten Verfahrens zur automatischen Vergabe von Schlagwörtern. Seit 2017 kommt dieses auch bei Printausgaben der Reihen B und H der Deutschen Nationalbibliografie zum Einsatz. Die zentralen Problembereiche werden dargestellt und an Beispielen illustriert - beispielsweise dass nicht alle im Inhaltsverzeichnis vorkommenden Wörter tatsächlich thematische Aspekte ausdrücken und dass die Software sehr häufig Körperschaften und andere "Named entities" nicht erkennt. Die maschinell generierten Ergebnisse sind derzeit sehr unbefriedigend. Es werden Überlegungen für mögliche Verbesserungen und sinnvolle Strategien angestellt.
  19. Wiesenmüller, H.: Gewogen und für zu leicht befunden : die Ergebnisse des RDA Tests in den USA (2011) 0.00
    0.0046015223 = product of:
      0.047549065 = sum of:
        0.013949131 = weight(_text_:und in 5660) [ClassicSimilarity], result of:
          0.013949131 = score(doc=5660,freq=8.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.29385152 = fieldWeight in 5660, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5660)
        0.019650806 = weight(_text_:im in 5660) [ClassicSimilarity], result of:
          0.019650806 = score(doc=5660,freq=6.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.32457113 = fieldWeight in 5660, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=5660)
        0.013949131 = weight(_text_:und in 5660) [ClassicSimilarity], result of:
          0.013949131 = score(doc=5660,freq=8.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.29385152 = fieldWeight in 5660, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5660)
      0.09677419 = coord(3/31)
    
    Abstract
    Seit Juli 2010 lief in den USA ein groß angelegter Test des neuen Regelwerks "Resource Description and Access" (RDA) und des Online-Werkzeugs "RDA Toolkit": Nach einer dreimonatigen Lernphase wurden im Laufe von weiteren drei Monaten über 10.000 Titeldaten- und 12.000 Normdatensätze von den drei US-amerikanischen Nationalbibliotheken (Library of Congress, National Agricultural Library, National Library of Medicine), den 23 offiziellen Testpartnern sowie weiteren informellen Testern angelegt. Im Laufe des ersten Quartals 2011 wertete das "U.S. RDA Test Coordinating Committee" die Ergebnisse aus und erstellte einen Bericht für die Direktoren der drei Nationalbibliotheken. Mit Spannung war nun die Entscheidung "on whether or not to implement RDA"' - so die Formulierung, mit der die drei Nationalbibliotheken im Mai 2008 ihr Testvorhaben angekündigt hatten - erwartet worden. Am 14. Juni wurde das "executive summary" zusammen mit einer Verlautbarung der Direktoren veröffentlicht; seit dem 17. Juni liegt der vollständige Bericht inklusive der Empfehlungen vor.
  20. Wiesenmüller, H.: Erste Erfahrungen mit RDA an wissenschaftlichen Universalbibliotheken in Deutschland : Ergebnisse aus Fokusgruppengesprächen mit Katalogisierenden (2017) 0.00
    0.004539321 = product of:
      0.046906322 = sum of:
        0.014093685 = weight(_text_:und in 3565) [ClassicSimilarity], result of:
          0.014093685 = score(doc=3565,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.2968967 = fieldWeight in 3565, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3565)
        0.018718952 = weight(_text_:im in 3565) [ClassicSimilarity], result of:
          0.018718952 = score(doc=3565,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.30917975 = fieldWeight in 3565, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3565)
        0.014093685 = weight(_text_:und in 3565) [ClassicSimilarity], result of:
          0.014093685 = score(doc=3565,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.2968967 = fieldWeight in 3565, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3565)
      0.09677419 = coord(3/31)
    
    Abstract
    Einige Monate nach dem Umstieg auf das neue Regelwerk "Resource Description and Access" (RDA) wurden an 18 großen deutschen wissenschaftlichen Universalbibliotheken Fokusgruppengespräche mit Katalogisierererinnen und Katalogisierern durchgeführt. Die Katalogisierenden wurden u.a. befragt, wie sicher sie sich bei der Anwendung von RDA fühlen, was sie am neuen Regelwerk gut oder schlecht finden, wie sie den Aufwand im Vergleich zum früheren Regelwerk RAK einschätzen, welche Informations- und Hilfsmittel sie verwenden und wie sie zu den regelmäßigen Änderungen im Standard stehen. Der vorliegende Aufsatz dokumentiert die Ergebnisse der Gespräche.