Search (245 results, page 1 of 13)

  • × author_ss:"Deutsche Forschungsgemeinschaft / Gruppe "Wissenschaftliche Literaturversorgungs- und Informationssysteme" (LIS)"
  • × language_ss:"d"
  • × theme_ss:"Formalerschließung"
  • × type_ss:"a"
  1. Popst, H.: Ausbildung im Fach Alphabetische Katalogisierung im Fachbereich Archiv- und Bibliothekswesen der Bayerischen Beamtenfachhochschule (1995) 0.12
    0.121339224 = product of:
      0.4651337 = sum of:
        0.020465806 = weight(_text_:und in 2234) [ClassicSimilarity], result of:
          0.020465806 = score(doc=2234,freq=2.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.39180204 = fieldWeight in 2234, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=2234)
        0.04139346 = product of:
          0.08278692 = sum of:
            0.08278692 = weight(_text_:bibliothekswesen in 2234) [ClassicSimilarity], result of:
              0.08278692 = score(doc=2234,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.7880125 = fieldWeight in 2234, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.125 = fieldNorm(doc=2234)
          0.5 = coord(1/2)
        0.08278692 = weight(_text_:bibliothekswesen in 2234) [ClassicSimilarity], result of:
          0.08278692 = score(doc=2234,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.7880125 = fieldWeight in 2234, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.125 = fieldNorm(doc=2234)
        0.13670321 = weight(_text_:katalogisierung in 2234) [ClassicSimilarity], result of:
          0.13670321 = score(doc=2234,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            1.0126086 = fieldWeight in 2234, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.125 = fieldNorm(doc=2234)
        0.13670321 = weight(_text_:katalogisierung in 2234) [ClassicSimilarity], result of:
          0.13670321 = score(doc=2234,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            1.0126086 = fieldWeight in 2234, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.125 = fieldNorm(doc=2234)
        0.047081083 = weight(_text_:im in 2234) [ClassicSimilarity], result of:
          0.047081083 = score(doc=2234,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.70669657 = fieldWeight in 2234, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.125 = fieldNorm(doc=2234)
      0.26086956 = coord(6/23)
    
  2. Hilberer, T.: Aufwand vs. Nutzen : Wie sollen deutsche wissenschaftliche Bibliotheken künftig katalogisieren? (2003) 0.09
    0.09453554 = product of:
      0.18119311 = sum of:
        0.022515094 = weight(_text_:buch in 1733) [ClassicSimilarity], result of:
          0.022515094 = score(doc=1733,freq=8.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.20547508 = fieldWeight in 1733, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.015625 = fieldNorm(doc=1733)
        0.01556108 = weight(_text_:und in 1733) [ClassicSimilarity], result of:
          0.01556108 = score(doc=1733,freq=74.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.29790485 = fieldWeight in 1733, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1733)
        0.0051741824 = product of:
          0.010348365 = sum of:
            0.010348365 = weight(_text_:bibliothekswesen in 1733) [ClassicSimilarity], result of:
              0.010348365 = score(doc=1733,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.09850156 = fieldWeight in 1733, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1733)
          0.5 = coord(1/2)
        0.010348365 = weight(_text_:bibliothekswesen in 1733) [ClassicSimilarity], result of:
          0.010348365 = score(doc=1733,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.09850156 = fieldWeight in 1733, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.015625 = fieldNorm(doc=1733)
        0.008559256 = product of:
          0.017118512 = sum of:
            0.017118512 = weight(_text_:kataloge in 1733) [ClassicSimilarity], result of:
              0.017118512 = score(doc=1733,freq=2.0), product of:
                0.1351219 = queryWeight, product of:
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.023567878 = queryNorm
                0.1266894 = fieldWeight in 1733, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1733)
          0.5 = coord(1/2)
        0.03820971 = weight(_text_:katalogisierung in 1733) [ClassicSimilarity], result of:
          0.03820971 = score(doc=1733,freq=10.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.28303272 = fieldWeight in 1733, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.015625 = fieldNorm(doc=1733)
        0.024077127 = product of:
          0.048154254 = sum of:
            0.048154254 = weight(_text_:titelaufnahme in 1733) [ClassicSimilarity], result of:
              0.048154254 = score(doc=1733,freq=4.0), product of:
                0.19056913 = queryWeight, product of:
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.023567878 = queryNorm
                0.25268653 = fieldWeight in 1733, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1733)
          0.5 = coord(1/2)
        0.03820971 = weight(_text_:katalogisierung in 1733) [ClassicSimilarity], result of:
          0.03820971 = score(doc=1733,freq=10.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.28303272 = fieldWeight in 1733, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.015625 = fieldNorm(doc=1733)
        0.009305216 = weight(_text_:im in 1733) [ClassicSimilarity], result of:
          0.009305216 = score(doc=1733,freq=10.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.13967317 = fieldWeight in 1733, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.015625 = fieldNorm(doc=1733)
        0.0031426062 = product of:
          0.0062852125 = sum of:
            0.0062852125 = weight(_text_:1 in 1733) [ClassicSimilarity], result of:
              0.0062852125 = score(doc=1733,freq=8.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.1085631 = fieldWeight in 1733, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1733)
          0.5 = coord(1/2)
        0.0028976528 = product of:
          0.0057953056 = sum of:
            0.0057953056 = weight(_text_:international in 1733) [ClassicSimilarity], result of:
              0.0057953056 = score(doc=1733,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.07371323 = fieldWeight in 1733, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1733)
          0.5 = coord(1/2)
        0.003193122 = product of:
          0.006386244 = sum of:
            0.006386244 = weight(_text_:22 in 1733) [ClassicSimilarity], result of:
              0.006386244 = score(doc=1733,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.07738023 = fieldWeight in 1733, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1733)
          0.5 = coord(1/2)
      0.5217391 = coord(12/23)
    
    Content
    "Die folgenden Thesen versuchen den Stand der Fachdiskussion so auf den Punkt zu bringen, dass sie auch für Außenstehende verständlich wird. Da sich auch Bibliothekarinnen und Bibliothekare außerhalb der Katalogabteilungen öfter als Laien auf dem Gebiet der Katalogisierung fühlen, scheint eine Veröffentlichung in der wichtigsten deutschen bibliothekarischen Zeitschrift nicht verfehlt zu sein. Die Frage, wie Bücher, Zeitschriften und andere Medien in den Computerkatalogen zu verzeichnen sind, hört sich ziemlich bibliothekarisch - sprich: esoterisch - an. Tatsächlich hat ihre Beantwortung bedeutende Folgen für Hochschulen und Wissenschaft, denn die Bibliotheken geben bislang den weitaus größten Teil ihres Etats nicht für Literatur aus, sondern für ihr Personal. Die Kosten für die Katalogisierung müssen deshalb eingeschränkt werden, bzw. die Mittel sollten nur für solche Erschließungsangebote verwendet werden, die die Wissenschaftler und Studierenden wirklich brauchen. Die Erschließung der Bestände stellt eine der wesentlichen Aufgaben der Bibliotheken dar. Nur das im Katalog verzeichnete Buch kann gefunden und somit gelesen werden. Diese Verzeichnung erfolgt keinesfalls, wie man vielleicht glauben könnte, durch einfaches Abschreiben der Titelblätter, vielmehr folgt die bibliothekarische Beschreibung einem komplizierten und umfangreichen Regelwerk. Dadurch soll sichergestellt werden, dass jedes Buch eindeutig und unverwechselbar erfasst wird. Solche Perfektion ist bei historischen Beständen unverzichtbar, wo es gilt, jedes Objekt in seiner Individualität voll ständig zu beschreiben. Für das Massengeschäft der aktuellen Literatur wäre weitaus weniger Aufwand vonnöten. Derzeit katalogisieren deutsche wissenschaftliche Bibliotheken ausnahmslos nach den Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken, abgekürzt RAK-WB. Auf knapp 600 großformatigen Seiten wird in 823 Paragraphen (allerdings mit springender Zählung) festgelegt, was wie zu erfassen und auf Titelkarten zu schreiben ist. Hinzu kommen meist mehrere Ordner umfassende Auslegungs- und Anwendungsregeln der verschiedenen regionalen Katalogisierungsverbünde. Ganz zu schweigen von den Protokollen der ebenfalls auf Verbundebene tätigen Katalog-AGs. Die Unterrichtung in diesem Regelwerk stellt einen wesentlichen Teil der Ausbildung zum Diplom-Bibliothekar dar (Laufbahn des gehobenen Dienstes), der folglich seine berufliche Identität nicht zuletzt aus der Qualität der Titelaufnahmen herleitet. Die Erschließungskosten sind daher hoch; nach jüngsten Erhebungen der Universitätsbibliothek Mannheim belaufen sie sich durchschnittlich auf ca. 20 Euro pro Buch. Dieser hohe Aufwand wird von Seiten der Nutzer weder wahrgenommen noch nachgefragt. Ihnen geht es nicht um die Beschreibung, sondern um das Auffinden von Büchern und Informationen. Zudem haben die verschiedenen Auslegungsregeln zur Folge, dass die bibliographische Beschreibung ein und desselben Buchs von Verbund zu Verbund verschieden ausfällt. Die durch das ausführliche Regelwerk angestrebte Eindeutigkeit wird also trotz des betriebenen Aufwands nicht erreicht. Die RAK-WB wurden für Zettelkataloge entwickelt und entsprechen nicht den Bedingungen von Datenbanken und Online-Katalogen. Sie beinhalten z. B. ausführliche Vorschriften für die Frage, unter welchem Element des Titels die "Haupteintragung" zu leisten sei, also wo die "Haupttitelkarte" in den Zettelkasten einzuordnen und von welchen anderen Elementen wie darauf zu verweisen ist. Das spielt im elektronischen Katalog überhaupt keine Rolle mehr, wo jedes Element der bibliographischen Beschreibung als Sucheinstieg gewählt werden kann. Sind, um noch ein Beispiel aufzuführen, mehr als drei Verfasser an einem Werk beteiligt, so wird nur der erste berücksichtigt, um die Zahl der Zettel klein zu halten. Der Online-Katalog hingegen sollte alle beteiligten Personen aufführen, um möglichst viele Informationen zu bieten.
    Die deutschen wissenschaftlichen Bibliotheken, so lässt sich zusammenfassen, katalogisieren mit hohem Aufwand und ohne entsprechenden Nutzen nach einem hypertrophen und veralteten Regelwerk - das überdies kaum geeignet ist, multimediale Objekte zu verzeichnen. Aus dieser Situation heraus ist, vor allem von Seiten der Deutschen Bibliothek, der Vorschlag gemacht worden, das deutsche Regelwerk durch die international weit verbreiteten Anglo-American Cataloguing Rules in der zweiten Ausgabe (sog. AACR2) zu ersetzen. Dies - so wird vorgebracht - würde es erlauben, Titelaufnahmen aus großen anglo-amerikanischen Datenbanken einfach zu übernehmen und so die Kosten für die Katalogisierung zu senken. Diese Lösung scheint auf den ersten Blick sehr verlockend zu sein, tatsächlich stellt sie keinen gangbaren Weg dar, und zwar aus mehreren Gründen: 1. Auch die AACR2 sind für Zettelkataloge verfasst und mithin genau so veraltet wie die RAK. 2. Die AACR2 sind nicht weniger kompliziert und umfangreich als die RAK, und sie kennen wie diese von Bibliotheksverbund zu Bibliotheksverbund unterschiedliche Auslegungsregeln. 3. Aus dieser exegetischen Vielfalt folgt eine Uneinheitlichkeit der bibliographischen Beschreibung. Einfache Übernahme von Titelaufnahmen ohne Nachbearbeitung wäre also nicht möglich. 4. Die AACR2 sind spezifisch für das amerikanische Bibliothekswesen entwickelt, das sich vom deutschen markant unterscheidet (z. B. Freihandbibliotheken statt Magazinbibliotheken). Schon deswegen könnte man das Regelwerk nicht 1:1 übernehmen, sondern müsste zahlreiche Anpassungen vornehmen, wie dies auch in der Schweiz geschehen ist. Auch dadurch wären einfache Übernahmen ausgeschlossen. 5. Eine solche einfache Übernahme würde weiterhin dadurch verhindert werden, dass die Ansetzung von Namen nach AACR2 in der Landessprache erfolgen müsste: Wo in einer amerikanischen Titelaufnahme z.B. Florence steht, müsste bei uns Florenz stehen (bisher nach RAK originalsprachlich Firenze). Der Umarbeitungsaufwand wäre besonders erheblich bei der Ansetzung von Namen aus Sprachen mit nicht-lateinischer Schrift, die man im Englischen ganz anders transkribiert als bei uns. Letzteres wiegt besonders schwer, denn alle Wissenschaften, die solche Sprachen zum Gegenstand haben oder mit ihnen arbeiten, könnten mit den neuen Ansetzungen nichts mehr anfangen. Sie würden diese Umstellung vermutlich nicht mitmachen und Sonderkataloge einfordern. 6. Sehr große Unterschiede bestehen außerdem bei der Katalogisierung von Zeitschriften. Während die RAK sich beispielsweise immer an den neuesten Titel einer Zeitschrift halten, stehen Zeitschriften in Amerika immer un ter dem ältesten. Eine Umarbeitung der Zeitschriftendatenbank wäre ungemein aufwendig, ohne dass der Nutzer etwas davon hätte. 7. Schon seit längerem übernehmen deutsche Bibliotheken angloamerikanische Titelaufnahmen, und passen sie an. Unterschiedliche Regelwerke verhindern Übernahmen also nicht. Umgekehrt gilt leider auch, dass Titelaufnahmen, die zwar nach demselben deutschen Regelwerk (RAK) erstellt worden sind, aber in einem anderen Verbund, folglich nach anderen Anwendungsregeln, nicht ohne Nachbearbeitung übernommen werden können: in Göttingen wird das Buch anders beschrieben als in Freiburg, trotz gleichen Regelwerks. Zunächst müsste also der einfache Austausch von Katalogisaten zwischen den deutschen Bibliotheksverbünden ermöglicht werden.
    8. Wollte man nicht mit enormem Aufwand alle vorhandenen Titelaufnahmen ändern, dann wäre ein Katalogbruch die Folge. Die Nutzer hätten also für ältere Werke den RAK-, und für neuere den AACR2-Katalog zu konsultie ren, und in vielen Bibliotheken noch einen oder gar mehrere Zettelkataloge für die ältesten Teile des Bestandes. 9. Der Aufwand, besonders an Schulungen, aber auch an technischen Umstellungen wäre immens und schlechterdings nicht zu leisten; die durchschnittlichen Kosten pro Titelaufnahme würden sich dadurch gewaltig er höhen. Bearbeitungsrückstände würden sich bilden, der ohnehin meist zu langwierige Geschäftsgang würde weiter gedehnt. (Die Kosten eines Umstiegs werden derzeit durch eine von der DFG geförderte Studie der Deutschen Bibliothek untersucht. Da sich letztere bisher mit geradezu verbissener Heftigkeit für einen Umstieg ausgesprochen hat, wird das Ergebnis außerordentlich kritisch betrachtet werden müssen.) 10. Aus den aufgeführten Gründen würden zahlreiche Bibliotheken mit Recht einen Umstieg nicht mitmachen, so dass der Datentausch für deutsche Bibliotheken insgesamt noch schwieriger, sprich: kostspieliger, werden würde. Fazit: Ein Umstieg auf die AACR2 würde bedeuten, dass man mit hohem Aufwand und ohne wirklichen Nutzen ein überkompliziertes und veraltetes Regelwerk durch ein anderes ersetzen würde, das ebenso schwerfällig und nicht mehr zeitgemäß ist. Dass dies unsinnig ist, liegt auf der Hand; die Entwicklung müsste vielmehr in eine andere Richtung gehen: 1. Die Zahl der Katalogisierungsverbünde in Deutschland müsste vermindert werden, zumindest müssten die größeren Verbünde eine gemeinsame Datenbank anlegen. Dies würde den Katalogisierungsaufwand sofort be trächtlich reduzieren, da eine Vielzahl von Bibliotheken dieselbe Aufnahme nutzen könnte. 2. Das Regelwerk RAK muss modernisiert und verschlankt werden. Vorschriften, die nur für Kartenkataloge sinnvoll sind, müssen gestrichen werden - andere, die zur Beschreibung multimedialer Objekte erforderlich sind, sind neu einzufügen. Da das bisherige Regelwerk die Grundlage bildet, besteht Kompatibilität, d.h. es findet kein Katalogbruch statt. 3. Anzustreben wäre selbstverständlich auch eine Anpassung an verbreitete internationale Standards, um den Austausch zu vereinfachen. 4. Dieses weiterentwickelte Regelwerk könnte RAK-L(ight) oder RAK-online heißen, und es sollte mehrstufig angelegt werden. Ein minimaler und auch von nicht-professionellen Kräften handhabbarer Mindest-Standard müss te ermöglicht werden. Die Erfassung könnte dann zu einem Gutteil durch angelernte Schreib- bzw. wissenschaftliche Hilfskräfte erfolgen, was eine enorme Kostenersparnis bedeuten und die hochqualifizierten Diplom-Bibliothekare für andere Aufgaben (z.B. im Bereich des elektronischen Publizierens) freisetzen würde. Solche Minimal-Katalogisate könnten bei Bedarf durch weitere Elemente ergänzt werden bis hin zu einer umfassenden, professionellen bibliographischen Beschreibung, wie sie historische Bestände erfordern. 5. Der durch die Vereinfachung ersparte Aufwand könnte sinnvoll für eine elektronische Erfassung sämtlicher noch vorhandener Zettelkataloge genutzt werden. Alle Erfassungsarbeiten würden beschleunigt werden. Denkbar wäre dann auch, die Kataloge durch Verzeichnung von Aufsätzen, Inhaltsverzeichnissen, Abstracts, Rezensionen etc. mit Informationen anzureichern.
    An einer Weiterentwicklung der RAK in diesem Sinne einer Vereinfachung, Modernisierung und besseren internationalen Kompatibilität wurde unter dem Arbeitstitel RAK2 bereits einige Jahre gearbeitet. Diese Arbeit ist de facto schon im Jahr 2000 von der Deutschen Bibliothek gestoppt worden. Seither führen die Bibliothekare eine unfruchtbare Umstellungsdiskussion, anstatt ein sinnvolles Regelwerk zu erarbeiten. Die erzwungene Pause gibt Gelegenheit, die Zielrichtung neu zu fassen und stärker als bisher geplant auf eine Vereinfachung abzuzielen. Oberster Grundsatz sollte dabei sein, nur das zu leisten, was wirklich vom Nutzer (und nicht nur vom Bibliothekar) gebraucht wird. Mit anderen Worten: die immer spärlicher fließenden Mittel müssen so effektiv wie möglich eingesetzt werden. Da aber die zuständigen bibliothekarischen Institutionen, allen voran die derzeit in Vielem merkwürdig rückwärts gewandte Deutsche Bibliothek, genau diese Weiterentwicklung zu bremsen versuchen, müssen die Impulse von anderer Seite kommen. Es bleibt zu hoffen, dass die Kanzler der Hochschulen und die Aufsicht führenden Ministerien die Bibliotheken doch noch zwingen, ihre Katalogisierungsregeln den Erfordernissen der Nutzer anzupassen, für die sie da sind."
    Date
    22. 6.2003 12:13:13
  3. Jung, R.: Methodik und Didaktik einer Einführung in die RAK nach vorausgegangenem Unterricht der Titelaufnahme nach den "Preußischen Instruktionen" (1976) 0.09
    0.0903674 = product of:
      0.34640837 = sum of:
        0.012791129 = weight(_text_:und in 1803) [ClassicSimilarity], result of:
          0.012791129 = score(doc=1803,freq=2.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.24487628 = fieldWeight in 1803, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1803)
        0.025870912 = product of:
          0.051741824 = sum of:
            0.051741824 = weight(_text_:bibliothekswesen in 1803) [ClassicSimilarity], result of:
              0.051741824 = score(doc=1803,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.49250782 = fieldWeight in 1803, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1803)
          0.5 = coord(1/2)
        0.051741824 = weight(_text_:bibliothekswesen in 1803) [ClassicSimilarity], result of:
          0.051741824 = score(doc=1803,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.49250782 = fieldWeight in 1803, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.078125 = fieldNorm(doc=1803)
        0.0854395 = weight(_text_:katalogisierung in 1803) [ClassicSimilarity], result of:
          0.0854395 = score(doc=1803,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.6328804 = fieldWeight in 1803, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.078125 = fieldNorm(doc=1803)
        0.0851255 = product of:
          0.170251 = sum of:
            0.170251 = weight(_text_:titelaufnahme in 1803) [ClassicSimilarity], result of:
              0.170251 = score(doc=1803,freq=2.0), product of:
                0.19056913 = queryWeight, product of:
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.023567878 = queryNorm
                0.8933818 = fieldWeight in 1803, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1803)
          0.5 = coord(1/2)
        0.0854395 = weight(_text_:katalogisierung in 1803) [ClassicSimilarity], result of:
          0.0854395 = score(doc=1803,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.6328804 = fieldWeight in 1803, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.078125 = fieldNorm(doc=1803)
      0.26086956 = coord(6/23)
    
    Imprint
    Berlin : Deutscher Buibliotheksverband / Arbeitsstelle für das Bibliothekswesen
    Source
    Methodisch-didaktische Probleme des Lehrfachs Alphabetische Katalogisierung: 5 Vorträge. Hrsg.: R. Jung
  4. Henze, G.: First IFLA Meeting of Experts an an International Cataloguing Code (2003) 0.09
    0.085407354 = product of:
      0.24554615 = sum of:
        0.042381 = weight(_text_:allgemeines in 1960) [ClassicSimilarity], result of:
          0.042381 = score(doc=1960,freq=2.0), product of:
            0.13446471 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.023567878 = queryNorm
            0.31518307 = fieldWeight in 1960, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1960)
        0.023059536 = weight(_text_:und in 1960) [ClassicSimilarity], result of:
          0.023059536 = score(doc=1960,freq=26.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.441457 = fieldWeight in 1960, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1960)
        0.04271975 = weight(_text_:katalogisierung in 1960) [ClassicSimilarity], result of:
          0.04271975 = score(doc=1960,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.3164402 = fieldWeight in 1960, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1960)
        0.04271975 = weight(_text_:katalogisierung in 1960) [ClassicSimilarity], result of:
          0.04271975 = score(doc=1960,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.3164402 = fieldWeight in 1960, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1960)
        0.018019475 = weight(_text_:im in 1960) [ClassicSimilarity], result of:
          0.018019475 = score(doc=1960,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.27047595 = fieldWeight in 1960, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1960)
        0.008055268 = product of:
          0.016110536 = sum of:
            0.016110536 = weight(_text_:29 in 1960) [ClassicSimilarity], result of:
              0.016110536 = score(doc=1960,freq=2.0), product of:
                0.08290443 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.023567878 = queryNorm
                0.19432661 = fieldWeight in 1960, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1960)
          0.5 = coord(1/2)
        0.0102447495 = product of:
          0.020489499 = sum of:
            0.020489499 = weight(_text_:international in 1960) [ClassicSimilarity], result of:
              0.020489499 = score(doc=1960,freq=4.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.26061562 = fieldWeight in 1960, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1960)
          0.5 = coord(1/2)
        0.05834661 = sum of:
          0.042381 = weight(_text_:allgemeines in 1960) [ClassicSimilarity], result of:
            0.042381 = score(doc=1960,freq=2.0), product of:
              0.13446471 = queryWeight, product of:
                5.705423 = idf(docFreq=399, maxDocs=44218)
                0.023567878 = queryNorm
              0.31518307 = fieldWeight in 1960, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.705423 = idf(docFreq=399, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1960)
          0.01596561 = weight(_text_:22 in 1960) [ClassicSimilarity], result of:
            0.01596561 = score(doc=1960,freq=2.0), product of:
              0.08253069 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.023567878 = queryNorm
              0.19345059 = fieldWeight in 1960, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1960)
      0.3478261 = coord(8/23)
    
    Abstract
    Vom 28. bis 30. Juli 2003 trafen sich in der Deutschen Bibliothek Frankfurt am Main auf Einladung der Sektion Katalogisierung der IFLA Regelwerksexperten aus Europa, Amerika und Australien zum »First IFLA Meeting of Experts an an International Cataloguing Code«. Die europäischen Regelwerksgremien entsandten verantwortliche Regelwerksexperten. Dieser Auftaktveranstaltung, die die Erschließung in Europa zum Schwerpunkt hatte, sollen weitere Veranstaltungen im Vorfeld der IFLA-Konferenzen 2004 in Buenos Aires und 2006 in Seoul folgen. 52 Teilnehmerinnen und Teilnehmer aus insgesamt 29 Ländern und drei Kontinenten nutzten die Gelegenheit zu einem intensiven Informations- und Meinungsaustausch auf der Frankfurter Konferenz, nachdem bereits im Vorfeld Hintergrundpapiere auf der Konferenz-Website" bereitgestellt worden waren. Diskussionsbeiträge wurden ebenfalls bereits vor dem Treffen über eine E-MailListe ausgetauscht, die nicht nur den Teilnehmerinnen und Teilnehmern, sondern auch weiteren Interessierten offen stand und besonders in den Wochen und Tagen vor der Konferenz rege genutzt wurde. Arbeitssprache der Konferenz war englisch. Das Ziel der Konferenz, die Möglichkeiten eines weltweiten Datenaustausches über gemeinsame Standards zu den Inhalten von bibliografischen Datensätzen und Normdatensätzen zu verbessern, stieß auf allgemeines Interesse. Für eine vergleichende Untersuchung zu grundlegenden Gemeinsamkeiten und Unterschieden in den derzeit in Europa verwendeten Regelwerken erstellten die Regelwerksgremien unter Verwendung eines einheitlichen Fragenkataloges »Steckbriefe«, um Möglichkeiten einer Harmonisierung auszuloten und vielleicht sogar in naher Zukunft ein internationales Regelwerk zu entwickeln. Angesichts der Vielzahl der in Europa verwendeten Regelwerke konnten diese nicht alle im Plenum vorgestellt werden. Stattdessen gab es eine kurze Vorstellung der Regelwerksgremien in den angloamerikanischen Ländern sowie Frankreich, Deutschland und Osterreich, Spanien, Russland, Italien und Kroatien.
    Date
    16.11.2003 19:22:45
  5. Budach, A.; Pflug, G.: ¬Die neuen Regeln für die alphabetische Katalogisierung (1969) 0.08
    0.079520874 = product of:
      0.36579603 = sum of:
        0.01790758 = weight(_text_:und in 5707) [ClassicSimilarity], result of:
          0.01790758 = score(doc=5707,freq=2.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.34282678 = fieldWeight in 5707, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=5707)
        0.036219276 = product of:
          0.07243855 = sum of:
            0.07243855 = weight(_text_:bibliothekswesen in 5707) [ClassicSimilarity], result of:
              0.07243855 = score(doc=5707,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.68951094 = fieldWeight in 5707, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5707)
          0.5 = coord(1/2)
        0.07243855 = weight(_text_:bibliothekswesen in 5707) [ClassicSimilarity], result of:
          0.07243855 = score(doc=5707,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.68951094 = fieldWeight in 5707, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.109375 = fieldNorm(doc=5707)
        0.11961532 = weight(_text_:katalogisierung in 5707) [ClassicSimilarity], result of:
          0.11961532 = score(doc=5707,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.8860326 = fieldWeight in 5707, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.109375 = fieldNorm(doc=5707)
        0.11961532 = weight(_text_:katalogisierung in 5707) [ClassicSimilarity], result of:
          0.11961532 = score(doc=5707,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.8860326 = fieldWeight in 5707, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.109375 = fieldNorm(doc=5707)
      0.2173913 = coord(5/23)
    
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 16(1969) H.5/6, S.374-380
  6. Hädrich, G.: Unreglementierte Gedanken zur Weiterentwicklung des Regelwerks für die alphabetische Katalogisierung (1996) 0.08
    0.079520874 = product of:
      0.36579603 = sum of:
        0.01790758 = weight(_text_:und in 5426) [ClassicSimilarity], result of:
          0.01790758 = score(doc=5426,freq=2.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.34282678 = fieldWeight in 5426, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=5426)
        0.036219276 = product of:
          0.07243855 = sum of:
            0.07243855 = weight(_text_:bibliothekswesen in 5426) [ClassicSimilarity], result of:
              0.07243855 = score(doc=5426,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.68951094 = fieldWeight in 5426, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5426)
          0.5 = coord(1/2)
        0.07243855 = weight(_text_:bibliothekswesen in 5426) [ClassicSimilarity], result of:
          0.07243855 = score(doc=5426,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.68951094 = fieldWeight in 5426, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.109375 = fieldNorm(doc=5426)
        0.11961532 = weight(_text_:katalogisierung in 5426) [ClassicSimilarity], result of:
          0.11961532 = score(doc=5426,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.8860326 = fieldWeight in 5426, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.109375 = fieldNorm(doc=5426)
        0.11961532 = weight(_text_:katalogisierung in 5426) [ClassicSimilarity], result of:
          0.11961532 = score(doc=5426,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.8860326 = fieldWeight in 5426, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.109375 = fieldNorm(doc=5426)
      0.2173913 = coord(5/23)
    
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 43(1996) H.5, S.471-486
  7. Albrecht, R.; Meßmer, G.; Rusch, B.; Thiessen, P.: Katalogisierung in der Datenwolke (2016) 0.08
    0.079520874 = product of:
      0.36579603 = sum of:
        0.01790758 = weight(_text_:und in 3740) [ClassicSimilarity], result of:
          0.01790758 = score(doc=3740,freq=2.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.34282678 = fieldWeight in 3740, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=3740)
        0.036219276 = product of:
          0.07243855 = sum of:
            0.07243855 = weight(_text_:bibliothekswesen in 3740) [ClassicSimilarity], result of:
              0.07243855 = score(doc=3740,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.68951094 = fieldWeight in 3740, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3740)
          0.5 = coord(1/2)
        0.07243855 = weight(_text_:bibliothekswesen in 3740) [ClassicSimilarity], result of:
          0.07243855 = score(doc=3740,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.68951094 = fieldWeight in 3740, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.109375 = fieldNorm(doc=3740)
        0.11961532 = weight(_text_:katalogisierung in 3740) [ClassicSimilarity], result of:
          0.11961532 = score(doc=3740,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.8860326 = fieldWeight in 3740, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.109375 = fieldNorm(doc=3740)
        0.11961532 = weight(_text_:katalogisierung in 3740) [ClassicSimilarity], result of:
          0.11961532 = score(doc=3740,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.8860326 = fieldWeight in 3740, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.109375 = fieldNorm(doc=3740)
      0.2173913 = coord(5/23)
    
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 63(2016) H.5/6, S.xxx-xxx
  8. Wiesenmüller, H.: Informationsaufbereitung I : Formale Erfassung (2004) 0.07
    0.07013473 = product of:
      0.23044269 = sum of:
        0.018799042 = weight(_text_:und in 2914) [ClassicSimilarity], result of:
          0.018799042 = score(doc=2914,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.35989314 = fieldWeight in 2914, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.031703662 = weight(_text_:informationswissenschaft in 2914) [ClassicSimilarity], result of:
          0.031703662 = score(doc=2914,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.29862255 = fieldWeight in 2914, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.05126371 = weight(_text_:katalogisierung in 2914) [ClassicSimilarity], result of:
          0.05126371 = score(doc=2914,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 2914, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.051075295 = product of:
          0.10215059 = sum of:
            0.10215059 = weight(_text_:titelaufnahme in 2914) [ClassicSimilarity], result of:
              0.10215059 = score(doc=2914,freq=2.0), product of:
                0.19056913 = queryWeight, product of:
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.023567878 = queryNorm
                0.53602904 = fieldWeight in 2914, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2914)
          0.5 = coord(1/2)
        0.05126371 = weight(_text_:katalogisierung in 2914) [ClassicSimilarity], result of:
          0.05126371 = score(doc=2914,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 2914, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.02162337 = weight(_text_:im in 2914) [ClassicSimilarity], result of:
          0.02162337 = score(doc=2914,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.32457113 = fieldWeight in 2914, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=2914)
        0.0047139092 = product of:
          0.0094278185 = sum of:
            0.0094278185 = weight(_text_:1 in 2914) [ClassicSimilarity], result of:
              0.0094278185 = score(doc=2914,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.16284466 = fieldWeight in 2914, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2914)
          0.5 = coord(1/2)
      0.3043478 = coord(7/23)
    
    Abstract
    Formale Erfassung wird auch als formale Analyse, Formalerschließung, Formalkatalogisierung, alphabetische Katalogisierung oder Titelaufnahme bezeichnet. Dabei wird der letzte Terminus nicht nur für den Vorgang der Erfassung verwendet, sondern kann auch sein Ergebnis beschreiben. Andere Bezeichnungen dafür sind Katalogisat oder Metadaten (Daten über Daten). Unter formaler Erfassung versteht man die konsistent nach bestimmten Regeln erfolgende Beschreibung und das Wiederauffindbar-Machen von Objekten nach äußerlichen, formalen Kriterien. Gegenstand einer formalen Erfassung können Objekte aller Art sein, also beispielsweise auch die Produktionspalette eines Industrieunternehmens. Im Informations- und Dokumentationswesen bezieht sich die formale Erfassung üblicherweise auf Dokumente (z. B. Druckschriften, audiovisuelle Materialien, Archivalien, Internet-Ressourcen, Museumsobjekte), wobei je nach Dokumenttyp unterschiedliche Merkmale zu erfassen sind. Die Formalerschließung stellt seit jeher eine zentrale Aufgabe von IuD-Institutionen dar. Sie bildet sozusagen das Fundament, auf dem die inhaltliche Erschließung aufsetzt. Diese erfolgt im deutschsprachigen Raum oft erst in einem zweiten, deutlich getrennten Arbeitsschritt. Im angelsächsischen Gebiet werden hingegen formale und sachliche Erschließung typischerweise gleichzeitig und durch denselben Bearbeiter vorgenommen.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  9. Kasprzik, A.: Vorläufer der Internationalen Katalogisierungsprinzipien (2014) 0.06
    0.06455523 = product of:
      0.24746172 = sum of:
        0.023024032 = weight(_text_:und in 1619) [ClassicSimilarity], result of:
          0.023024032 = score(doc=1619,freq=18.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.4407773 = fieldWeight in 1619, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1619)
        0.025677769 = product of:
          0.051355537 = sum of:
            0.051355537 = weight(_text_:kataloge in 1619) [ClassicSimilarity], result of:
              0.051355537 = score(doc=1619,freq=2.0), product of:
                0.1351219 = queryWeight, product of:
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.023567878 = queryNorm
                0.3800682 = fieldWeight in 1619, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1619)
          0.5 = coord(1/2)
        0.08879135 = weight(_text_:katalogisierung in 1619) [ClassicSimilarity], result of:
          0.08879135 = score(doc=1619,freq=6.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.65770864 = fieldWeight in 1619, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=1619)
        0.08879135 = weight(_text_:katalogisierung in 1619) [ClassicSimilarity], result of:
          0.08879135 = score(doc=1619,freq=6.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.65770864 = fieldWeight in 1619, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=1619)
        0.012484257 = weight(_text_:im in 1619) [ClassicSimilarity], result of:
          0.012484257 = score(doc=1619,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 1619, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=1619)
        0.008692958 = product of:
          0.017385917 = sum of:
            0.017385917 = weight(_text_:international in 1619) [ClassicSimilarity], result of:
              0.017385917 = score(doc=1619,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.22113968 = fieldWeight in 1619, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1619)
          0.5 = coord(1/2)
      0.26086956 = coord(6/23)
    
    Abstract
    Für eine korrekte und zielführende Formalerschließung lassen sich drei Ebenen von Leitlinien definieren: Zielsetzungen, Prinzipien und Regeln der Katalogisierung. Der vorliegende Artikel befasst sich hauptsächlich mit den (möglichen) Zielsetzungen und Prinzipien der Katalogisierung. In der Einleitung der im Jahr 2009 herausgegebenen "Erklärung zu den Internationalen Katalogisierungsprinzipien" (ICP) ist vermerkt, dass die dort vorgelegte Prinzipiensammlung aufbaut auf "den großen Katalogtraditionen der Welt". Diese Traditionen werden dann mit drei Referenzen aus der frühen Fachliteratur belegt: Den Schriften von Charles A. Cutter (1904), Shiyali R. Ranganathan (1955) und Seymour Lubetzky (1969). In diesem Artikel werden nach einem kurzen chronologischen Überblick die drei genannten Publikationen und insbesondere die darin enthaltenen Feststellungen zu Sinn und Zweck von international einheitlichen Prinzipien für die bibliothekarische Formalerschließung in ihren geschichtlichen Kontext eingeordnet und ihr jeweiliger Einfluss auf die diversen existierenden Formulierungen von Zielen und Prinzipien näher beleuchtet. Außerdem werden einige bemerkenswert moderne Gedankengänge in den betreffenden Schriften aufgezeigt. Ein abschließendes Fazit fasst die wichtigsten Zielsetzungen und Prinzipien der Katalogisierung noch einmal mit Bezug auf die verwendete Literatur zur Theorie der Informationsorganisation zusammen.
    Theme
    Geschichte der Kataloge
  10. Popst, H.: Katalogisierung im Verbund : Formen der Zusammenarbeit und Korrekturabläufe bei der Formal- und Sacherschließung (1995) 0.06
    0.063323006 = product of:
      0.24273819 = sum of:
        0.015665868 = weight(_text_:und in 2042) [ClassicSimilarity], result of:
          0.015665868 = score(doc=2042,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.29991096 = fieldWeight in 2042, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2042)
        0.060414854 = weight(_text_:katalogisierung in 2042) [ClassicSimilarity], result of:
          0.060414854 = score(doc=2042,freq=4.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.44751403 = fieldWeight in 2042, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2042)
        0.060414854 = weight(_text_:katalogisierung in 2042) [ClassicSimilarity], result of:
          0.060414854 = score(doc=2042,freq=4.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.44751403 = fieldWeight in 2042, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2042)
        0.02326304 = weight(_text_:im in 2042) [ClassicSimilarity], result of:
          0.02326304 = score(doc=2042,freq=10.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.34918293 = fieldWeight in 2042, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2042)
        0.0749243 = weight(_text_:ausland in 2042) [ClassicSimilarity], result of:
          0.0749243 = score(doc=2042,freq=2.0), product of:
            0.17878623 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.023567878 = queryNorm
            0.41907197 = fieldWeight in 2042, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2042)
        0.008055268 = product of:
          0.016110536 = sum of:
            0.016110536 = weight(_text_:29 in 2042) [ClassicSimilarity], result of:
              0.016110536 = score(doc=2042,freq=2.0), product of:
                0.08290443 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.023567878 = queryNorm
                0.19432661 = fieldWeight in 2042, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2042)
          0.5 = coord(1/2)
      0.26086956 = coord(6/23)
    
    Content
    "Formal- und Sachkatalogisierung in einem Arbeitsgang zu erledigen spart Zeit, macht die Katalogisierungstätigkeit interessanter und ist bei uns in kleinen Bibliotheken selbstverständlich, im Ausland häufig auch in großen Bibliotheken. Warum das in größerem Umfang nicht auch in useren großen Bibliotheken sein kann, leuchtet nicht recht ein, wenn man bedenkt, daß die Ausbildung der Diplombibliothekare im Fach Sacherschließung in der Regel umfangreicher und besser ist als die des höheren Bibliotheksdienstes. Die größere Fachkompetenz der Referenten des höheren Dienstes sei zugestanden, wenn der betreffende Fachreferent in dem von ihm studierten Fach tätig ist. Indes, es ist ja weitgehend nicht so: Im Durchschnitt betreut ein Fachreferent zwei- bis dreimal soviele Fächer, die er nicht studiert hat, im Vergleich zu denen, die er studiert hat. Es wäre also erfolgversprechend zu prüfen, in welchen Fällen sich auch in großen Bibliotheken eine ganzheitliche Katalogisierung durch Diplombibliothekare lohnt. Daß die Übernahme von Fremdleistungen für deutsche Bücher, auch was die Schlagwortketten der Deutschen Bibliothek betrifft, auch vom mittleren Dienst zu leisten ist, sollte bekannt sein. Unbestritten bleibt bleibt allerdings, daß die Sacherschließung von Büchern in entlegenen Sprachen von Bibliothekaren mit den entsprechenden Sprachkenntnissen durchgeführt werden muß, was allerdings nicht bedeutet, daß dies unbedingt Angehörige des höheren Bibliotheksdienstes sein müssen. Es bleibt zum Schluß die Feststellung, daß Bibliotheksdirektoren möglichst schon vor den Rechnungshöfen zu diesen Einsichten gelangen sollten"
    Footnote
    Referat in der öffentlichen Sitzung der DBI-Kommission für Erschließung und Katalogmanagement auf dem 85. Dt. Bibliothekartag in Göttingen
    Source
    Bibliotheksdienst. 29(1995) H.8, S.1288-1294
  11. Wiesenmüller, H.: Formale Erschließung (2023) 0.05
    0.053090084 = product of:
      0.203512 = sum of:
        0.03377264 = weight(_text_:buch in 784) [ClassicSimilarity], result of:
          0.03377264 = score(doc=784,freq=2.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.3082126 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.023024032 = weight(_text_:und in 784) [ClassicSimilarity], result of:
          0.023024032 = score(doc=784,freq=18.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.4407773 = fieldWeight in 784, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.031703662 = weight(_text_:informationswissenschaft in 784) [ClassicSimilarity], result of:
          0.031703662 = score(doc=784,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.29862255 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.05126371 = weight(_text_:katalogisierung in 784) [ClassicSimilarity], result of:
          0.05126371 = score(doc=784,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.05126371 = weight(_text_:katalogisierung in 784) [ClassicSimilarity], result of:
          0.05126371 = score(doc=784,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.012484257 = weight(_text_:im in 784) [ClassicSimilarity], result of:
          0.012484257 = score(doc=784,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
      0.26086956 = coord(6/23)
    
    Abstract
    Bei der formalen Erschließung bzw. Formalerschließung, die auch als formale Analyse, formale Erfassung, Formalbeschreibung oder (Formal-)Katalogisierung bezeichnet wird, "werden Ressourcen gemäß festgelegten Regeln nach äußerlichen, formalen Kriterien beschrieben und auffindbar gemacht". Diese Ressourcen können alle Arten von physischen und digitalen Objekten sein, die z. B. in Bibliotheken, Archiven, Museen oder Dokumentationsstellen gesammelt oder verzeichnet werden. Formale Aspekte bei einem gedruckten Buch sind u. a. der*die Autor*in, der Titel, der Verlag, das Erscheinungsdatum, der Umfang und die ISBN. Bei einer Skulptur sind es u. a. der*die Künstler*in, das Entstehungsdatum, Werkstoff und Technik, die Maße und die Besitzgeschichte. Bei einem im Internet zur Verfügung gestellten digitalen Foto sind es u. a. der*die Fotograf*in, der Zeitpunkt der Aufnahme und die Koordinaten des Aufnahmeorts, technische Daten zur Aufnahme (z. B. Belichtungszeit), der Dateiname, das Dateiformat und die Dateigröße sowie die URL und ggf. ein Persistent Identifier (z. B. DOI oder URN).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  12. Stoll, M.: ¬Der Bibliotheksverbund in Österreich und Neue Medien in der BIBOS-Katalogisierung (1993) 0.05
    0.052747622 = product of:
      0.30329883 = sum of:
        0.06754528 = weight(_text_:buch in 6835) [ClassicSimilarity], result of:
          0.06754528 = score(doc=6835,freq=2.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.6164252 = fieldWeight in 6835, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.09375 = fieldNorm(doc=6835)
        0.030698707 = weight(_text_:und in 6835) [ClassicSimilarity], result of:
          0.030698707 = score(doc=6835,freq=8.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.58770305 = fieldWeight in 6835, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=6835)
        0.10252742 = weight(_text_:katalogisierung in 6835) [ClassicSimilarity], result of:
          0.10252742 = score(doc=6835,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.7594565 = fieldWeight in 6835, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.09375 = fieldNorm(doc=6835)
        0.10252742 = weight(_text_:katalogisierung in 6835) [ClassicSimilarity], result of:
          0.10252742 = score(doc=6835,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.7594565 = fieldWeight in 6835, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.09375 = fieldNorm(doc=6835)
      0.17391305 = coord(4/23)
    
    Source
    Altes Buch und Neue Medien: Vorträge und Kommissionssitzungen. Der österreichische Bibliothekartag 1992, Eisenstadt, 29.9.-3.10.1992. Hrsg.: Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare
  13. DNB: Neues zu Sammelwerken und Personennamen : Splitregeln für fortlaufende Sammelwerke - Individualisierung von Personennamen (2006) 0.05
    0.05116988 = product of:
      0.16812961 = sum of:
        0.023446526 = weight(_text_:und in 5993) [ClassicSimilarity], result of:
          0.023446526 = score(doc=5993,freq=42.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.44886562 = fieldWeight in 5993, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5993)
        0.017118512 = product of:
          0.034237023 = sum of:
            0.034237023 = weight(_text_:kataloge in 5993) [ClassicSimilarity], result of:
              0.034237023 = score(doc=5993,freq=2.0), product of:
                0.1351219 = queryWeight, product of:
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2533788 = fieldWeight in 5993, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5993)
          0.5 = coord(1/2)
        0.034175802 = weight(_text_:katalogisierung in 5993) [ClassicSimilarity], result of:
          0.034175802 = score(doc=5993,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.25315216 = fieldWeight in 5993, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.03125 = fieldNorm(doc=5993)
        0.034050196 = product of:
          0.06810039 = sum of:
            0.06810039 = weight(_text_:titelaufnahme in 5993) [ClassicSimilarity], result of:
              0.06810039 = score(doc=5993,freq=2.0), product of:
                0.19056913 = queryWeight, product of:
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.023567878 = queryNorm
                0.3573527 = fieldWeight in 5993, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5993)
          0.5 = coord(1/2)
        0.034175802 = weight(_text_:katalogisierung in 5993) [ClassicSimilarity], result of:
          0.034175802 = score(doc=5993,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.25315216 = fieldWeight in 5993, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.03125 = fieldNorm(doc=5993)
        0.022020161 = weight(_text_:im in 5993) [ClassicSimilarity], result of:
          0.022020161 = score(doc=5993,freq=14.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.33052707 = fieldWeight in 5993, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=5993)
        0.0031426062 = product of:
          0.0062852125 = sum of:
            0.0062852125 = weight(_text_:1 in 5993) [ClassicSimilarity], result of:
              0.0062852125 = score(doc=5993,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.1085631 = fieldWeight in 5993, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5993)
          0.5 = coord(1/2)
      0.3043478 = coord(7/23)
    
    Abstract
    Splitregeln für fortlaufende Sammelwerke Der Standardisierungsausschuss hat die Einführung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke beschlossen und in einem Umlaufverfahren im Frühjahr 2006 der Veröffentlichung und baldigen Anwendung der dafür notwendigen Änderungen in den »Regeln für die alphabetische Katalogisierung - RAK« und den »Format und Konventionen für die Zeitschriften-Titelaufnahme in der Zeitschriftendatenbank ZETA« zugestimmt. Die ZDB hat angekündigt, die Splitregeln ab Januar 2007 anzuwenden. Dieser Termin wurde gewählt, um ausreichend Zeit für die Vorbereitung und Durchführung verbundinterner Schulungen einzuräumen und Regelungen für den Umgang mit Altdaten vorzubereiten.
    Individualisierung von Personennamen Die Praxisregeln zu RAK-WB § 311 und RSWK § 106: Individualisierung von Personennamen beim Katalogisieren mit der Personennamendatei (PND), sind mit dem 1. Juli 2006 in Kraft getreten. Die Praxisregeln folgen den im Jahr 2004 im »perso-Projekt« getroffenen Beschlüssen. Im »perso-Projekt« waren in einem gemeinsamen Projekt der Expertengruppen PND, Formalerschließung und RSWK/SWD die Personenansetzungsregeln der Kegelwerke RAK-WB und RSWK einander angeglichen worden. Die miteinander abgestimmten Regeltexte hatten ein Stellungnahmeverfahren durchlaufen, und der Standardisierungsausschuss hatte die Veröffentlichung und Anwendung beschlossen. Mit den Praxisregel n zur Individualisierung wird eine wichtige Grundlage für die Arbeit in der Normdatei PND manifestiert. Die nun in Kraft getretenen Praxisregeln können nur einen Teil der im »perso-Projekt« vereinbarten Entwicklungen realisieren, da sie sich noch an den im bestehenden Austauschformat gegebenen Möglichkeiten orientieren. Weitergehende Formatveränderungen sind darin wegen des beschlossenen Umstiegs nach MARC21 zum jetzigen Zeitpunkt nicht möglich. Aus diesem Grund werden auch noch unterschiedliche Textfassungen für die Praxisregel zu den RAK-WB § 311 und RSWK § 106 vorgelegt. Ein gemeinsamer Regelwerkstext für Formal- und Sacherschließung wird nach Abschluss der internationalen Regelwerksentwicklung formuliert. Die im »perso-Projekt« getroffenen Festlegungen werden in die Diskussion und Kommentierung des RDA-Entwurfs für Personenansetzungsregeln einfließen und den deutschen Standpunkt bestimmen. Individualisierte Datensätze in der PND stellen wertvolle Sucheinstiege für die Benutzer unterschiedlichster Kataloge und Bestände dar. Sie ermöglichen die Verlinkung von Veröffentlichungen von und über die Person, von Archivalien, Museumsbeständen und Lexikoneinträgen, wie zum Beispiel in der deutschen Ausgabe der freien Internetenzyklopädie Wikipedia. Die PND umfasst zur Zeit rund 2,7 Millionen Datensätze, von denen etwa 1,1 Millionen individualisiert sind, das heißt genau eine Person beschreiben. Die kooperativ geführte Normdatei wird von allen deutschsprachigen Bibliotheksverbünden, dem Kalliope-Verbund und in Projekten angewendet. Mit vereinten Kräften und den nun geltenden Praxisregeln soll die Anzahl der individualisierten Datensätzen in den nächsten Jahren kontinuierlich steigen.
  14. Gumbrecht, C.: Workshop zur CJK-Katalogisierung am 18. Juni 2009 an der Staatsbibliothek zu Berlin : ein Bericht (2009) 0.05
    0.047936704 = product of:
      0.18375736 = sum of:
        0.018369861 = weight(_text_:und in 3042) [ClassicSimilarity], result of:
          0.018369861 = score(doc=3042,freq=66.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.3516768 = fieldWeight in 3042, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3042)
        0.010699071 = product of:
          0.021398142 = sum of:
            0.021398142 = weight(_text_:kataloge in 3042) [ClassicSimilarity], result of:
              0.021398142 = score(doc=3042,freq=2.0), product of:
                0.1351219 = queryWeight, product of:
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.023567878 = queryNorm
                0.15836176 = fieldWeight in 3042, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3042)
          0.5 = coord(1/2)
        0.06754586 = weight(_text_:katalogisierung in 3042) [ClassicSimilarity], result of:
          0.06754586 = score(doc=3042,freq=20.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.5003359 = fieldWeight in 3042, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3042)
        0.06754586 = weight(_text_:katalogisierung in 3042) [ClassicSimilarity], result of:
          0.06754586 = score(doc=3042,freq=20.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.5003359 = fieldWeight in 3042, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3042)
        0.015605321 = weight(_text_:im in 3042) [ClassicSimilarity], result of:
          0.015605321 = score(doc=3042,freq=18.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.23423903 = fieldWeight in 3042, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3042)
        0.0039914027 = product of:
          0.007982805 = sum of:
            0.007982805 = weight(_text_:22 in 3042) [ClassicSimilarity], result of:
              0.007982805 = score(doc=3042,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.09672529 = fieldWeight in 3042, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3042)
          0.5 = coord(1/2)
      0.26086956 = coord(6/23)
    
    Abstract
    Vor nunmehr acht Jahren gab Günter Schucher an dieser Stelle einen Situationsbericht zur Schaffung eines einheitlichen Katalogs für chinesische, japanische und koreanische (CJK-)Literatur in Deutschland, indem er eingangs feststellt: "Schon lange träumen deutsche Ostasienwissenschaftler von einem einheitlichen Katalog, der ihnen die Recherche originalsprachlicher Literatur in deutschen Bibliotheken erleichtern würde. Anders als in den USA blieb dieser Traum jedoch bisher unerfüllt." Schucher, der damalige Geschäftsführer der Deutschen Gesellschaft für Asienkunde e.V., hatte im Jahr 1999 eine vom BMBF finanzierte und vom Institut für Asienkunde betreute Studie durchgeführt, die die Möglichkeiten zur Verbesserung der Literaturversorgung der Ostasienwissenschaftler ausloten sollte. Die Studie dokumentiert die ungünstige Forschungssituation der Ostasienforschung in Deutschland im Hinblick auf die Verstreutheit der von ihr dringend benötigten originalsprachigen Literatur auf eine Vielzahl von Bibliotheken und Archive und die daraus resultierende erschwerte Recherchierbarkeit derselben. Neben den Staats- und Universitätsbibliotheken mit z.T. großen bis sehr großen Beständen solcher Literatur (allen voran die Staatsbibliothek zu Berlin und die Bayerische Staatsbliothek in München), existieren ca. 100 Seminar- und Institutsbibliotheken. Die Studie konstatierte sowohl die mangelnde Kooperation bei Beschaffung und Katalogisierung seitens der Institute, die in der materiellen und personellen Unterausstattung mit Bibliothekaren ihre Ursache habe, als auch die Weigerung der Bibliotheksverbünde, den Ostasienbibliotheken durch Mehrschriftlichkeit ihrer Kataloge die Mitarbeit zu ermöglichen. Auf dem Workshop "Vernetzung von Bibliotheks- und Archivressourcen im Bereich Ostasienwissenschaften", am 20. April 2000, auf dem die Ergebnisse der Studie diskutiert wurden, kam man zu dem Ergebnis, "dass die Förderorganisationen bis zur Ermöglichung von Mehrschriftlichkeit in den Verbünden bereits die Schaffung eines einheitlichen CJK-Katalogs in Deutschland unterstützen könnten, der sich so weit wie möglich auf die Standards der Verbünde zu bewegen sollte, um die Katalogisate der beteiligten Bibliotheken qualitativ zu verbessern und eine spätere Integration zu erleichtern.
    Aufgrund dieser Empfehlung finanzierte das BMBF einen weiteren Workshop mit mit dem Titel "CJK-Fachbibliotheken auf dem Weg in die Verbünde", der am 3. und 4. Mai 2001 in Hamburg stattfand. Die Teilnehmer des Workshops waren Vertreter der CJK-Bibliotheken, Asienwissenschaftler, Vertreter der Bibliotheksverbünde, betroffener Ausschüsse und der Deutschen Bibliothek sowie Vertreter von Förderorganisationen. Man kam schon damals zu dem Schluss, dass in technischer Hinsicht keine Hindernisse mehr für eine Kooperation zwischen den CJK-BiblioIheken sowie zwischen diesen und den Verbünden existierten. Die Vertreter der Verbünde erklärten ihre Bereitschaft zur Unterstützung und Integration der CJKBibliotheken. Am 18. Juni diesen Jahres fand erneut ein Workshop zur CJK-Katalogisierung statt, nun an der Staatsbibliothek Berlin, auf Einladung derselben und der AG Kooperative Verbundanwendungen. Anlass hierfür war die Öffnung verschiedener Verbundkataloge für die originalsprachige Katalogisierung (HBZ 2006, BVB 2008, HeBIS Dezember 2008, SWB Januar 2009, GBV Mai 2009 (in separater Datenbank und zum gegenwärtigen Zeitpunkt ausschließlich für die SBB)), die einen zunehmenden Bedarf an größerer Vereinheitlichung in der Katalogisierungspraxis mit sich bringt. Zu den insgesamt 50 Teilnehmern des Workshops zählten Vertreter der Verbünde, der Deutschen Bibliothek (aus dem Bereich der Normdateien sowie der Informationstechnik) sowie Vertreter der mit der Katalogisierung von CJK-Literatur Befassten aus einer ganzen Reihe von Einrichtungen, u.a. auch aus der Schweiz und Österreich. Der Workshop wurde moderiert von Matthias Kaun (Leiter der Ostasienabteilung der SBB). Formuliertes Ziel des Workshops war die Erarbeitung einer gemeinsamen Katalogisierungspraxis für die originalschriftliche CJK-Katalogisierung sowie einer einheitlichen Regelung der Transkriptionen.
    In der Einführung sprachen zunächst Matthias Kaun und Silke Horny (BSZ) über Problemstellung und Ziel des Workshops aus Sicht der Sondersammelgebiet-Bibliothek (SSG Ost- und Südostasien) bzw. der Verbünde. Matthias Kaun stellte fest, dass bei den Ostasienbibliothekaren in Deutschland bzw. Europa nach wie vor für die Katalogisierung von originalsprachiger Literatur Diskussions- und Handlungsbedarf im Hinblick auf Regelungen, Praxis und technische Lösungen bestehe. Er erwähnte Lösungsansätze, die für Zeitschriften in der Zeitschriftendatenbank existieren, vermisste jedoch eine übergreifende Praxis für den Bereich der Formalerschließung von Monographien, im Bereich der Namensansetzungen sowie der Normdaten. Während die Nutzung von Fremddaten an der SBB seit 1990 Praxis war, fehlt es auch heute noch an Kooperation bzw. Datenaustausch in Deutschland. Matthias Kaun formulierte die Notwendigkeit einer Professionalisierung im Bereich der CJK-Katalogisierung und damit verbunden der Erarbeitung einer gemeinsamen Praxis im Bereich der Titel und Verfasser in Originalschrift und / oder auch Transkriptionen sowie im Bereich der Normdaten (PND / GKD) wie auch die Notwendigkeit der Definition eines Zeichenvorrats. Erklärtes Ziel des Workshops war somit zunächst eine stärkere Sensibilisierung für die bestehenden Probleme und dann die Bildung von Arbeitsgruppen, die sich den Fragen einer gemeinsamen Praxis annehmen sollen, um auf deren Grundlage Lösungsansätze kooperativ verbundübergreifend erarbeiten, testen und umsetzen zu können.
    Es folgte ein Überblick über die derzeitige Praxis der Katalogisierung chinesischer bzw. japanischer Bestände (da zu wenige Vertreter aus Bibliotheken mit koreanischen Beständen anwesend waren, wurde dieser Teil auf dem Workshop weitestgehend ausgeklammert) an fünf verschiedenen deutschen Einrichtungen, in dem deutlich wurde, dass die Bedingungen unter denen gearbeitet wird (Personal- und Sachmittel) äußerst unterschiedlich sind und dass die einzelnen Institutionen untereinander kaum vernetzt sind bzw. Informationen austauschen. Matthias Kaun, Anne Labitzky-Wagner (Institut für Sinologie, Universität Heidelberg) und Julia Welsch (Asien-Afrika-Institut, Universität Hamburg) gaben einen Einblick in die chinesischsprachige, Ursula Flache (Staatsbibliothek zu Berlin), Aoki Hisae (Japan-Zentum, Philipps-Universität Marburg) und Dr. Klaus Gottheiner (Universitätsbibliothek Trier) in die japanischsprachige Katalogisierungspraxis. Erstere reicht von der kompletten Datenübernahme aus China im Fall der SBB, Fremddaten werden via Z39.50 aus China (von der National Library of China, Beijing übernommen - seit Mai diesen Jahres sind diese Daten in oben erwähnter separater Datenbank des GBV zu recherchieren -, bis hin zum Angebot eines Digitalen Zettelkatalogs für Altdaten an der Bibliothek des Asien-Afrika-Instituts/Abteilung Sprache und Kultur Chinas der Universität Hamburg bzw. Katalogisierung neuer Titel ausschließlich in lateinischer Umschrift bei paralleler Führung einer separaten Word-Datei in Originalschrift.
    Date
    22. 8.2009 10:44:16
  15. Wiesenmüller, H.: Von Fröschen und Strategen : Ein kleiner Leitfaden zur AACR2-Debatte (2002) 0.05
    0.047055222 = product of:
      0.18037835 = sum of:
        0.018799042 = weight(_text_:und in 636) [ClassicSimilarity], result of:
          0.018799042 = score(doc=636,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.35989314 = fieldWeight in 636, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
        0.015522547 = product of:
          0.031045094 = sum of:
            0.031045094 = weight(_text_:bibliothekswesen in 636) [ClassicSimilarity], result of:
              0.031045094 = score(doc=636,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2955047 = fieldWeight in 636, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=636)
          0.5 = coord(1/2)
        0.031045094 = weight(_text_:bibliothekswesen in 636) [ClassicSimilarity], result of:
          0.031045094 = score(doc=636,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.2955047 = fieldWeight in 636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
        0.05126371 = weight(_text_:katalogisierung in 636) [ClassicSimilarity], result of:
          0.05126371 = score(doc=636,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
        0.05126371 = weight(_text_:katalogisierung in 636) [ClassicSimilarity], result of:
          0.05126371 = score(doc=636,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
        0.012484257 = weight(_text_:im in 636) [ClassicSimilarity], result of:
          0.012484257 = score(doc=636,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=636)
      0.26086956 = coord(6/23)
    
    Abstract
    Zu den bestbesuchten Veranstaltungen des diesjährigen Bibliothekartages in Augsburg gehörte die Diskussion um die Reform der Formalerschließung. Ganz offensichtlich spielt die Katalogisierung - trotz Internet, Digitalisierung, Dublin Core etc. - im täglichen Geschäft nach wie vor eine bedeutende Rolle. Die Debatte um Regelwerke und Datenformate wird jedenfalls mit großem Ernst und Engagement geführt. Doch die Diskussion droht mittlerweile unübersichtlich zu werden, fachliche Argumente, technische Erfordernisse und bibliothekspolitische Positionen gehen munter durcheinander.
    Content
    "Bemerkenswerterweise argumentieren die RAK-Befürworter so gut wie nie formalistisch oder traditionalistisch, sondern meist pragmatisch und benutzerorientiert" - "Eine hundertprozentige Übereinstimmung von deutschen und anglo-amerikanischen Daten bliebe auch nach dem Umstieg eine Utopie. Der versprochene Effekt bei der Nachnutzung von AACR2-Datensätzen ist deshalb deutlich zu relativieren." - "Der Standardisierungsauschuss hat mit seinem Beschluss die Weiterentwicklung der RAK2 faktisch gestoppt. Aber kann es sich das deutsche Bibliothekswesen wirklich leisten, zwei Jahre lang keine eigenständige Regelwerksarbeit zu betreiben?"
  16. Henze, G.; Patzer, K.: Einführung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke (2006) 0.05
    0.04606213 = product of:
      0.15134701 = sum of:
        0.021707265 = weight(_text_:und in 5182) [ClassicSimilarity], result of:
          0.021707265 = score(doc=5182,freq=36.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.41556883 = fieldWeight in 5182, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5182)
        0.034175802 = weight(_text_:katalogisierung in 5182) [ClassicSimilarity], result of:
          0.034175802 = score(doc=5182,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.25315216 = fieldWeight in 5182, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.03125 = fieldNorm(doc=5182)
        0.034050196 = product of:
          0.06810039 = sum of:
            0.06810039 = weight(_text_:titelaufnahme in 5182) [ClassicSimilarity], result of:
              0.06810039 = score(doc=5182,freq=2.0), product of:
                0.19056913 = queryWeight, product of:
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.023567878 = queryNorm
                0.3573527 = fieldWeight in 5182, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5182)
          0.5 = coord(1/2)
        0.034175802 = weight(_text_:katalogisierung in 5182) [ClassicSimilarity], result of:
          0.034175802 = score(doc=5182,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.25315216 = fieldWeight in 5182, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.03125 = fieldNorm(doc=5182)
        0.01441558 = weight(_text_:im in 5182) [ClassicSimilarity], result of:
          0.01441558 = score(doc=5182,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.21638076 = fieldWeight in 5182, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=5182)
        0.007027081 = product of:
          0.014054162 = sum of:
            0.014054162 = weight(_text_:1 in 5182) [ClassicSimilarity], result of:
              0.014054162 = score(doc=5182,freq=10.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.24275449 = fieldWeight in 5182, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5182)
          0.5 = coord(1/2)
        0.0057953056 = product of:
          0.011590611 = sum of:
            0.011590611 = weight(_text_:international in 5182) [ClassicSimilarity], result of:
              0.011590611 = score(doc=5182,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.14742646 = fieldWeight in 5182, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5182)
          0.5 = coord(1/2)
      0.3043478 = coord(7/23)
    
    Content
    Der Standardisierungsausschuss hat die Einführung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke beschlossen und in einem Umlaufverfahren im Frühjahr 2006 der Veröffentlichung und baldigen Anwendung der dafür notwendigen Änderungen in den "Regeln für die alphabetische Katalogisierung (RAK)" und den "Format und Konventionen für die Zeitschriften-Titelaufnahme in der Zeitschriftendatenbank (ZETA)" zugestimmt. Die notwendige Änderung des 113,3 in denRAK-WB und in den RAK-NBM wird von Der Deutschen Bibliothek zum 1. Juni 2006 in elektronischer Form veröffentlicht <urn:nbn:de:1111-20040721102> <http://nbn-resolving.de/urn/resolver.pl?urn-urn:nbn:de:1111-20040721102> sowie <urn:nbn:de:1111-20040721115> <http:// nbn-resolving.de/urn/resolver.pl?urn=urn:nbn:de:1111-20040721115>. Die notwendige Änderung der ZETA-Splitregeln E 221 wird von der Staatsbibliothek zu Berlin auf der Homepage der Zeitschriftendatenbank zum 1. Juni 2006 in elektronischer Form veröffentlicht <http://www.zeitschriftendatenbank.de/ downloads/pdf/e221.pdf>. Weitere ZETA-Regeln, die aufgrund der geänderten Splitregeln ebenfalls angepasst werden müssen, werden ebenfalls zum 1. Juni 2006 auf der Website der Zeitschriftendatenbank unter "ZDB Aktuell" zur Verfügung gestellt: B 4000, B 4213 und B 4244. Ein weiteres Unterlagenpaket, das auch Geschäftsgangsregelungen für die ZDB und Beispiele für die Veränderungen enthält, soll am 1. September 2006 zur Verfügung gestellt werden <http://www.zeitschriftendatenbank.de/ zdb aktuell/index.html>. Die ZDB hat angekündigt, die Splitregeln zum 1. Januar 2007 anzuwenden. Dieser Termin wurde gewählt, um ausreichend Zeit für die Vorbereitung und Durchführung verbundinterner Schulungen einzuräumen und Regelungen für den Umgang mit Altdaten vorzubereiten. Die Einführung der ISBD(CR)-Splitregeln ist eine der Maßnahmen, die vom Standardisierungsausschuss und der Arbeitsgemeinschaft der Verbundsysteme Ende 2004 nach Abschluss des Projektes "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" beschlossen wurden. Die International Standard Bibliographic Description for Serials and Other Continuing Resources (ISBD(CR)) wurde 2002 in einer revidierten Fassung veröffentlicht; ihre in mehrjähriger internationaler Harmonisierungsarbeit zwischen ISBD-, ISSN- und AACR-Gremien entstandenen Splitregeln werden weltweit angewendet. Mit der Einführung auch in Deutschland und Österreich kann nun eine Anwendungslücke geschlossen werden, die hinderlich für Datentausch und Zusammenarbeit auf internationaler Ebene war. "Continuing resources", im RAK-Jargon "fortlaufende Sammelwerke", umfassen nicht nur Zeitschriften, Zeitungen, Jahrbücher, sondern auch Schriftenreihen. Die ISBD(CR)-Splitregeln sehen für Print- und elektronische Publikationen einheitliche Regeln vor. Eine Arbeitsgruppe, in der Vertreter der Expertengruppe Formalerschließung, der Zeitschriftendatenbank, der Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB (AGDBT) und der Arbeitsstelle für Standardisierung mitwirkten, erarbeitete 2005 im Auftrag des Standardisierungsausschusses unter Einbeziehung bereits vorhandener Unterlagen und Vorschläge anwendungsfähige Ergebnisse. Hierzu wurden Monografien-Fachleute einbezogen und die Vorschläge mit den Verbünden den rückgekoppelt. Allen Beteiligten danken wir für ihre Mitwirkung.
  17. Naumann, U.: Wird das deutsche Bibliothekswesen autoritär? : Eine Antwort auf Klaus Franken (2002) 0.04
    0.0444329 = product of:
      0.14599383 = sum of:
        0.01617964 = weight(_text_:und in 229) [ClassicSimilarity], result of:
          0.01617964 = score(doc=229,freq=20.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.3097467 = fieldWeight in 229, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=229)
        0.014634798 = product of:
          0.029269597 = sum of:
            0.029269597 = weight(_text_:bibliothekswesen in 229) [ClassicSimilarity], result of:
              0.029269597 = score(doc=229,freq=4.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2786045 = fieldWeight in 229, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.03125 = fieldNorm(doc=229)
          0.5 = coord(1/2)
        0.029269597 = weight(_text_:bibliothekswesen in 229) [ClassicSimilarity], result of:
          0.029269597 = score(doc=229,freq=4.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.2786045 = fieldWeight in 229, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.03125 = fieldNorm(doc=229)
        0.034175802 = weight(_text_:katalogisierung in 229) [ClassicSimilarity], result of:
          0.034175802 = score(doc=229,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.25315216 = fieldWeight in 229, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.03125 = fieldNorm(doc=229)
        0.034175802 = weight(_text_:katalogisierung in 229) [ClassicSimilarity], result of:
          0.034175802 = score(doc=229,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.25315216 = fieldWeight in 229, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.03125 = fieldNorm(doc=229)
        0.01441558 = weight(_text_:im in 229) [ClassicSimilarity], result of:
          0.01441558 = score(doc=229,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.21638076 = fieldWeight in 229, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=229)
        0.0031426062 = product of:
          0.0062852125 = sum of:
            0.0062852125 = weight(_text_:1 in 229) [ClassicSimilarity], result of:
              0.0062852125 = score(doc=229,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.1085631 = fieldWeight in 229, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.03125 = fieldNorm(doc=229)
          0.5 = coord(1/2)
      0.3043478 = coord(7/23)
    
    Content
    "Als ich im Oktober-Heft 2001 des BIBLIOTHEKSDIENST den Beitrag von Klaus Franken "Ist Deutschland reif für die internationale Zusammenarbeit?" (S.1342-1343) überflog, dachte ich mir: "Gut gebrüllt, Löwe", denn ich konnte seine Darstellung nicht anders als eine Satire auf die Gremienarbeit im deutschen Bibliothekswesen interpretieren. Inzwischen erscheint es mir aufgrund verschiedener Signale (Zwickau und Standardisierungsausschuss!), dass das dort Vorgeschlagene ernst gemeint sein muss, dass Franken vielleicht nur "his master's voice" ist. Und deshalb will ich, wenn auch sonst zurückhaltend veranlagt, meine "direktoriale" Stimme erheben und rufen: "So bitte nicht!" Mag sein, dass Klaus Franken wie auch die an der in seinem Beitrag beschriebenen Podiumsdiskussion beteiligten "maßgeblichen und einflussreichen Bibliothekarinnen und Bibliothekare" hervorragende Kenner der Katalogisierungsprobleme sind: ich bin es nicht. Nach meiner Kurzausbildung in Frankfurt am Main (gemeinsam mit Berndt Dugall), dabei intensiv geschult im sorgfältigen Tippen von PI-Katalogaufnahmen auf Matrizen, und den sicher verdienstvollen Bemühungen von Frau Nafzger-Glöser, Frau Bouvier und Frau Miksch, mir an der Bibliotheksschule Frankfurt die theoretischen Grundkenntnisse in PI und RAK zu vermitteln (wobei mich das erfolgreiche Bestehen der Klausur primär interessierte), hat mich mein weiterer Berufsweg weit von der formalen Katalogisierung entfernt. Stationen waren eine Dozentur an der Bibliotheksschule Frankfurt mit gleichzeitigem Fachreferat, die Herstellung der Hessischen Bibliographie, die Leitung der Benutzungsabteilung der Universitätsbibliothek der Freien Universität Berlin und schließlich die Leitung dieser Einrichtung. Selbst in meinem 25-jährigen Unterricht habe ich mich nie auf die Probleme der formalen Erschließung eingelassen. Ich bin also Laie, wenn es um Katalogisierungsfragen geht, glaube aber andererseits, dass meine "Karriere" nicht untypisch für viele leitende Bibliothekarinnen und Bibliothekare ist, die Mitglieder der maßgeblichen Gremien des deutschen Bibliothekswesens sind (Joachim Stoltzenburg nannte das einmal den "Inneren Kreis"). Meine Grenzen erkennend, könnte auf mich allerdings eine Feststellung nicht zutreffen, die ich kürzlich in diesem Zusammenhang las: Eine eindeutige Befürwortung einer gravierenden Regelwerksumstellung fällt erfahrungsgemäß umso leichter, je weiter man von den praktischen Katalogisierungsproblemen entfernt ist, ... "
    Source
    Bibliotheksdienst. 36(2002) H.1, S.52-54
  18. Neuböck, I.: Bericht vom Deutschen Bibliothekartag aus Sicht der Katalogisierung (2005) 0.04
    0.04435625 = product of:
      0.12752421 = sum of:
        0.01688632 = weight(_text_:buch in 3777) [ClassicSimilarity], result of:
          0.01688632 = score(doc=3777,freq=2.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.1541063 = fieldWeight in 3777, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3777)
        0.017998714 = weight(_text_:und in 3777) [ClassicSimilarity], result of:
          0.017998714 = score(doc=3777,freq=44.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.34457147 = fieldWeight in 3777, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3777)
        0.018156925 = product of:
          0.03631385 = sum of:
            0.03631385 = weight(_text_:kataloge in 3777) [ClassicSimilarity], result of:
              0.03631385 = score(doc=3777,freq=4.0), product of:
                0.1351219 = queryWeight, product of:
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.023567878 = queryNorm
                0.26874882 = fieldWeight in 3777, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3777)
          0.5 = coord(1/2)
        0.025631854 = weight(_text_:katalogisierung in 3777) [ClassicSimilarity], result of:
          0.025631854 = score(doc=3777,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.18986413 = fieldWeight in 3777, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3777)
        0.025631854 = weight(_text_:katalogisierung in 3777) [ClassicSimilarity], result of:
          0.025631854 = score(doc=3777,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.18986413 = fieldWeight in 3777, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3777)
        0.01651512 = weight(_text_:im in 3777) [ClassicSimilarity], result of:
          0.01651512 = score(doc=3777,freq=14.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.2478953 = fieldWeight in 3777, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3777)
        0.0023569546 = product of:
          0.0047139092 = sum of:
            0.0047139092 = weight(_text_:1 in 3777) [ClassicSimilarity], result of:
              0.0047139092 = score(doc=3777,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.08142233 = fieldWeight in 3777, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3777)
          0.5 = coord(1/2)
        0.004346479 = product of:
          0.008692958 = sum of:
            0.008692958 = weight(_text_:international in 3777) [ClassicSimilarity], result of:
              0.008692958 = score(doc=3777,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.11056984 = fieldWeight in 3777, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3777)
          0.5 = coord(1/2)
      0.3478261 = coord(8/23)
    
    Content
    ... "Gleich zu Beginn gibt es einen amerikanischen Beitrag von Jeff Garrett (Illinois), der uns erzählt, dass Kataloge in Zukunft ohnedies überflüssig würden. Google würde zukünftig unsere Arbeit übernehmen, und zwar wesentlich effizienter, viel komfortabler und mit Volltextrecherche. Er stellt die provokante Frage, ob Kataloge nur noch ein Notbehelf zum Auffinden von Büchern seien, der bald überwunden sei. Es gäbe bereits Untersuchungen, die darlegen, dass eine Volltextrecherche zu einer höheren Nutzung eines Werkes führe als eine Katalogrecherche. Im Anschluss daran berichtet Patrick LeBoeuf (Bibliotheque Nationale de France) über das FRBR (Funktional Requirements for Bibliographic Records)-Modell und einige FRBR-Anwendungen. Er stellt die FRBR-Entitäten anhand von 3 Gruppen dar: 1. Ein Wort kann viele Bedeutungen haben (z.B. Buch = Item, Manifestation, Expression, Work) 2. Wer ist verantwortlich? (Verfasser, Urheber) 3. Wovon ist in diesem Werk die Rede Alle Entitäten der ersten beiden Gruppen gehören auch zur 3. Gruppe. Generell übt das FRBR-Modell einen Einfluss auf die Normierung auf internationaler Ebene aus. Es gibt auch Pläne für die Entwicklung eines internationalen Katalogisierungswerkes. Die FRBR-Entitäten sind in den Frankfurter Katalogisierungsprinzipien festgehalten und auch bei der Entwicklung der AACR3 soll auf diese Rücksicht genommen werden. Diese Aussagen können als erster Schritt in diese Richtung gesehen werden. Im Anschluss daran berichtet LeBoeuf über einige Anwendungen des FRBR-Modells. Die erste Anwendung geschah in AustLitGateway, eine Art Online-Enzyklopädie. Die zweite Anwendung war Virtua. In Virtua kann man MARC Datensätze in FRBR-Entitäten aus der ersten Gruppe aufspalten, z.B., kann man auf diese Weise einen Werk-Datensatz auswählen und erhält alle Versionen, die es zu diesem Werk gibt. Bei den einzelnen Ausgaben gibt es jeweils Kurzbeschreibungen und Hinweise auf den Standort dieser Ausgabe. Ein höchst interessantes Projekt in diesem Zusammenhang ist das xisbn-Projekt des WoldCat von OCLC. Auch hier wurde das FRBR-Modell eingesetzt mit dem Ziel, bei einer ISBN-Suche alle Ausgaben eines Werkes angezeigt zu bekommen. Derzeit ist das FRBR-Modell nur in Projekten im Einsatz, sollte in Zukunft u.a. die Möglichkeit bieten eine einzelne Recherche gleichzeitig in Bibliotheken und Museen durchzuführen.
    Endlich berichten Frau Dr. Elisabeth Niggerman (DDB) (!!!) und Reiner Diedrichs (GBV) über die Auswirkungen der DFG-Studie. Eine schrittweise Internationalisierung der deutschen Regeln wird mehrheitlich gewünscht. Diese Meinung wird als Alternative vom Standardisierungsausschuss akzeptiert. Es liegen nun Vorschläge der AG-Verbund vor nämlich: - MARC21 ist obligatorisch für Verbundsysteme als Austauschformat - Verbesserungvon Datenaustausch und Fremddatennutzung - Flache Hierarchien und vollständige Information im Datensatz - Obligatorische Verwendung internationaler Codierungen - Intensive Normdatenverwendung - Einheitliche Datenstruktur und einheitliche Formatanwendung Dazu sind folgende Rahmenbedingungen notwendig: - Das Regelwerk soll die Ziele der AG-Verbund effektiv unterstützen - Keine den AACR widersprechenden Regeln - Keine Kann-Beistimmungen für strukturelle Aspekte im Regelwerk - Obligatorische Individualisierung Folgende Punkte wurden vom Standardisierungsausschuss beschlossen: - MARC21 - Deutsch als Ansetzungs- und Arbeitssprache - Vereinheitlichung und Integration der Sonderregeln in einem Werk - Übereinstimmung der Entitäten bei Titel, Personen- und Körperschaftsnamen durch Einführung international üblicher Regeln (im Hinblick auf internationale Normdaten) - Anpassung der Splitregeln bei fortlaufenden Sammelwerken (ein diesbezüglicher Entwurf wurde von der ZDB bereits ausgearbeitet) - Aktive Teilnahme am Geneseprozess der AACR3 - Gemeinsame Normdaten - gemeinsame Ansetzung von Personen bei PND und SWD - Untersuchung zur Bedeutung von Ansetzungs- und Einheitssachtitel "Uniform Title" - Insgesamt sollte eine Bewegung in Richtung - Internationalisierung - Austauschbarkeit von Daten - Kostenreduktion - Konsequente Zielverfolgung und straffe Zeitpläne Die Diskussion zu diesen Vorträgen war kaum erwähnenswert. Als Rahmenfür die Umsetzung von MARC21 und einem angepassten Regelwerk wurden nach wie vor 10 Jahre genannt. In persönlichen Gesprächen wird klar, dass mittlerweile der Umstieg auf MARC21 nicht mehr so gravierend gesehen wird, da die meisten Systeme ein Internformat verwenden und nur die Auslieferung der Daten anstelle von MAB2 und eben in MARC21 erfolgen muss. Beim Regelwerk selbst herrscht eine sehr uneinheitliche Meinung. Manche sind der Meinung, dass im Grunde doch die AACR3 kommen wird, andere sind fest davon überzeugt, dass das deutsche Regelwerk bestehen bleiben wird. Die Änderungsvorschläge der ZDB für die neuen Splitregeln sind jedenfalls eine Angleichung dieser an die AACR2.
    In der Veranstaltung der Verbundsystem wurde von Herrn Diederichs (GBV) nochmals das derzeitige Regelwerk kritisiert, das eigentlich nur einen elektrifizierten Katalog produziere und die Forderung einer Internationalisierung des Regelwerkes ohne Kann-Beistimmungen, Hausregeln oder eigenen Sonderregeln, sowie der Entwicklung eines Qualitätsstandards aufgestellt. Seine Forderungen beziehen die Sacherschließung mit ein. Er fordert Konkordanzen für die Sacherschließung von Altdaten bzw. hauseigener Sacherschließung mit der DDC der Verbundzentrale. Neue Recherchetools wie die neue Suchmaschine des HBZ geben ihm diesbezüglich Recht (Infos dazu: http://suchen.hbz-nrw.de HBZ-Suchmaschine)."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.2, S.82-85
  19. Gömpel, R.; Altenhöner, R.; Jahns, Y.; Junger, U.; Mahnke, C.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 71. IFLA-Generalkonferenz in Oslo, Norwegen : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICABS und UNIMARC sowie der Information Technology Section (2005) 0.04
    0.043569155 = product of:
      0.1431558 = sum of:
        0.014071932 = weight(_text_:buch in 4304) [ClassicSimilarity], result of:
          0.014071932 = score(doc=4304,freq=2.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.12842192 = fieldWeight in 4304, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4304)
        0.01598891 = weight(_text_:und in 4304) [ClassicSimilarity], result of:
          0.01598891 = score(doc=4304,freq=50.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.30609533 = fieldWeight in 4304, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4304)
        0.04271975 = weight(_text_:katalogisierung in 4304) [ClassicSimilarity], result of:
          0.04271975 = score(doc=4304,freq=8.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.3164402 = fieldWeight in 4304, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4304)
        0.04271975 = weight(_text_:katalogisierung in 4304) [ClassicSimilarity], result of:
          0.04271975 = score(doc=4304,freq=8.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.3164402 = fieldWeight in 4304, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4304)
        0.022069259 = weight(_text_:im in 4304) [ClassicSimilarity], result of:
          0.022069259 = score(doc=4304,freq=36.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.33126402 = fieldWeight in 4304, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4304)
        0.0019641288 = product of:
          0.0039282576 = sum of:
            0.0039282576 = weight(_text_:1 in 4304) [ClassicSimilarity], result of:
              0.0039282576 = score(doc=4304,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.06785194 = fieldWeight in 4304, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4304)
          0.5 = coord(1/2)
        0.0036220662 = product of:
          0.0072441325 = sum of:
            0.0072441325 = weight(_text_:international in 4304) [ClassicSimilarity], result of:
              0.0072441325 = score(doc=4304,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.09214154 = fieldWeight in 4304, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4304)
          0.5 = coord(1/2)
      0.3043478 = coord(7/23)
    
    Content
    Enthält Berichte aus den Sektionen: (1) Bibliography Section; (2) Cataloguing Section (Sektion Katalogisierung) Deutsche Mitglieder im Ständigen Ausschuss der Sektion: Renate Gömpel (2005-2009; Die Deutsche Bibliothek) und Ulrike Junger (2003-2007; Staatsbibliothek zu Berlin) Der Schwerpunkt der Arbeit dieser Sektion liegt auf der Erarbeitung bzw. internationalen Harmonisierung von Strukturen, Regeln und Arbeitsverfahren mit dem Ziel, die internationale Kooperation im Katalogisierungsbereich zu verbessern. ... Die neuen internationalen Katalogisierungsprinzipien sollen die bisherigen Paris Principles ablösen. Sie sollen in gleicher Weise für die Formal- und Sacherschließung gelten und nicht nur für den einzelnen Katalog bestimmt sein, sondern auch für Daten in (globalen) Netzen zutreffen. Sie sehen die Verwendung von Normdaten vor und beruhen auf den IFLA-Modellen FRBR und FRAR, die die gemeinsame Nutzung von Daten unterstützen. In ihrer zentralen Bedeutung bestätigt wurden auch die "Functional Requirements for Bibliographic Records" (FRBR). Darüber hinaus gehört die Fortsetzung der ISBD-Entwicklung zu den zentralen Anliegen der Arbeit der Sektion Katalogisierung. Ein weiteres vorrangiges Ziel bleibt die Erarbeitung von Standards, Regeln und Informationslisten, um den Zugang zu bibliographischen Daten in allen Sprachen zu ermöglichen. Hierzu zählen u.a.: - die vollständige Veröffentlichung der Anonymous Classics: Für den Teil Afrika liegt inzwischen ein Entwurf vor. - die Beobachtung der Aktivitäten zu Unicode und die Information der Sektionsmitglieder darüber, um den mehrsprachigen Zugang zu bibliographischer Information zu fördern - die Entwicklung eines web-basierten multilingualen Wörterbuchs für Katalogisierungsbegriffe - die Entwicklung und der Test von (Daten-)Modellen für eine virtuelle internationale Normdatei - die Überarbeitung der "IFLA Names of persons". Die Liste der russischen Namen wurde inzwischen überarbeitet. Empfehlungen für die Organisation und Erschließung der rapide ansteigenden Zahl elektronischer Ressourcen zu entwickeln, ist ein anderes Ziel der Sektion. Darüber hinaus sollen die Information über die Aktivitäten der Sektion Katalogisierung verstärkt und neue Mitglieder zur Mitarbeit im Ständigen Ausschuss vor allem aus bisher noch unterrepräsentierten Regionen geworben werden. Der letzte Aufruf war erfolgreich und hat zu neuen Mitgliedern aus Asien geführt. Noch immer nicht vertreten sind afrikanische Kollegen - hier soll insbesondere im Vorfeld der IFLA-Konferenz 2007 in Durban Werbung gemacht werden.
    Das Open Programme stand in diesem Jahr unter dem Motto "Cataloguing and subject tools for global access: international partnerships" und war als gemeinsame Veranstaltung der Sektionen Klassifikation und Indexierung sowie Katalogisierung konzipiert. Im ersten Teil stellte Glenn Patton von OCLC als Vorsitzender der Arbeitsgruppe das konzeptionelle Modell der funktionellen Anforderungen an Normdatensätze "FRAR: Extending FRBR concepts to Authority Data" vor. Olga Lavrenova von der Russischen Staatsbibliothek Moskau referierte über den "National Authority File of the Russian Geographic Names", Natalia Kulygina über "Authority control in an multilanguage catalogue: Russian experience". Für den zweiten Teil siehe den Bericht der Classification and Indexing Section. Aus den Arbeitsgruppen der Cataloguing Section: Der Schwerpunkt der Arbeiten der ISBD Review Group hat sich auf die Erarbeitung einer "consolidated ISBD", d. h. die Zusammenführung und terminologische Vereinheitlichung der einzelnen ISBD-Ausgaben, verlagert. Das generelle Revisionsprojekt wurde dafür in der Priorität etwas zurückgesetzt. So wurde die Fertigstellung der Revisionen der ISBD(ER) und ISBD(CM) zurückgestellt, um eine stabile Ausgangsbasis für das Konsolidierungsprojekt zu haben. Die 2004 für die Revision der ISBD(A) mit Experten für das Alte Buch gebildete Study Group hat einen Großteil der Arbeiten bereits erledigen können und wird nach Klärung der verbliebenen offenen Fragen Anfang 2006 einen Entwurf vorlegen können. Bereits die ersten Untersuchungen der 2004 in Buenos Aires eingesetzten Study Group an the Future Directions of the ISBDs führten zu der Erkenntnis, dass durch die künftige Ausrichtung der ISBD in einer einzigen Ausgabe die Konsistenz von Terminologie und Inhalt entscheidend verbessert werden könnten. Eine erste "Cut-and-paste-Version" der derzeit acht verschiedenen ISBD-Ausgaben wurde von Der Deutschen Bibliothek im Rahmen ihrer ICABS-Verantwortung für die ISBD-Arbeit angefertigt. Diese diente als Grundlage für ein Treffen der Study Group Ende April in Frankfurt am Main. Für die IFLA-Konferenz waren anschließend die Texte für einzelne Areas zusammen geführt worden. Die ISBD Review Group hat die Vorgehensweise der Study Group bestätigt, und die Mitglieder werden im Herbst durch die Kommentierung der Vorschläge für die Texte der künftigen Areas stärker als bisher in die laufende Arbeit einbezogen. In der Diskussion werden insbesondere die derzeitigen Entwicklungen IME ICC, FRBR, FRANAR im Hinblick auf ihre Konsequenzen für die ISBD untersucht sowie die Anforderungen aus aktuellen Regelwerksrevisionen (RDA/AACR3) an die ISBD geprüft werden müssen. Ein Zeitplan für das gesamte Vorhaben wurde vereinbart, mit dem Ziel im Jahr 2007 eine veröffentlichungsreife ISBD vorzulegen. Zur Information der bibliothekarischen Öffentlichkeit über die Arbeit an der "consolidated ISBD" soll ein Statement der Zielsetzungen und Prinzipien vorbereitet werden.
    Das Hauptereignis für die FRBR Review Group im Berichtszeitraum war ein mit Unterstützung von OCLC und der British Library durchgeführter FRBRWorkshop, der Anfang Mai 2005 in Dublin, Ohio stattfand. Im Juni erschien ein Sonderheft der Zeitschrift Cataloging and Classification Quarterly' unter dem Titel "Functional Requirements for Bibliographic Records (FRBR): Hype or Cure-all?". Die im IFLANET verfügbare FRBR-Bibliographie' wurde Anfang August 2005 überarbeitet. Die derzeit existierenden vier FRBR=Arbeitsgruppen (Expression entity Working Group, Working Group an teaching and training, Working Group an subject relationships and classification, Working Group an FRBR/CRM dialogue) sind erneut sehr aktiv gewesen, vor allem die letztgenannte Working Group an FRBR/CRM dialogue. Die "Working Group Functional Requirements for subject authority records (FRSAR)" wurde im April 2005 unter Federführung der Classification and Indexing Section etabliert. Ziel hierbei ist es, die FRBR auch auf den Bereich der Inhaltserschließung auszuweiten. Die frühere "Working Group an continuing resources" hatte in Buenos Aires beschlossen, ihre Arbeit nicht fortzuführen, da die FRBR in ihrer derzeitigen Fassung "seriality" nicht ausreichend berücksichtigen. Eine neue Arbeitsgruppe soll sich mit der Behandlung "aggregierter" Werke, d.h. mehrteiliger Werke im weitesten Sinne, im FRBR-Modell beschäftigen. Als Satellite Meeting fand im Vorfeld der IFLA 2005 in Järvenpää, Finnland, eine Veranstaltung zu den FRBR für jedermann unter dem Titel "Bibliotheca Universalis - how to organise chaos?'" statt. Die Cataloguing Section organisierte diese Veranstaltung in Zusammenarbeit mit der Information Technology Section. Der Entwurf der "Functional Requirements for Authority Records: a conceptual model" wurde von der Working Group an Functional Requirements and Numbering of Authority Records (FRANAR) der Division IV Ende Juli 2005 in einem weltweiten Stellungnahmeverfahren mit Frist bis zum 28. Oktober 2005 zur Diskussion gestellt'. Die Working Group an the Use of Metadata Schemes hat die Ergebnisse ihrer mehr als fünfjährigen Arbeit in dem Papier "Guidance an the Structure, Content and Application of Metadata Records for digital resources and collections" zusammen gefasst und in einem weltweiten Stellungnahmeverfahren zur Diskussion gestellt. Das überarbeitete Papier liegt zurzeit dem Standing Committee der Cataloguing Section zur abschließenden Genehmigung vor und soll noch im Herbst 2005 veröffentlicht werden. Mit dieser Veröffentlichung ist die Arbeit der bisherigen Arbeitsgruppe abgeschlossen. Als Thema für eine neue Arbeitsgruppe wurde "Bibliographic Standard for text documents" vorgeschlagen. Die Arbeiten am IFLA Multilingual Dictionary of Cataloguing Terms and Concepts - MulDiCat konnten krankheitsbedingt im Berichtsjahr nicht fortgesetzt werden. Die Guidelines for OPAC Displays sind unmittelbar vor der Konferenz in gedruckter Form erschienen. Die Working Group an OPAC Displays hat damit ihre Arbeit beendet.
  20. Wiechmann, B.: Individualisierungstest in Der Deutschen Bibliothek (1999) 0.04
    0.042166416 = product of:
      0.19396552 = sum of:
        0.020021284 = weight(_text_:und in 3810) [ClassicSimilarity], result of:
          0.020021284 = score(doc=3810,freq=10.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.38329202 = fieldWeight in 3810, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3810)
        0.018109638 = product of:
          0.036219276 = sum of:
            0.036219276 = weight(_text_:bibliothekswesen in 3810) [ClassicSimilarity], result of:
              0.036219276 = score(doc=3810,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.34475547 = fieldWeight in 3810, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3810)
          0.5 = coord(1/2)
        0.036219276 = weight(_text_:bibliothekswesen in 3810) [ClassicSimilarity], result of:
          0.036219276 = score(doc=3810,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.34475547 = fieldWeight in 3810, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3810)
        0.05980766 = weight(_text_:katalogisierung in 3810) [ClassicSimilarity], result of:
          0.05980766 = score(doc=3810,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.4430163 = fieldWeight in 3810, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3810)
        0.05980766 = weight(_text_:katalogisierung in 3810) [ClassicSimilarity], result of:
          0.05980766 = score(doc=3810,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.4430163 = fieldWeight in 3810, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3810)
      0.2173913 = coord(5/23)
    
    Abstract
    Die Deutsche Bibliothek benutzt seit der Einspielung ihrer Personennamen die nationale Normdatei für Personennamen (PND) integriert für die Katalogisierung. Der seit Beginn der redaktionellen Arbeiten an der PND laufenden Diskussion über die Erfassung von Normdatensätzen für einzelnen Personen und deren Verwendung in der Formalerschließung wollen Die Deutschen Bibliothek eine statistisch belegte Grundlage verschaffen und hat deshalb einen Test zur Ermittlung ihres Aufwands für die erweiterte Individualisierung durchgeführt. Der Test ermöglicht Aussagen über den Zeitaufwand und das Verhältnis von nichtindividualisierten zu individualisierten Datensätzen an Der Deutschen Bibliothek und belegt, daß der hauptsächliche Aufwand bei der retrospektiven Zuordnung von Titeln anfällt. Die Deutsche Bibliothek spricht sich auf der Grundlage des Tests für die Fortführung der Individualisierung aus
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 46(1999) H.3, S.227-241

Authors