Search (47 results, page 1 of 3)

  • × theme_ss:"Formalerschließung"
  • × language_ss:"d"
  1. Münnich, M.: Katalogisieren auf dem PC : ein Pflichtenheft für die Formalkatalogisierung (1988) 0.08
    0.080652975 = product of:
      0.16130595 = sum of:
        0.16130595 = sum of:
          0.112764165 = weight(_text_:z in 2502) [ClassicSimilarity], result of:
            0.112764165 = score(doc=2502,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.47175628 = fieldWeight in 2502, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0625 = fieldNorm(doc=2502)
          0.048541788 = weight(_text_:22 in 2502) [ClassicSimilarity], result of:
            0.048541788 = score(doc=2502,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.30952093 = fieldWeight in 2502, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=2502)
      0.5 = coord(1/2)
    
    Abstract
    Examines a simpler cataloguing format offered by PCs, without disturbing compatibility, using A-Z cataloguing rules for data input, category codes for tagging and computer-supported data input through windows. Gives numerous examples of catalogue entries, basing techniques on certain category schemes set out by Klaus Haller and Hans Popst. Examines catalogue entries in respect of categories of data bases for authors and corporate names, titles, single volume works, serial issues of collected works, and limited editions of works in several volumes.
    Source
    Bibliotheksdienst. 22(1988) H.9, S.841-856
  2. ORCID (2015) 0.04
    0.042286564 = product of:
      0.08457313 = sum of:
        0.08457313 = product of:
          0.16914625 = sum of:
            0.16914625 = weight(_text_:z in 1870) [ClassicSimilarity], result of:
              0.16914625 = score(doc=1870,freq=8.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.70763445 = fieldWeight in 1870, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1870)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    ORCID soll die elektronische Zuordnung von Publikation und Autoren ermöglichen. Dies ist notwendig, da verschiedene Autoren gleiche Namen haben können, Namen sich ändern (z. B. bei Heirat) und Namen in verschiedenen Publikationen unterschiedlich angegeben werden (z. B. einmal die ausgeschriebenen Vornamen, ein anderes Mal aber nur die Initialen). ORCID soll zum De-facto-Standard für die Autorenidentifikation wissenschaftlicher Publikationen werden. Die Etablierung wird von der Non-Profit-Organisation Open Researcher Contributor Identification Initiative organisiert. Zu den Gründungsmitgliedern der Initiative gehören zahlreiche wissenschaftliche Verlagsgruppen (z. B. Elsevier, Nature Publishing Group, Springer) und Forschungsorganisationen (z. B. EMBO, CERN). Die Planungen für ORCID wurden 2010 auf Umfragen gestützt. ORCID ging am 16. Oktober 2012 offiziell an den Start. Am Jahresende 2012 hatte ORCID 42.918 Registrierte, Jahresende 2013 waren es 460.000 Registrierte und im November 2014 hatte ORCID 1 Million Autorenidentifikationen ausgestellt. Vgl. auch den Zusammenhang mit der GND und den Erfassungsleitfaden der DNB unter: https://wiki.dnb.de/x/vYYGAw.
  3. Wiesenmüller, H.: Formale Erschließung (2023) 0.04
    0.03662124 = product of:
      0.07324248 = sum of:
        0.07324248 = product of:
          0.14648496 = sum of:
            0.14648496 = weight(_text_:z in 784) [ClassicSimilarity], result of:
              0.14648496 = score(doc=784,freq=6.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.61282945 = fieldWeight in 784, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=784)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Bei der formalen Erschließung bzw. Formalerschließung, die auch als formale Analyse, formale Erfassung, Formalbeschreibung oder (Formal-)Katalogisierung bezeichnet wird, "werden Ressourcen gemäß festgelegten Regeln nach äußerlichen, formalen Kriterien beschrieben und auffindbar gemacht". Diese Ressourcen können alle Arten von physischen und digitalen Objekten sein, die z. B. in Bibliotheken, Archiven, Museen oder Dokumentationsstellen gesammelt oder verzeichnet werden. Formale Aspekte bei einem gedruckten Buch sind u. a. der*die Autor*in, der Titel, der Verlag, das Erscheinungsdatum, der Umfang und die ISBN. Bei einer Skulptur sind es u. a. der*die Künstler*in, das Entstehungsdatum, Werkstoff und Technik, die Maße und die Besitzgeschichte. Bei einem im Internet zur Verfügung gestellten digitalen Foto sind es u. a. der*die Fotograf*in, der Zeitpunkt der Aufnahme und die Koordinaten des Aufnahmeorts, technische Daten zur Aufnahme (z. B. Belichtungszeit), der Dateiname, das Dateiformat und die Dateigröße sowie die URL und ggf. ein Persistent Identifier (z. B. DOI oder URN).
  4. Menzel, S.; Schnaitter, H.; Zinck, J.; Petras, V.; Neudecker, C.; Labusch, K.; Leitner, E.; Rehm, G.: Named Entity Linking mit Wikidata und GND : das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten (2021) 0.04
    0.035238802 = product of:
      0.070477605 = sum of:
        0.070477605 = product of:
          0.14095521 = sum of:
            0.14095521 = weight(_text_:z in 373) [ClassicSimilarity], result of:
              0.14095521 = score(doc=373,freq=8.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.58969533 = fieldWeight in 373, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=373)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Named Entities (benannte Entitäten) - wie Personen, Organisationen, Orte, Ereignisse und Werke - sind wichtige inhaltstragende Komponenten eines Dokuments und sind daher maßgeblich für eine gute inhaltliche Erschließung. Die Erkennung von Named Entities, deren Auszeichnung (Annotation) und Verfügbarmachung für die Suche sind wichtige Instrumente, um Anwendungen wie z. B. die inhaltliche oder semantische Suche in Texten, dokumentübergreifende Kontextualisierung oder das automatische Textzusammenfassen zu verbessern. Inhaltlich präzise und nachhaltig erschlossen werden die erkannten Named Entities eines Dokuments allerdings erst, wenn sie mit einer oder mehreren Quellen verknüpft werden (Grundprinzip von Linked Data, Berners-Lee 2006), die die Entität eindeutig identifizieren und gegenüber gleichlautenden Entitäten disambiguieren (vergleiche z. B. Berlin als Hauptstadt Deutschlands mit dem Komponisten Irving Berlin). Dazu wird die im Dokument erkannte Entität mit dem Entitätseintrag einer Normdatei oder einer anderen zuvor festgelegten Wissensbasis (z. B. Gazetteer für geografische Entitäten) verknüpft, gewöhnlich über den persistenten Identifikator der jeweiligen Wissensbasis oder Normdatei. Durch die Verknüpfung mit einer Normdatei erfolgt nicht nur die Disambiguierung und Identifikation der Entität, sondern es wird dadurch auch Interoperabilität zu anderen Systemen hergestellt, in denen die gleiche Normdatei benutzt wird, z. B. die Suche nach der Hauptstadt Berlin in verschiedenen Datenbanken bzw. Portalen. Die Entitätenverknüpfung (Named Entity Linking, NEL) hat zudem den Vorteil, dass die Normdateien oftmals Relationen zwischen Entitäten enthalten, sodass Dokumente, in denen Named Entities erkannt wurden, zusätzlich auch im Kontext einer größeren Netzwerkstruktur von Entitäten verortet und suchbar gemacht werden können
  5. RAK-NBM : Interpretationshilfe zu NBM 3b,3 (2000) 0.03
    0.03432423 = product of:
      0.06864846 = sum of:
        0.06864846 = product of:
          0.13729692 = sum of:
            0.13729692 = weight(_text_:22 in 4362) [ClassicSimilarity], result of:
              0.13729692 = score(doc=4362,freq=4.0), product of:
                0.15682878 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04478481 = queryNorm
                0.8754574 = fieldWeight in 4362, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4362)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 1.2000 19:22:27
  6. Hilberer, T.: Aufwand vs. Nutzen : Wie sollen deutsche wissenschaftliche Bibliotheken künftig katalogisieren? (2003) 0.03
    0.0260018 = product of:
      0.0520036 = sum of:
        0.0520036 = sum of:
          0.039868154 = weight(_text_:z in 1733) [ClassicSimilarity], result of:
            0.039868154 = score(doc=1733,freq=4.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.16679104 = fieldWeight in 1733, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.015625 = fieldNorm(doc=1733)
          0.012135447 = weight(_text_:22 in 1733) [ClassicSimilarity], result of:
            0.012135447 = score(doc=1733,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.07738023 = fieldWeight in 1733, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.015625 = fieldNorm(doc=1733)
      0.5 = coord(1/2)
    
    Content
    "Die folgenden Thesen versuchen den Stand der Fachdiskussion so auf den Punkt zu bringen, dass sie auch für Außenstehende verständlich wird. Da sich auch Bibliothekarinnen und Bibliothekare außerhalb der Katalogabteilungen öfter als Laien auf dem Gebiet der Katalogisierung fühlen, scheint eine Veröffentlichung in der wichtigsten deutschen bibliothekarischen Zeitschrift nicht verfehlt zu sein. Die Frage, wie Bücher, Zeitschriften und andere Medien in den Computerkatalogen zu verzeichnen sind, hört sich ziemlich bibliothekarisch - sprich: esoterisch - an. Tatsächlich hat ihre Beantwortung bedeutende Folgen für Hochschulen und Wissenschaft, denn die Bibliotheken geben bislang den weitaus größten Teil ihres Etats nicht für Literatur aus, sondern für ihr Personal. Die Kosten für die Katalogisierung müssen deshalb eingeschränkt werden, bzw. die Mittel sollten nur für solche Erschließungsangebote verwendet werden, die die Wissenschaftler und Studierenden wirklich brauchen. Die Erschließung der Bestände stellt eine der wesentlichen Aufgaben der Bibliotheken dar. Nur das im Katalog verzeichnete Buch kann gefunden und somit gelesen werden. Diese Verzeichnung erfolgt keinesfalls, wie man vielleicht glauben könnte, durch einfaches Abschreiben der Titelblätter, vielmehr folgt die bibliothekarische Beschreibung einem komplizierten und umfangreichen Regelwerk. Dadurch soll sichergestellt werden, dass jedes Buch eindeutig und unverwechselbar erfasst wird. Solche Perfektion ist bei historischen Beständen unverzichtbar, wo es gilt, jedes Objekt in seiner Individualität voll ständig zu beschreiben. Für das Massengeschäft der aktuellen Literatur wäre weitaus weniger Aufwand vonnöten. Derzeit katalogisieren deutsche wissenschaftliche Bibliotheken ausnahmslos nach den Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken, abgekürzt RAK-WB. Auf knapp 600 großformatigen Seiten wird in 823 Paragraphen (allerdings mit springender Zählung) festgelegt, was wie zu erfassen und auf Titelkarten zu schreiben ist. Hinzu kommen meist mehrere Ordner umfassende Auslegungs- und Anwendungsregeln der verschiedenen regionalen Katalogisierungsverbünde. Ganz zu schweigen von den Protokollen der ebenfalls auf Verbundebene tätigen Katalog-AGs. Die Unterrichtung in diesem Regelwerk stellt einen wesentlichen Teil der Ausbildung zum Diplom-Bibliothekar dar (Laufbahn des gehobenen Dienstes), der folglich seine berufliche Identität nicht zuletzt aus der Qualität der Titelaufnahmen herleitet. Die Erschließungskosten sind daher hoch; nach jüngsten Erhebungen der Universitätsbibliothek Mannheim belaufen sie sich durchschnittlich auf ca. 20 Euro pro Buch. Dieser hohe Aufwand wird von Seiten der Nutzer weder wahrgenommen noch nachgefragt. Ihnen geht es nicht um die Beschreibung, sondern um das Auffinden von Büchern und Informationen. Zudem haben die verschiedenen Auslegungsregeln zur Folge, dass die bibliographische Beschreibung ein und desselben Buchs von Verbund zu Verbund verschieden ausfällt. Die durch das ausführliche Regelwerk angestrebte Eindeutigkeit wird also trotz des betriebenen Aufwands nicht erreicht. Die RAK-WB wurden für Zettelkataloge entwickelt und entsprechen nicht den Bedingungen von Datenbanken und Online-Katalogen. Sie beinhalten z. B. ausführliche Vorschriften für die Frage, unter welchem Element des Titels die "Haupteintragung" zu leisten sei, also wo die "Haupttitelkarte" in den Zettelkasten einzuordnen und von welchen anderen Elementen wie darauf zu verweisen ist. Das spielt im elektronischen Katalog überhaupt keine Rolle mehr, wo jedes Element der bibliographischen Beschreibung als Sucheinstieg gewählt werden kann. Sind, um noch ein Beispiel aufzuführen, mehr als drei Verfasser an einem Werk beteiligt, so wird nur der erste berücksichtigt, um die Zahl der Zettel klein zu halten. Der Online-Katalog hingegen sollte alle beteiligten Personen aufführen, um möglichst viele Informationen zu bieten.
    Die deutschen wissenschaftlichen Bibliotheken, so lässt sich zusammenfassen, katalogisieren mit hohem Aufwand und ohne entsprechenden Nutzen nach einem hypertrophen und veralteten Regelwerk - das überdies kaum geeignet ist, multimediale Objekte zu verzeichnen. Aus dieser Situation heraus ist, vor allem von Seiten der Deutschen Bibliothek, der Vorschlag gemacht worden, das deutsche Regelwerk durch die international weit verbreiteten Anglo-American Cataloguing Rules in der zweiten Ausgabe (sog. AACR2) zu ersetzen. Dies - so wird vorgebracht - würde es erlauben, Titelaufnahmen aus großen anglo-amerikanischen Datenbanken einfach zu übernehmen und so die Kosten für die Katalogisierung zu senken. Diese Lösung scheint auf den ersten Blick sehr verlockend zu sein, tatsächlich stellt sie keinen gangbaren Weg dar, und zwar aus mehreren Gründen: 1. Auch die AACR2 sind für Zettelkataloge verfasst und mithin genau so veraltet wie die RAK. 2. Die AACR2 sind nicht weniger kompliziert und umfangreich als die RAK, und sie kennen wie diese von Bibliotheksverbund zu Bibliotheksverbund unterschiedliche Auslegungsregeln. 3. Aus dieser exegetischen Vielfalt folgt eine Uneinheitlichkeit der bibliographischen Beschreibung. Einfache Übernahme von Titelaufnahmen ohne Nachbearbeitung wäre also nicht möglich. 4. Die AACR2 sind spezifisch für das amerikanische Bibliothekswesen entwickelt, das sich vom deutschen markant unterscheidet (z. B. Freihandbibliotheken statt Magazinbibliotheken). Schon deswegen könnte man das Regelwerk nicht 1:1 übernehmen, sondern müsste zahlreiche Anpassungen vornehmen, wie dies auch in der Schweiz geschehen ist. Auch dadurch wären einfache Übernahmen ausgeschlossen. 5. Eine solche einfache Übernahme würde weiterhin dadurch verhindert werden, dass die Ansetzung von Namen nach AACR2 in der Landessprache erfolgen müsste: Wo in einer amerikanischen Titelaufnahme z.B. Florence steht, müsste bei uns Florenz stehen (bisher nach RAK originalsprachlich Firenze). Der Umarbeitungsaufwand wäre besonders erheblich bei der Ansetzung von Namen aus Sprachen mit nicht-lateinischer Schrift, die man im Englischen ganz anders transkribiert als bei uns. Letzteres wiegt besonders schwer, denn alle Wissenschaften, die solche Sprachen zum Gegenstand haben oder mit ihnen arbeiten, könnten mit den neuen Ansetzungen nichts mehr anfangen. Sie würden diese Umstellung vermutlich nicht mitmachen und Sonderkataloge einfordern. 6. Sehr große Unterschiede bestehen außerdem bei der Katalogisierung von Zeitschriften. Während die RAK sich beispielsweise immer an den neuesten Titel einer Zeitschrift halten, stehen Zeitschriften in Amerika immer un ter dem ältesten. Eine Umarbeitung der Zeitschriftendatenbank wäre ungemein aufwendig, ohne dass der Nutzer etwas davon hätte. 7. Schon seit längerem übernehmen deutsche Bibliotheken angloamerikanische Titelaufnahmen, und passen sie an. Unterschiedliche Regelwerke verhindern Übernahmen also nicht. Umgekehrt gilt leider auch, dass Titelaufnahmen, die zwar nach demselben deutschen Regelwerk (RAK) erstellt worden sind, aber in einem anderen Verbund, folglich nach anderen Anwendungsregeln, nicht ohne Nachbearbeitung übernommen werden können: in Göttingen wird das Buch anders beschrieben als in Freiburg, trotz gleichen Regelwerks. Zunächst müsste also der einfache Austausch von Katalogisaten zwischen den deutschen Bibliotheksverbünden ermöglicht werden.
    Date
    22. 6.2003 12:13:13
  7. Oehlschläger, S.: Aus der 47. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 3. und 4. November 2004 in Wien (2005) 0.03
    0.025204055 = product of:
      0.05040811 = sum of:
        0.05040811 = sum of:
          0.035238802 = weight(_text_:z in 3124) [ClassicSimilarity], result of:
            0.035238802 = score(doc=3124,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.14742383 = fieldWeight in 3124, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.01953125 = fieldNorm(doc=3124)
          0.015169309 = weight(_text_:22 in 3124) [ClassicSimilarity], result of:
            0.015169309 = score(doc=3124,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.09672529 = fieldWeight in 3124, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=3124)
      0.5 = coord(1/2)
    
    Content
    Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben weiterhin ihre Absicht bekräftigt, ihre Verbunddaten gegenseitig zum Zweck der Datenübernahme, Fernleihe und Einbindung in Portale über Z 39.50 zu nutzen. Neuerwerbungen sollen künftig kooperativ katalogisiert werden, damit nicht Kapazitäten dadurch gebunden werden, dass die gleiche Titelaufnahme mehrfach erstellt werden muss. Eine Arbeitsgruppe unter Federführung des GBV wird ein Konzept und einen Projektplan mit einzelnen Arbeitsschritten sowie bis Ende 2005 ein prototypisches Verfahren zu entwickeln. Die gegenseitige Nutzung von Fremddatenangeboten (unter Beachtung lizenzrechtlicher Rahmenbedingungen) sowie die Bereitstellung von Datensätzen und ihre Anreicherung durch Abstracts, Inhaltsverzeichnisse, Rezensionen u. ä. sind seit langem bestehende Anforderungen, deren Realisierung mit der Vereinheitlichung der Datenstrukturen und der einheitlichen Anwendung von MARC21 als Transportformat erreicht wird. Notwendige Voraussetzung zur Anreicherung von Daten ist die Entwicklung eines Match-Key-Algorith-mus. Hierzu ist ein gesondertes Projekt unter Federführung Der Deutschen Bibliothek geplant. Die Arbeitsgemeinschaft der Verbundsysteme hat den Standardisierungsausschuss gebeten, dafür Sorge zu tragen, dass das künftige deutsche Regelwerk für die Formalerschließung ihre Ziele einer Vereinheitlichung der Datenstrukturen und eines verbesserten Datentauschs mit Fremddatennutzung effektiv unterstützt. Dazu dürfen keine den AACR widersprechenden Regelungen für das Regelwerk verabschiedet werden. Außerdem dürfen strukturrelevante Aspekte im Regelwerk künftig keine Kann-Bestimmungen mehr sein. Um international übereinstimmende Entitäten zu erhalten, plädiert die Arbeitsgemeinschaft der Verbundsysteme nachdrücklich dafür, bei Verwendung einer Normdatei Individualisierung als obligatorische Bestimmung einzuführen. Eine Übereinstimmung der Entitäten bei Titeln, Personen- und Körperschaftsnamen muss erklärtes Regelwerksziel sein. Hierfür sind international übliche Regelungen einzuführen. Dringend erforderlich ist auch die Vereinheitlichung und Integration der Sonderregeln in das Regelwerk. Die Arbeitsgemeinschaft der Verbundsysteme schlägt dem Standardisierungsausschuss darüber hinaus vor, Aspekte der Functional Requirements for Bibliographic Records (FRBR) im Regelwerk in Übereinstimmung mit der internationalen Entwicklung zu berücksichtigen und durch geeignete Untersuchungen auf Expertenebene zu untermauern."
    Date
    22. 1.2005 18:53:53
  8. Bärhausen, A.; Euskirchen, A.: Nachbearbeitung der Katalog-Konversion oder : Es bleibt viel zu tun, packen wir's an! (1999) 0.02
    0.021452643 = product of:
      0.042905286 = sum of:
        0.042905286 = product of:
          0.08581057 = sum of:
            0.08581057 = weight(_text_:22 in 4367) [ClassicSimilarity], result of:
              0.08581057 = score(doc=4367,freq=4.0), product of:
                0.15682878 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04478481 = queryNorm
                0.54716086 = fieldWeight in 4367, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4367)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 1.2000 19:36:10
    22. 1.2000 19:40:40
  9. RAK-Mitteilung Nr.16 : Regeln für die alphabetische Katalogisierung von Nichtbuchmaterialien (RAK-NBM). Entwurf (1995) 0.02
    0.021237032 = product of:
      0.042474065 = sum of:
        0.042474065 = product of:
          0.08494813 = sum of:
            0.08494813 = weight(_text_:22 in 2391) [ClassicSimilarity], result of:
              0.08494813 = score(doc=2391,freq=2.0), product of:
                0.15682878 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04478481 = queryNorm
                0.5416616 = fieldWeight in 2391, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2391)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Pages
    22 S
  10. Münnich, M.: RAK2: Sachstandsbericht : vom Bibliothekartag '95 zum Bibliothekartag '96 (1996) 0.02
    0.021237032 = product of:
      0.042474065 = sum of:
        0.042474065 = product of:
          0.08494813 = sum of:
            0.08494813 = weight(_text_:22 in 4594) [ClassicSimilarity], result of:
              0.08494813 = score(doc=4594,freq=2.0), product of:
                0.15682878 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04478481 = queryNorm
                0.5416616 = fieldWeight in 4594, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4594)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    21. 9.1996 16:03:22
  11. Weber, R.: "Functional requirements for bibliographic records" und Regelwerksentwicklung (2001) 0.02
    0.021237032 = product of:
      0.042474065 = sum of:
        0.042474065 = product of:
          0.08494813 = sum of:
            0.08494813 = weight(_text_:22 in 6838) [ClassicSimilarity], result of:
              0.08494813 = score(doc=6838,freq=2.0), product of:
                0.15682878 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04478481 = queryNorm
                0.5416616 = fieldWeight in 6838, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6838)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Dialog mit Bibliotheken. 13(2001) H.3, S.20-22
  12. Wiesenmüller, H.: Informationsaufbereitung I : Formale Erfassung (2004) 0.02
    0.021143282 = product of:
      0.042286564 = sum of:
        0.042286564 = product of:
          0.08457313 = sum of:
            0.08457313 = weight(_text_:z in 2914) [ClassicSimilarity], result of:
              0.08457313 = score(doc=2914,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.35381722 = fieldWeight in 2914, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2914)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Formale Erfassung wird auch als formale Analyse, Formalerschließung, Formalkatalogisierung, alphabetische Katalogisierung oder Titelaufnahme bezeichnet. Dabei wird der letzte Terminus nicht nur für den Vorgang der Erfassung verwendet, sondern kann auch sein Ergebnis beschreiben. Andere Bezeichnungen dafür sind Katalogisat oder Metadaten (Daten über Daten). Unter formaler Erfassung versteht man die konsistent nach bestimmten Regeln erfolgende Beschreibung und das Wiederauffindbar-Machen von Objekten nach äußerlichen, formalen Kriterien. Gegenstand einer formalen Erfassung können Objekte aller Art sein, also beispielsweise auch die Produktionspalette eines Industrieunternehmens. Im Informations- und Dokumentationswesen bezieht sich die formale Erfassung üblicherweise auf Dokumente (z. B. Druckschriften, audiovisuelle Materialien, Archivalien, Internet-Ressourcen, Museumsobjekte), wobei je nach Dokumenttyp unterschiedliche Merkmale zu erfassen sind. Die Formalerschließung stellt seit jeher eine zentrale Aufgabe von IuD-Institutionen dar. Sie bildet sozusagen das Fundament, auf dem die inhaltliche Erschließung aufsetzt. Diese erfolgt im deutschsprachigen Raum oft erst in einem zweiten, deutlich getrennten Arbeitsschritt. Im angelsächsischen Gebiet werden hingegen formale und sachliche Erschließung typischerweise gleichzeitig und durch denselben Bearbeiter vorgenommen.
  13. Wiesenmüller, H.: Versuch eines Fazits (2002) 0.02
    0.019934077 = product of:
      0.039868154 = sum of:
        0.039868154 = product of:
          0.07973631 = sum of:
            0.07973631 = weight(_text_:z in 1100) [ClassicSimilarity], result of:
              0.07973631 = score(doc=1100,freq=4.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.33358207 = fieldWeight in 1100, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1100)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Von der Vielzahl der Aspekte' die in den Referaten und der Diskussion angesprochen wurden' seien im Folgenden nur die wichtigsten (in subjektiver Auswahl und Wertung) angeführt: Trotz gemeinsamer Grundlagen sind die Unterschiede zwischen den RAK und den AACR2 beträchtlich. Dies machte ein Vergleich der beiden Regelwerke deutlich' den Prof. Margarete Payer (Hochschule der Medien Stuttgart) im Allgemeinen und Ursula Hoffmann (WLB Stuttgart) speziell für den Bereich der Zeitschriften anstellte. Betroffen sind dabei sowohl allgemeine Prinzipien als auch unzählige Details' so banal diese oft auch erscheinen mögen. Dabei sind die nach dem einen Regelwerk erstellten Titelaufnahmen nicht besser' oder 'schlechter' als die anderen - sie sind einfach 'anders'. Klar wurde freilich auch' dass die Frage RAK oder AACR?' die Thematik in unzulässiger Weise verkürzt. Die beiden Systeme muss man sich vielmehr als Endpunkte auf einer Skala vorstellen' zwischen denen vielerlei Varianten denkbar sind. Schon die Ergebnisse der bisherigen RAK2-Arbeit, die Monika Münnich (UB Heidelberg) vorstellte' sind beeindruckend. Mancher Zuhörer staunte ob der keineswegs zaghaften Einschnitte der Entwickler hin zu einem schlanken' modernen und international kompatiblen Regelwerk. Auch für die nächsten Schritte gibt es konkrete Überlegungen. Anzustreben ist dabei - wie Frau Münnich erläuterte - vor allem die Angleichung der sogenannten 'Entitäten': Es geht also nicht um Gleichmacherei an der Oberfläche (z. B. durch identische Ansetzungen)' sondern um strukturelle Anpassungen' die eine entsprechende 'Übersetzung' vom einen ins andere System ermöglichen (z. B. über virtuelle Normdateien). Die Umsetzung solcher Ideen in die Praxis dürfte freilich nicht immer einfach sein: Als besonderer Knackpunkt entpuppte sich die Individualisierung von Autorennamen, die einige Teilnehmer für zu aufwändig hielten. Einigkeit hingegen herrschte darüber' dass die Arbeit an den RAK2 schnellstmöglich wieder aufgenommen werden müsse - und zwar nicht nur bei besonders dringlichen Punkten (wie es der Beschluss vom 6. Dezember vorsieht)' sondern mit voller Kraft.
  14. Treichler, W.: Katalogisierungsregeln, Kataloge und Benützer in schweizerischen Bibliotheken (1986) 0.02
    0.018203171 = product of:
      0.036406342 = sum of:
        0.036406342 = product of:
          0.072812684 = sum of:
            0.072812684 = weight(_text_:22 in 5352) [ClassicSimilarity], result of:
              0.072812684 = score(doc=5352,freq=2.0), product of:
                0.15682878 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04478481 = queryNorm
                0.46428138 = fieldWeight in 5352, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5352)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    8.10.2000 14:22:27
  15. Henze, G.: Weiterentwicklung der RAK (2001) 0.02
    0.018203171 = product of:
      0.036406342 = sum of:
        0.036406342 = product of:
          0.072812684 = sum of:
            0.072812684 = weight(_text_:22 in 7159) [ClassicSimilarity], result of:
              0.072812684 = score(doc=7159,freq=2.0), product of:
                0.15682878 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04478481 = queryNorm
                0.46428138 = fieldWeight in 7159, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=7159)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 8.2001 15:46:46
  16. Oehlschläger, S.: Aus der 43. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 22. und 23. Oktober in der Deutschen Bibliothek Frankfurt am Main (2003) 0.02
    0.018203171 = product of:
      0.036406342 = sum of:
        0.036406342 = product of:
          0.072812684 = sum of:
            0.072812684 = weight(_text_:22 in 6196) [ClassicSimilarity], result of:
              0.072812684 = score(doc=6196,freq=2.0), product of:
                0.15682878 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04478481 = queryNorm
                0.46428138 = fieldWeight in 6196, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6196)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  17. Walther, T.: Erschließung historischer Bestände mit RDA (2015) 0.02
    0.017619401 = product of:
      0.035238802 = sum of:
        0.035238802 = product of:
          0.070477605 = sum of:
            0.070477605 = weight(_text_:z in 2437) [ClassicSimilarity], result of:
              0.070477605 = score(doc=2437,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.29484767 = fieldWeight in 2437, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2437)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die vorliegende Arbeit befasst sich mit der Erschließung historischer Bestände nach RDA. Inhaltlich begrenzt sie sich auf ausgewählte spezifische Merkmale alter Drucke und ihrer Formalerschließung mit RDA. Die Umstellung auf das neue Regelwerk, welches Anwen-dungsrichtlinien für alle Materialien vereinen soll, und einige in den Bibliotheksgremien diskutierte Aspekte wie z. B. "cataloger's judgement" haben die zentrale Frage dieser Arbeit veranlasst: Ist RDA für die Erschließung alter Drucke geeignet? Die Arbeit untersucht spezifische Merkmale alter Drucke. Sie betrachtet die bestehende Erschließungspraxis alter Drucke und geht auf die Grundlagen und wesentliche Inhalte von RDA ein. Zu wissenschaftlichen Methoden der Arbeit gehören der Regelwerkevergleich und das Experteninterview. Die Gegenüberstellung von RDA und den RAK-WB lässt erkennen, dass RDA sich prinzipiell für die Erschließung alter Drucke eignet und Elemente der bibliographischen Beschreibung ähnlich wie die RAK-WB abbildet. Wegen des allgemeinen Charakters sind einige Richtlinien von RDA noch zu konkretisieren. Mehrwert gegenüber den RAK-WB versprechen die normierten Sucheinstiege, die Erfassung von Werken und Beziehungen. Das Interview mit Christoph Boveland, dem Experten auf dem Gebiet Katalogisierung Alter Drucke, bringt neue Erkenntnisse über geplante Empfehlungen zur Erschließung alter Drucke mit RDA, Erweiterung des Standardelemente-Set usw. Basierend auf den Ergebnissen der Gegenüberstellung und der Meinung von Christoph Boveland wird eine Aussage zur Entwicklung der Lehrveranstaltung "Formalerschließung historischer Bestände" an der Hochschule Hannover getroffen.
  18. Oehlschläger, S.: Aus der 48. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 12. und 13. November 2004 in Göttingen (2005) 0.02
    0.015258849 = product of:
      0.030517697 = sum of:
        0.030517697 = product of:
          0.061035395 = sum of:
            0.061035395 = weight(_text_:z in 3556) [ClassicSimilarity], result of:
              0.061035395 = score(doc=3556,freq=6.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.25534558 = fieldWeight in 3556, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3556)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Enthält u.a. folgende Aussagen aus einzelnen Bibliotheken oder Verbünden: MARC21 als Austauschformat Die Expertengruppe Datenformate des Standardisierungsausschusses hat am 11. April 2005 getagt, dabei wurden die Arbeitspakete aus einem von der Arbeitsstelle für Standardisierung Der Deutschen Bibliothek vorgelegten Projektund Zeitplan in überschaubare Einheiten aufgegliedert. Ziel ist es, das bestehende MARC21 weitgehend zu übernehmen. Sollten nationale Abweichungen von MARC21 dennoch notwendig sein, so müssen diese einheitlich für alle Verbünde gelten. Bibliotheksservicezentrum Baden-Württemberg (BSZ) SWBPIus "Catalogue enrichment", die Anreicherung von Katalogdaten durch ergänzende Materialien, wie z. B. Rezensionen und Inhaltsverzeichnisse, wird als eine der wichtigsten Möglichkeiten diskutiert, die Nutzung von OPACs zu erleichtern und zu verbessern. Ganz im Trend liegt daher die Anwendung SWBplus, in der das BSZ weiterführende Texte zu Titeln in Verbund- und lokalen OPACs auflegt. Nach ca. 2.500 Dokumenten im Jahr 2003 ist der Bestand mittlerweile bei 12.300 angelangt. Mit 6.900 haben dabei die Inhaltsverzeichnisse die Rezensionen anteilsmäßig überholt. Erreicht wurde dies durch die Mitarbeit der Universitätsbibliotheken Konstanz und Heidelberg, die Inhaltsverzeichnisse scannen und an das BSZ liefern. In diese Kooperation werden nun auch die Universitätsbibliothek Mannheim, die Bibliotheken der PH Ludwigsburg und PH Freiburg sowie die Bibliothek des Bundesgerichtshofs in Karlsruhe eintreten. Vorbereitet wird zudem die Zusammenarbeit mit dem Bibliotheksverbund Bayern, so dass Inhaltsverzeichnisse auch aus Bayern in die Datenbank eingebracht und gemeinsam genutzt werden können. Fehlertolerante Suche in OPACs Gemeinsam mit der Bibliothek der Fachhochschule Konstanz und der Firma exorbyte führt das BSZ derzeit einen Test durch, in dem OPAC-Nutzer bei Unsicherheiten hinsichtlich der Schreibweise von Suchbegriffen unterstützt werden. Dazu wurde dem Horizon-WebPac der FH Konstanz die RechercheSoftware Matchmaker vorgeschaltet, die dem Nutzer neben exakten auch näherungsweise Treffer sowie Alternativen zu den Suchbegriffen anbietet. Sucht man dort nun z. B. nach "Pronnstein", so findet man dennoch unter den ersten Treffern die bekannte mathematische Formelsammlung von Ilja Bronstejn. In einer Befragung, die den Test begleitet, fanden ca. 70% der Nutzer den Einsatz dieser Technologie hilfreich und gaben an, auch die Alternativvorschläge zu nutzen. Weitere Informationen stehen unter der Adresse http://cms.bsz-bw.de/cms/entwicki/ftolsuche/ zur Verfügung. Interessenten an einem Einsatz der Software melden sich bitte beim BSZ, das die Einführung koordiniert.
    Die Deutsche Bibliothek Retrieval von Content In dem Projekt wird angestrebt, Verfahren zu entwickeln und einzuführen, die automatisch und ohne intellektuelle Bearbeitung für das Content-Retrieval ausreichend Sucheinstiege bieten. Dabei kann es sich um die Suche nach Inhalten von Volltexten, digitalen Abbildern, Audiofiles, Videofiles etc. von in Der Deutschen Bibliothek archivierten digitalen Ressourcen oder digitalen Surrogaten archivierter analoger Ressourcen (z. B. OCR-Ergebnisse) handeln. Inhalte, die in elektronischer Form vorhanden sind, aber dem InternetBenutzer Der Deutschen Bibliothek bisher nicht oder nur eingeschränkt zur Verfügung stehen, sollen in möglichst großem Umfang und mit möglichst großem Komfort nutzbar gemacht werden. Darüber hinaus sollen Inhalte benutzt werden, die für ein in ILTIS katalogisiertes Objekt beschreibenden Charakter haben, um auf das beschriebene Objekt zu verweisen. Die höchste Priorität liegt dabei auf der Erschließung von Inhalten in Textformaten. In einem ersten Schritt wurde der Volltext aller Zeitschriften, die im Projekt "Exilpresse digital" digitalisiert wurden, für eine erweiterte Suche genutzt. In einem nächsten Schritt soll die PSI-Software für die Volltextindexierung von Abstracts evaluiert werden. MILOS Mit dem Einsatz von MILOS eröffnet sich die Möglichkeit, nicht oder wenig sachlich erschlossene Bestände automatisch mit ergänzenden Inhaltserschließungsinformationen zu versehen, der Schwerpunkt liegt dabei auf der Freitext-Indexierung. Das bereits in einigen Bibliotheken eingesetzte System, das inzwischen von Der Deutschen Bibliothek für Deutschland lizenziert wurde, wurde in eine UNIX-Version überführt und angepasst. Inzwischen wurde nahezu der gesamte Bestand rückwirkend behandelt, die Daten werden im Gesamt-OPAC für die Recherche zur Verfügung stehen. Die in einer XMLStruktur abgelegten Indexeinträge werden dabei vollständig indexiert und zugänglich gemacht. Ein weiterer Entwicklungsschritt wird in dem Einsatz von MILOS im Online-Verfahren liegen.
  19. Cremer, M.: WebCAT: Erfahrungen bei der Katalogisierung von Internet-Dokumenten an der SUB Göttingen im Rahmen des WebDOC-Projektes (1996) 0.02
    0.015169309 = product of:
      0.030338619 = sum of:
        0.030338619 = product of:
          0.060677238 = sum of:
            0.060677238 = weight(_text_:22 in 5218) [ClassicSimilarity], result of:
              0.060677238 = score(doc=5218,freq=2.0), product of:
                0.15682878 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04478481 = queryNorm
                0.38690117 = fieldWeight in 5218, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5218)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    21. 9.1996 16:03:22
  20. Essen, F. von: Metadaten - neue Perspektiven für die Erschließung von Netzpublikationen in Bibliotheken : Erster META-LIB-Workshop in Göttingen (1998) 0.02
    0.015169309 = product of:
      0.030338619 = sum of:
        0.030338619 = product of:
          0.060677238 = sum of:
            0.060677238 = weight(_text_:22 in 2275) [ClassicSimilarity], result of:
              0.060677238 = score(doc=2275,freq=2.0), product of:
                0.15682878 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04478481 = queryNorm
                0.38690117 = fieldWeight in 2275, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2275)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Bericht über den Workshop, der am 22. u. 23.6.98 in der SUB Göttingen stattfand