Search (239 results, page 1 of 12)

  • × theme_ss:"Formalerschließung"
  1. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.05
    0.048147015 = product of:
      0.09629403 = sum of:
        0.09629403 = sum of:
          0.07173484 = weight(_text_:daten in 632) [ClassicSimilarity], result of:
            0.07173484 = score(doc=632,freq=10.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.29396662 = fieldWeight in 632, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.01953125 = fieldNorm(doc=632)
          0.024559196 = weight(_text_:22 in 632) [ClassicSimilarity], result of:
            0.024559196 = score(doc=632,freq=4.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.13679022 = fieldWeight in 632, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=632)
      0.5 = coord(1/2)
    
    Content
    "Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung Matchkey Bei der Verwendung von Meta-Suchmaschinen zur parallelen Recherche in bibliografischen Datenbanken kommt es häufig vor, dass derselbe Titel mehrmals in der Trefferliste auftaucht. In dieser Situation könnte ein so genannter Matchkey Abhilfe schaffen, der jeden Datensatz aus den vorhandenen bibliografischen Daten heraus eindeutig identifiziert. Ein solcher Algorithmus geht von einem bibliografischen Datensatz aus und generiert einen Schlüssel (Matchkey), der wiederum in den Datensatz integriert werden kann. Der Schlüssel muss sortierfähig sein, so dass die Trefferliste nach dem Grad der Ähnlichkeit sortiert werden kann. Eine wichtige Voraussetzung für die erfolgreiche Anwendung des Matchkey ist die Beseitigung der Hausregeln in den Verbünden und Bibliotheken. Bisher hat Die Deutsche Bibliothek das Thema analysiert und strebt nun die Formulierung und Bereitstellung eines ersten Algorithmus an, um eine Implementierung zu Testzwecken voraussichtlich im März/April 2006 zu ermöglichen. Ein klares Ergebnis soll bis Ende 2006 vorliegen.
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."
  2. Lais, R.: Titelangaben von Schrifttum (1978) 0.04
    0.044913113 = product of:
      0.089826226 = sum of:
        0.089826226 = product of:
          0.17965245 = sum of:
            0.17965245 = weight(_text_:daten in 6172) [ClassicSimilarity], result of:
              0.17965245 = score(doc=6172,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.73620886 = fieldWeight in 6172, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6172)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    DIN 1505 dient als bibliographische Grundlage zum Austausch von Daten zwischen Dokumentationsstellen und Bibliotheken. Vgl. RAK und DIN 1505.
  3. Ostermann, D.: US-Terrorfahnder verheddern sich im Daten-Dickicht (2004) 0.04
    0.043914545 = product of:
      0.08782909 = sum of:
        0.08782909 = sum of:
          0.06351673 = weight(_text_:daten in 2124) [ClassicSimilarity], result of:
            0.06351673 = score(doc=2124,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.26028913 = fieldWeight in 2124, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.02734375 = fieldNorm(doc=2124)
          0.024312364 = weight(_text_:22 in 2124) [ClassicSimilarity], result of:
            0.024312364 = score(doc=2124,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.1354154 = fieldWeight in 2124, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=2124)
      0.5 = coord(1/2)
    
    Content
    "So verständlich es ist, dass die USRegierung im Kampf gegen den Terror lieber einen Flug zu viel als zu wenig stoppt, so peinlich müsstees ihr sein, dass jetzt Versäumnisse offenbar werden, die Kritiker schon lange beklagen. Die US-Sicherheitsbehörden schlagen sich mit untauglichen Instrumenten herum: Noch immer gibt es in den USA keine zentrale Datenbank, in der alle Informationen über Terrorverdächtige zusammenfließen. Internationale Fluggesellschaften haben in der vergangenen Woche aus Sicherheitsgründen etliche Flüge in die USA storniert. Wenn sie Ziele in den Vereinigten Staaten anfliegen, müssen sie ihre Passagierlisten vorab an die US-Behörden weiterreichen. Der Europäischen Union hat Washington gerade erst das Recht abgepresst, die Daten unbescholtener Fluggäs- te jahrelang -zu speichern. Doch die Empfänger in den Vereinigten Staaten, sind offenbar nicht in der Lage, den Datenmüll von täglich mehreren hundert Flügen zu verarbeiten, Anders ist die Verwechslung eines Fünfjährigen mit einem mutmaßlichen tunesischen Extremisten an Bord einer Air-France-Maschine vorige Woche kaum zu erklären. Vor allem aber fehlt weiter eben jene zentrale Terror-Liste, mit der die Passagierdaten zuverlässig abgeglichen werden könnten. Stattdessen führt jede US-Behörde eigene "schwarze Listen". Das General Accounting Office (GAO), die Prüfbehörde des Kongresses, hat allein zwölf Karteien der US-Regierung gezählt, in der Terrorverdächtige erfasst werden. Der Geheimdienst CIA hat eine, der U.S. Marshals Service und das Pentagon. Das Außenministerium, zuständig für Einreisevisa, hat zwei Datenbanken. Die Bundespolizei FBI hat drei, das Ministerium für Heimatschutz vier, darunter die "No-fly"-Liste mit Personen, die nicht an Bord von Flugzeugen gelassen werden sollen. Doch wer etwa vom FBI dem terroristischen Umfeld zugerechnet wird, muss dort nicht registriert sein. Die vielen Karteien und die schlechte Koordination führte schon oft zu folgenschweren Pannen. So erhielten zwei der späteren Attentäter beim ersten Bombenanschlag auf das World Trade Center 1993 ein US-Visum, obwohl sie in einer "Watch"-Liste des FBI verzeichnet waren. Neun Jahre später kamen zwei der Attentäter des 11. September legal ins Land, obwohl das FBI nach ihnen Ausschau hielt. Auch hier fehlten die Namen auf der Liste der Einreisebehörden. Bürokratische und rechtliche Hindernisse sowie technische Schwierigkeiten haben die Einrichtung einerzentralen Kartei bislang verhindert. Unterschiedliche Schreibweisen etwa von arabischen Namen, abweichende Geburtsdaten oder die Verwendung von Aliasnamen haben sich als Hürden erwiesen. Auch ließ sich die Bush-Regierung mit dem Projekterstaunlich viel Zeit. Erst nachdem das GAO voriges Jahr die schleppenden Arbeiten kritisiert hatte, beschloss die Regierung laut Wall Street Journal im September die Einrichtung einer zentralen Informations-Sammelstelle, das Terrorist Screening Center (TSC). Das Zentrum soll demnach jetzt in die "Tipoff "-Liste des Außenministeriums die Informationen der elf anderen Datenbanken einbauen. Mit der Mammutaufgabe begonnen hat das TSC erst am ersten Dezember-drei Wochen bevor wegen der Angst vor neuen Flugzeuganschlägen die Warnstufe "Orange" ausgerufen wurde."
    Date
    5. 1.1997 9:39:22
  4. RAK-NBM : Interpretationshilfe zu NBM 3b,3 (2000) 0.04
    0.039294716 = product of:
      0.07858943 = sum of:
        0.07858943 = product of:
          0.15717886 = sum of:
            0.15717886 = weight(_text_:22 in 4362) [ClassicSimilarity], result of:
              0.15717886 = score(doc=4362,freq=4.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.8754574 = fieldWeight in 4362, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4362)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 1.2000 19:22:27
  5. Gradmann, S.: Katalogisierung mit dem PC : Microrechnergestützte Datenbanksysteme für die Verarbeitung bibliothekarischer Daten: Allegro-C, LIDOS, TINman im Vergleich (1989) 0.04
    0.038496953 = product of:
      0.076993905 = sum of:
        0.076993905 = product of:
          0.15398781 = sum of:
            0.15398781 = weight(_text_:daten in 5975) [ClassicSimilarity], result of:
              0.15398781 = score(doc=5975,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.63103616 = fieldWeight in 5975, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5975)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  6. Gradmann, S.: Katalogisierung mit dem PC : datenbankgestützte Systeme für die Verarbeitung bibliographischer Daten: allegro-C, BIS-LOK, IBAS IV/Biblio (1992) 0.04
    0.038496953 = product of:
      0.076993905 = sum of:
        0.076993905 = product of:
          0.15398781 = sum of:
            0.15398781 = weight(_text_:daten in 5976) [ClassicSimilarity], result of:
              0.15398781 = score(doc=5976,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.63103616 = fieldWeight in 5976, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5976)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  7. Oehlschläger, S.: Aus der 47. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 3. und 4. November 2004 in Wien (2005) 0.04
    0.03646577 = product of:
      0.07293154 = sum of:
        0.07293154 = sum of:
          0.05556557 = weight(_text_:daten in 3124) [ClassicSimilarity], result of:
            0.05556557 = score(doc=3124,freq=6.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.22770557 = fieldWeight in 3124, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.01953125 = fieldNorm(doc=3124)
          0.017365975 = weight(_text_:22 in 3124) [ClassicSimilarity], result of:
            0.017365975 = score(doc=3124,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.09672529 = fieldWeight in 3124, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=3124)
      0.5 = coord(1/2)
    
    Content
    Zusammenarbeit der Verbundsysteme Im Rahmen der Diskussion um das weitere Vorgehen nach Abschluss des Projekts Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) haben sich die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme darauf geeinigt, ihre Datenstrukturen zu vereinheitlichen als Voraussetzung für eine Verbesserung von Datentausch und Fremddatennutzung. Die Arbeitsgemeinschaft der Verbundsysteme hat erkannt, dass die gemeinsamen Zielvorstellungen am ökonomischsten mit der verpflichtenden Anwendung von MARC21 als Transportformat zu erreichen sind. Die Alternative "Weiterentwicklung von MAB2 zu MAB3" würde vor dem Hintergrund, dass MARC21 für die Übernahme ausländischer Fremddaten sowie für die Lieferung deutscher Daten an ausländische Kataloge und Portale ohnehin bedient werden müsste, in erheblichem Maß künftig dauerhaft zusätzliche Kapazitäten binden, die von den Unterhaltsträgern bewilligt werden müssten, was bei der derzeitigen Haushaltslage eher unwahrscheinlich erscheint. Zudem wird eine notwendige Weiterentwicklung von MAB2 zu MAB3 - konsequent wiederholbare Kategorien und Subfield-Verwendung - sich strukturell faktisch nicht mehr von einem MARC-Format unterscheiden. Eine Weiterentwicklung des bisherigen deutschen Datenaustauschformats MAB2 zu MAB3 wird daher nicht befürwortet. Für die Planungssicherheit der Bibliotheken und der Softwarehersteller ist die weitere Versorgung mit MAB2-Daten für einen Zeitrahmen von ca. 10 Jahren zu gewährleisten. Dazu ist für eine Übergangszeit auf der einen Seite die weitere Pflege von MAB2 einschließlich der für eine automatisierte Konvertierung von und nach MARC21 notwendigen Anpassung erforderlich und auf der anderen Seite die Implementierung entsprechender Programme bei den Datenlieferanten. Die weitere Pflege von MAB2 soll dabei auf unabdingbar notwendige und zugleich mit MARC21 kompatible Anpassungen beschränkt bleiben. Zur Realisierung ihrer strategischen Ziele hat die Arbeitsgemeinschaft der Verbundsysteme folgende Einzelmaßnahmen beschlossen: Entwicklung einheitlicher Verbundrichtlinien und Formulierung eines gemeinsamen Qualitätsstandards sowie Reduzierung des Datenmodells auf zwei Hierarchiestufen. Als eine der ersten Maßnahmen ist die Erstellung einer Konkordanz MAB2 zu MARC21 geplant. Zwischenzeitlich hat sich auch die Expertengruppe MABAusschuss in einem Positionspapier für MARC21 als Transportformat ausgesprochen und ist bereit, diese Konkordanz zu erstellen.
    Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben weiterhin ihre Absicht bekräftigt, ihre Verbunddaten gegenseitig zum Zweck der Datenübernahme, Fernleihe und Einbindung in Portale über Z 39.50 zu nutzen. Neuerwerbungen sollen künftig kooperativ katalogisiert werden, damit nicht Kapazitäten dadurch gebunden werden, dass die gleiche Titelaufnahme mehrfach erstellt werden muss. Eine Arbeitsgruppe unter Federführung des GBV wird ein Konzept und einen Projektplan mit einzelnen Arbeitsschritten sowie bis Ende 2005 ein prototypisches Verfahren zu entwickeln. Die gegenseitige Nutzung von Fremddatenangeboten (unter Beachtung lizenzrechtlicher Rahmenbedingungen) sowie die Bereitstellung von Datensätzen und ihre Anreicherung durch Abstracts, Inhaltsverzeichnisse, Rezensionen u. ä. sind seit langem bestehende Anforderungen, deren Realisierung mit der Vereinheitlichung der Datenstrukturen und der einheitlichen Anwendung von MARC21 als Transportformat erreicht wird. Notwendige Voraussetzung zur Anreicherung von Daten ist die Entwicklung eines Match-Key-Algorith-mus. Hierzu ist ein gesondertes Projekt unter Federführung Der Deutschen Bibliothek geplant. Die Arbeitsgemeinschaft der Verbundsysteme hat den Standardisierungsausschuss gebeten, dafür Sorge zu tragen, dass das künftige deutsche Regelwerk für die Formalerschließung ihre Ziele einer Vereinheitlichung der Datenstrukturen und eines verbesserten Datentauschs mit Fremddatennutzung effektiv unterstützt. Dazu dürfen keine den AACR widersprechenden Regelungen für das Regelwerk verabschiedet werden. Außerdem dürfen strukturrelevante Aspekte im Regelwerk künftig keine Kann-Bestimmungen mehr sein. Um international übereinstimmende Entitäten zu erhalten, plädiert die Arbeitsgemeinschaft der Verbundsysteme nachdrücklich dafür, bei Verwendung einer Normdatei Individualisierung als obligatorische Bestimmung einzuführen. Eine Übereinstimmung der Entitäten bei Titeln, Personen- und Körperschaftsnamen muss erklärtes Regelwerksziel sein. Hierfür sind international übliche Regelungen einzuführen. Dringend erforderlich ist auch die Vereinheitlichung und Integration der Sonderregeln in das Regelwerk. Die Arbeitsgemeinschaft der Verbundsysteme schlägt dem Standardisierungsausschuss darüber hinaus vor, Aspekte der Functional Requirements for Bibliographic Records (FRBR) im Regelwerk in Übereinstimmung mit der internationalen Entwicklung zu berücksichtigen und durch geeignete Untersuchungen auf Expertenebene zu untermauern."
    Date
    22. 1.2005 18:53:53
  8. Oehlschläger, S.: Arbeitsgemeinschaft der Verbundsysteme : Aus der 46. Sitzung am 21. und 22. April 2004 im Bibliotheksservice-Zentrum Baden-Württemberg in Konstanz (2004) 0.03
    0.034612738 = product of:
      0.069225475 = sum of:
        0.069225475 = sum of:
          0.044913113 = weight(_text_:daten in 2434) [ClassicSimilarity], result of:
            0.044913113 = score(doc=2434,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.18405221 = fieldWeight in 2434, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.02734375 = fieldNorm(doc=2434)
          0.024312364 = weight(_text_:22 in 2434) [ClassicSimilarity], result of:
            0.024312364 = score(doc=2434,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.1354154 = fieldWeight in 2434, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=2434)
      0.5 = coord(1/2)
    
    Content
    - Elektronischer DDC-Dienst Im Fall der deutschen Übersetzung der Dewey Decimal Classification (DDC) wurde die Idee einer Normdatei DDC-Deutsch zugunsten eines zentralen elektronischen DDC-Dienstes bei Der Deutschen Bibliothek aufgegeben. Dieser Dienst hält die übersetzten Daten bereit und stellt sie in drei verschiedenen Ausprägungen zur Verfügung: 1. Zentrales Such- und Browsingtool für Benutzer 2. Klassifikationswerkzeug für Sacherschließer 3. SOAP-Schnittstelle für den elektronischen Datenaustausch. Um die DDC künftig gewinnbringend in der Benutzung einsetzen zu können, werden Konkordanzen zu anderen Klassifikationen, insbesondere aber zur weit verbreiteten Regensburger Verbundklassifikation (RVK) benötigt. Mithilfe dieser Konkordanzen können Benutzer im OPAL Der Deutschen Bibliothek nach DDC-Notationen suchen und würden zusätzlich Ergebnisse aus den Verbünden angezeigt bekommen, die bislang nicht mit der DDC erschlossen sind. Der GBV plant eine Grunderschließung seiner Verbunddatenbank mit der DDC in 5 Ebenen. Ziel ist es, bis Ende 2005 alle Verbunddaten mit der DDC zu verbinden und damit ein bedeutendes Recherchetool zu erhalten.
  9. Managing cataloging and the organization of information : philosophies, practices and challenges at the onset of the 21st century (2000) 0.03
    0.034612738 = product of:
      0.069225475 = sum of:
        0.069225475 = sum of:
          0.044913113 = weight(_text_:daten in 238) [ClassicSimilarity], result of:
            0.044913113 = score(doc=238,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.18405221 = fieldWeight in 238, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.02734375 = fieldNorm(doc=238)
          0.024312364 = weight(_text_:22 in 238) [ClassicSimilarity], result of:
            0.024312364 = score(doc=238,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.1354154 = fieldWeight in 238, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=238)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in ZfBB 51(2004) H.1, S.54-55 (G. Pflug): "Unter dem wachsenden Einfluss der Informationstechnologie auf den Bibliotheksbereich nimmt die Katalogisierung eine Schlüsselstellung ein. Das vorliegende Werk gliedert sich in zwei Teile. Der erste Abschnitt ist mit »National Libraries« überschrieben, befasst sich jedoch nur mit der Library of Congress und der National Library of Canada. Ihm folgen Artikel über »Libraries around the world«. Dabei fälltjedoch auf, dass diese Studien zwar Bibliotheken in Großbritannien, Australien, Mittel- und Südamerika und selbst Afrika (Botswana) behandeln, nicht jedoch aus Kontinentaleuropa, trotz entsprechender Aktivitäten etwa in den Niederlanden, in Frankreich oder den deutschsprachigen Ländern. Nur DOBIS/LIBIS wird erwähnt, aber nur, weil es für kurze Zeit die kanadische Entwicklung beeinflusst hat. Im zweiten Teil kommen Katalogisierungsfachleute aus vier Spezial- und neun akademischen Bibliotheken - ausschließlich aus Nordamerika und Großbritannien - zu Wort. So enthält das Werk in 22 Beispielen Berichte über individuelle und regionale Lösungen. Dabei steht die Frage im Vordergrund, zu welchen Änderungen in der Katalogisierungs- und Sacherschließungspraxis die neuen elektronischen Techniken geführt haben. So streben z.B. die englischen Hochschulbibliotheken ein koordiniertes System an. Mit dem Übergang der British Library zu MARC 21 wird das Katalogsystem in Großbritannien nachhaltig beeinflusst - um nur zwei nahe liegende Beispiele zu nennen. Insgesamt werden drei Aspekte behandelt, die Automatisierungstechnik; die dabei einzusetzende Kooperation und das Outsourcing - nicht nur durch Übernahme von Daten anderer Bibliotheken oder durch Verbundsysteme, vor allem der Library of Congress, sondern auch durch Buchhandelsfirmen wie Blackwell North America Authority Control Service. In der Frage der Sacherschließung befassen sich die Beiträge mit den im amerikanischen Bereich üblichen Klassifikationssystemen, vor allem der Colon Classification, Dewey in seinen beiden Formen oder der Library of Congress Classification. Für die deutsche Diskussion sind diese Aspekte vor allem wegen des Übergangs der Deutschen Bibliothek in ihrer Nationalbibliografie zur DDC von großem Interesse (vgl. Magda Heiner-Freiling: Die DDC in der Deutschen Nationalbibliografie. In Dialog mit Bibliotheken. 15. 2003, Nr. 3, S. 8-13). Doch stellen auch die unterschiedlichen Überlegungen zur alphabetischen Katalogisierung, verbunden mit den da zugehörigen Datenbanken, einen interessanten Beitrag zur augenblicklichen Diskussion in Deutschland dar, da auch hier seit einigen Jahren die Katalogisierung nach RAK und ihre Ablösung eine lebhafte Diskussion ausgelöst hat, wie unter anderem der zusammenfassende Beitrag von Elisabeth Niggemann in: Dialog mit Bibliotheken (15. 2003, Nr. 2, S. 4-8) zeigt. Auch die angloamerikanischen und die mit ihnen zum Beispiel in Mexiko, Südamerika oder Australien verbundenen Bibliotheken - das zeigt das Buch deutlich - diskutieren die Frage der alphabetischen Katalogisierung kontrovers. So werden z.B. neben den dominanten AACR-Regeln mit ihrer Weiterentwicklung mehr als zehn andere Katalogisierungssysteme und rund 20 Online-Datenbanken behandelt. Damit liefert das Buch für die Diskussion in Deutschland und die anstehenden Entscheidungen in seiner Grundtendenz wie in den unterschiedlichen-auch widersprüchlichen-Aspekten dereinzelnen Beiträge wertvolle Anregungen."
  10. Willer, M.; Dunsire, G.: Bibliographic information organization in the Semantic Web (2013) 0.03
    0.032080796 = product of:
      0.06416159 = sum of:
        0.06416159 = product of:
          0.12832318 = sum of:
            0.12832318 = weight(_text_:daten in 2143) [ClassicSimilarity], result of:
              0.12832318 = score(doc=2143,freq=8.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52586347 = fieldWeight in 2143, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2143)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    RSWK
    Bibliografische Daten / Informationsmanagement / Semantic Web / Functional Requirements for Bibliographic Records
    Bibliografische Daten / Semantic Web / Metadaten / Linked Data
    Subject
    Bibliografische Daten / Informationsmanagement / Semantic Web / Functional Requirements for Bibliographic Records
    Bibliografische Daten / Semantic Web / Metadaten / Linked Data
  11. Hoeffken, P.: Kollaborative Ansätze zur Vereinheitlichung von Namensformen in LibraryThing.com (2009) 0.03
    0.031758364 = product of:
      0.06351673 = sum of:
        0.06351673 = product of:
          0.12703346 = sum of:
            0.12703346 = weight(_text_:daten in 2221) [ClassicSimilarity], result of:
              0.12703346 = score(doc=2221,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52057827 = fieldWeight in 2221, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2221)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    LibraryThing.com ist eine Web 2.0 Anwendung, die sich der Community-Bildung verschrieben hat und dazu (Privat-)Bibliotheken ins Zentrum stellt. Die Nutzer erstellen dabei die Inhalte der Kataloge einerseits durch Import von Daten, andererseits durch eigenständige Eingabe. Dabei werden auch zu Autoren Seiten angelegt, die die Nutzer mit diversen Daten anreichern können. In dieser Arbeit werden diese Bestrebungen hinsichtlich der Autorenseiten dargestellt und mit der Personennamendatei der Deutschen Nationalbibliothek verglichen. Dabei wird aufgezeigt, welche Unterschiede und Gemeinsamkeiten bestehen. Schließlich wird untersucht in welcher Form in LibraryThing Inhalte generiert werden und ob sie fachlichen Ansprüchen an Bibliothekskataloge genügen können.
  12. Carter, J.A.: PASSPORT/PRISM: authors and titles and MARC : oh my! (1993) 0.03
    0.027785558 = product of:
      0.055571117 = sum of:
        0.055571117 = product of:
          0.11114223 = sum of:
            0.11114223 = weight(_text_:22 in 527) [ClassicSimilarity], result of:
              0.11114223 = score(doc=527,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.61904186 = fieldWeight in 527, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=527)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    OCLC systems and services. 9(1993) no.3, S.20-22
  13. Madison, O.M:A.: ¬The role of the name main-entry heading in the online environment (1992) 0.03
    0.027785558 = product of:
      0.055571117 = sum of:
        0.055571117 = product of:
          0.11114223 = sum of:
            0.11114223 = weight(_text_:22 in 4397) [ClassicSimilarity], result of:
              0.11114223 = score(doc=4397,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.61904186 = fieldWeight in 4397, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4397)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Serials librarian. 22(1992), S.371-391
  14. Heuvelmann, R.: FRBR-Strukturierung von MAB-Daten, oder : Wieviel MAB passt in FRBR? (2005) 0.03
    0.027782785 = product of:
      0.05556557 = sum of:
        0.05556557 = product of:
          0.11113114 = sum of:
            0.11113114 = weight(_text_:daten in 466) [ClassicSimilarity], result of:
              0.11113114 = score(doc=466,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.45541114 = fieldWeight in 466, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=466)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Expertengruppe MAB-Ausschuss (seit 2005: Expertengruppe Datenformate) hat sich im Verlauf des Jahres 2004 mit den FRBR und ihren Bezügen zum MABFormat befasst. Es wurde eine Tabelle FRBR => MAB erstellt (veröffentlicht unter http://www.ddb.de/professionell/pdf/frbr_mab.pdf), wichtige Ergebnisse wurden im Artikel "Maschinelles Austauschformat für Bibliotheken und die Functional Requirements for Bibliographic Records : Oder: Wieviel FRBR verträgt MAB?" im "Bibliotheksdienst" 39 (2005), Heft 10 zusammengefasst. Ergänzend dazu wurde bei der Arbeitsstelle Datenformate Der Deutschen Bibliothek versucht, MAB-Daten zu "frbrisieren", d. h. einzelne MAB-Datensätze in die vier Entitäten der Gruppe 1 (work / expression / manifestation / item) zu differenzieren. Ziel war nicht, einen fertigen OPAC-Baustein für die Indexierung, Benutzerführung oder Präsentation zu erstellen. Ziel war vielmehr, anhand von konkreten, in MAB strukturierten Daten die Schichten sichtbar zu machen. Ausgewählt für diesen Zweck wurde BISMAS, das "Bibliographische Informations-System zur Maschinellen Ausgabe und Suche" des BIS Oldenburg (www.bismas.de). In BISMAS ist es mit relativ geringem Aufwand möglich, die Präsentation eines Satzes - basierend auf der intern vorliegenden Datensatzstruktur, z.B. MAB - frei zu definieren. Die Gestaltung der Indices und der Ausgabeformate erfolgt in BISMAS mit Hilfe der Programmiersprache LM. Die Ergebnisse sollen hier anhand von Beispielen dargestellt werden.
  15. BOND: Katalogisate-Pool BCS kommt gut an (2008) 0.03
    0.027782785 = product of:
      0.05556557 = sum of:
        0.05556557 = product of:
          0.11113114 = sum of:
            0.11113114 = weight(_text_:daten in 1977) [ClassicSimilarity], result of:
              0.11113114 = score(doc=1977,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.45541114 = fieldWeight in 1977, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1977)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    »Die rasante Entwicklung des BOND Community System (BCS) übertrifft unsere Erwartungen«, erklärt Andreas Serr, Produktmanager der BOND-Tochter BOND Library Service GmbH &Co. KG (BLS). Bereits über 10.000 neue Datensätze wurden in den letzten Monaten von BOND-Kunden für BOND-Kunden in den gemeinsamen Datenpool erfasst. Tendenz schnell steigend. Der komplette Katalogisate-Pool, der den Nutzern kostenlos zur Verfügung steht, umfasst inzwischen fast 700.000 Katalogisate. »Das Schöne an BCS ist, dass alle davon profitieren«, unterstreicht Serr. Den Teilnehmern entstehen weder Kosten noch Mehrarbeit. Die Datenübernahme erfolgt bequem per Mausklick aus dem Daten-Pool direkt in den eigenen Katalog. Fast noch einfacher ist es, Daten in BCS zur Verfügung zu stellen. Man erfasst sein Katalogisat wie immer. Mit dem Klick zum Abspeichern landen die Daten automatisch im BCS-Pool. »Damit macht man mit seiner täglichen Arbeit viele andere Bibliotheken glücklich«, ergänzt Serr. Dank der großen Zahl und der Kooperationsbereitschaft der BOND-Anwender funktioniert das System jetzt schon prächtig. »Irgendwie ist die Idee genial und einfach zugleich!« schrieb eine Kundin, die seit Mitte März am BCS teilnimmt. Wie wird man BCS Teilnehmer? Am BCS teilnehmen können alle Anwender von BIBLIOTHECA 2000 (ab Version 2.9) und BIBLIOTHECA.net (Version 2.1). Die Erst-Anmeldung erfolgt per Anmelde-PDF, das unter www.library-service.de/ bcs.htm zum Download bereitsteht. Die Freischaltung erfolgt dann in der Regel innerhalb 24 Stunden.
  16. Wiesenmüller, H.: Informationsaufbereitung I : Formale Erfassung (2004) 0.03
    0.027221458 = product of:
      0.054442916 = sum of:
        0.054442916 = product of:
          0.10888583 = sum of:
            0.10888583 = weight(_text_:daten in 2914) [ClassicSimilarity], result of:
              0.10888583 = score(doc=2914,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.44620997 = fieldWeight in 2914, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2914)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Formale Erfassung wird auch als formale Analyse, Formalerschließung, Formalkatalogisierung, alphabetische Katalogisierung oder Titelaufnahme bezeichnet. Dabei wird der letzte Terminus nicht nur für den Vorgang der Erfassung verwendet, sondern kann auch sein Ergebnis beschreiben. Andere Bezeichnungen dafür sind Katalogisat oder Metadaten (Daten über Daten). Unter formaler Erfassung versteht man die konsistent nach bestimmten Regeln erfolgende Beschreibung und das Wiederauffindbar-Machen von Objekten nach äußerlichen, formalen Kriterien. Gegenstand einer formalen Erfassung können Objekte aller Art sein, also beispielsweise auch die Produktionspalette eines Industrieunternehmens. Im Informations- und Dokumentationswesen bezieht sich die formale Erfassung üblicherweise auf Dokumente (z. B. Druckschriften, audiovisuelle Materialien, Archivalien, Internet-Ressourcen, Museumsobjekte), wobei je nach Dokumenttyp unterschiedliche Merkmale zu erfassen sind. Die Formalerschließung stellt seit jeher eine zentrale Aufgabe von IuD-Institutionen dar. Sie bildet sozusagen das Fundament, auf dem die inhaltliche Erschließung aufsetzt. Diese erfolgt im deutschsprachigen Raum oft erst in einem zweiten, deutlich getrennten Arbeitsschritt. Im angelsächsischen Gebiet werden hingegen formale und sachliche Erschließung typischerweise gleichzeitig und durch denselben Bearbeiter vorgenommen.
  17. Gömpel, R.; Hoffmann, L.: Daten und Fakten für künftige Entscheidungen : Das Projekt "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" (2003) 0.03
    0.025664635 = product of:
      0.05132927 = sum of:
        0.05132927 = product of:
          0.10265854 = sum of:
            0.10265854 = weight(_text_:daten in 1557) [ClassicSimilarity], result of:
              0.10265854 = score(doc=1557,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.42069077 = fieldWeight in 1557, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1557)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  18. Kaestner, J.: ¬Das Regelwerk im Workflowprozess : Ergänzung zum Beitrag von Imgart Siebert, "Positionen zu RAK/AACR/RDA" (2006) 0.03
    0.025664635 = product of:
      0.05132927 = sum of:
        0.05132927 = product of:
          0.10265854 = sum of:
            0.10265854 = weight(_text_:daten in 4948) [ClassicSimilarity], result of:
              0.10265854 = score(doc=4948,freq=8.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.42069077 = fieldWeight in 4948, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4948)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Ergänzend zu dem höchst informativen Aufsatz von Imgart Siebert, "Positionen zu RAK/AACR/RDA"' ist es wichtig, darüber hinaus gehend erneut auf das zugrunde liegende strukturelle Problem hinzuweisen. Zur Zeit der Entwicklung der RAK und auch der AACR war die Zielsetzung die Modernisierung bzw. Erstellung eines Regelwerks, das sich gemäß dem technologischen Stand auf den Zweck der Erfassung des Bibliotheksbestands konzentrierte. Heute aber besteht die Aufgabe nicht darin, ein katalogimmanentes Regelwerk zu entwerfen, sondern einen Workflow vom Produzenten (Verlag) über die Bibliothek bis hin zum Endbenutzer (Käufer oder Bibliotheksbenutzer) ohne Medienbruch zu gewährleisten (siehe dazu auch Jürgen Kaestner, "Die Katalogisierung der Zukunft`). Wozu die Bibliotheken nicht in der Lage sind, haben inzwischen die Verlage geschafft. Mit dem ONIX-Standard wurde ein derartiges internationales, auf XML basiertes Regelwerk entwickelt, das einen Workflow über die gesamte Verwertungskette des Buchhandels gestattet http://www.editeur.org/. Dieses wird in der Diskussion, auch im Abschlussbericht des Projektes Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) aber nur als nichtbibliothekarischer Standard für bibliographische Daten wahrgenommen. Diese Erkenntnisschranke ist darauf zurückzuführen, dass es immer noch undenkbar ist, die Bibliotheken mit einer veränderten Aufgabenstellung in einen Workflowprozess einzubringen, nämlich in der Funktion einer Institution, die kooperativ Normdateien entwickelt, pflegt und weiterentwickelt und nach bibliothekarischen Zwecken erforderliche Regelwerksstrukturen einbringt statt jedes einzelne Buch händisch (mit oder ohne Fremddatennutzung) zu katalogisieren. Regelwerksarbeit müsste sich an dieser aktuellen Aufgabenstellung orientieren. Man muss davon ausgehen, dass bei der Generierung und Verteilung bibliographischer Daten die Bibliotheken in diesem Prozess spätestens dann keine Rolle mehr spielen werden, wenn die ONIX-Daten - bibliographische Daten, Abstracts, Inhaltsangaben, Inhaltsverzeichnisse und weiteres ergänzendes Informationsmaterial - mittels RFID mit den einzelnen Büchern transportiert werden. Ihre Erfahrung mit der Strukturierung von Normdaten werden dann ebenso unberücksichtigt bleiben wie schon die klassischen dokumentarischen Instrumente bei der Entwicklung von Internet-Suchmaschinen und -Katalogen keine Rolle gespielt haben. Über die Fragen des Nutzens und der Kosten eines derart starr durchgehaltenen antiquierten Ansatzes des klassischen Katalogisierungsregelwerks, der eine ungeheure Verschwendung von Ressourcen zur Folge hat und den eigentlich aktuellen Aufgaben, der Inhaltserschließung konventioneller und digitaler Medien, der Informationsvermittlung und Personalisierung von Informationsdiensten für den Benutzer, Personal und Mittel entziehen wird, werden letztlich die Rechnungshöfe des Bundes und der Länder befinden."
  19. Anglo-Amerikanische Katalogisierungsregeln : Deutsche Übersetzung der Anglo-American Cataloguing Rules, Second edition, 1998 Revision, einschließlich der Änderungen und Ergänzungen bis März 2001 (2002) 0.03
    0.025664635 = product of:
      0.05132927 = sum of:
        0.05132927 = product of:
          0.10265854 = sum of:
            0.10265854 = weight(_text_:daten in 4601) [ClassicSimilarity], result of:
              0.10265854 = score(doc=4601,freq=8.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.42069077 = fieldWeight in 4601, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4601)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Mit den Anglo-Amerikanischen Katalogisierungsregeln liegt nun die erste deutsche Übersetzung der weltweit verwendeten Anglo-American Cotologuing Rules (AACR2r) vor. Berücksichtigt wurden hierfür die Änderungen und Ergänzungen des Originalwerks bis einschließlich März 2001. Die Anglo-American Cotologuing Rules wurden bereits in viele andere Sprachen übersetzt und sind das in der Welt am weitesten verbreitete Regelwerk für die Formolerschließung in Bibliotheken. Die Übersetzung ins Deutsche wird einer breiten deutschsprachigen bibliothekarischen Öffentlichkeit als Hilfsmittel für den internationalen Austausch bibliographischer Daten dienen. Die Volltextübersetzung der AACR wurde von einem Team von Bibliothekaren durchgeführt, deren Muttersprache Englisch oder Deutsch ist und die gute Kenntnisse in der jeweils anderen Sprache haben. Die Erstübersetzungen der einzelnen Kapitel wurden von Fachleuten mit der jeweils anderen Muttersprache gegen- gelesen und bearbeitet. Dieses Verfahren gewährleistet die größtmögliche Genauigkeit und Verständlichkeit des gesamten Textes. Spezialisten vieler Fachgebiete - aus so unterschiedlichen Bereichen wie Datenverarbeitung, Kartographie, onglo-amerikanischem Recht, Blindenschrift, Kunst, Musik etc. - wurden für die Übersetzung konsultiert. Mit Hilfe eines ständig fortentwickelten Glossars in Form einer "Translation Help" konnte ein einheitliches Fachvokabular sichergestellt werden. Die vorliegende Fassung bietet eine reine Übersetzung des Textes, d.h. die englischsprachigen Ansetzungsbeispiele des Originals wurden in der deutschsprachigen Version beibehalten. Sie soll als Grundlage für die derzeitige Diskussion über die Vereinheitlichung von Regelwerken dienen. Die deutsche Übersetzung der Anglo-Amerikanischen Katalogisierungsregeln erscheint zu einer Zeit, in welcher der Umstieg von den Regeln für die alphabetische Katalogisierung (RAKj auf die AACR vor allem in den Verbünden intensiv diskutiert wird. Die hauptsächlichen Argumente für die Verwendung der AACR sind: - der für die Nutzer einheitliche Zugriff auf die Daten über Netze und Suchmaschinen, - die leichtere Übernahme onglo-amerikanischer Daten bei der Katalogisierung, - die größere Auswahl bei der Neubeschaffung von Bibliothekssoftware und - die leichtere Verbreitung deutscher Daten im Ausland. Eine Reihe von Einzelbibliotheken im deutschsprachigen Raum haben bereits den Umstieg auf die AACR vollzogen oder bereiten diesen vor. Ihnen wird die deutsche Übersetzung eine wertvolle Grundlage für die tägliche Arbeit sein. Das gilt vor allem für die Bibliotheken in der deutschsprachigen Schweiz, die die AACR bereits eingeführt haben. Unabhängig davon, ob in Deutschland die AACR eingeführt oder die RAK fortgeschrieben werden sollen: eine genaue Kenntnis der AACR ist zukünftig in jedem Fall unerlässlich. Die Übersetzung der Anglo-Amerikanischen Katalogisierungsregeln macht den schwierigen Regeltext der Fachöffentlichkeit erstmals in deutscher Sprache leicht zugänglich. Diese Übersetzung wird eine wichtige Diskussionsgrundlage und ein unverzichtbares Arbeitsinstrument für Bibliothekare, Dokumentare und Archivare im gesamten deutschsprachigen Raum sein.
  20. AG KIM Gruppe Titeldaten DINI: Empfehlungen zur RDF-Repräsentation bibliografischer Daten (2014) 0.03
    0.025664635 = product of:
      0.05132927 = sum of:
        0.05132927 = product of:
          0.10265854 = sum of:
            0.10265854 = weight(_text_:daten in 4668) [ClassicSimilarity], result of:
              0.10265854 = score(doc=4668,freq=8.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.42069077 = fieldWeight in 4668, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4668)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In den letzten Jahren wurde eine Vielzahl an Datensets aus Kultur- und Wissenschaftseinrichtungen als Linked Open Data veröffentlicht. Auch das deutsche Bibliothekswesen hat sich aktiv an den Entwicklungen im Bereich Linked Data beteiligt. Die zuvor lediglich in den Bibliothekskatalogen vorliegenden Daten können weiteren Sparten geöffnet und so auf vielfältige Weise in externe Anwendungen eingebunden werden. Gemeinsames Ziel bei der Veröffentlichung der Bibliotheksdaten als Linked Data ist außerdem, Interoperabilität und Nachnutzbarkeit zu ermöglichen und sich auf diese Weise stärker mit anderen Domänen außerhalb der Bibliothekswelt zu vernetzen. Es bestehen sowohl Linked-Data-Services einzelner Bibliotheken als auch der deutschen Bibliotheksverbünde. Trotz ihres gemeinsamen Ziels sprechen die bestehenden Services nicht die gleiche Sprache, da sie auf unterschiedlichen Modellierungen basieren. Um die Interoperabilität dieser Datenquellen zu gewährleisten, sollten die Dienste künftig einer einheitlichen Modellierung folgen. Vor diesem Hintergrund wurde im Januar 2012 eine Arbeitsgruppe gegründet, in der alle deutschen Bibliotheksverbünde, die Deutsche Nationalbibliothek sowie einige weitere interessierte und engagierte Kolleginnen und Kollegen mit entsprechender Expertise vertreten sind. Die Gruppe Titeldaten agiert seit April 2012 als Untergruppe des Kompetenzzentrums Interoperable Metadaten (DINI-AG KIM). Die Moderation und Koordination liegt bei der Deutschen Nationalbibliothek. Im Dezember 2012 schloss sich auch der OBVSG der Arbeitsgruppe an. Die Schweizerische Nationalbibliothek folgte im Mai 2013. Vorliegende Empfehlungen sollen zu einer Harmonisierung der RDFRepräsentationen von Titeldaten im deutschsprachigen Raum beitragen und so möglichst einen Quasi-Standard etablieren. Auch international wird an der Herausforderung gearbeitet, die bestehenden bibliothekarischen Strukturen in die heute zur Verfügung stehenden Konzepte des Semantic Web zu überführen und ihren Mehrwert auszuschöpfen. Die neuesten internationalen Entwicklungen im Bereich der Bereitstellung bibliografischer Daten im Semantic Web wie die Bibliographic Framework Transition Initiative der Library of Congress (BIBFRAME) haben ebenfalls das Ziel, ein Modell zur RDF-Repräsentation bibliothekarischer Daten bereitzustellen. Die Gruppe Titeldaten beobachtet diese Entwicklungen und beabsichtigt, die Erfahrungen und Anforderungen der deutschsprachigen Bibliothekswelt mit einzubringen. Dabei werden einerseits international erarbeitete Empfehlungen aufgegriffen und andererseits Impulse aus der nationalen Kooperation dort eingebracht. Die hier verwendeten Properties könnten z. B. als Grundlage für ein Mapping zu BIBFRAME dienen.

Authors

Years

Languages

  • e 160
  • d 75
  • i 2
  • f 1
  • s 1
  • More… Less…

Types

  • a 213
  • b 15
  • m 15
  • s 6
  • el 5
  • x 5
  • ? 1
  • n 1
  • r 1
  • More… Less…