Search (182 results, page 1 of 10)

  • × theme_ss:"Datenformate"
  1. Helmkamp, K.; Oehlschläger, S.: Standardisierung : Ein Meilenstein auf dem Weg zur Internationalisierung; Im Jahr 2007 erfolgt der Umstieg auf MARC 21 (2006) 0.09
    0.08754243 = product of:
      0.14006789 = sum of:
        0.014491435 = product of:
          0.02898287 = sum of:
            0.02898287 = weight(_text_:methoden in 65) [ClassicSimilarity], result of:
              0.02898287 = score(doc=65,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.1431387 = fieldWeight in 65, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=65)
          0.5 = coord(1/2)
        0.040738918 = weight(_text_:techniken in 65) [ClassicSimilarity], result of:
          0.040738918 = score(doc=65,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.16970363 = fieldWeight in 65, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
        0.03634541 = weight(_text_:und in 65) [ClassicSimilarity], result of:
          0.03634541 = score(doc=65,freq=94.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.4196968 = fieldWeight in 65, product of:
              9.69536 = tf(freq=94.0), with freq of:
                94.0 = termFreq=94.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
        0.035720646 = weight(_text_:der in 65) [ClassicSimilarity], result of:
          0.035720646 = score(doc=65,freq=88.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.40926933 = fieldWeight in 65, product of:
              9.380832 = tf(freq=88.0), with freq of:
                88.0 = termFreq=88.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
        0.012771477 = product of:
          0.025542954 = sum of:
            0.025542954 = weight(_text_:forschung in 65) [ClassicSimilarity], result of:
              0.025542954 = score(doc=65,freq=2.0), product of:
                0.19008557 = queryWeight, product of:
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.039072596 = queryNorm
                0.13437608 = fieldWeight in 65, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=65)
          0.5 = coord(1/2)
      0.625 = coord(5/8)
    
    Abstract
    Die Vorbereitungen für den flächendeckenden Formatumstieg vom deutschen MAB2 zum internationalen Standard MARC 21 gehen in ihre Endphase. Ab Januar 2007 sollen die Verbundsysteme als größte Datenproduzenten das neue Datenformat einführen und anwenden. Ziel des Mammutprojekts ist die Verbesserung der Fremddatenübernahme und des Datenaustauschs für alle deutschen Bibliotheken auf nationaler und internationaler Ebene.
    Content
    "Mit der steigenden Zahl von digitalen und digitalisierten Dokumenten, die im World Wide Web zur Verfügung stehen, verliert der aktuelle Speicherort einer Publikation seine Bedeutung. Entscheidend für die Forschung sind vielmehr Auffindbarkeit und schnelle Nutzungsmöglichkeit von Informationen. Global in elektronischen Umgebungen zu arbeiten, Daten, Informationen, Texte zu tauschen und zu mischen, ist zur täglichen Routine für Wissenschaftler und Bibliothekare geworden. Das Interesse von Wissenschaftlern ist nicht auf ihre jeweilige eigene nationale und kulturelle Umgebung beschränkt. Sie benötigen Informationen über Dokumente und Daten aus der ganzen Welt. Gleichzeitig wollen sie die eigenen Forschungsergebnisse in der internationalen Forschungsgemeinschaft zur Diskussion stellen. Sprachraumübergreifende Standards für Metadaten und ein reibungsloser Metadatenaustausch sind Voraussetzung für die wissenschaftliche Kommunikation und für den individuellen Erfolg des einzelnen Forschers. Deutschsprachige und ausländische Bibliotheken verwenden derzeit noch unterschiedliche Standards bei der Speicherung und dem Austausch von Katalogdaten. Während in Deutschland und Österreich das Maschinelle Austauschformat für Bibliotheken MAB2 verwendet wird, ist das Format Machine Readable Cataloguing MARC 21 der weltweit am weitesten verbreitete Standard. Der Standardisierungsausschuss hat in seiner 9. Sitzung am 15. Dezember 2004 wegweisende Beschlüsse zur Internationalisierung der deutschen Standards gefasst.' Diese sehen als ersten Meilenstein die flächendeckende Einführung von MARC 21 als Austauschformat vor. Die Verbundsysteme als größte Datenproduzenten haben sich verpflichtet, MARC 21 einheitlich, das heißt ohne verbundspezifische Besonderheiten, einzuführen und anzuwenden. Gleichzeitig werden die bisher unterschiedlichen Verbundrichtlinien vereinheitlicht. Die Einführung von MARC 21 bildet zusammen mit den Bestrebungen zur Verbesserung der Zusammenarbeit der Verbundsysteme einen entscheidenden Schritt, die Voraussetzungen für Fremddatenübernahme und Datentausch für die deutschen Bibliotheken sowohl auf nationaler als auch auf internationaler Ebene erheblich zu verbessern.
    Für das Projekt »Umstieg auf MARC 21« konnten starke Partner gewonnen werden. Die Deutsche Forschungsgemeinschaft (DFG) und die Andrew W. Mellon Foundation, New York, unterstützen die Einführung des international gebräuchlichen Datenaustauschformats MARC 21 im deutschsprachigen Bibliothekswesen. Bis Januar 2007 sollen die Vorbereitungen zur Einführung von MARC 21 als einheitlichem Transportformat abgeschlossen sein. Die Vorarbeiten umfassen vor allem drei Teilbereiche: Erstellung einer Konkordanz MAB2 - MARC 21, Durchführung von Expertenworkshops sowie Aufbau und Pflege von Kontakten zu internationalen Gremien und Experten. Außerdem soll ein Editionssystem als Arbeitsplattform entwickelt werden, die das Format MARC 21 zur Anzeige, Pflege, Dokumentation und Druckausgabe bringt, und eine tabellarische Darstellung der Abbildung von MAB2 auf MARC 21 beinhaltet. Darüber hinaus soll eine Übersetzung des MARC-Concise-Formats ins Deutsche erstellt und in das Editionssystem eingebunden werden. Konkordanz MAB2 - MARC 21 Im Vorfeld der Arbeiten an der Konkordanz MAB2 - MARC 21 diskutierte die Expertengruppe Datenformate (früher Expertengruppe MAB-Ausschuss) anhand eines zuvor erstellten Fomatabgleichs wichtige Punkte, zum Beispiel mehrbändig begrenzte Werke sowie die Methoden und Techniken, Datensätze in den beiden Formaten zu verknüpfen. Auf dieser Basis wurden die Arbeiten am Kernstück des Formatumstiegs, der Konkordanz, aufgenommen, die regelmäßig mit der Expertengruppe Datenformate rückgekoppelt wird. Im Rahmen der Konkordanz wird ein Mapping der MAB2Kategorien auf ihr Pendant in MARC 21 durchgeführt. Dabei wird nicht nur dokumentiert, an welcher Stelle bibliografische Informationen aus MAB2 in MARC 21 stehen, sondern auch auf welche Weise sie transportiert werden. Die vorliegenden Ergebnisse werden sukzessive von der Expertengruppe Datenformate einer genauen Prüfung unterzogen. Ein besonderes Augenmerk liegt dabei auf Lücken, die eingehend untersucht und bewertet werden.
    Expertenworkshops Zur Erweiterung und Vertiefung von vorhandenen Kenntnissen über das Zielformat MARC 21 wurden schon in der Anfangsphase der Arbeiten für den Formatumstieg eine Reihe von Expertenworkshops geplant. Der erste Workshop wurde bereits im Juli 2005 in der Deutschen Nationalbibliothek mit Randall Barry von der Library of Congress durchgeführt, der seit vielen Jahren im Network Development and MARC Standards Office mit der Pflege, Weiterentwicklung und Dokumentation des Formats beschäftigt ist. Zu den Teilnehmern gehörten die Spezialisten für Normdaten und Datenformate der Deutschen Nationalbibliothek, die Expertengruppe Datenformate sowie weitere Fachleute und Hersteller von Bibliothekssoftware-Systemen. Ein zweiter Workshop hat Ende September 2006 an der Deutschen Nationalbibliothek stattgefunden. Als Expertin konnte Sally McCallum, die Leiterin der Abteilung Network Development and MARC Standards an der Library of Congress, gewonnen werden. Zu den weiteren Teilnehmern gehörten die Spezialisten der Deutschen Nationalbibliothek und die Expertengruppe Datenformate. Im Rahmen des Workshops wurden unter anderem auch die Ergebnisse der Konkordanz sowie das weitere Vorgehen im Hinblick auf die erkannten Lücken diskutiert. Das Ziel hierbei war, gemeinsame Lösungen zu finden und nötigenfalls Anträge zur Einrichtung neuer Felder in MARC 21 zu formulieren.
    Aufbau und Pflege von Kontakten zu internationalen Gremien und Experten Der Arbeitsschwerpunkt Aufbau und Pflege von Kontakten zu internationalen Gremien und Experten bezieht sich in erster Linie auf die Teilnahme an den Sitzungen des Machine Readable Bibliographic Information Committee (MARBI), zu dessen wichtigsten Aufgaben die Pflege und Weiterentwicklung des MARC-Formats und somit auch die Entscheidung über Änderungsanträge gehören. Kern von MARBI sind drei Ex-Officio-Vertreter der Library of Congress (LC), von Library and Archives Canada (LAC) und der British Library. Dazu kommen neun Mitglieder mit Stimmrecht aus verschiedenen Untergliederungen der ALA und von anderen großen Institutionen, Die Sitzungen von MARBI finden jeweils im Januar und Juni in Verbindung mit den Tagungen der American Library Association (ALA) statt und sind offen für interessierte Gäste und Zuhörer. Im Jahr 2006 nahmen Vertreter der Deutschen Nationalbibliothek und der Expertengruppe Datenformate an Sitzungen in San Antonio sowie New Orleans teil und nutzten dabei auch die Gelegenheit, im Rahmen von Arbeitstreffen mit MARC-21-Experten wichtige Details des geplanten Umstiegs intensiv und eingehend zu erörtern. Die Vorbereitungen für den Formatumstieg liegen im Wesentlichen im Zeitplan. Die Zusammenarbeit mit internationalen Gremien und Experten, insbesondere mit MARBI, wird im Jahr 2007 fortgeführt und intensiviert werden, weitere Workshops befinden sich bereits in der Planung. Im Herbst wird eine Arbeitsgruppe aus Vertretern der Verbünde eingesetzt, die den Umstieg auf der operativen Ebene konkret planen soll. Die Deutsche Nationalbibliothek als Träger des Projekts ist zuversichtlich, dass der Umstieg auf MARC 21 im Jahre 2007 als gut vorbereiteter, konzertierter und flächendeckender Schritt in allen Verbünden durchgeführt werden kann."
  2. Hirsch, S.: Aspekte der Entwicklung von Fachinformationssystemen auf der Basis von XML/RDF (2000) 0.07
    0.06982927 = product of:
      0.18621139 = sum of:
        0.11406896 = weight(_text_:techniken in 4503) [ClassicSimilarity], result of:
          0.11406896 = score(doc=4503,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.47517014 = fieldWeight in 4503, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4503)
        0.041985918 = weight(_text_:und in 4503) [ClassicSimilarity], result of:
          0.041985918 = score(doc=4503,freq=16.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.4848303 = fieldWeight in 4503, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4503)
        0.030156504 = weight(_text_:der in 4503) [ClassicSimilarity], result of:
          0.030156504 = score(doc=4503,freq=8.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.34551817 = fieldWeight in 4503, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4503)
      0.375 = coord(3/8)
    
    Abstract
    In einem Problemaufriss werden die heutigen Schwierigkeiten professioneller Informationsbeschaffung mit dem Internet und seinen heterogenen Informationsbeständen skizziert. Mit dem Ziel, diese Situation zu verbessern, sind die beiden neuen Standards entwickelt worden: Extensible Markup Language (XML) und Resource Description Framework (RDF). Es wird aus dokumentarischer Sicht ein Einblick in die Möglichkeiten und Grenzen dieser Techniken, ihre Syntax und Semantik gegeben. In einem Überblick werden erste Beispiele für XML/RDF-Komponenten in zukünftigen Fachinformationssystemen vorgestellt. Auf absehbare ökonomische, politische und juristische Konsequenzen der Anwendung von XML/RDF für Informations- und Dokumentationsstellen wird eingegangen. Es werden mögliche neue Aufgaben für die Informationswissenschaft im Rahmen der XML- und RDF-Entwicklung aufgezeigt
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.2, S.75-82
  3. Burd, B.: Java und XML für Dummies (2003) 0.06
    0.06380199 = product of:
      0.17013863 = sum of:
        0.097773395 = weight(_text_:techniken in 1694) [ClassicSimilarity], result of:
          0.097773395 = score(doc=1694,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.4072887 = fieldWeight in 1694, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.046875 = fieldNorm(doc=1694)
        0.038170967 = weight(_text_:und in 1694) [ClassicSimilarity], result of:
          0.038170967 = score(doc=1694,freq=18.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.4407773 = fieldWeight in 1694, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1694)
        0.03419426 = weight(_text_:der in 1694) [ClassicSimilarity], result of:
          0.03419426 = score(doc=1694,freq=14.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.3917808 = fieldWeight in 1694, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1694)
      0.375 = coord(3/8)
    
    Abstract
    Barry Budd erklärt, wie XML in Verbindung mit Java optimal funktionieren und Daten zwischen Anwendungen transferieren kann. Das Buch ist nicht nur für Anfänger interessant. Insbesondere Javabewanderte Web-Entwickler finden hier einen geradlinigen und lockeren Einstieg in die Zusammenarbeit von Java und XML. Die ersten 30 Seiten widmen sich der Programmiertheorie, der Installation von Java und den zusätzlich nötigen XMLrelevanten Klassen. Im zweiten Teil erfährt der Leser alles über die lineare Untersuchung von XML-Dateien und die Programmierung mit SAX. Es folgt der holistische Ansatz mit DOM und dessen Java-optimierter, eleganterer Alternative JDOM. XSL, die Anzeige von XML-Daten im Web und Java API for XML-Binding (JAXB) mit der man aus XML-Dokumenten maßgeschneiderte Java-Klassen dateien erstellen kann. Teil drei zeigt Spezialwerkzeuge für Webservices Soap, UDDI, WSDL, Java API for XML Messaging (JAXM) und die Arbeit mit XML-Registraren. Zu den Techniken erfährt der Leser sinnvolle Einsatzszenarien. Der Autor verdeutlicht die Theorie mit Code-Beispielen, die in Teilen für eigene Projekte verwendbar sind.
  4. Croissant, C.R.: MARC21 und die anglo-amerikanische Katalogisierungspraxis (2004) 0.06
    0.0612982 = product of:
      0.16346186 = sum of:
        0.022038016 = weight(_text_:und in 1764) [ClassicSimilarity], result of:
          0.022038016 = score(doc=1764,freq=6.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.2544829 = fieldWeight in 1764, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1764)
        0.048357982 = weight(_text_:der in 1764) [ClassicSimilarity], result of:
          0.048357982 = score(doc=1764,freq=28.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.55406165 = fieldWeight in 1764, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1764)
        0.09306587 = sum of:
          0.06130309 = weight(_text_:forschung in 1764) [ClassicSimilarity], result of:
            0.06130309 = score(doc=1764,freq=2.0), product of:
              0.19008557 = queryWeight, product of:
                4.8649335 = idf(docFreq=926, maxDocs=44218)
                0.039072596 = queryNorm
              0.32250258 = fieldWeight in 1764, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.8649335 = idf(docFreq=926, maxDocs=44218)
                0.046875 = fieldNorm(doc=1764)
          0.031762782 = weight(_text_:22 in 1764) [ClassicSimilarity], result of:
            0.031762782 = score(doc=1764,freq=2.0), product of:
              0.13682558 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.039072596 = queryNorm
              0.23214069 = fieldWeight in 1764, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1764)
      0.375 = coord(3/8)
    
    Abstract
    Das MARC21-Datenformat wird aus der Sicht eines praktizierenden AACR2/MARC-Katalogisierers vorgeführt. Der Autor gibt zunächst eine allgemeine Einführung in das MARC21 Bibliographic Format. Der zweite Abschnitt der Arbeit ist der Erschließung von mehrteiligen bzw. mehrbändigen Werken gewidmet. Die Behandlung von mehrteiligen bzw. mehrbändigen Werken, in der AACR2-Welt "Analyse" genannt, ist nämlich der Punkt, an dem die anglo-amerikanische und die deutsche Katalogisierungspraxis am weitesten auseinandergehen. Die verschiedenen Formen der "Analyse" werden erläutert im Hinblick auf die Frage, inwiefern diese Praxen den Bedürfnissen der Benutzer gerecht werden. Auf eine kurze Behandlung der besonderen Problematik der fortlaufenden Sammelwerke folgt dann eine Einführung in das MARC21 Authorities Format für Normdatensätze. Die Rolle der verschiedenen Arten von Normdatensätzen bei der Katalogisierung wird auch besprochen. DerAufsatz schließt mit einem Kommentar über verschiedene Aspekte der Verlinkung von Datensätzen.
    Date
    13. 8.2004 21:22:06
    Source
    Bibliothek: Forschung und Praxis. 28(2004) H.1, S.11-35
  5. Syré, L.: AACR2: Stellungnahme der AG Regionalbibliographie (2002) 0.05
    0.047072805 = product of:
      0.09414561 = sum of:
        0.023186296 = product of:
          0.046372592 = sum of:
            0.046372592 = weight(_text_:methoden in 841) [ClassicSimilarity], result of:
              0.046372592 = score(doc=841,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.22902192 = fieldWeight in 841, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.03125 = fieldNorm(doc=841)
          0.5 = coord(1/2)
        0.02813306 = weight(_text_:und in 841) [ClassicSimilarity], result of:
          0.02813306 = score(doc=841,freq=22.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.3248651 = fieldWeight in 841, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=841)
        0.03223866 = weight(_text_:der in 841) [ClassicSimilarity], result of:
          0.03223866 = score(doc=841,freq=28.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.36937445 = fieldWeight in 841, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=841)
        0.0105875945 = product of:
          0.021175189 = sum of:
            0.021175189 = weight(_text_:22 in 841) [ClassicSimilarity], result of:
              0.021175189 = score(doc=841,freq=2.0), product of:
                0.13682558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039072596 = queryNorm
                0.15476047 = fieldWeight in 841, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=841)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Content
    "Die Mitglieder der Arbeitsgruppe Regionalbibliographie in der Arbeitsgemeinschaft der Regionalbibliotheken (DBV Sektion 4) haben auf ihrer Jahrestagung am 22. und 23. April 2002 in Bautzen einen etwaigen Umstieg von RAK auf AACR2 beraten und sich einstimmig dagegen ausgesprochen. - Begründung - Der personelle, technische und finanzielle Aufwand für den Umstieg wäre für die Landes- und Regionalbibliographien gewaltig. Diejenigen Bibliographien, die ihre eigenen Datenbanken unterhalten, müssten diese sowohl vollständig EDV-technisch (z.B. hinsichtlich des Datenformats) anpassen als auch sämtliche Änderungen (z.B. bei Zeitschriftenaufnahmen, bei der Ansetzung von Körperschaften) nachführen. Dies ist umso schwerwiegender, als nicht alle Bibliographie- Datenbanken über entsprechende eigene Normdateien verfügen. Alle Landes- und Regionalbibliographien, also auch diejenigen, die in die Verbunddatenbanken integriert sind, wären überdies vom zusätzlichen Schulungsaufwand für das neue Regelwerk sowie von Revisionsarbeiten an den Normdateien betroffen. Weitere Nachteile wären Inkonsistenzen im Datenbestand bzw. Qualitätsverluste bei der Konvertierung der Altdaten. Diesen schwerwiegenden Nachteilen steht kein ersichtlicher Vorteil bei Erstellung oder Benutzung der Landes- und Regionalbibliographien gegenüber: Der Rationalisierungseffekt ist unbedeutend, da in Regionalbibliographien ganz überwiegend unselbstständige deutschsprachige Titel verzeichnet werden, für die keine Katalogisate aus AACR-Ländern genutzt werden können. Auch für die Benutzer der Datenbanken steht keine Verbesserung der Rechercheergebnisse zu erwarten. Die Landes- und Regionalbibliographien sehen sich derzeit einer Vielzahl von Aufgaben und neuen Herausforderungen gegenüber, die sie mit bestenfalls stagnierendem Personalstand zu erfüllen haben: Neben einer stetig wachsenden Titelzahl sind dies z.B. die neuen Publikationsformen im WWW, der Aufbau eines gemeinsamen Suchinstruments ("Virtuelle Deutsche Landesbibliographie° in KVK-Technik) und die Integration der noch konventionell vorliegenden älteren Bibliographienachweise in die Datenbanken. In dieser Situation wäre es kontraproduktiv, wenn enorme Ressourcen für einen Regelwerks- und Formatwechsel ohne praktischen Nutzen abgezogen würden. Die AG Regionalbibliographie lehnt daher einen Umstieg auf AACR2 ab. Sie empfiehlt stattdessen, das bestehende Regelwerk weiterzuentwickeln sowie alternative und zeitgemäße Methoden zu erarbeiten, um die internationale Zusammenarbeit zu verbessern (z.B. durch das Projekt "Virtuelle internationale Normdatei")."
  6. DFG und Mellon-Foundation fördern internationalen Datenaustausch (2006) 0.04
    0.041790456 = product of:
      0.11144121 = sum of:
        0.04858926 = weight(_text_:und in 5070) [ClassicSimilarity], result of:
          0.04858926 = score(doc=5070,freq=42.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.561082 = fieldWeight in 5070, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5070)
        0.037309 = weight(_text_:der in 5070) [ClassicSimilarity], result of:
          0.037309 = score(doc=5070,freq=24.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.42746788 = fieldWeight in 5070, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5070)
        0.025542954 = product of:
          0.051085908 = sum of:
            0.051085908 = weight(_text_:forschung in 5070) [ClassicSimilarity], result of:
              0.051085908 = score(doc=5070,freq=2.0), product of:
                0.19008557 = queryWeight, product of:
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.039072596 = queryNorm
                0.26875216 = fieldWeight in 5070, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5070)
          0.5 = coord(1/2)
      0.375 = coord(3/8)
    
    Abstract
    Die Deutsche Forschungsgemeinschaft (DFG) und die Andrew W. Mellon Foundation unterstützen die Einführung des international gebräuchlichen Datenaustauschformats MARC 21 im deutschsprachigen Bibliothekswesen. Der Daten- und Informationsaustausch zwischen den Bibliotheken der deutschsprachigen Länder und denen der übrigen Welt wird dadurch wesentlich erleichtert.
    Content
    "Der aktuelle Speicherort einer Publikation verliert angesichts der steigenden Zahl an digital vorliegenden und über das World Wide Weh verfügbaren Publikationen seine Bedeutung. Entscheidend für die Forschung sind Aufindbarkeit und schnelle Nutzungsmöglichkeit der Informationen. Global zu arbeiten, Daten, Informationen und Texte zu tauschen ist zur täglichen Routine für Wissenschaftler und Bibliothekare geworden. Deutschsprachige und ausländische Bibliotheken verwenden derzeit noch unterschiedliche Standards bei der Speicherung und dem Austausch von Katalogdaten. Die von der Deutschen Forschungsgemeinschaft und der Andrew W. Mellon Foundation geförderten Projekte verfolgen das Ziel, die Daten deutschsprachiger Bibliotheken weltweit sichtbar zu machen. Das Interesse von Wissenschaftlern ist nicht auf ihre jeweilige eigene nationale und kulturelle Umgebung beschränkt. Sie benötigen Informationen über Dokumente und Daten aus der ganzen Welt. Gleichzeitig wollen sie die eigenen Forschungsergebnisse in der internationalen Forschungsgemeinschaft zur Diskussion stellen. Sprachraumübergreifende Standards für Metadaten und deren reibungsloser gegenseitiger Austausch sind Voraussetzung für die wissenschaftliche Kommunikation und für den individuellen Erfolg des einzelnen Forschers. Die Deutsche Bibliothek pflegt seit vielen Jahren Kooperationsbeziehungen auf nationaler und internationaler Ebene. Dazu gehören die Entwicklung und Anwendung von gemeinsamen Regeln und Standards sowie Produktion und Vertrieb von bibliografischen Dienstleistungen und die Pflege kooperativ geführter Datenbanken, insbesondere für Normdaten. Einen weiteren Schwerpunkt bilden Entwicklung und Anwendung moderner Technologien für die Langzeitarchivierung der Bestände im Rahmen internationaler Kooperationen, unabhängig davon, ob die Publikationen auf Papier, Mikrofilm oder digital vorliegen."
  7. Krischker, U.: Formale Analyse (Erfassung) von Dokumenten (1990) 0.04
    0.039252177 = product of:
      0.10467248 = sum of:
        0.046372592 = product of:
          0.092745185 = sum of:
            0.092745185 = weight(_text_:methoden in 1535) [ClassicSimilarity], result of:
              0.092745185 = score(doc=1535,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.45804384 = fieldWeight in 1535, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1535)
          0.5 = coord(1/2)
        0.033929747 = weight(_text_:und in 1535) [ClassicSimilarity], result of:
          0.033929747 = score(doc=1535,freq=8.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.39180204 = fieldWeight in 1535, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1535)
        0.024370136 = weight(_text_:der in 1535) [ClassicSimilarity], result of:
          0.024370136 = score(doc=1535,freq=4.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.27922085 = fieldWeight in 1535, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1535)
      0.375 = coord(3/8)
    
    Abstract
    Die formale Analyse von Dokumenten ist komplex und vielschichtig. Um sie beschreiben zu können, muß sie unter verschiedenen Gesichtspunkten betrachtet werden. Zu untersuchen ist, welchen Zweck die formale Analyse erfüllen soll, wem sie nützt und wer sie durchführt, welche Methoden zur Verfügung stehen, welche technischen Hilfsmittel eingesetzt werden können bzw. welche Verfahren es beim Einsatz von Datenverarbeitungsanlagen gibt.
    Footnote
    Allgemeine, d.h. nicht ausschließlich an bibliothekarischen Anwendungsbereichen orientierte, Darstellung der formalen Erfassung und bibliographischen Beschreibung von Dokumenten verschiedenster Typen.
    Source
    Grundlagen der praktischen Information und Dokumentation: ein Handbuch zur Einführung in die fachliche Informationsarbeit. 3. Aufl. Hrsg.: M. Buder u.a. Bd.1
  8. MARC-Datensätze im MAB-Format für deutsche EBSCO-Kunden (2002) 0.04
    0.03908666 = product of:
      0.10423109 = sum of:
        0.02370913 = weight(_text_:und in 619) [ClassicSimilarity], result of:
          0.02370913 = score(doc=619,freq=10.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.27378 = fieldWeight in 619, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=619)
        0.05643911 = weight(_text_:organisation in 619) [ClassicSimilarity], result of:
          0.05643911 = score(doc=619,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.28248245 = fieldWeight in 619, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0390625 = fieldNorm(doc=619)
        0.024082854 = weight(_text_:der in 619) [ClassicSimilarity], result of:
          0.024082854 = score(doc=619,freq=10.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.27592933 = fieldWeight in 619, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=619)
      0.375 = coord(3/8)
    
    Abstract
    EBSCO Publishing ermöglicht jetzt speziell für Kunden in Deutschland und seinen Nachbarländern, die Bereitstellung von Datensätzen im MAB-Format - das bevorzugte Datenformat vieler Bibliotheken in Deutschland. Hierzu arbeitet EBSCO (www.ebsco.com) mit der ZDB (Zeitschriftendatenbank) zusammen, einer Organisation, die bibliographische Dienstleistungen für Bibliotheken anbietet, einschließlich der Umformatierung von Datensätzen des US-MARC-Formats in das MAB-Format. Die ZDB ist die weltweit größte Datenbank für Titel- und Besitznachweise fortlaufender Sammelwerke. Dazu gehören nicht nur Druckwerke, sondern auch Titel elektronischer Zeitschriften. Die ZDB befindet sich in Trägerschaft der Staatsbibliothek zu Berlin, Systembetreiberin ist "Die Deutsche Bibliothek". Die ZDB stellt ihren Mitgliedern ein wöchentliches Titel-Update inkl. der umformatierten EBSCO-Datensätzen zur Verfügung. Bibliotheken können diese Titel in ihr lokales Bibliotheksystem einfügen. Der Bibliotheksnutzer, dem hierdurch im lokalen Bibliothekssystem angezeigt wird, welche Zeitschriften über EBSCOhost® zur Verfügung stehen, kann sich direkt per Mausklick dorthin verlinken lassen. Die ZDB enthält mehr als eine Million Titel seit Beginn des 16. Jahrhunderts, aus allen Ländern, in allen Sprachen und weist zu diesen den Besitz in ca. 4.300 deutschen und einigen ausländischen Bibliotheken nach, mit ca. 5,3 Millionen Besitznachweisen. Inzwischen beinhaltet die ZDB auch mehr als 13.000 bibliographische Datensätze elektronischer Zeitschriften. Die ZDB ist gratis unter www.zdb-opac.de zugänglich.
    Source
    Information - Wissenschaft und Praxis. 53(2002) H.4, 247
  9. Winkler, J.: 1st IFLA Meeting of Experts on an International Cataloguing Code (IME ICC) : 28.-30. Juli 2003, Die Deutsche Bibliothek, Frankfurt am Main (2003) 0.04
    0.037651632 = product of:
      0.10040435 = sum of:
        0.032247905 = weight(_text_:und in 2269) [ClassicSimilarity], result of:
          0.032247905 = score(doc=2269,freq=74.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.37238106 = fieldWeight in 2269, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2269)
        0.028219555 = weight(_text_:organisation in 2269) [ClassicSimilarity], result of:
          0.028219555 = score(doc=2269,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.14124122 = fieldWeight in 2269, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2269)
        0.039936896 = weight(_text_:der in 2269) [ClassicSimilarity], result of:
          0.039936896 = score(doc=2269,freq=110.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.45757705 = fieldWeight in 2269, product of:
              10.488089 = tf(freq=110.0), with freq of:
                110.0 = termFreq=110.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2269)
      0.375 = coord(3/8)
    
    Content
    "Im Vorfeld der 69. IFLA-Generalkonferenz, die unter dem Titel "Bibliothek als Portal: Medien - Information - Kultur" vom 1. bis 9. August 2003 in Berlin tagte, stand in Frankfurt am Main an der Deutschen Bibliothek auf Einladung der Sektion Katalogisierung der IFLA ein Treffen von Regelwerksexperten aus Europa, Amerika und Australien im Zeichen intensiver Beratungen über Möglichkeiten und Wege zur internationalen Harmonisierung von Strukturen, Regeln und Arbeitsverfahren im Katalogisierungsbereich. Barbara Tillett, leitende Bibliothekarin der Library of Congress, sorgte als Vorsitzende einer Planungsgruppe gemeinsam mit ihren deutschen Kolleginnen Renate Gömpel (DDB), Monika Münnich (UB Heidelberg), Clau dia Fabian (BSB) und Susanne Oehlschläger (DDB) für die hervorragende Vorbereitung und Organisation des Frankfurter Expertentreffens. 52 Bibliothekarinnen und Bibliothekare nahmen an der Frankfurter Konferenz teil: neben den von den Regelwerksgremien der europäischen Teilnehmerländer nominierten Regelwerksexperten hochrangige Katalogisierungsexperten aus den Vereinigten Staaten und Australien. Die Sektion Katalogisierung der IFLA räumt seit Jahren dem Ziel, die Möglichkeiten zum internationalen Austausch von Kataloginformationen entscheidend zu verbessern, höchste Priorität ein. Einigkeit besteht dar über, dass diese Zielvorstellung nur über gemeinsame Standards für den Inhalt von bibliographischen Datensätzen und Normdatensätzen und gemeinsame Standards für den Zugriff auf diese Daten zu erreichen ist. In diesem Sinne war Frankfurt mit Blick auf die Praxis der Katalogisierung in Europa als Auftakt kommenderTagungen mit ähnlich großräumigen Perspektiven im Umfeld der IFLA-Konferenzen 2004 in Buenos Aires, 2006 in Seoul sowie 2007 in Durban gedacht.
    In der Vorbereitungsphase der Konferenz erstellten die Regelwerksgremien der Teilnehmerländer unter Verwendung eines vorgegebenen Fragenkatalogs Präsentationen der in Europa aktuell in Verwendung stehenden Regelwerkel als Grundlage einer vergleichenden Untersuchung von Gemeinsamkeiten und Unterschieden sowie als Ausgangspunkt für mögliche Annäherungen an das erklärte Fernziel einer möglichst weitgehenden Vereinheitlichung der Katalogisierungspraxis im Rahmen international verbindlicher Vereinbarungen. Auf die Vielzahl der in Verwendung stehenden Regelwerke konnte im Rahmen der Tagung nicht eingegangen werden. Doch waren im Programm des ersten Tages beispielhaft die AACR-Anwender und die Vertretungen Frankreichs, Spaniens, Russlands, Italiens, Kroatiens und Deutschlands, das gemeinsam mit Österreich für die RAK-Anwendung stand, zu kurzen Vorstellungen ihrer Regelwerksgremien aufgefordert. Im wesentlichen galt das Programm des ersten Tages der breiten Information über Grundsätze und Standards der internationalen Zusammenarbeit sowie der Vorbereitung der auf fünf Arbeitsgruppen verteilten Behandlung der Themen "Personal names", "Corporate bodies", "Seriality", "Multipart structures" und "Uniform titles and GMDs (General material designations)". John D. Byrum, Chair der IFLA ISBD Review Group, betonte die Bedeutung der "International Standard Bibliographic Descriptions" (ISBDs), die sich als international gültiger Standard für die bibliographische Beschreibung längst bewährt haben und auch künftig als unverzichtbar für den Datentausch und die gemeinsame Datennutzung gesehen werden. Priorität in der ISBD Review Group hat derzeit die generelle Revision der verschiedenen ISBD-Ausgaben mit Blick auf die Konzentration der Inhalte und die beabsichtigte Einbeziehung der FRBR-Terminologie in die ISBD. Patrick Le Boeuf, Chair der IFLA Working Group an FRBR, erläuterte sodann in seinem höchst anregenden und mit Esprit und Verve präsentierten Vortrag "Brave new FRBR world" die Begrifflichkeit und das Grundmuster der "Functional Requirements for Bibliographic Records".3 Dabei handelt es sich nicht um ein Modell zur Abbildung von Daten, sondern um ein Modell zur Darstellung von Beziehungen zwischen Entitäten und ihren möglichen Attributen. Offen blieb, ob und wie sich der hohe Abstraktionsgrad des Modells mit seinen Schlüsselbegriffen "work", "expression", "manifestation" und "item" über Standards und Regelwerke in der täglichen Praxis des Bibliotheksbetriebs umsetzen lässt und behaupten kann. Barbara Tillett schließlich widmete ihren Vortrag dem Projekt VIAF (The Virtual International Authority File), das OCLC, die Library of Congress und Die Deutsche Bibliothek gemeinsam verfolgen, um die Möglichkeiten der Erstellung und des Austauschs von Normdaten in international vernetzter Zusammenarbeit zu erproben.
    Zentrale Bedeutung kam im Rahmen der Tagung dem Entwurf einer Neufassung der 1961 in Paris verabschiedeten "Paris Principles' zu. Die im Vorfeld der Konferenz erarbeiteten zusammenfassenden Präsentionen der in den europäischen Ländern angewandten Regelwerke machen deutlich, wie bestimmend die "Paris Principles" mit ihren "Prinzipien", also beispielsweise ihren Aussagen zur Funktion eines Kataloges, zu den verschiedenen Arten von Eintragungen (Haupt- und Nebeneintragungen bzw. Verweisungen) sowie zu den Eintragungen selbst für die Standardisierung der Regelwerksarbeit waren. Nun galt eine der Zielsetzungen der FrankfurterTagung der Anpassung der 1961 in Paris verabschiedeten Grundsätze an die zeitgemäßen Erfordernisse und Rahmenbedingungen von Online-Katalogen sowie der Erwei terung des Geltungsbereiches auf Aspekte der Sacherschließung neben den seit 1961 festgeschriebenen Gesichtspunkten der formalen Erfassung. Der für dieses neue "Statement of Cataloguing Principles" von Monika Münnich gemeinsam mit Hans Popst und Charles Croissant erarbeitete Entwurf wurde im Plenum ausführlich diskutiert und in den folgenden Wochen über eine detaillierte Abstimmung der einzelnen Formulierungen weiterentwickelt. Er berücksichtigt die Termini der FRBR, die auch in die angekündigte Neuausgabe der AACR Eingang finden sollen, definiert die Funktionen des Katalogs, das Prinzip der bibliographischen Beschreibung sowie die vorzusehenden Sucheinstiege über Namen von Personen und Körperschaften bzw. über Titel. Festgelegt sind darin auch die Forderungen des FRANAR-Konzepts' für eine möglichst weitgehende Normierung der Ansetzung von Namen, Titeln und Sachbegriffen. Noch in diesem Jahr wird der modifizierte Entwurf für das neue "Statement of Cataloguing Principles" der Fachöffentlichkeit vorgestellt werden. Die in Frankfurt angestoßene intensive Diskussion wird sich auf den Fol gekonferenzen von Buenos Aires und Seoul fortsetzen und letztendlich in ein Dokument münden, das nicht zuletzt auch als Richtlinie und Leitfaden für die in den fünf Arbeitsgruppen der Frankfurter Tagung angedachten Detailprobleme Gültigkeit haben soll."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 56(2003) H.3/4, S.72-74
  10. Wolters, C.: Wie muß man seine Daten formulieren bzw. strukturieren, damit ein Computer etwas Vernünftiges damit anfangen kann? : Mit einem Glossar von Carlos Saro (1991) 0.03
    0.030403525 = product of:
      0.08107606 = sum of:
        0.023186296 = product of:
          0.046372592 = sum of:
            0.046372592 = weight(_text_:methoden in 4013) [ClassicSimilarity], result of:
              0.046372592 = score(doc=4013,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.22902192 = fieldWeight in 4013, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4013)
          0.5 = coord(1/2)
        0.02682382 = weight(_text_:und in 4013) [ClassicSimilarity], result of:
          0.02682382 = score(doc=4013,freq=20.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.3097467 = fieldWeight in 4013, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4013)
        0.031065948 = weight(_text_:der in 4013) [ClassicSimilarity], result of:
          0.031065948 = score(doc=4013,freq=26.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.35593814 = fieldWeight in 4013, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4013)
      0.375 = coord(3/8)
    
    Abstract
    Die Dokumentationsabteilung im Institut für Museumskunde der Staatlichen Museen Preußischer Kulturbesitz (IfM) hat die Aufgabe, bundesweit Museen und museale Einrichtungen bei der Einführung der Informationstechnik mit Rat und Tat zu unterstützen. Hierbei arbeitet sie mit dem Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB) zusammen. Diese Aktivitäten liegen im Bereich einer professionell durchgeführten Rationalisierung; Computerisierung ist nicht Selbstzweck, sondern eine Möglichkeit, ohnehin durchzuführende Arbeiten in puncto Zeit und Kosten effizienter zu gestalten bzw. Dinge durchzuführen, für die man beim Einsatz konventioneller Methoden weder die Zeit noch das Geld hätte. Mit der Vermittlung der hierfür notwendigen Kenntnisse und Fertigkeiten ist ein kleines Institut wie das IfM wegen des rapide ansteigenden Beratungsbedarfs der Museen heute noch weit überfordert. Wir konzentrieren daher unsere Aktivitäten auf eine Zusammenarbeit mit den für die Museumsbetreuung zuständigen Einrichtungen in den Bundesländern. Wir haben die Hoffnung, daß mehr und mehr Bundesländer für diese Aufgabe eigene Dienstleistungsangebote entwickeln werden. Bevor das erreicht ist, versucht das HM interessierten Museen zumindest eine "Hilfe zur Selbsthilfe" anzubieten; auch wenn dieses oder jenes Bundesland noch nicht in der Lage ist, seine Museen auf diesem Gebiet professionell zu beraten, soll es einzelnen Museen zumindest erleichtert werden, sich hier selber schlau zu machen. Zum Inhalt: Zur Zeit der Großrechner waren sich noch alle Beteiligten darüber einig, daß man für den Einsatz der Informationstechnik professioneller Hilfe bedarf. Man war bereit, sich den Anforderungen der Maschine anzupassen, man versuchte, sich "computergerecht" zu verhalten. Die Einführung leicht zu bedienender und leistungsstarker Computer im Bürobereich hat diese Arbeitsbedingungen aber grundlegend verändert. Auch Leute, die von Computer noch nichts verstehen, können heute in wenigen Tagen lernen, mit Programmen für "Textverarbeitung" ganz selbstverständlich umzugehen. Sie erwarten daher, daß das bei einem Einsatz des Computers für die Inventarisierung genauso problemlos sei. Von einer solchen Benutzerfreundlichkeit der Programme sind wir im deutschen Museumswesen aber noch weit entfernt. Das hat einen einfachen Grund: In die eben erwähnten einfach zu handhabenden Programme wurde inzwischen hunderte oder gar tausende von "Mannjahren" investiert; ein erheblicher Teil dieser Mittel diente dazu, den Computer den spezifischen Bedürfnissen bestimmter Arbeitsplätze anzupassen, bzw. die daran arbeitenden Mitarbeiter auszubilden. Bis das auch für das Museum gilt, wird wohl noch einige Zeit vergehen; dieser Markt ist zu klein, als daß sich solche Investitionen auf rein kommerzieller Basis kurzfristig auszahlen könnten. Das Institut für Museumskunde versucht hier Hilfestellung zu geben. Das vorliegende Heft 33 der "Materialien" ist aus Beratungen und Kursen hervorgegangen. Es versucht, die für die Einführung der Informationstechnik im Museum unabdingbaren grundlegenden Computerkenntnisse für Museumsleute in Form eines Lern- und Lesebuchs zu vermitteln. Es schließt damit an Heft 30 (Jane Sunderland und Leonore Sarasan, Was muß man alles tun, um den Computer im Museum erfolgreich einzusetzen?) direkt an und soll zusammen mit ihm benutzt werden.
  11. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.03
    0.029868202 = product of:
      0.07964854 = sum of:
        0.027547522 = weight(_text_:und in 632) [ClassicSimilarity], result of:
          0.027547522 = score(doc=632,freq=54.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.3181036 = fieldWeight in 632, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.042742822 = weight(_text_:der in 632) [ClassicSimilarity], result of:
          0.042742822 = score(doc=632,freq=126.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.48972595 = fieldWeight in 632, product of:
              11.224972 = tf(freq=126.0), with freq of:
                126.0 = termFreq=126.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
        0.0093582 = product of:
          0.0187164 = sum of:
            0.0187164 = weight(_text_:22 in 632) [ClassicSimilarity], result of:
              0.0187164 = score(doc=632,freq=4.0), product of:
                0.13682558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039072596 = queryNorm
                0.13679022 = fieldWeight in 632, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=632)
          0.5 = coord(1/2)
      0.375 = coord(3/8)
    
    Abstract
    Am 23. und 24. November 2005 hat die Arbeitsgemeinschaft der Verbundsysteme ihre 49. Sitzung auf Einladung des Hochschulbibliothekszentrums NordrheinWestfalen (HBZ) in Köln durchgeführt.
    Content
    "Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung Matchkey Bei der Verwendung von Meta-Suchmaschinen zur parallelen Recherche in bibliografischen Datenbanken kommt es häufig vor, dass derselbe Titel mehrmals in der Trefferliste auftaucht. In dieser Situation könnte ein so genannter Matchkey Abhilfe schaffen, der jeden Datensatz aus den vorhandenen bibliografischen Daten heraus eindeutig identifiziert. Ein solcher Algorithmus geht von einem bibliografischen Datensatz aus und generiert einen Schlüssel (Matchkey), der wiederum in den Datensatz integriert werden kann. Der Schlüssel muss sortierfähig sein, so dass die Trefferliste nach dem Grad der Ähnlichkeit sortiert werden kann. Eine wichtige Voraussetzung für die erfolgreiche Anwendung des Matchkey ist die Beseitigung der Hausregeln in den Verbünden und Bibliotheken. Bisher hat Die Deutsche Bibliothek das Thema analysiert und strebt nun die Formulierung und Bereitstellung eines ersten Algorithmus an, um eine Implementierung zu Testzwecken voraussichtlich im März/April 2006 zu ermöglichen. Ein klares Ergebnis soll bis Ende 2006 vorliegen.
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum Das HBZ hat seinen am 15. November frei geschalteten Dreiländer-Katalog (Deutschland, Österreich, Schweiz) vorgestellt, dessen Ziel der Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum ist. Der Katalog entstand in Kooperation des HBZ mit dem Bibliotheksverbund Bayern (BVB) und dem Österreichischen Bibliothekenverbund (OBV); die Integration weiterer Bibliotheksbestände aus anderen Regionen ist in Arbeit. Realisiert wurde das Projekt mittels der Suchmaschinentechnologie des HBZ, die Antwortzeiten in Bruchteilen von Sekunden, Ranking und Kategorisierung der Treffermengen ermöglicht. Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben beschlossen, sich die für die Literaturversorgung relevanten Verbunddaten (Titeldaten mit Nachweisen) für den Aufbau verbundbezogener, nicht kommerzieller Dienste auf Gegenseitigkeit kostenfrei zur Verfügung zu stellen. Normdateien Online-Schnittstelle Ziel der Online-Kommunikation mit Normdateien ist es, die Arbeit mit den zentralen Normdateien dadurch zu vereinfachen, dass Änderungen an Normdaten in den zentral bei Der Deutschen Bibliothek gehaltenen Dateien mit dem eigenen Client erfolgen können. Ferner sollen alle Änderungen an den Normdateien zeitnah in die Normdaten-Spiegel der Verbundsysteme transportiert werden (Replikation). Das Verfahren soll sich auf alle bei Der Deutschen Bibliothek geführten Normdaten erstrecken. Als standardisiertes Kommunikationsprotokoll soll Z39.50 SR Extended Services Update genutzt werden. Für die Replikation ist OAI vorgesehen, als Austauschformat zunächst MAB2 bzw. MABXML. Die existierenden Implementierungen erfüllen an mehreren wichtigen Stellen nicht die Anforderungen. Eine Konversion in und aus einem neutralen Transportformat, wie für die Online-Kommunikation mit Normdateien benötigt, ist an der gegenwärtigen Pica-Schnittstelle nicht vorgesehen und lässt sich nur realisieren, wenn wesentliche Veränderungen vorgenommen werden. OCLC PICA plant, diese Veränderungen im 1. Quartal 2006 vorzunehmen. Nach der aktuellen Projektplanung soll die Online-Kommunikation zu Beginn des Jahres 2007 starten.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."
    Footnote
    Daneben Berichte der einzelnen Mitglieder
  12. Oehlschläger, S.: Arbeitsgemeinschaft der Verbundsysteme : Aus der 46. Sitzung am 21. und 22. April 2004 im Bibliotheksservice-Zentrum Baden-Württemberg in Konstanz (2004) 0.03
    0.029478516 = product of:
      0.07860938 = sum of:
        0.028745795 = weight(_text_:und in 2434) [ClassicSimilarity], result of:
          0.028745795 = score(doc=2434,freq=30.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.33194062 = fieldWeight in 2434, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2434)
        0.040599436 = weight(_text_:der in 2434) [ClassicSimilarity], result of:
          0.040599436 = score(doc=2434,freq=58.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.4651681 = fieldWeight in 2434, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2434)
        0.009264145 = product of:
          0.01852829 = sum of:
            0.01852829 = weight(_text_:22 in 2434) [ClassicSimilarity], result of:
              0.01852829 = score(doc=2434,freq=2.0), product of:
                0.13682558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039072596 = queryNorm
                0.1354154 = fieldWeight in 2434, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2434)
          0.5 = coord(1/2)
      0.375 = coord(3/8)
    
    Content
    "Die verbundübergreifende Fernleihe für Monografien steht kurz vor ihrer flächendeckenden Einführung. Voraussetzung hierfür ist ein funktionierendes Online-Fernleih-System in jedem Verbund. Dies ist prototypisch realisiert. Die Arbeitsgemeinschaft der Verbundsysteme geht davon aus, dass ab dem 1. Januar 2005 der Echtbetrieb aufgenommen werden kann und die Leistungen nach der neuen Leihverkehrsordnung abgerechnet werden können. Zur Klärung von Detailfragen trifft sich im Juni die Arbeitsgruppe Verbundübergreifende Fernleihe. Bereits in der letzten Sitzung wurde festgelegt, dass die jeweiligen Bibliotheken über die Festlegung des Leitwegs entscheiden sollen, und die Verbundzentralen nur dann eingreifen werden, wenn Probleme entstehen sollten. Die individuelle Leitwegsteuerung, sowohl innerhalb des Verbundes als auch bei der Festlegung der Reihenfolge der anzugehenden Verbünde hat in einigen Verbünden hohe Priorität. Traditionell gewachsene Beziehungen müssen von den Bestellsystemen abgebildet werden können. Eine lokale Zusammenarbeit wird auch über Verbundgrenzen hinaus möglich sein. Im Hinblick auf die Verrechnung verbundübergreifender Fernleihen haben sich die Verbünde auf einen einheitlichen Verrechnungszeitraum geeinigt. Voraussetzung ist außerdem, dass die Unterhaltsträger die notwendigen Rahmenbedingungen für die Abrechnung schaffen und die neue Leihverkehrsordnung in allen Bundesländern rechtzeitig in Kraft gesetzt wird."
    - Projekt Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) Das Projekt Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) stand zum Zeitpunkt der Sitzung der Arbeitsgemeinschaft kurz vor seinem Abschluss. Im Rahmen der Veranstaltung des Standardisierungsausschusses beim 2. Leipziger Kongress für Information und Bibliothek wurden die wesentlichen Projektergebnisse vorgestellt. Aufgrund der vorliegenden Informationen gehen die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme davon aus, dass das finanzielle Argument bei der anstehenden Entscheidung nicht mehr im Vordergrund stehen kann. Auch wenn davon ausgegangen wird, dass eine klare Umstiegsentscheidung durch den Standardisierungsausschuss derzeit politisch nicht durchsetzbar sei, sehen die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme die Entwicklung durch die Projektergebnisse positiv. Durch die Diskussion wurden Defizite des deutschen Regelwerks und der Verbundpraxis offen gelegt und verschiedene Neuerungen angestoßen. Zur Verbesserung des Datentausches untereinander sehen die Verbundzentralen unabhängig von einer Entscheidung des Standardisierungsausschusses die Notwendigkeit, ihre Datenbestände zu homogenisieren und Hierarchien abzubauen bzw. die Verknüpfungsstrukturen zu vereinfachen. Auch die Entwicklung der Functional Requirements for Bibliographic Records (FRBR) muss in diese Überlegungen einbezogen werden. Die Formate müssen dahingehend entwickelt werden, dass alle relevanten Informationen im Titelsatz transportiert werden können. Es wird eine Konvergenz von Regelwerk und Format angestrebt.
    - Elektronischer DDC-Dienst Im Fall der deutschen Übersetzung der Dewey Decimal Classification (DDC) wurde die Idee einer Normdatei DDC-Deutsch zugunsten eines zentralen elektronischen DDC-Dienstes bei Der Deutschen Bibliothek aufgegeben. Dieser Dienst hält die übersetzten Daten bereit und stellt sie in drei verschiedenen Ausprägungen zur Verfügung: 1. Zentrales Such- und Browsingtool für Benutzer 2. Klassifikationswerkzeug für Sacherschließer 3. SOAP-Schnittstelle für den elektronischen Datenaustausch. Um die DDC künftig gewinnbringend in der Benutzung einsetzen zu können, werden Konkordanzen zu anderen Klassifikationen, insbesondere aber zur weit verbreiteten Regensburger Verbundklassifikation (RVK) benötigt. Mithilfe dieser Konkordanzen können Benutzer im OPAL Der Deutschen Bibliothek nach DDC-Notationen suchen und würden zusätzlich Ergebnisse aus den Verbünden angezeigt bekommen, die bislang nicht mit der DDC erschlossen sind. Der GBV plant eine Grunderschließung seiner Verbunddatenbank mit der DDC in 5 Ebenen. Ziel ist es, bis Ende 2005 alle Verbunddaten mit der DDC zu verbinden und damit ein bedeutendes Recherchetool zu erhalten.
  13. Oehlschläger, S.: Aus der 47. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 3. und 4. November 2004 in Wien (2005) 0.03
    0.029369969 = product of:
      0.078319915 = sum of:
        0.029989941 = weight(_text_:und in 3124) [ClassicSimilarity], result of:
          0.029989941 = score(doc=3124,freq=64.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.34630734 = fieldWeight in 3124, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3124)
        0.041712727 = weight(_text_:der in 3124) [ClassicSimilarity], result of:
          0.041712727 = score(doc=3124,freq=120.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.47792363 = fieldWeight in 3124, product of:
              10.954452 = tf(freq=120.0), with freq of:
                120.0 = termFreq=120.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3124)
        0.006617247 = product of:
          0.013234494 = sum of:
            0.013234494 = weight(_text_:22 in 3124) [ClassicSimilarity], result of:
              0.013234494 = score(doc=3124,freq=2.0), product of:
                0.13682558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039072596 = queryNorm
                0.09672529 = fieldWeight in 3124, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3124)
          0.5 = coord(1/2)
      0.375 = coord(3/8)
    
    Abstract
    Am 3. und 4. November 2004 hat die Arbeitsgemeinschaft der Verbundsysteme anlässlich ihrer 47. Sitzung erstmals in Wien getagt. Sie war dort zu Gast bei der Österreichischen Bibliothekenverbund und Service Ges.m.b.H., der Zentrale des Österreichischen Bibliotheksverbundes.
    Content
    Darin: "Weiteres Vorgehen nach Abschluss des Projekts Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) Nach Abschluss des Projekts "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" innerhalb der vorgesehenen Laufzeit im Mai 2004 wurde in der B. Sitzung des Standardisierungsausschusses am 26. Mai 2004 der Entwurf des Projektberichts diskutiert. Dabei wurde noch kein Beschluss zum weiteren Vorgehen gefasst, sondern festgestellt, dass nach Aussage der Studie einem Umstieg keine grundsätzlichen Hindernisse entgegenstehen, stattdessen Vorteile eines Umstiegs aufgezeigt werden. Der Abschlussbericht Der Deutschen Bibliothek bestätigt diese Einschätzung und fasst als wichtigste Ergebnisse zusammen, dass sich im Hinblick auf Format und Regelwerk keine Aspekte ergeben haben, die gegen einen Umstieg sprechen, sondern vielmehr die große Chance besteht, weltweit verbreitete Standards auch in Deutschland einzuführen. In der Sitzung des Standardisierungsausschusses wurde aber auch deutlich, dass selbst die Befürworter eines Umstiegs trotz der vorliegenden Ergebnisse der Studie zurzeit keine Möglichkeit sehen, einen Umstieg generell durchzusetzen. Gleichzeitig erkannten die Mitglieder des Standardisierungsausschusses, dass durch die Studie in vielen Fällen Defizite des deutschen Regelwerks und der Verbundpraxis offen gelegt werden und streben daher die Beseitigung dieser Defizite im Einklang mit internationalen Regeln an. Für die weitere Arbeit ist eine klare Richtungsangabe für alle Beteiligten erforderlich. Der Vorsitzende der Arbeitsgemeinschaft der Verbundsysteme und die Leiterin der Arbeitsstelle für Standardisierung hatten zugesagt, einen Vorschlag zur weiteren Vorgehensweise als Diskussionsgrundlage für die nächste Sitzung des Standardisierungsausschusses am 15. Dezember 2004 zu erarbeiten. Hierzu wurden vor dem Hintergrund der Projektergebnisse Vorschläge aus dem Kreis der Arbeitsgemeinschaft und des Standardisierungsausschusses erbeten. Am 14. September 2004 traf sich eine Arbeitsgruppe bestehend aus Vertretern der Arbeitsgemeinschaft und der Arbeitsstelle für Standardisierung, um die Vorschläge aus dem Kreis der Arbeitsgemeinschaft der Verbundsysteme mit den Vorschlägen der anderen Mitglieder des Standardisierungsausschusses abzugleichen. Neben diesen Vorschlägen wurden die Empfehlungen zum weiteren Vorgehen unabhängig von einem Umstieg aus dem Abschlussbericht des Umstiegsprojekts an die Deutsche Forschungsgemeinschaft herangezogen. Die Arbeitsgruppe hat ein Vorschlagspapier vorgelegt, das zunächst den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme zur Verfügung gestellt und bei der Sitzung ausführlich diskutiert, modifiziert und abschließend gebilligt wurde. Das überarbeitete Papier wurde dem Standardisierungsausschuss rechtzeitig zu seiner nächsten Sitzung übersandt. Das Papier enthält neben Vorschlägen für das künftige Regelwerk insbesondere konkrete Aussagen über die Zusammenarbeit der Verbundsysteme. Die wesentlichen Punkte werden im folgenden Absatz kurz vorgestellt.
    Zusammenarbeit der Verbundsysteme Im Rahmen der Diskussion um das weitere Vorgehen nach Abschluss des Projekts Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) haben sich die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme darauf geeinigt, ihre Datenstrukturen zu vereinheitlichen als Voraussetzung für eine Verbesserung von Datentausch und Fremddatennutzung. Die Arbeitsgemeinschaft der Verbundsysteme hat erkannt, dass die gemeinsamen Zielvorstellungen am ökonomischsten mit der verpflichtenden Anwendung von MARC21 als Transportformat zu erreichen sind. Die Alternative "Weiterentwicklung von MAB2 zu MAB3" würde vor dem Hintergrund, dass MARC21 für die Übernahme ausländischer Fremddaten sowie für die Lieferung deutscher Daten an ausländische Kataloge und Portale ohnehin bedient werden müsste, in erheblichem Maß künftig dauerhaft zusätzliche Kapazitäten binden, die von den Unterhaltsträgern bewilligt werden müssten, was bei der derzeitigen Haushaltslage eher unwahrscheinlich erscheint. Zudem wird eine notwendige Weiterentwicklung von MAB2 zu MAB3 - konsequent wiederholbare Kategorien und Subfield-Verwendung - sich strukturell faktisch nicht mehr von einem MARC-Format unterscheiden. Eine Weiterentwicklung des bisherigen deutschen Datenaustauschformats MAB2 zu MAB3 wird daher nicht befürwortet. Für die Planungssicherheit der Bibliotheken und der Softwarehersteller ist die weitere Versorgung mit MAB2-Daten für einen Zeitrahmen von ca. 10 Jahren zu gewährleisten. Dazu ist für eine Übergangszeit auf der einen Seite die weitere Pflege von MAB2 einschließlich der für eine automatisierte Konvertierung von und nach MARC21 notwendigen Anpassung erforderlich und auf der anderen Seite die Implementierung entsprechender Programme bei den Datenlieferanten. Die weitere Pflege von MAB2 soll dabei auf unabdingbar notwendige und zugleich mit MARC21 kompatible Anpassungen beschränkt bleiben. Zur Realisierung ihrer strategischen Ziele hat die Arbeitsgemeinschaft der Verbundsysteme folgende Einzelmaßnahmen beschlossen: Entwicklung einheitlicher Verbundrichtlinien und Formulierung eines gemeinsamen Qualitätsstandards sowie Reduzierung des Datenmodells auf zwei Hierarchiestufen. Als eine der ersten Maßnahmen ist die Erstellung einer Konkordanz MAB2 zu MARC21 geplant. Zwischenzeitlich hat sich auch die Expertengruppe MABAusschuss in einem Positionspapier für MARC21 als Transportformat ausgesprochen und ist bereit, diese Konkordanz zu erstellen.
    Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben weiterhin ihre Absicht bekräftigt, ihre Verbunddaten gegenseitig zum Zweck der Datenübernahme, Fernleihe und Einbindung in Portale über Z 39.50 zu nutzen. Neuerwerbungen sollen künftig kooperativ katalogisiert werden, damit nicht Kapazitäten dadurch gebunden werden, dass die gleiche Titelaufnahme mehrfach erstellt werden muss. Eine Arbeitsgruppe unter Federführung des GBV wird ein Konzept und einen Projektplan mit einzelnen Arbeitsschritten sowie bis Ende 2005 ein prototypisches Verfahren zu entwickeln. Die gegenseitige Nutzung von Fremddatenangeboten (unter Beachtung lizenzrechtlicher Rahmenbedingungen) sowie die Bereitstellung von Datensätzen und ihre Anreicherung durch Abstracts, Inhaltsverzeichnisse, Rezensionen u. ä. sind seit langem bestehende Anforderungen, deren Realisierung mit der Vereinheitlichung der Datenstrukturen und der einheitlichen Anwendung von MARC21 als Transportformat erreicht wird. Notwendige Voraussetzung zur Anreicherung von Daten ist die Entwicklung eines Match-Key-Algorith-mus. Hierzu ist ein gesondertes Projekt unter Federführung Der Deutschen Bibliothek geplant. Die Arbeitsgemeinschaft der Verbundsysteme hat den Standardisierungsausschuss gebeten, dafür Sorge zu tragen, dass das künftige deutsche Regelwerk für die Formalerschließung ihre Ziele einer Vereinheitlichung der Datenstrukturen und eines verbesserten Datentauschs mit Fremddatennutzung effektiv unterstützt. Dazu dürfen keine den AACR widersprechenden Regelungen für das Regelwerk verabschiedet werden. Außerdem dürfen strukturrelevante Aspekte im Regelwerk künftig keine Kann-Bestimmungen mehr sein. Um international übereinstimmende Entitäten zu erhalten, plädiert die Arbeitsgemeinschaft der Verbundsysteme nachdrücklich dafür, bei Verwendung einer Normdatei Individualisierung als obligatorische Bestimmung einzuführen. Eine Übereinstimmung der Entitäten bei Titeln, Personen- und Körperschaftsnamen muss erklärtes Regelwerksziel sein. Hierfür sind international übliche Regelungen einzuführen. Dringend erforderlich ist auch die Vereinheitlichung und Integration der Sonderregeln in das Regelwerk. Die Arbeitsgemeinschaft der Verbundsysteme schlägt dem Standardisierungsausschuss darüber hinaus vor, Aspekte der Functional Requirements for Bibliographic Records (FRBR) im Regelwerk in Übereinstimmung mit der internationalen Entwicklung zu berücksichtigen und durch geeignete Untersuchungen auf Expertenebene zu untermauern."
    Date
    22. 1.2005 18:53:53
  14. Hoffmann, L.: ¬Die Globalisierung macht vor der Katalogisierung nicht Halt : Mit AACR2 zum Global Player? (2003) 0.03
    0.029301655 = product of:
      0.07813775 = sum of:
        0.021206092 = weight(_text_:und in 1544) [ClassicSimilarity], result of:
          0.021206092 = score(doc=1544,freq=2.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.24487628 = fieldWeight in 1544, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1544)
        0.030462667 = weight(_text_:der in 1544) [ClassicSimilarity], result of:
          0.030462667 = score(doc=1544,freq=4.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.34902605 = fieldWeight in 1544, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=1544)
        0.026468989 = product of:
          0.052937977 = sum of:
            0.052937977 = weight(_text_:22 in 1544) [ClassicSimilarity], result of:
              0.052937977 = score(doc=1544,freq=2.0), product of:
                0.13682558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039072596 = queryNorm
                0.38690117 = fieldWeight in 1544, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1544)
          0.5 = coord(1/2)
      0.375 = coord(3/8)
    
    Date
    22. 3.2016 12:15:46
    Source
    4. BSZ-Kolloquium am 17. und 18. September an der Universität Stuttgart. Vorträge
  15. Behrens-Neumann, R.: Aus der 56. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. April 2009 in Wien : ein Bericht (2009) 0.03
    0.028878063 = product of:
      0.077008165 = sum of:
        0.028053021 = weight(_text_:und in 3041) [ClassicSimilarity], result of:
          0.028053021 = score(doc=3041,freq=14.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.32394084 = fieldWeight in 3041, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3041)
        0.035720646 = weight(_text_:der in 3041) [ClassicSimilarity], result of:
          0.035720646 = score(doc=3041,freq=22.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.40926933 = fieldWeight in 3041, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3041)
        0.013234494 = product of:
          0.026468989 = sum of:
            0.026468989 = weight(_text_:22 in 3041) [ClassicSimilarity], result of:
              0.026468989 = score(doc=3041,freq=2.0), product of:
                0.13682558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039072596 = queryNorm
                0.19345059 = fieldWeight in 3041, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3041)
          0.5 = coord(1/2)
      0.375 = coord(3/8)
    
    Abstract
    Am 23. April 2009 fand die 56. Sitzung der Arbeitsgemeinschaft der Verbundsysteme auf Einladung der Österreichischen Bibliothekenverbund und Service G.m.b.H. (OBVSG) in Wien statt.
    Content
    Darin auch ein Abschnitt zu CrissCross: "Ziel des Projekts ist die Schaffung eines multilingualen, thesaurusbasierten und benutzerorientierten Recherchevokabulars zu heterogen erschlossenen Dokurrenten für die Nutzer des deutschen wissenschaftlichen Bibliothekswesens. Dazu werden die Sachschlagwörter der SWD mit den Notationen der Dewey Dezimalklassifikation verbunden sowie mit ihren Äquivalenten in LCSH und Rameau verknüpft. Das Projektende ist nach Verlängerung des Projektantrags April 2010. In dem Berichtszeitraum wurde die Vergabe von DDC-Notationen für SWD-Terme in dem Katalogisierungsclient WinIBW fortgeführt. Änderungen in dem Redaktionsverfahren der SWD, das im ONS-Projekt eingeführt worden ist, haben sich auf die Arbeitsweise und den Workflow des CrissCross-Projektes ausgewirkt und mussten entsprechend angepasst werden. Nach wie vor steht DNB in Kontakt mit den Betreibern der MACS-Datenbank, die als Arbeitsumgebung für die Verlinkung der multilingualen Terme genutzt werden soll. Im Berichtszeitraum wurden keine größeren IT-Aktivitäten notwendig. Ab April 2009 wird die eigentliche Verlinkungsarbeit beginnen und dann sind auch begleitende IT-Maßnahmen zu erwarten."
    Date
    22. 8.2009 13:11:01
    Footnote
    Darin Abschnitte zu: - Umstieg auf MARC21 - Auswirkungen von RDA auf MARC21 - Gemeinsame Normdatei (GND) - Normdateien und Onlineschnittstelle - vascoda - Kataloganreicherung
  16. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.03
    0.028713902 = product of:
      0.07657041 = sum of:
        0.02898287 = product of:
          0.05796574 = sum of:
            0.05796574 = weight(_text_:methoden in 3742) [ClassicSimilarity], result of:
              0.05796574 = score(doc=3742,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.2862774 = fieldWeight in 3742, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3742)
          0.5 = coord(1/2)
        0.021206092 = weight(_text_:und in 3742) [ClassicSimilarity], result of:
          0.021206092 = score(doc=3742,freq=8.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.24487628 = fieldWeight in 3742, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3742)
        0.026381444 = weight(_text_:der in 3742) [ClassicSimilarity], result of:
          0.026381444 = score(doc=3742,freq=12.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.30226544 = fieldWeight in 3742, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3742)
      0.375 = coord(3/8)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  17. Paulus, W.; Weishaupt, K.: Bibliotheksdaten werden mehr wert : LibLink wertet bibliothekarische Dienstleistung auf (1996) 0.03
    0.025955793 = product of:
      0.06921545 = sum of:
        0.021206092 = weight(_text_:und in 5228) [ClassicSimilarity], result of:
          0.021206092 = score(doc=5228,freq=2.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.24487628 = fieldWeight in 5228, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5228)
        0.02154036 = weight(_text_:der in 5228) [ClassicSimilarity], result of:
          0.02154036 = score(doc=5228,freq=2.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.2467987 = fieldWeight in 5228, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=5228)
        0.026468989 = product of:
          0.052937977 = sum of:
            0.052937977 = weight(_text_:22 in 5228) [ClassicSimilarity], result of:
              0.052937977 = score(doc=5228,freq=2.0), product of:
                0.13682558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039072596 = queryNorm
                0.38690117 = fieldWeight in 5228, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5228)
          0.5 = coord(1/2)
      0.375 = coord(3/8)
    
    Abstract
    Die maschinenlesbaren Katalogdaten der Bibliotheken wurden bisher hauptsächlich intern genutzt. Die im Institut Arbeit und Technik entwickelte Software LibLink ermöglich es, diese Daten auch im wissenschaftlichen Kontext zu verwenden
    Date
    29. 9.1996 18:58:22
  18. Oeltjen, W.: Dokumentenstrukturen manipulieren und visualisieren : über das Arbeiten mit der logischen Struktur (1998) 0.02
    0.024600891 = product of:
      0.098403566 = sum of:
        0.041985918 = weight(_text_:und in 6616) [ClassicSimilarity], result of:
          0.041985918 = score(doc=6616,freq=16.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.4848303 = fieldWeight in 6616, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6616)
        0.056417648 = weight(_text_:der in 6616) [ClassicSimilarity], result of:
          0.056417648 = score(doc=6616,freq=28.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.6464053 = fieldWeight in 6616, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6616)
      0.25 = coord(2/8)
    
    Abstract
    Thema dieses Beitrages sind Dokumentenstrukturen und zwar aus zwei Blickrichtungen: aus der Sicht der Autoren, die ein Dokument mit Computerunterstützung erstellen und die Dokumentenstruktur manipulieren und aus der Sicht der Lesenden, die ein Dokument lesen und die Struktur des Dokumentes wahrnehmen. Bei der Dokumentenstruktur wird unterschieden zwischen der logischen Struktur und der grafischen Struktur eines Dokumentes. Diese Trennung ermöglicht das Manipulieren und Visualisieren der logischen Struktur. Welche Bedeutung das für die Autoren und für die Benutzenden des Dokumentes hat, soll in dem Beitrag u.a. am Beispiel der Auszeichnungssprache HTML, der Dokumentenbeschreibungssprache des World-Wide Web, erörtert werden
    Series
    Fortschritte in der Wissensorganisation; Bd.5
    Source
    Herausforderungen an die Wissensorganisation: Visualisierung, multimediale Dokumente, Internetstrukturen. 5. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Berlin, 07.-10. Oktober 1997. Hrsg.: H. Czap u.a
  19. Geißelmann, F.: Arbeitsergebnisse der Arbeitsgruppe Codes (2000) 0.02
    0.022322295 = product of:
      0.08928918 = sum of:
        0.0522326 = weight(_text_:der in 4973) [ClassicSimilarity], result of:
          0.0522326 = score(doc=4973,freq=6.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.5984551 = fieldWeight in 4973, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=4973)
        0.03705658 = product of:
          0.07411316 = sum of:
            0.07411316 = weight(_text_:22 in 4973) [ClassicSimilarity], result of:
              0.07411316 = score(doc=4973,freq=2.0), product of:
                0.13682558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039072596 = queryNorm
                0.5416616 = fieldWeight in 4973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4973)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Ergebnisse der Arbeitsgruppe Codes der Konferenz für Regelwerksfragen
    Date
    26. 8.2000 19:22:35
  20. SGML und XML : Anwendungen und Perspektiven (1999) 0.02
    0.021424662 = product of:
      0.08569865 = sum of:
        0.05554215 = weight(_text_:und in 1392) [ClassicSimilarity], result of:
          0.05554215 = score(doc=1392,freq=28.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.6413702 = fieldWeight in 1392, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1392)
        0.030156504 = weight(_text_:der in 1392) [ClassicSimilarity], result of:
          0.030156504 = score(doc=1392,freq=8.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.34551817 = fieldWeight in 1392, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1392)
      0.25 = coord(2/8)
    
    Abstract
    SGML und XML sind fundamentale Konzepte der heutigen und künftigen Speicherung, Verarbeitung und Verbreitung langlebiger Informationen, gerade im Hinblick auf die weltweite Vernetzung durch das Internet. Ausgehend von den technischen und ökonomischen Herausforderungen unserer Informationsgesellschaft, stellen die Autoren die wichtigen Entwicklungen dar und berichten über aktuelle Projekte mit SGML- und XML-Anwendungen in der Praxis. Das Buch wendet sich an das Management informationsverarbeitender und -produzierender Unternehmen, an die Technik-Verantwortlichen und SGML-/XML-Anwender sowie an Studierende informationsverarbeitender Fächer und der Informatik.
    Content
    Einführungen (Zukunft und Vergangenheit).- Charles Goldfarb: SGML-Philosophie und Zukunft.- Pam Genussa: SGML/XML und IETM.- Manfred Krüger: SGML - Der lange Weg.- Praxis heute.Zeitung/Zeitschrift.- Nachschlagewerke.- Technische Dokumentation.- Praxis - morgen.- Register.- Literatur.- Autorenliste.

Authors

Years

Languages

  • d 113
  • e 59
  • da 1
  • f 1
  • pl 1
  • sp 1
  • More… Less…

Types

  • a 144
  • m 17
  • s 12
  • el 8
  • x 6
  • b 2
  • l 2
  • n 2
  • r 1
  • More… Less…