Search (46 results, page 1 of 3)

  • × language_ss:"d"
  • × theme_ss:"Metadaten"
  1. Haynes, D.: Metadata for information management and retrieval : understanding metadata and its use (2018) 0.07
    0.07206038 = product of:
      0.14412075 = sum of:
        0.02913113 = weight(_text_:information in 4096) [ClassicSimilarity], result of:
          0.02913113 = score(doc=4096,freq=16.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.3291521 = fieldWeight in 4096, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=4096)
        0.114989616 = weight(_text_:standards in 4096) [ClassicSimilarity], result of:
          0.114989616 = score(doc=4096,freq=6.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.51174676 = fieldWeight in 4096, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.046875 = fieldNorm(doc=4096)
      0.5 = coord(2/4)
    
    Abstract
    This new and updated second edition of a classic text provides a thought-provoking introduction to metadata for all library and information students and professionals. Metadata for Information Management and Retrieval has been fully revised by David Haynes to bring it up to date with new technology and standards. The new edition, containing new chapters on Metadata Standards and Encoding Schemes, assesses the current theory and practice of metadata and examines key developments in terms of both policy and technology. Coverage includes: an introduction to the concept of metadata a description of the main components of metadata systems and standards an overview of the scope of metadata and its applications a description of typical information retrieval issues in corporate and research environments a demonstration of ways in which metadata is used to improve retrieval a look at ways in which metadata is used to manage information consideration of the role of metadata in information governance.
    RSWK
    Informationsmanagement / Information Retrieval / Metadatenmodell
    Subject
    Informationsmanagement / Information Retrieval / Metadatenmodell
  2. Gömpel, R.; Altenhöner, R.; Kunz, M.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 70. IFLA-Generalkonferenz in Buenos Aires : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICABS und UNIMARC sowie der Information Technology Section (2004) 0.06
    0.058374356 = product of:
      0.077832475 = sum of:
        0.008409433 = weight(_text_:information in 2874) [ClassicSimilarity], result of:
          0.008409433 = score(doc=2874,freq=12.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.09501803 = fieldWeight in 2874, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=2874)
        0.06259242 = weight(_text_:standards in 2874) [ClassicSimilarity], result of:
          0.06259242 = score(doc=2874,freq=16.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.27855965 = fieldWeight in 2874, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.015625 = fieldNorm(doc=2874)
        0.0068306234 = product of:
          0.013661247 = sum of:
            0.013661247 = weight(_text_:22 in 2874) [ClassicSimilarity], result of:
              0.013661247 = score(doc=2874,freq=2.0), product of:
                0.17654699 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050415643 = queryNorm
                0.07738023 = fieldWeight in 2874, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2874)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Abstract
    "Libraries: Tools for Education and Development" war das Motto der 70. IFLA-Generalkonferenz, dem Weltkongress Bibliothek und Information, der vom 22.-27. August 2004 in Buenos Aires, Argentinien, und damit erstmals in Lateinamerika stattfand. Rund 3.000 Teilnehmerinnen und Teilnehmer, davon ein Drittel aus spanischsprachigen Ländern, allein 600 aus Argentinien, besuchten die von der IFLA und dem nationalen Organisationskomitee gut organisierte Tagung mit mehr als 200 Sitzungen und Veranstaltungen. Aus Deutschland waren laut Teilnehmerverzeichnis leider nur 45 Kolleginnen und Kollegen angereist, womit ihre Zahl wieder auf das Niveau von Boston gesunken ist. Erfreulicherweise gab es nunmehr bereits im dritten Jahr eine deutschsprachige Ausgabe des IFLA-Express. Auch in diesem Jahr soll hier über die Veranstaltungen der Division IV Bibliographic Control berichtet werden. Die Arbeit der Division mit ihren Sektionen Bibliography, Cataloguing, Classification and Indexing sowie der neuen Sektion Knowledge Management bildet einen der Schwerpunkte der IFLA-Arbeit, die dabei erzielten konkreten Ergebnisse und Empfehlungen haben maßgeblichen Einfluss auf die tägliche Arbeit der Bibliothekarinnen und Bibliothekare. Erstmals wird auch ausführlich über die Arbeit der Core Activities ICABS und UNIMARC und der Information Technology Section berichtet.
    Content
    Bibliography Section (Sektion Bibliographie) Die Sektion befasst sich mit Inhalt, Aufbau, Produktion, Verteilung und Erhaltung von bibliographischen Informationen, in erster Linie, aber nicht ausschließlich bezogen auf Nationalbibliographien. Sie fördert die "Universal Bibliographic Control (UBC)" durch die Verbreitung von Standards und praktischen Anwendungsbeispielen.
    Cataloguing Section (Sektion Katalogisierung) Der Schwerpunkt der Arbeit dieser Sektion liegt auf der Erarbeitung bzw. internationalen Harmonisierung von Strukturen, Regeln und Arbeitsverfahren mit dem Ziel, die internationale Kooperation im Katalogisierungsbereich zu verbessern. In Anbetracht des laufenden Evaluierungsprozesses wurde der Strategieplan der Sektion zum jetzigen Zeitpunkt nur dort aktualisiert, wo es unbedingt erforderlich war. Neue Ziele wurden nicht aufgenommen. Oberste Priorität bei den strategischen Zielen behielt die Entwicklung internationaler Katalogisierungsstandards für die bibliographische Beschreibung und den Zugriff. In ihrer zentralen Bedeutung bestätigt wurden auch die "Functional Requirements for Bibliographic Records" (FRBR). Darüber hinaus gehört auch in Zukunft die Weiterentwicklung und Revision der ISBDs zu den zentralen Anliegen der Arbeit der Sektion Katalogisierung. Ein weiteres vorrangiges Ziel bleibt die Erarbeitung von Standards, Regeln und Informationslisten, um den Zugang zu bibliographischen Daten in allen Sprachen zu ermöglichen. Hierzu zählen u. a.: - die vollständige Veröffentlichung der Anonymous Classics: Der Teil für europäische Literatur ist inzwischen veröffentlicht'. Für die Erarbeitung weiterer Teile (Lateinamerika, Afrika und Asien) soll das Verfahren gestrafft und ein Zeitplan erstellt werden. - die Beobachtung der Aktivitäten zu Unicode und die Information der Sektionsmitglieder darüber zur Förderung des mehrsprachigen Zugangs zu bibliographischer Information - die Entwicklung eines web-basierten multilingualen Wörterbuchs für Katalogisierungsbegriffe - die Entwicklung und der Test von (Daten-)Modellen für eine virtuelle internationale Normdatei - die Überarbeitung der "IFLA Names of persons". Das Open Programme der Sektion stand in diesem Jahr unter dem Motto "Developments in Cataloguing Guidelines" und wurde von Barbara Tillett, Lynne Howarth und Carol van Nuys bestritten. Lynne Howarth ging in ihrem Vortrag "Enabling metadata: creating a core record for resource discovery" auf die Reaktionen im weltweiten Stellungnahmeverfahren auf die Veröffentlichung des Papiers "Guidance an the Structure, Content and Application of Metadata Records for digital resources and collections" der Working Group an the Use of Metadata Schemes ein. Carol van Nuys stellte das norwegische "Paradigma Project and its quest for metadata solutions and services" vor.
    Classification and Indexing Section (Sektion Klassifikation und Indexierung) Die Working Group an Guidelines for Multilingual Thesauri hat ihre Arbeit abgeschlossen, die Richtlinien werden Ende 2004 im IFLAnet zur Verfügung stehen. Die 2003 ins Leben gerufene Arbeitsgruppe zu Mindeststandards der Inhaltserschließung in Nationalbibliographien hat sich in Absprache mit den Mitgliedern des Standing Committee auf den Namen "Guidelines for minimal requirements for subject access by national bibliographic agencies" verständigt. Als Grundlage der zukünftigen Arbeit soll der "Survey an Subject Heading Languages Used in National Libraries and Bibliographies" von Magda HeinerFreiling dienen. Davon ausgehend soll eruiert werden, welche Arten von Medienwerken mit welchen Instrumentarien und in welcher Tiefe erschlossen werden. Eine weitere Arbeitsgruppe der Sektion befasst sich mit dem sachlichen Zugriff auf Netzpublikationen (Working Group an Subject Access to Web Resources). Die Veranstaltung "Implementation and adaption of global tools for subject access to local needs" fand regen Zuspruch. Drei Vortragende zeigten auf, wie in ihrem Sprachgebiet die Subject Headings der Library of Congress (LoC) übernommen werden (Development of a Spanish subject heading list und Subject indexing in Sweden) bzw. wie sich die Zusammenarbeit mit der LoC gestalten lässt, um den besonderen terminologischen Bedürfnissen eines Sprach- und Kulturraums außerhalb der USA Rechnung zu tragen (The SACO Program in Latin America). Aus deutscher Sicht verdiente der Vortrag "Subject indexing between international standards and local context - the Italian case" besondere Beachtung. Die Entwicklung eines Regelwerks zur verbalen Sacherschließung und die Erarbeitung einer italienischen Schlagwortnormdatei folgen nämlich erklärtermaßen der deutschen Vorgehensweise mit RSWK und SWD.
    Knowledge Management Section (Sektion Wissensmanagement) Ziel der neuen Sektion ist es, die Entwicklung und Implementierung des Wissensmanagements in Bibliotheken und Informationszentren zu fördern. Die Sektion will dafür eine internationale Plattform für die professionelle Kommunikation bieten und damit das Thema bekannter und allgemein verständlicher machen. Auf diese Weise soll seine Bedeutung auch für Bibliotheken und die mit ihm arbeitenden Einrichtungen herausgestellt werden. IFLA-CDNL Alliance for Bibliographic Standards (ICABS) Ein Jahr nach ihrer Gründung in Berlin hat die IFLA Core Activity "IFLA-CDNL Alliance for Bibliographic Standards (ICABS)" in Buenos Aires zum ersten Mal das Spektrum ihrer Arbeitsfelder einem großen Fachpublikum vorgestellt. Die IFLA Core Activity UNIMARC, einer der Partner der Allianz, hatte am Donnerstagvormittag zu einer Veranstaltung unter dem Titel "The holdings record as a bibliographic control tool" geladen. Am Nachmittag des selben Tages fand unter dem Titel "The new IFLA-CDNL Alliance for Bibliographic Standards - umbrella for multifaceted activities: strategies and practical ways to improve international coordination" die umfassende ICABS-Veranstaltung statt, die von der Generaldirektorin Der Deutschen Bibliothek, Dr. Elisabeth Niggemann, moderiert wurde. Nachdem die Vorsitzende des Advisory Board in ihrem Vortrag auf die Entstehungsgeschichte der Allianz eingegangen war, gab sie einen kurzen Oberblick über die Organisation und die Arbeit von ICABS als Dach der vielfältigen Aktivitäten im Bereich bibliographischer Standards. Vertreter aller in ICABS zusammengeschlossener Bibliotheken stellten im Anschluss daran ihre Arbeitsbereiche und -ergebnisse vor.
    Projekt "Mapping ISBDs to FRBR" Die Deutsche Bibliothek und die British Library haben im Rahmen ihrer jeweiligen Zuständigkeiten innerhalb von ICABS gemeinsam das Projekt "Mapping ISBDs to FRBR" finanziert. Beide Bibliotheken unterstützen damit die strategischen Ziele der IFLA-CDNL Allianz für bibliographische Standards. Die Deutsche Bibliothek ist innerhalb der Allianz verantwortlich für die Unterstützung der Pflege und Weiterentwicklung der ISBD, während die British Library für die Unterstützung von Pflege und Entwicklung der FRBR zuständig ist. Für die Durchführung des Projekts konnte Tom Delsey gewonnen werden, der federführender Autor der FRBR ist und Beiträge zu vielen verschiedenen Aspekten der ISBDs geliefert hat. Das Ergebnis seiner Arbeit "Mapping ISBD Elements to FRBR Entity Attributes and Relationships" steht im IFLAnet zur VerFügung (http://www.ifla.org/VII/s13/pubs/ISBD-FRBR-mappingFinal.pdf).
  3. Kamke, H.-U.; Zimmermann, K.: Metadaten und Online-Learning (2003) 0.05
    0.051125795 = product of:
      0.10225159 = sum of:
        0.013732546 = weight(_text_:information in 1829) [ClassicSimilarity], result of:
          0.013732546 = score(doc=1829,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.1551638 = fieldWeight in 1829, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=1829)
        0.088519044 = weight(_text_:standards in 1829) [ClassicSimilarity], result of:
          0.088519044 = score(doc=1829,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.39394283 = fieldWeight in 1829, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.0625 = fieldNorm(doc=1829)
      0.5 = coord(2/4)
    
    Abstract
    Metadaten dienen der Beschreibung von Online-Ouellen. Online-Learning braucht fachspezifische Materialien. In diesem Artikel wird die Schnittmenge der beiden betrachtet. Zum einen wird ein Überblick über die Metadaten Standards im Bildungsbereich gegeben, zum anderen werden Beispiele von Portalen angeführt, die (frei verfügbare) Materialien samt Metadatenset anbieten.
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.6, S.345-348
  4. Grossmann, S.: Meta-Strukturen in Intranets : Konzepte, Vorgehensweise, Beispiele (2001) 0.04
    0.04473507 = product of:
      0.08947014 = sum of:
        0.012015978 = weight(_text_:information in 5775) [ClassicSimilarity], result of:
          0.012015978 = score(doc=5775,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.13576832 = fieldWeight in 5775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5775)
        0.077454165 = weight(_text_:standards in 5775) [ClassicSimilarity], result of:
          0.077454165 = score(doc=5775,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.34469998 = fieldWeight in 5775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5775)
      0.5 = coord(2/4)
    
    Abstract
    Die meisten Intranets stehen vor einem Informationsinfarkt - es fehlt in den Organisationen vielfach an klaren Rollenkonzepten zur Eingabe, Pflege und Weiterentwicklung der Intranets, vor allem aber auch an methodischen Grundsätzen zur Erfassung und Erschließung der verschiedenartigen Informationen. In diesem Beitrag werden die Grundkonzepte zur Meta-Strukturierung beschrieben, eine erprobte Vorgehensweise bei der Implementierung entsprechender Standards erarbeitet und zur besseren Illustration an konkreten Beispielen dargestellt
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  5. Binz, V.; Rühle, S.: KIM - Das Kompetenzzentrum Interoperable Metadaten (2009) 0.04
    0.04473507 = product of:
      0.08947014 = sum of:
        0.012015978 = weight(_text_:information in 4559) [ClassicSimilarity], result of:
          0.012015978 = score(doc=4559,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.13576832 = fieldWeight in 4559, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4559)
        0.077454165 = weight(_text_:standards in 4559) [ClassicSimilarity], result of:
          0.077454165 = score(doc=4559,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.34469998 = fieldWeight in 4559, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4559)
      0.5 = coord(2/4)
    
    Abstract
    Die Interoperabilität von Metadaten ist eine wichtige Voraussetzung für das Generieren von Information und Wissen in einer vernetzten Welt. Aus diesem Grund entstehen seit Mitte der Neunziger Jahre verschiedene Standards mit dem Ziel, die Interoperabilität von Metadaten zu erhöhen. Genannt seien hier vor allem DCMES und DCAM, RDF und SKOS. Aufgabe von KIM ist es, diese Entwicklungen zu begleiten und in die deutschsprachige Community zu tragen. Dabei bietet KIM neben reinen Informationsangeboten (z. B. in Form von Übersetzungen, Vorträgen und Handreichungen) auch konkrete Unterstützung in Form von Schulungen und Beratungen an.
  6. Wessel, C.: "Publishing and sharing your metadata application profile" : 2. SCHEMAS-Workshop in Bonn (2001) 0.04
    0.038126834 = product of:
      0.07625367 = sum of:
        0.06259242 = weight(_text_:standards in 5650) [ClassicSimilarity], result of:
          0.06259242 = score(doc=5650,freq=4.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.27855965 = fieldWeight in 5650, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.03125 = fieldNorm(doc=5650)
        0.013661247 = product of:
          0.027322493 = sum of:
            0.027322493 = weight(_text_:22 in 5650) [ClassicSimilarity], result of:
              0.027322493 = score(doc=5650,freq=2.0), product of:
                0.17654699 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050415643 = queryNorm
                0.15476047 = fieldWeight in 5650, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5650)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Immer mehr Institutionen erkennen die Bedeutung von Metadaten für die Auffindung elektronischer Dokumente und entwickeln ihr eigenes, domain-spezifisches Application Profile. Sie wählen aus einem bereits existierenden Set von Metadaten ein für ihre Bedürfnisse passendes Subset aus, fügen lokale Ergänzungen hinzu und passen die Definitionen an. Um andere über die eigenen Anwendungen zu informieren, ist es sinnvoll, die jeweiligen Application Profiles zu veröffentlichen. Dadurch wird eine Nachnutzung ermöglicht und neuen Anwendern die Entwicklung eigener Profile erleichtert. Weitere Vorteile wären eine Standardisierung der Metadatenelemente und -formate und Erhöhung der Interoperabilität. In diesem Kontext entstehende Fragen wurden auf dem 2. SCHEMAS-Workshop diskutiert, der vom 23. bis 24. November 2000 in Bonn stattfand. Die einzelnen Vorträge finden sich unter <http://lwww. schemas-forum.org/workshops/ws2/Programme.htm/>. SCHEMAS1 ist die Bezeichnung für ein "Forum for Metadata Schema Implementors". Dieses EU-Projekt wird getragen von Makx Dekkers (PricewaterhouseCoopers), Tom Baker (GMD) und Rachel Heery (UKOLN). In seiner Einführung erläuterte Makx Dekkers die Ziele von SCHEMAS: Da es viele verschiedene Schemes zur Beschreibung von Internet-Ressourcen gibt, wächst die Notwendigkeit der Entwicklung von Standards zur Vermeidung von Doppelarbeit und Konfusion. SCHEMAS stellt Informationen bereit (Metadata Watch Reports, Standards Framework Reports, Guidelines), veranstaltet Workshops und entwickelt ein Registry, in dem Metadatenprofile gesammelt werden sollen. Dadurch sollen Anwender von Metadatenformaten über den Status und neue Entwicklungen im Bereich Metadaten informiert werden. Über die Definition des Begriffs Application Profile war bereits beim 8. Workshop der Dublin Core Metadata Initiative in Ottawa im Oktober2 diskutiert worden. Rachel Heery legte nun folgende Definition vor: In einem "Namespace Schema" werden neue Elemente genannt und definiert, so dass ein standardisiertes Set entsteht. Ein "Application Profile" nutzt bereits vorhandene Elemente aus einem oder mehreren Namespace Schemas nach und optimiert diese für eine bestimmte Anwendung. Da die Zahl der Namespaces und Application Profiles ständig zunimmt, ist es sinnvoll, sie an einer zentralen Stelle zu registrieren. Diese Zentralstelle will das SCHEMAS Registry werden. Tom Baker beschrieb dessen Funktion mit einem Vergleich aus der Linguistik: Metadaten sind eine Sprache, Registries das Wörterbuch. Wie ein Wörterbuch, so hat auch ein Registry zwei Aufgaben: Es beschreibt Sprache anhand von Gebrauchsbeispielen und schreibt diesen Gebrauch vor, indem es Empfehlungen gibt (describe and prescribe). Dadurch entsteht ein Standard für diese Sprache
    Date
    11. 3.2001 17:10:22
  7. Janssen, U.: ONIX - Metadaten in Verlagen und Buchhandel (2003) 0.03
    0.03195362 = product of:
      0.06390724 = sum of:
        0.008582841 = weight(_text_:information in 1764) [ClassicSimilarity], result of:
          0.008582841 = score(doc=1764,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.09697737 = fieldWeight in 1764, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1764)
        0.0553244 = weight(_text_:standards in 1764) [ClassicSimilarity], result of:
          0.0553244 = score(doc=1764,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.24621427 = fieldWeight in 1764, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1764)
      0.5 = coord(2/4)
    
    Abstract
    ONIX (das Akronym steht für Online information exchange) ist der erste weltweit akzeptierte Standard für angereicherte Metadaten über Bücher, Fortsetzungswerke und andere Produkte des Buchhandels. Er wurde ursprünglich in den USA entwickelt, zunächst mit dem Ziel, dem Internetbuchhandel in einem einheitlichen Format Katalogdaten und zusätzlich Marketingmaterial zur Verfügung stellen zu können. Von Anfang an waren Barsortimente, bibliographische Agenturen und Verlage in den USA und bald auch aus dem Vereinigten Königreich an der Entwicklung von ONIX beteiligt und haben diese finanziell sowie personell gefördert. Die Pflege und Weiterentwicklung dieses neuen Standards wurde dann in die Hände von EDItEUR gelegt, der internationalen Dachorganisation für Standardisierung im Buchhandel, gegründet und gefördert von Verbänden aus Buchhandel, Verlagen und Bibliothekswesen, darunter dem Börsenverein des Deutschen Buchhandels und der European Booksellers Federation. Büro und Sekretariat von EDItEUR werden in London von Book Industry Communication (BIC), einer Gemeinschaftsorganisation der britischen Verleger- und Buchhändlerverbände, gestellt. EDIMUR wurde vor zehn Jahren gegründet, um EDIStandards (EDI = electronic data interchange, elektronischer Datenaustausch) für die Kommunikation zwischen Buchhandel und Verlagen einerseits und Bibliotheken und ihren Lieferanten andererseits zu entwickeln. Dafür wurden Richtlinien für eine Reihe von EANCOM-Nachrichten verabschiedet, darunter für Bestellungen, Auftragsbestätigungen, Rechnungen und Angebote. Ein Richtlinienentwurf für die Nachricht PRICAT (Price and sales catalogue), die für die Übermittlung von Katalogdaten bestimmt ist, wurde zwar vor einigen Jahren entwickelt, aber bisher noch nirgendwo in der Praxis getestet oder gar produktiv eingesetzt. Hingegen sind die transaktionsbezogenen EDI-Nachrichten sowohl im Bibliothekswesen als auch im Buchhandel in Europa vielfach im Einsatz.
  8. Bohne-Lang, A.: Semantische Metadaten für den Webauftritt einer Bibliothek (2016) 0.03
    0.03195362 = product of:
      0.06390724 = sum of:
        0.008582841 = weight(_text_:information in 3337) [ClassicSimilarity], result of:
          0.008582841 = score(doc=3337,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.09697737 = fieldWeight in 3337, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
        0.0553244 = weight(_text_:standards in 3337) [ClassicSimilarity], result of:
          0.0553244 = score(doc=3337,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.24621427 = fieldWeight in 3337, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
      0.5 = coord(2/4)
    
    Abstract
    Das Semantic Web ist schon seit über 10 Jahren viel beachtet und hat mit der Verfügbarkeit von Resource Description Framework (RDF) und den entsprechenden Ontologien einen großen Sprung in die Praxis gemacht. Vertreter kleiner Bibliotheken und Bibliothekare mit geringer Technik-Affinität stehen aber im Alltag vor großen Hürden, z.B. bei der Frage, wie man diese Technik konkret in den eigenen Webauftritt einbinden kann: man kommt sich vor wie Don Quijote, der versucht die Windmühlen zu bezwingen. RDF mit seinen Ontologien ist fast unverständlich komplex für Nicht-Informatiker und somit für den praktischen Einsatz auf Bibliotheksseiten in der Breite nicht direkt zu gebrauchen. Mit Schema.org wurde ursprünglich von den drei größten Suchmaschinen der Welt Google, Bing und Yahoo eine einfach und effektive semantische Beschreibung von Entitäten entwickelt. Aktuell wird Schema.org durch Google, Microsoft, Yahoo und Yandex weiter gesponsert und von vielen weiteren Suchmaschinen verstanden. Vor diesem Hintergrund hat die Bibliothek der Medizinischen Fakultät Mannheim auf ihrer Homepage (http://www.umm.uni-heidelberg.de/bibl/) verschiedene maschinenlesbare semantische Metadaten eingebettet. Sehr interessant und zukunftsweisend ist die neueste Entwicklung von Schema.org, bei der man eine 'Library' (https://schema.org/Library) mit Öffnungszeiten und vielem mehr modellieren kann. Ferner haben wir noch semantische Metadaten im Open Graph- und Dublin Core-Format eingebettet, um alte Standards und Facebook-konforme Informationen maschinenlesbar zur Verfügung zu stellen.
    Source
    GMS Medizin - Bibliothek - Information. 16(2016) Nr.3, 11 S. [http://www.egms.de/static/pdf/journals/mbi/2017-16/mbi000372.pdf]
  9. Al-Eryani, S.; Bucher, G.; Rühle, S: ¬Ein Metadatenmodell für gemischte Sammlungen (2018) 0.03
    0.0276622 = product of:
      0.1106488 = sum of:
        0.1106488 = weight(_text_:standards in 5110) [ClassicSimilarity], result of:
          0.1106488 = score(doc=5110,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.49242854 = fieldWeight in 5110, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.078125 = fieldNorm(doc=5110)
      0.25 = coord(1/4)
    
    Abstract
    Im Rahmen des DFG-geförderten Projekts "Entwicklung von interoperablen Standards für die Kontextualisierung heterogener Objekte am Beispiel der Provenienz Asch" wurde ein Semantic Web und Linked Open Data fähiges Metadatenmodell entwickelt, das es ermöglicht, institutionsübergreifend Kulturerbe und dessen Provenienz zu kontextualisieren.
  10. Frodl, C.; Gros, A.; Rühle, S.: Übersetzung des Singapore Framework für Dublin-Core-Anwendungsprofile (2009) 0.03
    0.027384182 = product of:
      0.10953673 = sum of:
        0.10953673 = weight(_text_:standards in 3229) [ClassicSimilarity], result of:
          0.10953673 = score(doc=3229,freq=4.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.4874794 = fieldWeight in 3229, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3229)
      0.25 = coord(1/4)
    
    Abstract
    Das Singapore Framework für Dublin-Core-Anwendungsprofile nennt die Rahmenbedingungen um Metadatenanwendungen möglichst interoperabel zu gestalten und so zu dokumentieren, dass sie nachnutzbar sind. Es definiert die Komponenten, die erforderlich und hilfreich sind, um ein Anwendungsprofil zu dokumentieren und es beschreibt, wie sich diese dokumentarischen Standards gegenüber Standard-Domain-Modellen und den Semantic-Web-Standards verhalten. Das Singapore Framework ist die Grundlage für die Beurteilung von Anwendungsprofilen in Hinblick auf Vollständigkeit der Dokumentation und auf Übereinstimmung mit den Prinzipien der Web-Architektur. Dieses Dokument bietet eine kurze Übersicht über das Singapore Framework. Weitere Dokumente, die als Anleitung für die Erstellung der erforderlichen Dokumentation dienen, sind in Planung.
  11. Razum, M.; Schwichtenberg, F.: Metadatenkonzept für dynamische Daten : BW-eLabs Report (2012) 0.03
    0.026984949 = product of:
      0.053969897 = sum of:
        0.009710376 = weight(_text_:information in 994) [ClassicSimilarity], result of:
          0.009710376 = score(doc=994,freq=4.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.10971737 = fieldWeight in 994, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=994)
        0.044259522 = weight(_text_:standards in 994) [ClassicSimilarity], result of:
          0.044259522 = score(doc=994,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.19697142 = fieldWeight in 994, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.03125 = fieldNorm(doc=994)
      0.5 = coord(2/4)
    
    Abstract
    1.2. Metadaten - Metadaten sind ein entscheidender Faktor für die Archivierung, Publikation und Nachnutzung von Forschungsdaten. Nur hinreichend beschriebene Daten können durch Wissenschaftler verstanden und korrekt eingeordnet werden. Erst derartig beschriebene Daten lassen sich sinnvoll veröffentlichen und zitieren. Zusätzlich erlauben geeignete Metadaten das Browsen und Suchen in den Forschungsdaten. Deshalb ist die Definition und Verwendung geeigneter Metadaten-Modelle, die die Daten auf dem richtigen Level beschreiben, von außerordentlicher Bedeutung. Allerdings sind Metadaten, gerade im Bereich von Forschungsdaten, außerordentlich fach- und anwendungsspezifisch. Es gibt bisher nur wenige übergreifende Standards auf diesem Gebiet. Auch die in BW-eLabs vertretenen Disziplinen Materialwissenschaften und Technische Optik bauen auf sehr unterschiedlichen fachlichen Metadatenprofilen auf. Beide verwenden aber ein sehr vergleichbares Vorgehen bei der Beschreibung der kontextuellen Information, also dem Umfeld, in dem Versuchsdaten im Labor entstehen. Dieser Report beschreibt ein für das Projekt BW-eLabs geeignetes Metadaten-Modell für diese kontextuellen Informationen.
    1.3. Beziehung zur Beschreibung statischer Daten - Neben dynamischen Daten arbeitet das Projekt BW-eLabs auch mit sogenannten "statischen Daten", unter denen vor allem Publikationen zu verstehen sind. Auch hierfür sind Metadaten vorzusehen. Das dafür notwendige Konzept beschreibt ein eigener Report. Publikationen enthalten heute vielfach bereits Verweise auf Datenobjekte bzw. Messwerte. Momentan oftmals noch als sogenannte "supporting information" von Verlagen an die Publikation angehängt, ist es ein Ziel von BW-eLabs (und anderen Projekten), die dabei auftretenden Beschränkungen hinsichtlich Umfang und Nachnutzbarkeit zu umgehen und die Daten nur noch über Verweise (z.B. anhand von Persistent Identifiern) aus der Publikation heraus zu verknüpfen. Damit werden die Datenobjekte eigenständige Entitäten, die einen eigenen Publikationsverlauf nehmen.
  12. Markus, K.: Metadatenschemata für Forschungsdaten : Generische Standards und Spezifika in der Biologie und den Ingenieurwissenschaften (2020) 0.02
    0.023956172 = product of:
      0.09582469 = sum of:
        0.09582469 = weight(_text_:standards in 133) [ClassicSimilarity], result of:
          0.09582469 = score(doc=133,freq=6.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.42645568 = fieldWeight in 133, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.0390625 = fieldNorm(doc=133)
      0.25 = coord(1/4)
    
    Abstract
    Forschungsdaten sind von zunehmender Wichtigkeit für die Wissenschaft, Forschungsförderer und schließlich auch für die Arbeit an Bibliotheken. Sie sollen nicht nur veröffentlicht werden, sondern nach ihrer Publikation auch auffindbar und nachnutzbar sein, wie von den FAIR-Prinzipien gefordert. Die beschreibenden Metadaten müssen daher in ausreichendem Detail vorliegen, sowie standardisiert und maschinenverwendbar sein, um den Datenaustausch zu ermöglichen. Im Zuge dieser Entwicklung haben sich verschiedene Metadatenschemata und weitere Metadatenstandards sowohl für eine generische Beschreibung von Forschungsdaten, als auch für fachspezifische Metadaten einer Wissenschaftsdisziplin oder -teildisziplin etabliert. In diesem Beitrag wird eine Auswahl von weitverbreiteten generischen Standards sowie exemplarisch einzelne fachspezifische Standards aus der Biologie und den Ingenieurwissenschaft vorgestellt. Dabei wird auch die Kultur des Datenaustausches in den behandelten Fachdisziplinen beleuchtet, in dessen Kontext sich die entsprechenden Metadatenschemata herausbildet haben. Weiterhin wird auch ein kurzer Ausblick auf die Plattformen, die den Austausch von Daten- und Metadatenstandards, sowie ihre Weiterentwicklung und ihre Referenz unterstützen einbezogen. Bei der Forschungsdokumentation und entsprechender Anwendung von Metadatenstandards im Forschungsalltag bestehen weiterhin Hürden aufgrund des Aufwandes. Softwareanwendungen die die Dokumentation erleichtern und in die Metadatenschemata integriert werden könnten werden kurz diskutiert. In all diesen Bereichen können sich Bibliotheken unterstützend oder gestaltend einbringen und ihre Expertise gewinnbringend in Kommunikation mit der Wissenschaft zur Verfügung stellen.
  13. Frodl, C. (Bearb.); Fischer, T. (Bearb.); Baker, T. (Bearb.); Rühle, S. (Bearb.): Deutsche Übersetzung des Dublin-Core-Metadaten-Elemente-Sets (2007) 0.02
    0.023472156 = product of:
      0.093888626 = sum of:
        0.093888626 = weight(_text_:standards in 516) [ClassicSimilarity], result of:
          0.093888626 = score(doc=516,freq=4.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.41783947 = fieldWeight in 516, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.046875 = fieldNorm(doc=516)
      0.25 = coord(1/4)
    
    Abstract
    Dublin-Core-Metadaten-Elemente sind ein Standard zur Beschreibung unterschiedlicher Objekte. Die Kernelemente dieses Standards werden in dem "Dublin Core Metadata Element Set" beschrieben (http://www.dublincore.org/documents/dces/). Das Set setzt sich aus 15 Elementen zusammen, die gleichzeitig auch Teil der umfangreicheren "DCMI Metadata Terms" (http://www.dublincore.org/documents/dcmi-terms/) sind, wobei die "DCMI Metadata Terms" neben weiteren Elementen auch ein kontrolliertes Vokabular für Objekttypen enthalten. Die Übersetzung entstand zwischen April und Juli 2007 in der KIM-Arbeitsgruppe Übersetzung DCMES (http://www.kim-forum.org/kim-ag/index.htm). Anfang Juli 2007 wurde der Entwurf der Übersetzung in einem Blog veröffentlicht und die Öffentlichkeit aufgefordert, diesen Entwurf zu kommentieren. Anfang August wurden dann die in dem Blog gesammelten Kommentare in der KIM-Arbeitsgruppe Übersetzung DCMES diskutiert und so weit möglich in den Übersetzungsentwurf eingearbeitet.
    Content
    Das vorliegende Dokument ist eine Übersetzung des "Dublin Core Metadata Element Set, Version 1.1". Grundlage der Übersetzung ist: NISO Standard Z39.85-2007 (May 2007): http://www.niso.org/standards/resources/Z39-85-2007.pdf.
  14. Mittler, E.: Dublin Core und deutsche Bibliotheken (2000) 0.02
    0.016597321 = product of:
      0.066389285 = sum of:
        0.066389285 = weight(_text_:standards in 4455) [ClassicSimilarity], result of:
          0.066389285 = score(doc=4455,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.29545712 = fieldWeight in 4455, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.046875 = fieldNorm(doc=4455)
      0.25 = coord(1/4)
    
    Abstract
    Ende Oktober 1999 hat das 7. Dublin core Meeting in der Deutschen Bibliothek in Frankfurt/M. in beeindruckender Weise die Internationalität und Interdisziplinarität dieses Ansatzes zur Beschreibung elektronischer Medien verdeutlicht. Es war zugleich eine Anerkennung für die vielfältigen deutschen Aktivitäten. Anhand von Beispielen (Math-Net und Math-Bibl-Net; SSG-FI der SUB Göttingen; Südwestverbund und HBZ) werden die Zielvorstellungen von Dublin Core herausgearbeitet. Um die Auffindbarkeit der elektronischen Dokumente durch Standardisierung der Metadaten zu sichern setzt DC schon beim Autor an. Es ist u.a. gelungen, DC im Rahmen von neuen Standards wie open-e-book zu implementieren. Damit wird die Interoperabilität von Metadaten wesentlich verbessert. Die deutschen Bibliotheken haben sich erfolgreich in die internationale Entwicklung integriert. Auch die Teilnahme am OCLC-Projekt CORC trägt dazu bei. Das kann Rückwirkungen auch auf die Regeln für die Katalogisierung gedruckter Medien haben
  15. Birkner, M.; Gonter, G.; Lackner, K.; Kann, B.; Kranewitter, M.; Mayer, A.; Parschalk, A.: Guideline zur Langzeitarchivierung (2016) 0.02
    0.016597321 = product of:
      0.066389285 = sum of:
        0.066389285 = weight(_text_:standards in 3139) [ClassicSimilarity], result of:
          0.066389285 = score(doc=3139,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.29545712 = fieldWeight in 3139, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.046875 = fieldNorm(doc=3139)
      0.25 = coord(1/4)
    
    Abstract
    Guideline zur Hilfestellung für die Langzeitarchivierung von Daten und Objekten im Kontext des Publikations- und Forschungswesens. Diese Guideline soll Hilfestellung für die Langzeitarchivierung von Daten und Objekten im Kontext des Publikations- und Forschungswesens bieten. Sie ist ausdrücklich nicht für den Kontext der Compliance anwendbar. Sie soll dazu ermächtigen, die richtigen Fragen zur Auswahl der für die eigene Institution geeigneten Langzeitarchivierungs-Lösung zu stellen und bei der Entscheidung für eine System-Lösung behilflich sein. Langzeitarchivierungssysteme werden hier als Systeme verstanden, die im Workflow hinter einem Repositorium stehen, in dem digitale Objekte und ihre Metadaten gespeichert und angezeigt werden sowie recherchierbar sind. Allfällige Begriffserklärungen finden Sie im Glossar des Clusters C (Aufbau eines Wissensnetzwerks: Erarbeitung eines Referenzmodells für den Aufbau von Repositorien / Themenbereich Terminologie und Standards).
  16. Sprenger, M.: Best-Practice-Guide für das Metadatenschema DataCite (2020) 0.02
    0.016597321 = product of:
      0.066389285 = sum of:
        0.066389285 = weight(_text_:standards in 5597) [ClassicSimilarity], result of:
          0.066389285 = score(doc=5597,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.29545712 = fieldWeight in 5597, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.046875 = fieldNorm(doc=5597)
      0.25 = coord(1/4)
    
    Abstract
    "Kürzlich erschien Best-Practice-Guide für das Metadatenschema DataCite aufmerksam machen, der in Zusammenarbeit einiger Münchner Institutionen in Verbindung mit dem Modellprojekt "eHumanities - interdisziplinär" entstanden ist: https://doi.org/10.5281/zenodo.3559800. Der Guide, der unter Beteiligung des Leibniz-Rechenzentrums der Bayerischen Akademie der Wissenschaften, der IT-Gruppe Geisteswissenschaften (LMU) und der Universitätsbibliothek der LMU erstellt wurde, stellt eine Empfehlung für den Einsatz von DataCite (https://schema.datacite.org/) an den beteiligten Institutionen dar. Dabei ist er so formuliert, dass er sich problemlos auf andere Institutionen oder Szenarien übertragen lässt. Die einzelnen Teile des Guides sowie Anwendungsbeispiele als XML-Dateien sind auf GitHub veröffentlicht: https://github.com/UB-LMU/DataCite_BestPracticeGuide . Das Repositorium kann und soll gerne für Feedback genutzt werden. Um die Befüllung der DataCite-Felder zu erleichtern, wurde durch die IT-Gruppe Geisteswissenschaften der bereits verfügbare DataCite-Generator aktualisiert und mit Erklärungen aus dem Best-Practice-Guide verlinkt: https://dhvlab.gwi.uni-muenchen.de/datacite-generator/ ; der Quellcode ist ebenfalls verfügbar: https://github.com/UB-LMU/datacite-metadata-generator. Weitere Informationen zum Best-Practice-Guide finden Sie in der Begleitpublikation "Standardisierung eines Standards: Warum und wie ein Best-Practice-Guide für das Metadatenschema DataCite entstand" (http://www.kit.gwi.uni-muenchen.de/?p=42800)."
  17. Weber, J.: Nachlässe und Autographen im WWW : Dublin Core in Museen, Archiven und Bibliotheken (2000) 0.02
    0.015395639 = product of:
      0.030791279 = sum of:
        0.01029941 = weight(_text_:information in 4458) [ClassicSimilarity], result of:
          0.01029941 = score(doc=4458,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.116372846 = fieldWeight in 4458, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=4458)
        0.02049187 = product of:
          0.04098374 = sum of:
            0.04098374 = weight(_text_:22 in 4458) [ClassicSimilarity], result of:
              0.04098374 = score(doc=4458,freq=2.0), product of:
                0.17654699 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050415643 = queryNorm
                0.23214069 = fieldWeight in 4458, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4458)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Vielen Bibliotheksbenutzern wird inzwischen mehr und mehr bewußt: Alle Vernetzungsbestrebungen in Bibliotheksbereich, die lokale Traditionen zugunsten eines überregionalen Nachweises der Bestände aufgeben, handeln auch gegen die Benutzerinteressen. Wir werden uns zunehmend klar darüber, daß von den meisten wissenschaftlern der lokale Online-Katalog allein für Literaturrecherchen herangezogen wird, und zwar aus dem Grund, daß das gesuchte Buch so schnell und unkompliziert wie möglich zur Hand sein soll. Diese Feststellung impliziert auch den Gedanken, daß die Aufgabe guter lokaler Katalogisierungstraditionen möglicherweise ein unwiederbringlicher Verlust ist, ein Schritt hin zu einer schlechteren und oberflächlicheren Information. Wie sich eine überregionale Verbesserung der Nachweissituation unter gleichzeitiger Bewahrung lokaler Traditionen darstellen kann, ist Gegenstand der folgenden Ausführungen. Sie bahandeln das Thema aus dem Blickwinkel der Bilbiotheken, Archive und Museen, deren aufgabe im Nachweis und der Bewahrung von Unikaten besteht. die hier behandelte Metadatendiskussion bezieht sich also auf die Beschreibungskriterien nicht für digitales Material, sondern für Manuskripte, Briefe, Gegenstände
    Date
    12. 3.2000 19:25:22
  18. Söhler, M.: "Dumm wie Google" war gestern : semantische Suche im Netz (2011) 0.01
    0.013692091 = product of:
      0.054768365 = sum of:
        0.054768365 = weight(_text_:standards in 4440) [ClassicSimilarity], result of:
          0.054768365 = score(doc=4440,freq=4.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.2437397 = fieldWeight in 4440, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
      0.25 = coord(1/4)
    
    Content
    - Neue Standards Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. "Damit wollen Google, Bing und Yahoo! dem Info-Chaos im WWW den Garaus machen", schreibt André Vatter im Blog ZBW Mediatalk. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler der Suchmaschinen gekennzeichnet und aufbereitet werden. Indem Schlagworte, so genannte Tags, in den Code von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist."
  19. Söhler, M.: Schluss mit Schema F (2011) 0.01
    0.0110648805 = product of:
      0.044259522 = sum of:
        0.044259522 = weight(_text_:standards in 4439) [ClassicSimilarity], result of:
          0.044259522 = score(doc=4439,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.19697142 = fieldWeight in 4439, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
      0.25 = coord(1/4)
    
    Content
    "Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere vom Fernsehen. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit Bedeutungen unterscheiden und verarbeiten lernen, können dies Suchmaschinen von selbst nicht. Stets listen sie dumpf hintereinander weg alles auf, was sie zu einem Thema finden. Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden. Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler - die Analyseprogramme der Suchmaschinen - gekennzeichnet und aufbereitet werden.
  20. Hoffmann, L.: Metadaten von Internetressourcen und ihre Integrierung in Bibliothekskataloge (1998) 0.01
    0.00853828 = product of:
      0.03415312 = sum of:
        0.03415312 = product of:
          0.06830624 = sum of:
            0.06830624 = weight(_text_:22 in 1032) [ClassicSimilarity], result of:
              0.06830624 = score(doc=1032,freq=2.0), product of:
                0.17654699 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050415643 = queryNorm
                0.38690117 = fieldWeight in 1032, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1032)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 5.1998 18:45:36

Years

Types

  • a 40
  • el 7
  • m 2
  • n 1
  • r 1
  • s 1
  • More… Less…

Classifications