Search (100 results, page 2 of 5)

  • × theme_ss:"Metadaten"
  • × year_i:[2000 TO 2010}
  1. Oehlschläger, S.: Abschlussworkshop des Projektes META-LIB und 1. Metadaten-Workshop der Arbeitsstelle für Standardisierung Der Deutschen Bibliothek : Metadaten - Alter Wein in neuen Schläuchen? (2003) 0.01
    0.0077289753 = product of:
      0.038644876 = sum of:
        0.038644876 = weight(_text_:der in 1758) [ClassicSimilarity], result of:
          0.038644876 = score(doc=1758,freq=10.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.38630107 = fieldWeight in 1758, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1758)
      0.2 = coord(1/5)
    
    Abstract
    Die seit Mitte der goer Jahre des letzten Jahrhunderts durch das Internet und vor allem durch das World Wide Web (WWW) entstandenen neuen Kommunikations- und Publikationsmöglichkeiten stellen die mit der Sammlung, Erschließung und Nutzbarmachung von Veröffentlichungen beauftragten wissenschaftlichen Bibliotheken vor neue Herausforderungen. Netzpublikationen erfordern die Überprüfung und Anpassung bestehender Methoden und Geschäftsgänge. Neben den bibliothekarischen Verfahren haben sich im WWW neue Vorgehensweisen herausgebildet. Um die Suche, die Identifikation und den Zugriff auf Netzpublikationen zu unterstützen, werden strukturierte Daten beigegeben: Metadaten. Außer den zum Auffinden der Ressourcen notwendigen Metadaten spielen weitere Arten von Metadaten für Netzpublikationen eine zunehmend wichtige Rolle.
  2. Broughton, V.: Automatic metadata generation : Digital resource description without human intervention (2007) 0.01
    0.007281225 = product of:
      0.036406126 = sum of:
        0.036406126 = product of:
          0.07281225 = sum of:
            0.07281225 = weight(_text_:22 in 6048) [ClassicSimilarity], result of:
              0.07281225 = score(doc=6048,freq=2.0), product of:
                0.15682785 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044784546 = queryNorm
                0.46428138 = fieldWeight in 6048, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6048)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    22. 9.2007 15:41:14
  3. Frodl, C. (Bearb.); Fischer, T. (Bearb.); Baker, T. (Bearb.); Rühle, S. (Bearb.): Deutsche Übersetzung des Dublin-Core-Metadaten-Elemente-Sets (2007) 0.01
    0.0072571444 = product of:
      0.03628572 = sum of:
        0.03628572 = weight(_text_:der in 516) [ClassicSimilarity], result of:
          0.03628572 = score(doc=516,freq=12.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.36271852 = fieldWeight in 516, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=516)
      0.2 = coord(1/5)
    
    Abstract
    Dublin-Core-Metadaten-Elemente sind ein Standard zur Beschreibung unterschiedlicher Objekte. Die Kernelemente dieses Standards werden in dem "Dublin Core Metadata Element Set" beschrieben (http://www.dublincore.org/documents/dces/). Das Set setzt sich aus 15 Elementen zusammen, die gleichzeitig auch Teil der umfangreicheren "DCMI Metadata Terms" (http://www.dublincore.org/documents/dcmi-terms/) sind, wobei die "DCMI Metadata Terms" neben weiteren Elementen auch ein kontrolliertes Vokabular für Objekttypen enthalten. Die Übersetzung entstand zwischen April und Juli 2007 in der KIM-Arbeitsgruppe Übersetzung DCMES (http://www.kim-forum.org/kim-ag/index.htm). Anfang Juli 2007 wurde der Entwurf der Übersetzung in einem Blog veröffentlicht und die Öffentlichkeit aufgefordert, diesen Entwurf zu kommentieren. Anfang August wurden dann die in dem Blog gesammelten Kommentare in der KIM-Arbeitsgruppe Übersetzung DCMES diskutiert und so weit möglich in den Übersetzungsentwurf eingearbeitet.
    Content
    Das vorliegende Dokument ist eine Übersetzung des "Dublin Core Metadata Element Set, Version 1.1". Grundlage der Übersetzung ist: NISO Standard Z39.85-2007 (May 2007): http://www.niso.org/standards/resources/Z39-85-2007.pdf.
  4. Ziegler, C.: Weltendämmerung : XML und Datenbanken: Einblick in Tamino (2001) 0.01
    0.0069831903 = product of:
      0.03491595 = sum of:
        0.03491595 = weight(_text_:der in 5802) [ClassicSimilarity], result of:
          0.03491595 = score(doc=5802,freq=4.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.34902605 = fieldWeight in 5802, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=5802)
      0.2 = coord(1/5)
    
    Abstract
    XML hat sich als Esperanto des Datenaustauschs etabliert und schickt sich an, die eher relationale geprägte Welt der Datenbanken zu verändern. Anders als relationale DBMS legt der Informationsserver Tamino Daten nativ im XML-Format ab
  5. Baker, T.; Fischer, T.: Bericht von der Dublin-Core-Konferenz (DC-2005) in Madrid (2005) 0.01
    0.0069481866 = product of:
      0.034740932 = sum of:
        0.034740932 = weight(_text_:der in 4872) [ClassicSimilarity], result of:
          0.034740932 = score(doc=4872,freq=44.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.34727657 = fieldWeight in 4872, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4872)
      0.2 = coord(1/5)
    
    Content
    "1. Die Konferenz Vom 12. bis 15. September 2005 fand in Leganés (Madrid) die "International Conference an Dublin Core and Metadata Applications" mit dem Thema "Vocabularies in Practice" statt [DC2005]. Gastgeber war der Fachbereich Bibliothekswesen und Dokumentation der "Universidad Carlos III de Madrid" zusammen mit dem Institut "Agustin Millares" für Dokumentation und Wissensmanagement. Den 214 Teilnehmern aus 33 Ländern wurden 14 ausführliche und 18 Kurzpräsentationen geboten sowie zehn "Special Sessions" [DC2005-PAPERS]. Fünf Einführungsseminare zu Themen der Metadaten und maschinell verarbeitbarer Thesauri wurden abgehalten. Die Hauptreden der vier Konferenztage wurden von Thomas Baker (Staats- und Universitätsbibliothek Göttingen), Ricardo Baeza (University of Chile), Johannes Keizer (Food and Agriculture Organization of the United Nations) und Eric Miller (World Wide Web Consortium) gehalten. Plenarvorträge wurden simultan ins Spanische übersetzt und mehrere Treffen wurden in französischer oder spanischer Sprache abgehalten. Die Dublin-Core-Konferenz ist auch das zentrale Ereignis des Jahres für die Dublin Core Metadata Initiative (DCMI) als Organisation. Vor und nach der Konferenz tagten das DCMI Board of Trustees, ein Gremium aus Metadatenexperten und nationalen Vertretern ("Affiliates"); das "Usage Board", das den Standard inhaltlich verwaltet, und das "Advisory Board", das hauptsächlich aus Leitern von DCMI-Arbeitsgruppen besteht. Während der Konferenz haben sich vierzehn Arbeitsgruppen zu speziellen Fragen im Bereich Metadaten getroffen. 2. Von der Kernsemantik zum Modell "Zehn Jahre Dublin Core" war der Hintergrund für die Keynote-Präsehtation von Thomas Baker, DCMI Director of Specifications and Documentation. März 1995 fand in Dublin (Ohio) der Workshop statt, auf dem die Kernelemente erstmals entworfen wurden - Creator, Subject, Date, usw. - die der Initiative den Namen gegeben haben. Dieser "Dublin Core" wurde 1998 bei der Internet Engineering Task Force als Request for Comments (RFC 2413) publiziert, 2000 formal als Standard in Europa (CWA 13874/2000 bei CEN), 2001 in den USA (Z39.95 bei NISO) und 2003 international (ISO 15836/2003) anerkannt [DUBLINCORE]. Am Anfang wurde der Dublin Core als Datenformat konzipiert - d.h. als streng festgelegte Vorlage für digitale Karteikarten. Bereits früh wurden die Elemente jedoch als Vokabular aufgefasst, d.h. als Satz prinzipiell rekombinierbarer Elemente für Beschreibungen, die den Anforderungen spezifischer Anwendungsbereiche angepasst werden konnten - kurz, als Bausteine für Anwendungsprofile. Ausgehend von der vermeintlich simplen Aufgabe, Webseiten auf einfache Art zu beschreiben, hat sich ab 1997 in gegenseitiger Beeinflussung mit der sich entwickelnden Webtechnik von HTML bis hin zu XML und RDF ein allgemeines Modell für Metadaten herauskristallisiert.
    Im März 2005 hat die DCMI mit der Verabschiedung des so genannten "Abstrakten Modells" einen wichtigen Meilenstein erreicht. Dieses DC-Modell ist die formale Grammatik der Metadatensprache, die sich im Laufe der Jahre entwickelt hat. Es hat eine gemeinsame Wurzel mit dem Modell des Semantic Web beim W3C und teilt dessen Grundstruktur, bleibt jedoch absichtlich einfacher als die voll entwickelten Ontologiesprachen des letzteren. Das abstrakte Modell dient als Maßstab für den systematischen Vergleich verschiedenartiger Implementierungstechniken in Bezug auf deren Ausdrucksfähigkeit. Ein hierarchisch aufgebautes XML-Schema kann beispielsweise Metainformationen differenzierter übertragen als ein HTML-Webdokument mit einem flachen Satz eingebetteter META-Tags. Dagegen kann RDF expliziter als ein XML-Schema die Semantik einer Beschreibung in einen größeren semantischen Zusammenhang verankern und somit die Rekombinierbarkeit der Daten erleichtern. In der Praxis müssen Systementwickler sich für die eine oder andere Implementierungstechnik entscheiden, dabei liefern die Metadaten nur eines von mehreren Kriterien. Das DC-Modell bietet eine Basis für den Vergleich der möglichen Lösungen in Hinblick auf die Unterstützung von Metadaten und dient somit als Vorbereitung für deren spätere Integration. Die Interoperabilität der Metadaten ist aber nicht nur eine Frage einer gemeinsamen Semantik mit einem gemeinsamen Modell. Wie auch bei menschlichen Sprachen wird die Interoperabilität umso vollkommener, je besser die Sprachgebräuche verstanden werden - d.h. die Katalogisierungsregeln, die den Metadaten zugrunde liegen. Die Metadatenregeln, die innerhalb einer Anwendungsgemeinschaft benutzt werden, sind Gegenstand eines so genannten Anwendungsprofils. Viele DCMI-Arbeitsgruppen sehen ihre Hauptaufgabe darin, ein Anwendungsprofil für ein bestimmtes Arbeitsgebiet zu erstellen (siehe Abschnitt 6, unten). Diesem Trend zufolge orientiert sich das DCMI Usage Board zunehmend auf die Überprüfung ganzer Anwendungsprofile auf Übereinstimmung mit dem DCMI-Modell."
  6. Neuroth, H.; Tappenbeck, I.; Wessel, C.: ¬Der 8. Dublin Core Metadata Initiative Workshop (2000) 0.01
    0.006913006 = product of:
      0.034565028 = sum of:
        0.034565028 = weight(_text_:der in 4970) [ClassicSimilarity], result of:
          0.034565028 = score(doc=4970,freq=2.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.34551817 = fieldWeight in 4970, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=4970)
      0.2 = coord(1/5)
    
  7. Wolf, S.; Hartmann, S.; Fischer, T.; Rühle, S.: Deutsche Übersetzung des DCMI-type-vocabulary (2009) 0.01
    0.006913006 = product of:
      0.034565028 = sum of:
        0.034565028 = weight(_text_:der in 3228) [ClassicSimilarity], result of:
          0.034565028 = score(doc=3228,freq=8.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.34551817 = fieldWeight in 3228, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3228)
      0.2 = coord(1/5)
    
    Abstract
    Das DCMI Type Vocabulary ist ein kontrolliertes Vokabular für Objekttypen. Es unterstützt die Interoperabilität durch die Vorgabe von Termen, die als Wert für das Dublin Core Type Element anwendungsübergreifend genutzt werden können. Das Vokabular setzt sich aus 12 allgemeinen Termen zusammen, die gleichzeitig auch Teil der umfangreicheren DCMI Metadata Terms sind. Die vorliegende Übersetzung entstand auf Anfrage und in Zusammenarbeit mit einer Arbeitsgruppe der DINI-AG Elektronisches Publizieren, die im Kontext der Weiterentwicklung von XMetaDiss zu XmetaDissPlus und dem DINI-Zertifikat ein "Gemeinsames Vokabular für Publikations- und Dokumenttpyen" erarbeitet hat. Dieses Vokabular stützt sich auf die vorhandenen, international verbreiteten Vorgaben, insbesondere das vorliegende DCMI Type Vocabulary sowie das Publication Type Vocabulary der Driver Guidelines.
  8. Tennant, R.: ¬A bibliographic metadata infrastructure for the twenty-first century (2004) 0.01
    0.0068648057 = product of:
      0.034324028 = sum of:
        0.034324028 = product of:
          0.068648055 = sum of:
            0.068648055 = weight(_text_:22 in 2845) [ClassicSimilarity], result of:
              0.068648055 = score(doc=2845,freq=4.0), product of:
                0.15682785 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044784546 = queryNorm
                0.4377287 = fieldWeight in 2845, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2845)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    9.12.2005 19:22:38
    Source
    Library hi tech. 22(2004) no.2, S.175-181
  9. Cremer, M.; Neuroth, H.: ¬Eine Zukunftswerkstatt des Katalogisierens? : Das CORC-Projekt: Erfahrungen an der SUB Göttingen (2000) 0.01
    0.0068421015 = product of:
      0.034210507 = sum of:
        0.034210507 = weight(_text_:der in 4519) [ClassicSimilarity], result of:
          0.034210507 = score(doc=4519,freq=6.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.34197432 = fieldWeight in 4519, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4519)
      0.2 = coord(1/5)
    
    Abstract
    Mit dem Dublin Core Set liegt ein weltweit anerkanntes Format für den Nachweis von Internetressourcen vor. Nach dem Vorbild der Buchkatalogisierung im Verbund werden im Rahmen eines Projektes Nachweise kooperativ erfasst und in einer Datenbank zentral nachgewiesen. Initiator ist der US-amerikanische Verbund OCLC
  10. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Ein Halbzeitbericht (2001) 0.01
    0.0068421015 = product of:
      0.034210507 = sum of:
        0.034210507 = weight(_text_:der in 5900) [ClassicSimilarity], result of:
          0.034210507 = score(doc=5900,freq=24.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.34197432 = fieldWeight in 5900, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
      0.2 = coord(1/5)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
  11. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Bericht über den middleOfTheRoad Workshop (2001) 0.01
    0.0068421015 = product of:
      0.034210507 = sum of:
        0.034210507 = weight(_text_:der in 5901) [ClassicSimilarity], result of:
          0.034210507 = score(doc=5901,freq=24.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.34197432 = fieldWeight in 5901, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
      0.2 = coord(1/5)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
  12. Schroeder, K.: Persistent Identifiers im Kontext der Langzeitarchivierung : EPICUR auf dem 2. Bibliothekskongress in Leipzig (2004) 0.01
    0.0068421015 = product of:
      0.034210507 = sum of:
        0.034210507 = weight(_text_:der in 2787) [ClassicSimilarity], result of:
          0.034210507 = score(doc=2787,freq=24.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.34197432 = fieldWeight in 2787, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
      0.2 = coord(1/5)
    
    Abstract
    Mit elektronischem Publizieren werden folgende Eigenschaften verbunden: »schnell, kostengünstig, weltweit«. Aber ist das aus Nutzersicht bzw. aus der Perspektive der Autoren ausreichend, um eine Online-Veröffentlichung dauerhaft zu nutzen und zuverlässig zu zitieren? Ein Mechanismus, mit dem netzbasierte Publikationen eindeutig gekennzeichnet werden und jederzeit auffindbar sind, wird durch flüchtige Uniform Resource Locator (URLs) nicht bereitgestellt. Eine Lösung bieten Persistent Identifiers (Pls), wie z. B. Uniform Resource Names (URN)". Damit die Anwendung eines persistenten Adressierungsschemas wie den URNs langfristig gewährleistet werden kann, muss eine Infrastruktur mit einer institutionellen Unterstützung geschaffen werden. Ein wesentlicher Aspekt in diesem Kontext ist die Langzeitarchivierung der digitalen Objekte. Die Darstellung und Erläuterung der Schnittstellen zwischen Langzeitarchivierung und Pls sowie der damit verbundenen Aktivitäten und Ergebnisse des EPICUR-Projektes war Gegenstand des Vortrages von Kathrin Schroeder auf dem diesjährigen z. Bibliothekskongress in Leipzig im Rahmen des Workshops »Technische Aspekte der Langzeitarchivierung«". Es besteht ein enger Zusammenhang zwischen den Bereichen Pls (standortunabhängige, eindeutige Bezeichner für digitale Objekte) und Langzeitarchivierung (Maßnahmen, die dazu dienen, digitale Objekte für die Nachwelt dauerhaft zu erhalten): Pls werden als stabiler Zugriffsmechanismus für digitale Objekte verwendet, die in einem Depotsystem archiviert werden. Ein Depotsystem ist ein »( ...) Archiv für digitale Objekte, in dem Menschen und Systeme als 'Organisation' mit der Aufgabenstellung zusammenwirken, Informationen zu erhalten und einer definierten Nutzerschaft verfügbar zu machen.« Dazu gehören im erweiterten Sinne auch eine Infrastruktur vor der Eingangsschnittstelle des Depotsystems, die zum Transfer digitaler Objekte von den Produzenten in das Archiv dient, und die Infrastruktur der Endnutzer-Umgebungen hinter der Auslieferungsschnittstelle des Depotsystems, in denen die digitalen Objekte benutzt werden sollen. In diesem Umfeld werden Pls in folgenden Bereichen angewendet: - Metadaten, - Datenaustauschformate, - Automatisierte Lieferungen von Objekten in ein Archivsystem, - Depotsystem und - Nutzung von Pls als stabiler Zugriffsmechanismus auf ein Objekt als wichtigster Aspekt für den Endnutzer (Wissenschaftler und Autoren). Im Folgenden werden zu den einzelnen Bereichen die Ergebnisse des EPICUR-Projektes und die Aktivitäten Der Deutschen Bibliothek diskutiert.
  13. Niederée, C.: Metadaten als Bausteine des Semantic Web (2003) 0.01
    0.006624836 = product of:
      0.03312418 = sum of:
        0.03312418 = weight(_text_:der in 1761) [ClassicSimilarity], result of:
          0.03312418 = score(doc=1761,freq=10.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.3311152 = fieldWeight in 1761, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1761)
      0.2 = coord(1/5)
    
    Abstract
    Das »Semantic Web« bildet einen der wichtigsten, aktuellen Trends in der Weiterentwicklung des World Wide Web. Ehrgeizige Vision dieser nächsten Generation des WWW ist es, durch semantische Anreicherung von Information eine neue Qualität in der Bereitstellung von Inhalten und Diensten zu erreichen und vollständig neue Anwendungsmöglichkeiten für das Web zu eröffnen. Wichtige Ziele der Entwicklung des Semantic Web sind dabei die verbesserte Unterstützung von Kooperation zwischen Menschen und Computern und die intelligente Assistenz bei der Durchführung von Aufgaben in kooperativen verteilten Informationsumgebungen. Schlüssel zur Erreichung dieser Ziele sind die Anreicherung von Daten im Web mit Metadaten, welche diese Daten in einen semantischen Kontext einbetten. Diese Kontextinformation wird durch Software-Anwendungen interpretiert und zur Informationsfilterung, Verfeinerung von Anfragen und zur Bereitstellung intelligenter Assistenten verwendet. Eine große Herausforderung stellt dabei die geeignete Modellierung und Beschreibung des Kontexts dar. Diese muss eine automatische, globale Interpretation ermöglichen, ohne dass auf ein allgemeingültiges semantisches Beschreibungsschema zurückgegriffen werden kann. Die Vereinbarung eines solchen allgemeingültigen Schemas ist in einem derart umfangreichen, heterogenen und autonomen Rahmen, wie ihn das WWW darstellt, nicht möglich.
  14. Steinke, T.: METS: Ein Containerformat für Metadaten (2009) 0.01
    0.006532177 = product of:
      0.032660883 = sum of:
        0.032660883 = weight(_text_:der in 2781) [ClassicSimilarity], result of:
          0.032660883 = score(doc=2781,freq=14.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.326484 = fieldWeight in 2781, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2781)
      0.2 = coord(1/5)
    
    Abstract
    Das XML-Format "Metadata Encoding and Transmission Standard" (METS) bietet eine übersichtliche Form, beliebige Metadaten nach funktionalen Kategorien geordnet zusammen mit den betreffenden digitalen Objekten auszutauschen. Ursprünglich im Kontext von Digitalisierungsprojekten in den USA entstanden, findet es heute weltweit insbesondere in Bibliotheken Anwendung. Über so genannte METS-Profile können dabei konkrete Anwendungsszenarien für das ansonsten sehr generische Format spezifiziert werden. Ein solches METS-Profil ist z. B. das im deutschen Langzeitarchivierungsprojekt kopal entstandene Universelle Objektformat für die Archivierung und den Austausch von digitalen Objekten. Der Metadata Encoding and Transmission Standard (METS) wurde 2001 von der US-amerikanischen Digital Library Federation entwickelt und wird seitdem von der Library of Congress verwaltet. Es handelt sich dabei um eine XML-basierte Spezifikation zur Bündelung von Metadata zu digitalen Objekten. Entstanden ist sie im Zuge von Digitalisierungsprojekten, in denen ein hoher Bedarf an einer einheitlichen Beschreibung der Strukturinformationen zu einem Digitalisat und der zugehörigen Meta-daten - bibliografische und andere - vorhanden war. Insbesondere beim Digitalisieren von Büchern entstehen zahlreiche Bilddateien, die ohne eine zusätzliche Information zur Struktur und Relation untereinander schwer nachnutzbar sind. Zugleich fallen verschiedene Kategorien von Metadaten als Zusatzinformationen an, die es gilt, sinnvoll den Dateien zuzuordnen: Inhaltlich-bibliografische, administrative, rechtliche, technische und Informationen über die ursprüngliche Digitalisierungsvorlage. Da METS sich als Austauschformat zwischen verschiedenen Projekten versteht und nicht als einheitliche Vorgabe für alle diese Bereiche, macht es keine Vorschriften, welche Metadatenfelder und -formate in den einzelnen Bereichen verwendet werden müssen. Zwar werden einheitliche Informationen zur Struktur und Dateibeschreibung vorgesehen, aber ansonsten beliebige Metadaten in benannten thematischen Blöcken zugelassen. Darüber hinaus ist es auch möglich, die beschriebenen digitalen Objekte selbst in die METS-XML-Datei einzubinden.
    Source
    Kooperation versus Eigenprofil? 31. Arbeits- und Fortbildungstagung der ASpB e.V., Sektion 5 im Deutschen Bibliotheksverband, 25.-28.9.2007 in der Technischen Universität Berlin. Hrsg.: Ursula Flitner u.a
  15. Janssen, U.: ONIX - Metadaten in Verlagen und Buchhandel (2003) 0.01
    0.00604762 = product of:
      0.0302381 = sum of:
        0.0302381 = weight(_text_:der in 1764) [ClassicSimilarity], result of:
          0.0302381 = score(doc=1764,freq=12.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.30226544 = fieldWeight in 1764, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1764)
      0.2 = coord(1/5)
    
    Abstract
    ONIX (das Akronym steht für Online information exchange) ist der erste weltweit akzeptierte Standard für angereicherte Metadaten über Bücher, Fortsetzungswerke und andere Produkte des Buchhandels. Er wurde ursprünglich in den USA entwickelt, zunächst mit dem Ziel, dem Internetbuchhandel in einem einheitlichen Format Katalogdaten und zusätzlich Marketingmaterial zur Verfügung stellen zu können. Von Anfang an waren Barsortimente, bibliographische Agenturen und Verlage in den USA und bald auch aus dem Vereinigten Königreich an der Entwicklung von ONIX beteiligt und haben diese finanziell sowie personell gefördert. Die Pflege und Weiterentwicklung dieses neuen Standards wurde dann in die Hände von EDItEUR gelegt, der internationalen Dachorganisation für Standardisierung im Buchhandel, gegründet und gefördert von Verbänden aus Buchhandel, Verlagen und Bibliothekswesen, darunter dem Börsenverein des Deutschen Buchhandels und der European Booksellers Federation. Büro und Sekretariat von EDItEUR werden in London von Book Industry Communication (BIC), einer Gemeinschaftsorganisation der britischen Verleger- und Buchhändlerverbände, gestellt. EDIMUR wurde vor zehn Jahren gegründet, um EDIStandards (EDI = electronic data interchange, elektronischer Datenaustausch) für die Kommunikation zwischen Buchhandel und Verlagen einerseits und Bibliotheken und ihren Lieferanten andererseits zu entwickeln. Dafür wurden Richtlinien für eine Reihe von EANCOM-Nachrichten verabschiedet, darunter für Bestellungen, Auftragsbestätigungen, Rechnungen und Angebote. Ein Richtlinienentwurf für die Nachricht PRICAT (Price and sales catalogue), die für die Übermittlung von Katalogdaten bestimmt ist, wurde zwar vor einigen Jahren entwickelt, aber bisher noch nirgendwo in der Praxis getestet oder gar produktiv eingesetzt. Hingegen sind die transaktionsbezogenen EDI-Nachrichten sowohl im Bibliothekswesen als auch im Buchhandel in Europa vielfach im Einsatz.
  16. Schwänzl, R.: Modulare MetaDaten (2000) 0.01
    0.005986839 = product of:
      0.029934194 = sum of:
        0.029934194 = weight(_text_:der in 4461) [ClassicSimilarity], result of:
          0.029934194 = score(doc=4461,freq=6.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.29922754 = fieldWeight in 4461, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4461)
      0.2 = coord(1/5)
    
    Abstract
    Die Syntax des HTML Meta-Tags erlaubt die Darstellung von Grundinformationen über Ressourcen. Jedoch schon bei einfachen Gruppierungsanforderungen werden Absprachen erforderlich, die keinen Rückhalt in der HTML Spezifikation haben und deshalb nicht mehr maschinenverstehbar sind. Die bereits auf der zweiten Dublin Core Tagung beschriebene Notwendigkeit der Modularität von Metadaten (Warwick Framework) (Verfeinerung und Erweiterung von Dublin Core, Zielsetzungen außerhalb eines eng verstandenen Resource Discovery, Bezüge zwischen Vokabularen) kann in zufriedenstellender Form mit dem Meta-Tag nicht implementiert werden. Fortschritte auch für die semantische Interoperabilität lassen sich durch den Einsatz des vom W3 Konsortium definierten Resource Description Framework (RDF) Schema erzielen
  17. Schroeder, K.: Persistant identifiers im Kontext von Metadaten (2003) 0.01
    0.005986839 = product of:
      0.029934194 = sum of:
        0.029934194 = weight(_text_:der in 1743) [ClassicSimilarity], result of:
          0.029934194 = score(doc=1743,freq=6.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.29922754 = fieldWeight in 1743, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1743)
      0.2 = coord(1/5)
    
    Abstract
    Metadaten und Persistent Identifiers (PI) sind zwei eigenständige Bereiche, die auf syntaktischer, semantischer und funktionaler Ebene miteinander in Beziehung stehen. Die Standardisierung beider Bereiche schafft die Voraussetzung, Metadaten mit Pls zu kombinieren und dadurch deren Vorteile synergetisch zu nutzen wie z. B. in Form einer zuverlässigen Referenz von Metadaten auf den Volltext oder kontext-sensitiver Verknüpfungen. Ziel dieses Aufsatzes ist eine Diskussion über die Standardisierung der Schnittmenge aus Metadaten und Pls. Dazu werden zunächst Überschneidungen aufsyntaktischer und semantischer Ebene dargestellt. Anhand der Uniform Resource Name (URN) Implementation Der Deutschen Bibliothek wird die Wechselbeziehung auf funktionaler Ebene exemplarisch verdeutlicht.
  18. Frodl, C.; Gros, A.; Rühle, S.: Übersetzung des Singapore Framework für Dublin-Core-Anwendungsprofile (2009) 0.01
    0.005986839 = product of:
      0.029934194 = sum of:
        0.029934194 = weight(_text_:der in 3229) [ClassicSimilarity], result of:
          0.029934194 = score(doc=3229,freq=6.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.29922754 = fieldWeight in 3229, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3229)
      0.2 = coord(1/5)
    
    Abstract
    Das Singapore Framework für Dublin-Core-Anwendungsprofile nennt die Rahmenbedingungen um Metadatenanwendungen möglichst interoperabel zu gestalten und so zu dokumentieren, dass sie nachnutzbar sind. Es definiert die Komponenten, die erforderlich und hilfreich sind, um ein Anwendungsprofil zu dokumentieren und es beschreibt, wie sich diese dokumentarischen Standards gegenüber Standard-Domain-Modellen und den Semantic-Web-Standards verhalten. Das Singapore Framework ist die Grundlage für die Beurteilung von Anwendungsprofilen in Hinblick auf Vollständigkeit der Dokumentation und auf Übereinstimmung mit den Prinzipien der Web-Architektur. Dieses Dokument bietet eine kurze Übersicht über das Singapore Framework. Weitere Dokumente, die als Anleitung für die Erstellung der erforderlichen Dokumentation dienen, sind in Planung.
  19. Blumauer, A.; Hochmeister, M.: Tag-Recommender gestützte Annotation von Web-Dokumenten (2009) 0.01
    0.005986839 = product of:
      0.029934194 = sum of:
        0.029934194 = weight(_text_:der in 4866) [ClassicSimilarity], result of:
          0.029934194 = score(doc=4866,freq=6.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.29922754 = fieldWeight in 4866, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4866)
      0.2 = coord(1/5)
    
    Abstract
    In diesem Kapitel wird die zentrale Bedeutung der Annotation von Webdokumenten bzw. von Ressourcen in einem Semantischen Web diskutiert. Es wird auf aktuelle Methoden und Techniken in diesem Gebiet eingegangen, insbesondere wird das Phänomen "Social Tagging" als zentrales Element eines "Social Semantic Webs" beleuchtet. Weiters wird der Frage nachgegangen, welchen Mehrwert "Tag Recommender" beim Annotationsvorgang bieten, sowohl aus Sicht des End-Users aber auch im Sinne eines kollaborativen Ontologieerstellungsprozesses. Schließlich wird ein Funktionsprinzip für einen semi-automatischen Tag-Recommender vorgestellt unter besonderer Berücksichtigung der Anwendbarkeit in einem Corporate Semantic Web.
  20. Mittler, E.: Dublin Core und deutsche Bibliotheken (2000) 0.01
    0.0059254332 = product of:
      0.029627165 = sum of:
        0.029627165 = weight(_text_:der in 4455) [ClassicSimilarity], result of:
          0.029627165 = score(doc=4455,freq=8.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.29615843 = fieldWeight in 4455, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4455)
      0.2 = coord(1/5)
    
    Abstract
    Ende Oktober 1999 hat das 7. Dublin core Meeting in der Deutschen Bibliothek in Frankfurt/M. in beeindruckender Weise die Internationalität und Interdisziplinarität dieses Ansatzes zur Beschreibung elektronischer Medien verdeutlicht. Es war zugleich eine Anerkennung für die vielfältigen deutschen Aktivitäten. Anhand von Beispielen (Math-Net und Math-Bibl-Net; SSG-FI der SUB Göttingen; Südwestverbund und HBZ) werden die Zielvorstellungen von Dublin Core herausgearbeitet. Um die Auffindbarkeit der elektronischen Dokumente durch Standardisierung der Metadaten zu sichern setzt DC schon beim Autor an. Es ist u.a. gelungen, DC im Rahmen von neuen Standards wie open-e-book zu implementieren. Damit wird die Interoperabilität von Metadaten wesentlich verbessert. Die deutschen Bibliotheken haben sich erfolgreich in die internationale Entwicklung integriert. Auch die Teilnahme am OCLC-Projekt CORC trägt dazu bei. Das kann Rückwirkungen auch auf die Regeln für die Katalogisierung gedruckter Medien haben

Authors

Languages

  • e 55
  • d 44

Types

  • a 85
  • el 11
  • s 4
  • b 2
  • m 1
  • n 1
  • x 1
  • More… Less…