Search (108 results, page 3 of 6)

  • × theme_ss:"Metadaten"
  • × year_i:[2000 TO 2010}
  1. Ziegler, C.: Weltendämmerung : XML und Datenbanken: Einblick in Tamino (2001) 0.00
    9.890363E-4 = product of:
      0.018791689 = sum of:
        0.018791689 = weight(_text_:und in 5802) [ClassicSimilarity], result of:
          0.018791689 = score(doc=5802,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.34630734 = fieldWeight in 5802, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5802)
      0.05263158 = coord(1/19)
    
    Abstract
    XML hat sich als Esperanto des Datenaustauschs etabliert und schickt sich an, die eher relationale geprägte Welt der Datenbanken zu verändern. Anders als relationale DBMS legt der Informationsserver Tamino Daten nativ im XML-Format ab
  2. Klever, N.: Elementarteilchen : XML-Schema: objektorientierte Dokumenttypdefinitionen (2001) 0.00
    9.890363E-4 = product of:
      0.018791689 = sum of:
        0.018791689 = weight(_text_:und in 5803) [ClassicSimilarity], result of:
          0.018791689 = score(doc=5803,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.34630734 = fieldWeight in 5803, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5803)
      0.05263158 = coord(1/19)
    
    Abstract
    Strukturbeschreibungen von XML-Daten und -Dokumenten waren bislang nur über die aus SGML stammenden Dokumenttypdefinitionen möglich. Mit XML-Schema steht beim W3C die nächste Generation solcher Beschreibungen vor der Verabschiedung. Modular, objektorientiert und natürlich in XML
  3. Tennant, R.: ¬A bibliographic metadata infrastructure for the twenty-first century (2004) 0.00
    9.87595E-4 = product of:
      0.018764304 = sum of:
        0.018764304 = product of:
          0.037528608 = sum of:
            0.037528608 = weight(_text_:22 in 2845) [ClassicSimilarity], result of:
              0.037528608 = score(doc=2845,freq=4.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.4377287 = fieldWeight in 2845, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2845)
          0.5 = coord(1/2)
      0.05263158 = coord(1/19)
    
    Date
    9.12.2005 19:22:38
    Source
    Library hi tech. 22(2004) no.2, S.175-181
  4. Düro, M.; Schweibenz, W.: Metadaten für Museen (2002) 0.00
    9.79096E-4 = product of:
      0.018602824 = sum of:
        0.018602824 = weight(_text_:und in 1334) [ClassicSimilarity], result of:
          0.018602824 = score(doc=1334,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.34282678 = fieldWeight in 1334, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=1334)
      0.05263158 = coord(1/19)
    
    Source
    Information - Wissenschaft und Praxis. 53(2002) H.6, S.339-346
  5. Rusch-Feja, D.: Dublin Core Educational Metadata : Entwicklungen bei Metadaten für den Bildungsbereich (2000) 0.00
    9.79096E-4 = product of:
      0.018602824 = sum of:
        0.018602824 = weight(_text_:und in 4451) [ClassicSimilarity], result of:
          0.018602824 = score(doc=4451,freq=8.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.34282678 = fieldWeight in 4451, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4451)
      0.05263158 = coord(1/19)
    
    Abstract
    August 1999 wurde eine Arbeitsgruppe für bildungsbezogene Metadaten im Rahmen der Dublin Core Metadaten-Initiative unter der Leitung von Prof. Dr. Stuart Sutton (Gateway for Educational Materials, GEM, und School of Libraray and Information Science der University of Washington, USA und Dr. Jon Mason, Direktor des Education Network Australia, EdNA, Australien) konstituiert. Innerhalb einer Woche nach der Presseankündigung hatten sich weltweit über 70 Teilnehmer für die Arbeitsgruppe gemeldet. Ziele dieser Arbeitsgruppe sind: ... die Eingrenzungen und Erweiterungen zum Dublin Core Metadatensatz zu entwickeln, der Bildungsinformationen zum Zwecke einer besseren Quellensuche beschreibt. Es ist zu erwarten, daß die daraus resultierenden Metadaten sowohl bildungsbezogene Qualifier innerhalb des Rahmens der bestehenden Dublin Core Elemente beinhalten als auch potentiell einige, die für den Bibldungsbereich spezifisch sind
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.20-25
  6. Weiss, B.: Metadaten für Online-Monographien und Online-Zeitschriften (2001) 0.00
    9.79096E-4 = product of:
      0.018602824 = sum of:
        0.018602824 = weight(_text_:und in 6491) [ClassicSimilarity], result of:
          0.018602824 = score(doc=6491,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.34282678 = fieldWeight in 6491, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=6491)
      0.05263158 = coord(1/19)
    
  7. Schroeder, K.: Persistent Identifiers im Kontext der Langzeitarchivierung : EPICUR auf dem 2. Bibliothekskongress in Leipzig (2004) 0.00
    9.690537E-4 = product of:
      0.01841202 = sum of:
        0.01841202 = weight(_text_:und in 2787) [ClassicSimilarity], result of:
          0.01841202 = score(doc=2787,freq=24.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.33931053 = fieldWeight in 2787, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
      0.05263158 = coord(1/19)
    
    Abstract
    Mit elektronischem Publizieren werden folgende Eigenschaften verbunden: »schnell, kostengünstig, weltweit«. Aber ist das aus Nutzersicht bzw. aus der Perspektive der Autoren ausreichend, um eine Online-Veröffentlichung dauerhaft zu nutzen und zuverlässig zu zitieren? Ein Mechanismus, mit dem netzbasierte Publikationen eindeutig gekennzeichnet werden und jederzeit auffindbar sind, wird durch flüchtige Uniform Resource Locator (URLs) nicht bereitgestellt. Eine Lösung bieten Persistent Identifiers (Pls), wie z. B. Uniform Resource Names (URN)". Damit die Anwendung eines persistenten Adressierungsschemas wie den URNs langfristig gewährleistet werden kann, muss eine Infrastruktur mit einer institutionellen Unterstützung geschaffen werden. Ein wesentlicher Aspekt in diesem Kontext ist die Langzeitarchivierung der digitalen Objekte. Die Darstellung und Erläuterung der Schnittstellen zwischen Langzeitarchivierung und Pls sowie der damit verbundenen Aktivitäten und Ergebnisse des EPICUR-Projektes war Gegenstand des Vortrages von Kathrin Schroeder auf dem diesjährigen z. Bibliothekskongress in Leipzig im Rahmen des Workshops »Technische Aspekte der Langzeitarchivierung«". Es besteht ein enger Zusammenhang zwischen den Bereichen Pls (standortunabhängige, eindeutige Bezeichner für digitale Objekte) und Langzeitarchivierung (Maßnahmen, die dazu dienen, digitale Objekte für die Nachwelt dauerhaft zu erhalten): Pls werden als stabiler Zugriffsmechanismus für digitale Objekte verwendet, die in einem Depotsystem archiviert werden. Ein Depotsystem ist ein »( ...) Archiv für digitale Objekte, in dem Menschen und Systeme als 'Organisation' mit der Aufgabenstellung zusammenwirken, Informationen zu erhalten und einer definierten Nutzerschaft verfügbar zu machen.« Dazu gehören im erweiterten Sinne auch eine Infrastruktur vor der Eingangsschnittstelle des Depotsystems, die zum Transfer digitaler Objekte von den Produzenten in das Archiv dient, und die Infrastruktur der Endnutzer-Umgebungen hinter der Auslieferungsschnittstelle des Depotsystems, in denen die digitalen Objekte benutzt werden sollen. In diesem Umfeld werden Pls in folgenden Bereichen angewendet: - Metadaten, - Datenaustauschformate, - Automatisierte Lieferungen von Objekten in ein Archivsystem, - Depotsystem und - Nutzung von Pls als stabiler Zugriffsmechanismus auf ein Objekt als wichtigster Aspekt für den Endnutzer (Wissenschaftler und Autoren). Im Folgenden werden zu den einzelnen Bereichen die Ergebnisse des EPICUR-Projektes und die Aktivitäten Der Deutschen Bibliothek diskutiert.
  8. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Ein Halbzeitbericht (2001) 0.00
    9.2779833E-4 = product of:
      0.017628169 = sum of:
        0.017628169 = weight(_text_:und in 5900) [ClassicSimilarity], result of:
          0.017628169 = score(doc=5900,freq=22.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3248651 = fieldWeight in 5900, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
      0.05263158 = coord(1/19)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
  9. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Bericht über den middleOfTheRoad Workshop (2001) 0.00
    9.2779833E-4 = product of:
      0.017628169 = sum of:
        0.017628169 = weight(_text_:und in 5901) [ClassicSimilarity], result of:
          0.017628169 = score(doc=5901,freq=22.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3248651 = fieldWeight in 5901, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
      0.05263158 = coord(1/19)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
  10. Baker, T.; Rühle, S.: Übersetzung des Dublin Core Metadata Initiative Abstract Model (DCAM) (2009) 0.00
    9.251587E-4 = product of:
      0.017578015 = sum of:
        0.017578015 = weight(_text_:und in 3230) [ClassicSimilarity], result of:
          0.017578015 = score(doc=3230,freq=14.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.32394084 = fieldWeight in 3230, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3230)
      0.05263158 = coord(1/19)
    
    Abstract
    Dieses Dokument beschreibt das Abstraktmodell für Dublin-Core-Metadaten. Ziel des Dokuments ist es vor allem, die Elemente und Strukturen, die in Dublin-Core-Metadaten verwendet werden, zu benennen. Das Dokument definiert die verwendeten Elemente und beschreibt, wie sie miteinander kombiniert werden, um Informationsstrukturen zu bilden. Es stellt ein von jeglicher besonderen Codierungssyntax unabhängiges Informationsmodell dar. Ein solches Informationsmodell macht es uns möglich, die Beschreibungen, die wir codieren wollen, besser zu verstehen und erleichtert die Entwicklung besserer Mappings und syntaxübergreifender Datenkonvertierungen. Dieses Dokument richtet sich in erster Linie an Entwickler von Softwareanwendungen, die Dublin-Core-Metadaten unterstützen, an Personen, die neue syntaktische Codierungsrichtlinien für Dublin-Core-Metadaten entwickeln und an Personen, die Metadatenprofile entwickeln, die auf DCMI- oder anderen kompatibelen Vokabularen basieren. Das DCMI-Abstraktmodell basiert auf der Arbeit des World Wide Web Consortium (W3C) am Resource Description Framework (RDF). Die Verwendung von Konzepten aus RDF wird unten im Abschnitt 5 zusammengefasst. Das DCMI-Abstraktmodell wird hier mit UML-Klassen-Diagrammen dargestellt. Für Leser, die solche UML-Klassen-Diagramme nicht kennen, eine kurze Anleitung: Linien, die in einem Maßpfeil enden, werden als 'ist' oder 'ist eine' gelesen (z.B. "value ist eine resource"). Linien, die mit einer Raute beginnen, werden als 'hat' oder 'hat eine' gelesen (z.B. "statement hat einen property URI"). Andere Beziehungen werden entsprechend gekennzeichnet. Die kursiv geschriebenen Wörter und Phrasen in diesem Dokument werden im Abschnitt 7 ("Terminologie") definiert. Wir danken Dan Brickley, Rachel Heery, Alistair Miles, Sarah Pulis, den Mitgliedern des DCMI Usage Board und den Mitgliedern der DCMI Architecture Community für ihr Feedback zu den vorangegangenen Versionen dieses Dokuments.
  11. Schwänzl, R.: Modulare MetaDaten (2000) 0.00
    8.4792194E-4 = product of:
      0.016110517 = sum of:
        0.016110517 = weight(_text_:und in 4461) [ClassicSimilarity], result of:
          0.016110517 = score(doc=4461,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.2968967 = fieldWeight in 4461, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4461)
      0.05263158 = coord(1/19)
    
    Abstract
    Die Syntax des HTML Meta-Tags erlaubt die Darstellung von Grundinformationen über Ressourcen. Jedoch schon bei einfachen Gruppierungsanforderungen werden Absprachen erforderlich, die keinen Rückhalt in der HTML Spezifikation haben und deshalb nicht mehr maschinenverstehbar sind. Die bereits auf der zweiten Dublin Core Tagung beschriebene Notwendigkeit der Modularität von Metadaten (Warwick Framework) (Verfeinerung und Erweiterung von Dublin Core, Zielsetzungen außerhalb eines eng verstandenen Resource Discovery, Bezüge zwischen Vokabularen) kann in zufriedenstellender Form mit dem Meta-Tag nicht implementiert werden. Fortschritte auch für die semantische Interoperabilität lassen sich durch den Einsatz des vom W3 Konsortium definierten Resource Description Framework (RDF) Schema erzielen
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.87-94
  12. Schoger, A.; Frommer, J.: Heterogen - was nun? : Evaluierung heterogener bibliographischer Metadaten (2000) 0.00
    8.392251E-4 = product of:
      0.015945276 = sum of:
        0.015945276 = weight(_text_:und in 4465) [ClassicSimilarity], result of:
          0.015945276 = score(doc=4465,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.29385152 = fieldWeight in 4465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4465)
      0.05263158 = coord(1/19)
    
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.110-128
  13. Schweibenz, W.: Metadaten für Museen : Ein Bericht vom CIMI Dublin core Metadaten Workshop vom 27. bis 28. April 2000 in Amstelveen, Niederlande (2000) 0.00
    8.392251E-4 = product of:
      0.015945276 = sum of:
        0.015945276 = weight(_text_:und in 4959) [ClassicSimilarity], result of:
          0.015945276 = score(doc=4959,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.29385152 = fieldWeight in 4959, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4959)
      0.05263158 = coord(1/19)
    
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.5, S.291-292
  14. Behme, H.: Angelpunkt : Wo die Extensible Markup Language derzeit steht (2001) 0.00
    8.392251E-4 = product of:
      0.015945276 = sum of:
        0.015945276 = weight(_text_:und in 5762) [ClassicSimilarity], result of:
          0.015945276 = score(doc=5762,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.29385152 = fieldWeight in 5762, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5762)
      0.05263158 = coord(1/19)
    
    Abstract
    Ob EDI-Einsatz oder Dokumentenverarbeitung, ob B2B ode B2C: XML ist nicht weit. Und das Umfeld der Metasprache entwickelt sich immer weiter
  15. Krämer, T.: Interoperabilität von Metadatenstandards und Dokumentretrieval (2004) 0.00
    8.392251E-4 = product of:
      0.015945276 = sum of:
        0.015945276 = weight(_text_:und in 4096) [ClassicSimilarity], result of:
          0.015945276 = score(doc=4096,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.29385152 = fieldWeight in 4096, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4096)
      0.05263158 = coord(1/19)
    
  16. Baker, T.; Fischer, T.: Bericht von der Dublin-Core-Konferenz (DC-2005) in Madrid (2005) 0.00
    8.125763E-4 = product of:
      0.01543895 = sum of:
        0.01543895 = weight(_text_:und in 4872) [ClassicSimilarity], result of:
          0.01543895 = score(doc=4872,freq=30.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.28452054 = fieldWeight in 4872, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4872)
      0.05263158 = coord(1/19)
    
    Content
    "1. Die Konferenz Vom 12. bis 15. September 2005 fand in Leganés (Madrid) die "International Conference an Dublin Core and Metadata Applications" mit dem Thema "Vocabularies in Practice" statt [DC2005]. Gastgeber war der Fachbereich Bibliothekswesen und Dokumentation der "Universidad Carlos III de Madrid" zusammen mit dem Institut "Agustin Millares" für Dokumentation und Wissensmanagement. Den 214 Teilnehmern aus 33 Ländern wurden 14 ausführliche und 18 Kurzpräsentationen geboten sowie zehn "Special Sessions" [DC2005-PAPERS]. Fünf Einführungsseminare zu Themen der Metadaten und maschinell verarbeitbarer Thesauri wurden abgehalten. Die Hauptreden der vier Konferenztage wurden von Thomas Baker (Staats- und Universitätsbibliothek Göttingen), Ricardo Baeza (University of Chile), Johannes Keizer (Food and Agriculture Organization of the United Nations) und Eric Miller (World Wide Web Consortium) gehalten. Plenarvorträge wurden simultan ins Spanische übersetzt und mehrere Treffen wurden in französischer oder spanischer Sprache abgehalten. Die Dublin-Core-Konferenz ist auch das zentrale Ereignis des Jahres für die Dublin Core Metadata Initiative (DCMI) als Organisation. Vor und nach der Konferenz tagten das DCMI Board of Trustees, ein Gremium aus Metadatenexperten und nationalen Vertretern ("Affiliates"); das "Usage Board", das den Standard inhaltlich verwaltet, und das "Advisory Board", das hauptsächlich aus Leitern von DCMI-Arbeitsgruppen besteht. Während der Konferenz haben sich vierzehn Arbeitsgruppen zu speziellen Fragen im Bereich Metadaten getroffen. 2. Von der Kernsemantik zum Modell "Zehn Jahre Dublin Core" war der Hintergrund für die Keynote-Präsehtation von Thomas Baker, DCMI Director of Specifications and Documentation. März 1995 fand in Dublin (Ohio) der Workshop statt, auf dem die Kernelemente erstmals entworfen wurden - Creator, Subject, Date, usw. - die der Initiative den Namen gegeben haben. Dieser "Dublin Core" wurde 1998 bei der Internet Engineering Task Force als Request for Comments (RFC 2413) publiziert, 2000 formal als Standard in Europa (CWA 13874/2000 bei CEN), 2001 in den USA (Z39.95 bei NISO) und 2003 international (ISO 15836/2003) anerkannt [DUBLINCORE]. Am Anfang wurde der Dublin Core als Datenformat konzipiert - d.h. als streng festgelegte Vorlage für digitale Karteikarten. Bereits früh wurden die Elemente jedoch als Vokabular aufgefasst, d.h. als Satz prinzipiell rekombinierbarer Elemente für Beschreibungen, die den Anforderungen spezifischer Anwendungsbereiche angepasst werden konnten - kurz, als Bausteine für Anwendungsprofile. Ausgehend von der vermeintlich simplen Aufgabe, Webseiten auf einfache Art zu beschreiben, hat sich ab 1997 in gegenseitiger Beeinflussung mit der sich entwickelnden Webtechnik von HTML bis hin zu XML und RDF ein allgemeines Modell für Metadaten herauskristallisiert.
    Im März 2005 hat die DCMI mit der Verabschiedung des so genannten "Abstrakten Modells" einen wichtigen Meilenstein erreicht. Dieses DC-Modell ist die formale Grammatik der Metadatensprache, die sich im Laufe der Jahre entwickelt hat. Es hat eine gemeinsame Wurzel mit dem Modell des Semantic Web beim W3C und teilt dessen Grundstruktur, bleibt jedoch absichtlich einfacher als die voll entwickelten Ontologiesprachen des letzteren. Das abstrakte Modell dient als Maßstab für den systematischen Vergleich verschiedenartiger Implementierungstechniken in Bezug auf deren Ausdrucksfähigkeit. Ein hierarchisch aufgebautes XML-Schema kann beispielsweise Metainformationen differenzierter übertragen als ein HTML-Webdokument mit einem flachen Satz eingebetteter META-Tags. Dagegen kann RDF expliziter als ein XML-Schema die Semantik einer Beschreibung in einen größeren semantischen Zusammenhang verankern und somit die Rekombinierbarkeit der Daten erleichtern. In der Praxis müssen Systementwickler sich für die eine oder andere Implementierungstechnik entscheiden, dabei liefern die Metadaten nur eines von mehreren Kriterien. Das DC-Modell bietet eine Basis für den Vergleich der möglichen Lösungen in Hinblick auf die Unterstützung von Metadaten und dient somit als Vorbereitung für deren spätere Integration. Die Interoperabilität der Metadaten ist aber nicht nur eine Frage einer gemeinsamen Semantik mit einem gemeinsamen Modell. Wie auch bei menschlichen Sprachen wird die Interoperabilität umso vollkommener, je besser die Sprachgebräuche verstanden werden - d.h. die Katalogisierungsregeln, die den Metadaten zugrunde liegen. Die Metadatenregeln, die innerhalb einer Anwendungsgemeinschaft benutzt werden, sind Gegenstand eines so genannten Anwendungsprofils. Viele DCMI-Arbeitsgruppen sehen ihre Hauptaufgabe darin, ein Anwendungsprofil für ein bestimmtes Arbeitsgebiet zu erstellen (siehe Abschnitt 6, unten). Diesem Trend zufolge orientiert sich das DCMI Usage Board zunehmend auf die Überprüfung ganzer Anwendungsprofile auf Übereinstimmung mit dem DCMI-Modell."
  17. Kamke, H.-U.; Zimmermann, K.: Metadaten und Online-Learning (2003) 0.00
    7.91229E-4 = product of:
      0.015033351 = sum of:
        0.015033351 = weight(_text_:und in 1829) [ClassicSimilarity], result of:
          0.015033351 = score(doc=1829,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.27704588 = fieldWeight in 1829, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1829)
      0.05263158 = coord(1/19)
    
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.6, S.345-348
  18. Cremer, M.; Neuroth, H.: ¬Das CORC-Projekt von OCLC an der Niedersächsischen Staats- und Universitätsbibliothek Göttingen (2000) 0.00
    6.993543E-4 = product of:
      0.013287731 = sum of:
        0.013287731 = weight(_text_:und in 4787) [ClassicSimilarity], result of:
          0.013287731 = score(doc=4787,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.24487628 = fieldWeight in 4787, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4787)
      0.05263158 = coord(1/19)
    
  19. Popper, A.: Daten eingewickelt : Dynamische Webseiten mit XML und SQL (2001) 0.00
    6.993543E-4 = product of:
      0.013287731 = sum of:
        0.013287731 = weight(_text_:und in 5804) [ClassicSimilarity], result of:
          0.013287731 = score(doc=5804,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.24487628 = fieldWeight in 5804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5804)
      0.05263158 = coord(1/19)
    
  20. Proffitt, M.: Pulling it all together : use of METS in RLG cultural materials service (2004) 0.00
    6.9833506E-4 = product of:
      0.013268366 = sum of:
        0.013268366 = product of:
          0.026536733 = sum of:
            0.026536733 = weight(_text_:22 in 767) [ClassicSimilarity], result of:
              0.026536733 = score(doc=767,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.30952093 = fieldWeight in 767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=767)
          0.5 = coord(1/2)
      0.05263158 = coord(1/19)
    
    Source
    Library hi tech. 22(2004) no.1, S.65-68

Authors

Languages

  • e 59
  • d 48

Types

  • a 95
  • el 8
  • s 4
  • b 2
  • x 2
  • m 1
  • n 1
  • More… Less…