Search (264 results, page 2 of 14)

  • × theme_ss:"Metadaten"
  • × year_i:[2000 TO 2010}
  1. Weiß, B.: Dublin Core : Metadaten als Verzeichnungsform elektronischer Publikationen (2000) 0.02
    0.016972285 = product of:
      0.050916854 = sum of:
        0.010709076 = weight(_text_:in in 3777) [ClassicSimilarity], result of:
          0.010709076 = score(doc=3777,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18034597 = fieldWeight in 3777, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=3777)
        0.040207777 = weight(_text_:und in 3777) [ClassicSimilarity], result of:
          0.040207777 = score(doc=3777,freq=4.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.41556883 = fieldWeight in 3777, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=3777)
      0.33333334 = coord(2/6)
    
    Series
    Zeitschrift für Bibliothekswesen und Bibliographie: Sonderh.80
    Source
    Wissenschaft online: Elektronisches Publizieren in Bibliothek und Hochschule. Hrsg. B. Tröger
  2. Schroeder, K.: Persistant identifiers im Kontext von Metadaten (2003) 0.02
    0.016486328 = product of:
      0.049458984 = sum of:
        0.008834538 = weight(_text_:in in 1743) [ClassicSimilarity], result of:
          0.008834538 = score(doc=1743,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.14877784 = fieldWeight in 1743, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1743)
        0.040624447 = weight(_text_:und in 1743) [ClassicSimilarity], result of:
          0.040624447 = score(doc=1743,freq=12.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.41987535 = fieldWeight in 1743, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1743)
      0.33333334 = coord(2/6)
    
    Abstract
    Metadaten und Persistent Identifiers (PI) sind zwei eigenständige Bereiche, die auf syntaktischer, semantischer und funktionaler Ebene miteinander in Beziehung stehen. Die Standardisierung beider Bereiche schafft die Voraussetzung, Metadaten mit Pls zu kombinieren und dadurch deren Vorteile synergetisch zu nutzen wie z. B. in Form einer zuverlässigen Referenz von Metadaten auf den Volltext oder kontext-sensitiver Verknüpfungen. Ziel dieses Aufsatzes ist eine Diskussion über die Standardisierung der Schnittmenge aus Metadaten und Pls. Dazu werden zunächst Überschneidungen aufsyntaktischer und semantischer Ebene dargestellt. Anhand der Uniform Resource Name (URN) Implementation Der Deutschen Bibliothek wird die Wechselbeziehung auf funktionaler Ebene exemplarisch verdeutlicht.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.205-209
  3. Schneider, S.: Recherche und Literaturbestellung leicht gemacht! : MedPilot - Virtuelle Fachbibliothek Medizin (2003) 0.02
    0.016486328 = product of:
      0.049458984 = sum of:
        0.008834538 = weight(_text_:in in 1914) [ClassicSimilarity], result of:
          0.008834538 = score(doc=1914,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.14877784 = fieldWeight in 1914, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1914)
        0.040624447 = weight(_text_:und in 1914) [ClassicSimilarity], result of:
          0.040624447 = score(doc=1914,freq=12.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.41987535 = fieldWeight in 1914, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1914)
      0.33333334 = coord(2/6)
    
    Abstract
    MedPilot (www.medpilot.de) ist ein Gemeinschaftsprojekt der Deutschen Zentralbibliothek für Medizin (ZBMed) und des Deutschen Instituts für Medizinische Dokumentation und Information (DIMDI). Im Rahmen der Virtuellen Fachbibliotheken wird MedPilot von der Deutschen Forschungsgemeinschaft (DFG) gefördert. MedPilot basiert auf der Software SISIS-Elektra, welche im Rahmen des Projektes weiterentwickelt wurde. Projektstart im August 2001, Testbetrieb seit Juli 2002, offizielle Eröffnung im Februar 2003
    Source
    Bibliotheken und Informationseinrichtungen - Aufgaben, Strukturen, Ziele: 29. Arbeits- und Fortbildungstagung der ASpB / Sektion 5 im DBV in Zusammenarbeit mit der BDB, BIB, DBV, DGI und VDB, zugleich DBV-Jahrestagung, 8.-11.4.2003 in Stuttgart. Red.: Margit Bauer
  4. Steinke, T.: METS: Ein Containerformat für Metadaten (2009) 0.02
    0.016422346 = product of:
      0.049267035 = sum of:
        0.011805649 = weight(_text_:in in 2781) [ClassicSimilarity], result of:
          0.011805649 = score(doc=2781,freq=14.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.19881277 = fieldWeight in 2781, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2781)
        0.037461385 = weight(_text_:und in 2781) [ClassicSimilarity], result of:
          0.037461385 = score(doc=2781,freq=20.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.3871834 = fieldWeight in 2781, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2781)
      0.33333334 = coord(2/6)
    
    Abstract
    Das XML-Format "Metadata Encoding and Transmission Standard" (METS) bietet eine übersichtliche Form, beliebige Metadaten nach funktionalen Kategorien geordnet zusammen mit den betreffenden digitalen Objekten auszutauschen. Ursprünglich im Kontext von Digitalisierungsprojekten in den USA entstanden, findet es heute weltweit insbesondere in Bibliotheken Anwendung. Über so genannte METS-Profile können dabei konkrete Anwendungsszenarien für das ansonsten sehr generische Format spezifiziert werden. Ein solches METS-Profil ist z. B. das im deutschen Langzeitarchivierungsprojekt kopal entstandene Universelle Objektformat für die Archivierung und den Austausch von digitalen Objekten. Der Metadata Encoding and Transmission Standard (METS) wurde 2001 von der US-amerikanischen Digital Library Federation entwickelt und wird seitdem von der Library of Congress verwaltet. Es handelt sich dabei um eine XML-basierte Spezifikation zur Bündelung von Metadata zu digitalen Objekten. Entstanden ist sie im Zuge von Digitalisierungsprojekten, in denen ein hoher Bedarf an einer einheitlichen Beschreibung der Strukturinformationen zu einem Digitalisat und der zugehörigen Meta-daten - bibliografische und andere - vorhanden war. Insbesondere beim Digitalisieren von Büchern entstehen zahlreiche Bilddateien, die ohne eine zusätzliche Information zur Struktur und Relation untereinander schwer nachnutzbar sind. Zugleich fallen verschiedene Kategorien von Metadaten als Zusatzinformationen an, die es gilt, sinnvoll den Dateien zuzuordnen: Inhaltlich-bibliografische, administrative, rechtliche, technische und Informationen über die ursprüngliche Digitalisierungsvorlage. Da METS sich als Austauschformat zwischen verschiedenen Projekten versteht und nicht als einheitliche Vorgabe für alle diese Bereiche, macht es keine Vorschriften, welche Metadatenfelder und -formate in den einzelnen Bereichen verwendet werden müssen. Zwar werden einheitliche Informationen zur Struktur und Dateibeschreibung vorgesehen, aber ansonsten beliebige Metadaten in benannten thematischen Blöcken zugelassen. Darüber hinaus ist es auch möglich, die beschriebenen digitalen Objekte selbst in die METS-XML-Datei einzubinden.
    Source
    Kooperation versus Eigenprofil? 31. Arbeits- und Fortbildungstagung der ASpB e.V., Sektion 5 im Deutschen Bibliotheksverband, 25.-28.9.2007 in der Technischen Universität Berlin. Hrsg.: Ursula Flitner u.a
  5. Hengel, C.: Normdaten und Metadaten : die Idee eines internationalen authority file (2003) 0.02
    0.016255166 = product of:
      0.0487655 = sum of:
        0.007728611 = weight(_text_:in in 1763) [ClassicSimilarity], result of:
          0.007728611 = score(doc=1763,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1301535 = fieldWeight in 1763, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1763)
        0.04103689 = weight(_text_:und in 1763) [ClassicSimilarity], result of:
          0.04103689 = score(doc=1763,freq=24.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.42413816 = fieldWeight in 1763, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1763)
      0.33333334 = coord(2/6)
    
    Abstract
    Normdaten sind Metadaten besonderer Oualität: Metadaten zu Metadaten. In einem getrennt vom Metadaten-Set zur einzelnen Publikation gebildeten Normdaten-Satz werden die unterschiedlichen in den Publikationen verwendeten Namensformen bzw. Bezeichnungen für dasselbe Objekt zusammengeführt und normiert. Durch die Verwendung von Normdaten als Metadaten wird kontrolliert und sichergestellt, dass z. B. für Autoren, Urheber, Verleger, Sachinhalte etc. gleich bleibende, identische Sucheinstiege und Zugriffspunkte gebildet werden (Authority Control). Für die Recherche wirkt sich die Normierung so aus, dass die zugehörigen Publikationen über alle im Normdatensatz beinhalteten Namensformen und Bezeichnungen gefunden werden können. Durch die Angabe von Attributen und Relationen zu den einzelnen Objekten werden zudem zusätzliche, vernetzte Zugriffspunkte bereitgestellt. Normdaten sind damit ideal zur Bildung von semantischen Navigationsnetzen für die Suche und den Zugriff auf Publikationen und andere Objekte geeignet. Das standardisierte Vokabular und das Nummernsystem einer Normdatei hat aber nur im eigenen Anwendungsbereich Gültigkeit, und die gemeinsame Nutzung von Titeldaten kann durch die Nutzung unterschiedlicher Normdateien behindert werden. Die IFLA-Arbeitsgruppe FRANAR hat mit der Vision eines gemeinsamen Virtuellen Authority File ein Modell entwickelt, wie im Bibliothekswesen Interoperabilität zwischen den nationalen Normdateien hergestellt werden kann. Um die Realisierbarkeit eines solchen Vorhabens nachzuweisen, haben die Library of Congress, OCLC und Die Deutsche Bibliothek ein gemeinsames Projekt vereinbart, in dem exemplarisch für den Bereich der Personennormdaten ein VIAF (Virtual International Authority File) aufgebaut werden soll.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.210-214
  6. Fischer, T.: Metadata registries : Aktueller Stand und zukünftige Entwicklungen (2003) 0.02
    0.015926747 = product of:
      0.047780238 = sum of:
        0.0075724614 = weight(_text_:in in 1762) [ClassicSimilarity], result of:
          0.0075724614 = score(doc=1762,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.12752387 = fieldWeight in 1762, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=1762)
        0.040207777 = weight(_text_:und in 1762) [ClassicSimilarity], result of:
          0.040207777 = score(doc=1762,freq=16.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.41556883 = fieldWeight in 1762, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1762)
      0.33333334 = coord(2/6)
    
    Abstract
    Registries haben sich im Umfeld des Dublin-Core-Metadatensatzes als Referenzwerkzeug etabliert. In der Zukunft werden komplexe und vielfältige Metadatensysteme benutzt werden, wie sie als »Anwendungsprofile« zunehmend entwickelt werden. Andererseits erwachsen aus den Visionen, die unter dem Stichwort »Semantic Web« formuliert werden, Anforderungen an automatisierte Prozesse der Analyse und Übersetzung von Metadaten. Diese Aufgaben sollten die Metadaten-Registries bearbeiten. Das stellt höhere Ansprüche an Registries,was die Aufnahme und Verwaltung der Metadatenschemata einerseits und die technische Implementierung maschinenlesbarer Strukturen andererseits betrifft. Auf den bestehenden Registries aufbauend wird das zu verteilten Strukturen führen, die die Auswertung von Metadaten erleichtern und damit die Akzeptanz gegenüber dem Konzept »Metadaten« allgemein erhöhen werden.
    Content
    Darin auch: "Wie und wo werden Klassifikationen beschrieben? - Klassifikationen, Kodierungen, Thesauri oder auch Ontologien müssen effektiv (maschinenlesbar) beschrieben werden, damit sie auch automatisch ausgelesen werden können. Es ist derzeit nicht klar, ob dies auch eine Aufgabe für Registries ist oder dafür andere Strukturen nötig sind. Derzeit passen Klassifikationsschemata (wie z.B. die Dewey Decimal Classification) nicht in das XML-orientierte Schema von Namespaces. Es sind auch noch keine eindeutigen Identifikatoren (URIs) festgelegt. Ein zusätzliches Problem entsteht,da nicht alle Klassifikationen frei zugänglich sind."
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.199-204
  7. Metadata for semantic and social applications : proceedings of the International Conference on Dublin Core and Metadata Applications, Berlin, 22 - 26 September 2008, DC 2008: Berlin, Germany (2008) 0.02
    0.01545612 = product of:
      0.03091224 = sum of:
        0.008834538 = weight(_text_:in in 2668) [ClassicSimilarity], result of:
          0.008834538 = score(doc=2668,freq=16.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.14877784 = fieldWeight in 2668, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2668)
        0.011727268 = weight(_text_:und in 2668) [ClassicSimilarity], result of:
          0.011727268 = score(doc=2668,freq=4.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.12120757 = fieldWeight in 2668, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2668)
        0.010350432 = product of:
          0.020700864 = sum of:
            0.020700864 = weight(_text_:22 in 2668) [ClassicSimilarity], result of:
              0.020700864 = score(doc=2668,freq=2.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.1354154 = fieldWeight in 2668, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2668)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Metadata is a key aspect of our evolving infrastructure for information management, social computing, and scientific collaboration. DC-2008 will focus on metadata challenges, solutions, and innovation in initiatives and activities underlying semantic and social applications. Metadata is part of the fabric of social computing, which includes the use of wikis, blogs, and tagging for collaboration and participation. Metadata also underlies the development of semantic applications, and the Semantic Web - the representation and integration of multimedia knowledge structures on the basis of semantic models. These two trends flow together in applications such as Wikipedia, where authors collectively create structured information that can be extracted and used to enhance access to and use of information sources. Recent discussion has focused on how existing bibliographic standards can be expressed as Semantic Web vocabularies to facilitate the ingration of library and cultural heritage data with other types of data. Harnessing the efforts of content providers and end-users to link, tag, edit, and describe their information in interoperable ways ("participatory metadata") is a key step towards providing knowledge environments that are scalable, self-correcting, and evolvable. DC-2008 will explore conceptual and practical issues in the development and deployment of semantic and social applications to meet the needs of specific communities of practice.
    Classification
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
    Content
    Carol Jean Godby, Devon Smith, Eric Childress: Encoding Application Profiles in a Computational Model of the Crosswalk. - Maria Elisabete Catarino, Ana Alice Baptista: Relating Folksonomies with Dublin Core. - Ed Summers, Antoine Isaac, Clay Redding, Dan Krech: LCSH, SKOS and Linked Data. - Xia Lin, Jiexun Li, Xiaohua Zhou: Theme Creation for Digital Collections. - Boris Lauser, Gudrun Johannsen, Caterina Caracciolo, Willem Robert van Hage, Johannes Keizer, Philipp Mayr: Comparing Human and Automatic Thesaurus Mapping Approaches in the Agricultural Domain. - P. Bryan Heidorn, Qin Wei: Automatic Metadata Extraction From Museum Specimen Labels. - Stuart Allen Sutton, Diny Golder: Achievement Standards Network (ASN): An Application Profile for Mapping K-12 Educational Resources to Achievement Standards. - Allen H. Renear, Karen M. Wickett, Richard J. Urban, David Dubin, Sarah L. Shreeves: Collection/Item Metadata Relationships. - Seth van Hooland, Yves Bontemps, Seth Kaufman: Answering the Call for more Accountability: Applying Data Profiling to Museum Metadata. - Thomas Margaritopoulos, Merkourios Margaritopoulos, Ioannis Mavridis, Athanasios Manitsaris: A Conceptual Framework for Metadata Quality Assessment. - Miao Chen, Xiaozhong Liu, Jian Qin: Semantic Relation Extraction from Socially-Generated Tags: A Methodology for Metadata Generation. - Hak Lae Kim, Simon Scerri, John G. Breslin, Stefan Decker, Hong Gee Kim: The State of the Art in Tag Ontologies: A Semantic Model for Tagging and Folksonomies. - Martin Malmsten: Making a Library Catalogue Part of the Semantic Web. - Philipp Mayr, Vivien Petras: Building a Terminology Network for Search: The KoMoHe Project. - Michael Panzer: Cool URIs for the DDC: Towards Web-scale Accessibility of a Large Classification System. - Barbara Levergood, Stefan Farrenkopf, Elisabeth Frasnelli: The Specification of the Language of the Field and Interoperability: Cross-language Access to Catalogues and Online Libraries (CACAO)
    Footnote
    Vgl.: http://dcpapers.dublincore.org/index.php/pubs/issue/view/32/showToc. - Vgl. auch den Bericht über die Tagung in: ZfBB 26(2009) H.1, S.35-37 (C. Frodl u. M. Keßler)
    RVK
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
  8. Weiss, B.: ¬Die Metadaten-Initiative deutscher Bibliotheken : Das META-LIB-Projekt (2000) 0.02
    0.015306472 = product of:
      0.045919415 = sum of:
        0.008834538 = weight(_text_:in in 4457) [ClassicSimilarity], result of:
          0.008834538 = score(doc=4457,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.14877784 = fieldWeight in 4457, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4457)
        0.037084877 = weight(_text_:und in 4457) [ClassicSimilarity], result of:
          0.037084877 = score(doc=4457,freq=10.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.38329202 = fieldWeight in 4457, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4457)
      0.33333334 = coord(2/6)
    
    Abstract
    META-LIB ist ein gemeinsames Projekt der Niedersächsischen Staats- und Universitätsbibliothek Göttingen, Der Deutschen Bibliothek, der Bayerischen Staatsbibliothek und des Deutschen Bibliotheksinstituts. Es wird im Rahmen des Förderbereichs 'Verteilte digitale Forschungsbibliothek', Einzelprogramm 'Modernisierung und Rationalisierung in wissenschaftlichen Bibliotheken' von der DFG gefördert. META-LIB hat zum Ziel, Richtlinien für den Einsatz von Metadaten, insbesondere des Dublin-Core-Sets, zur Erschließung digitaler und digitalisierter Ressourcen in wissenschaftlichen Bibliotheken zu entwickeln. Vorgestellt wird das Teilprojekt Der Deutschen Bibliothek, welches zur Aufgabe die 'Entwicklung von Konventionen für die (national)bibliographische Erschließung digitaler Publikationen' hat
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.56-62
  9. Frodl, C.; Gros, A.; Rühle, S.: Übersetzung des Singapore Framework für Dublin-Core-Anwendungsprofile (2009) 0.02
    0.015306472 = product of:
      0.045919415 = sum of:
        0.008834538 = weight(_text_:in in 3229) [ClassicSimilarity], result of:
          0.008834538 = score(doc=3229,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.14877784 = fieldWeight in 3229, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3229)
        0.037084877 = weight(_text_:und in 3229) [ClassicSimilarity], result of:
          0.037084877 = score(doc=3229,freq=10.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.38329202 = fieldWeight in 3229, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3229)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Singapore Framework für Dublin-Core-Anwendungsprofile nennt die Rahmenbedingungen um Metadatenanwendungen möglichst interoperabel zu gestalten und so zu dokumentieren, dass sie nachnutzbar sind. Es definiert die Komponenten, die erforderlich und hilfreich sind, um ein Anwendungsprofil zu dokumentieren und es beschreibt, wie sich diese dokumentarischen Standards gegenüber Standard-Domain-Modellen und den Semantic-Web-Standards verhalten. Das Singapore Framework ist die Grundlage für die Beurteilung von Anwendungsprofilen in Hinblick auf Vollständigkeit der Dokumentation und auf Übereinstimmung mit den Prinzipien der Web-Architektur. Dieses Dokument bietet eine kurze Übersicht über das Singapore Framework. Weitere Dokumente, die als Anleitung für die Erstellung der erforderlichen Dokumentation dienen, sind in Planung.
  10. Plümer, J.: Metadaten in den wissenschaftlichen Fachgesellschaften (2000) 0.02
    0.01501588 = product of:
      0.045047637 = sum of:
        0.0071393843 = weight(_text_:in in 4459) [ClassicSimilarity], result of:
          0.0071393843 = score(doc=4459,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.120230645 = fieldWeight in 4459, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=4459)
        0.037908252 = weight(_text_:und in 4459) [ClassicSimilarity], result of:
          0.037908252 = score(doc=4459,freq=8.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.39180204 = fieldWeight in 4459, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4459)
      0.33333334 = coord(2/6)
    
    Abstract
    Wissenschaftler nutzen Dublin Core Metadaten im Internet einerseits zur besseren Verfügbarkeit ihrer Arbeitsergebnisse, andererseits zur besseren Darstellung ihrer Arbeitsgruppen, Lehrveranstaltungen und Forschungsprojekte. Die Metadaten erlauben ein qualitativ hochwertiges Retrieval auf diesem spezifischen Material. die Nutzung von Retrievalwerkzeugen und das Angebot von Indexen dieser Materialien, sowie die Bereitstellung von Metadaten wird seit einigen Jahren von den Wissenschaftlern selbst übernommen. Die dazu verwendeten technischen Methoden und Organisationsstrukturen werden exemplarisch am Mathematics PREprint Search System vorgestellt
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.70-80
  11. Schroeder, K.: Persistent Identifiers im Kontext der Langzeitarchivierung : EPICUR auf dem 2. Bibliothekskongress in Leipzig (2004) 0.01
    0.014705958 = product of:
      0.04411787 = sum of:
        0.011288359 = weight(_text_:in in 2787) [ClassicSimilarity], result of:
          0.011288359 = score(doc=2787,freq=20.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.19010136 = fieldWeight in 2787, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
        0.032829512 = weight(_text_:und in 2787) [ClassicSimilarity], result of:
          0.032829512 = score(doc=2787,freq=24.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.33931053 = fieldWeight in 2787, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
      0.33333334 = coord(2/6)
    
    Abstract
    Mit elektronischem Publizieren werden folgende Eigenschaften verbunden: »schnell, kostengünstig, weltweit«. Aber ist das aus Nutzersicht bzw. aus der Perspektive der Autoren ausreichend, um eine Online-Veröffentlichung dauerhaft zu nutzen und zuverlässig zu zitieren? Ein Mechanismus, mit dem netzbasierte Publikationen eindeutig gekennzeichnet werden und jederzeit auffindbar sind, wird durch flüchtige Uniform Resource Locator (URLs) nicht bereitgestellt. Eine Lösung bieten Persistent Identifiers (Pls), wie z. B. Uniform Resource Names (URN)". Damit die Anwendung eines persistenten Adressierungsschemas wie den URNs langfristig gewährleistet werden kann, muss eine Infrastruktur mit einer institutionellen Unterstützung geschaffen werden. Ein wesentlicher Aspekt in diesem Kontext ist die Langzeitarchivierung der digitalen Objekte. Die Darstellung und Erläuterung der Schnittstellen zwischen Langzeitarchivierung und Pls sowie der damit verbundenen Aktivitäten und Ergebnisse des EPICUR-Projektes war Gegenstand des Vortrages von Kathrin Schroeder auf dem diesjährigen z. Bibliothekskongress in Leipzig im Rahmen des Workshops »Technische Aspekte der Langzeitarchivierung«". Es besteht ein enger Zusammenhang zwischen den Bereichen Pls (standortunabhängige, eindeutige Bezeichner für digitale Objekte) und Langzeitarchivierung (Maßnahmen, die dazu dienen, digitale Objekte für die Nachwelt dauerhaft zu erhalten): Pls werden als stabiler Zugriffsmechanismus für digitale Objekte verwendet, die in einem Depotsystem archiviert werden. Ein Depotsystem ist ein »( ...) Archiv für digitale Objekte, in dem Menschen und Systeme als 'Organisation' mit der Aufgabenstellung zusammenwirken, Informationen zu erhalten und einer definierten Nutzerschaft verfügbar zu machen.« Dazu gehören im erweiterten Sinne auch eine Infrastruktur vor der Eingangsschnittstelle des Depotsystems, die zum Transfer digitaler Objekte von den Produzenten in das Archiv dient, und die Infrastruktur der Endnutzer-Umgebungen hinter der Auslieferungsschnittstelle des Depotsystems, in denen die digitalen Objekte benutzt werden sollen. In diesem Umfeld werden Pls in folgenden Bereichen angewendet: - Metadaten, - Datenaustauschformate, - Automatisierte Lieferungen von Objekten in ein Archivsystem, - Depotsystem und - Nutzung von Pls als stabiler Zugriffsmechanismus auf ein Objekt als wichtigster Aspekt für den Endnutzer (Wissenschaftler und Autoren). Im Folgenden werden zu den einzelnen Bereichen die Ergebnisse des EPICUR-Projektes und die Aktivitäten Der Deutschen Bibliothek diskutiert.
  12. Mittler, E.: Dublin Core und deutsche Bibliotheken (2000) 0.01
    0.014165372 = product of:
      0.042496115 = sum of:
        0.010709076 = weight(_text_:in in 4455) [ClassicSimilarity], result of:
          0.010709076 = score(doc=4455,freq=8.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18034597 = fieldWeight in 4455, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4455)
        0.031787038 = weight(_text_:und in 4455) [ClassicSimilarity], result of:
          0.031787038 = score(doc=4455,freq=10.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.328536 = fieldWeight in 4455, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4455)
      0.33333334 = coord(2/6)
    
    Abstract
    Ende Oktober 1999 hat das 7. Dublin core Meeting in der Deutschen Bibliothek in Frankfurt/M. in beeindruckender Weise die Internationalität und Interdisziplinarität dieses Ansatzes zur Beschreibung elektronischer Medien verdeutlicht. Es war zugleich eine Anerkennung für die vielfältigen deutschen Aktivitäten. Anhand von Beispielen (Math-Net und Math-Bibl-Net; SSG-FI der SUB Göttingen; Südwestverbund und HBZ) werden die Zielvorstellungen von Dublin Core herausgearbeitet. Um die Auffindbarkeit der elektronischen Dokumente durch Standardisierung der Metadaten zu sichern setzt DC schon beim Autor an. Es ist u.a. gelungen, DC im Rahmen von neuen Standards wie open-e-book zu implementieren. Damit wird die Interoperabilität von Metadaten wesentlich verbessert. Die deutschen Bibliotheken haben sich erfolgreich in die internationale Entwicklung integriert. Auch die Teilnahme am OCLC-Projekt CORC trägt dazu bei. Das kann Rückwirkungen auch auf die Regeln für die Katalogisierung gedruckter Medien haben
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.46-55
  13. Ziegler, C.: Weltendämmerung : XML und Datenbanken: Einblick in Tamino (2001) 0.01
    0.01414357 = product of:
      0.04243071 = sum of:
        0.008924231 = weight(_text_:in in 5802) [ClassicSimilarity], result of:
          0.008924231 = score(doc=5802,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.15028831 = fieldWeight in 5802, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=5802)
        0.03350648 = weight(_text_:und in 5802) [ClassicSimilarity], result of:
          0.03350648 = score(doc=5802,freq=4.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.34630734 = fieldWeight in 5802, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5802)
      0.33333334 = coord(2/6)
    
    Abstract
    XML hat sich als Esperanto des Datenaustauschs etabliert und schickt sich an, die eher relationale geprägte Welt der Datenbanken zu verändern. Anders als relationale DBMS legt der Informationsserver Tamino Daten nativ im XML-Format ab
  14. Klever, N.: Elementarteilchen : XML-Schema: objektorientierte Dokumenttypdefinitionen (2001) 0.01
    0.01414357 = product of:
      0.04243071 = sum of:
        0.008924231 = weight(_text_:in in 5803) [ClassicSimilarity], result of:
          0.008924231 = score(doc=5803,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.15028831 = fieldWeight in 5803, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=5803)
        0.03350648 = weight(_text_:und in 5803) [ClassicSimilarity], result of:
          0.03350648 = score(doc=5803,freq=4.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.34630734 = fieldWeight in 5803, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5803)
      0.33333334 = coord(2/6)
    
    Abstract
    Strukturbeschreibungen von XML-Daten und -Dokumenten waren bislang nur über die aus SGML stammenden Dokumenttypdefinitionen möglich. Mit XML-Schema steht beim W3C die nächste Generation solcher Beschreibungen vor der Verabschiedung. Modular, objektorientiert und natürlich in XML
  15. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Ein Halbzeitbericht (2001) 0.01
    0.014046981 = product of:
      0.042140942 = sum of:
        0.010709076 = weight(_text_:in in 5900) [ClassicSimilarity], result of:
          0.010709076 = score(doc=5900,freq=18.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18034597 = fieldWeight in 5900, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
        0.031431865 = weight(_text_:und in 5900) [ClassicSimilarity], result of:
          0.031431865 = score(doc=5900,freq=22.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.3248651 = fieldWeight in 5900, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
    Content
    Vgl. auch die korrigierte Fassung in: Bibliotheksdienst 35(2001) H.5, S.566-572.
  16. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Bericht über den middleOfTheRoad Workshop (2001) 0.01
    0.013842827 = product of:
      0.04152848 = sum of:
        0.010096614 = weight(_text_:in in 5901) [ClassicSimilarity], result of:
          0.010096614 = score(doc=5901,freq=16.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.17003182 = fieldWeight in 5901, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
        0.031431865 = weight(_text_:und in 5901) [ClassicSimilarity], result of:
          0.031431865 = score(doc=5901,freq=22.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.3248651 = fieldWeight in 5901, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
  17. Tennant, R.: ¬A bibliographic metadata infrastructure for the twenty-first century (2004) 0.01
    0.013532344 = product of:
      0.040597033 = sum of:
        0.0071393843 = weight(_text_:in in 2845) [ClassicSimilarity], result of:
          0.0071393843 = score(doc=2845,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.120230645 = fieldWeight in 2845, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=2845)
        0.033457648 = product of:
          0.066915296 = sum of:
            0.066915296 = weight(_text_:22 in 2845) [ClassicSimilarity], result of:
              0.066915296 = score(doc=2845,freq=4.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.4377287 = fieldWeight in 2845, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2845)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    The current library bibliographic infrastructure was constructed in the early days of computers - before the Web, XML, and a variety of other technological advances that now offer new opportunities. General requirements of a modern metadata infrastructure for libraries are identified, including such qualities as versatility, extensibility, granularity, and openness. A new kind of metadata infrastructure is then proposed that exhibits at least some of those qualities. Some key challenges that must be overcome to implement a change of this magnitude are identified.
    Date
    9.12.2005 19:22:38
    Source
    Library hi tech. 22(2004) no.2, S.175-181
  18. Baker, T.; Rühle, S.: Übersetzung des Dublin Core Metadata Initiative Abstract Model (DCAM) (2009) 0.01
    0.013422224 = product of:
      0.04026667 = sum of:
        0.008924231 = weight(_text_:in in 3230) [ClassicSimilarity], result of:
          0.008924231 = score(doc=3230,freq=8.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.15028831 = fieldWeight in 3230, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3230)
        0.03134244 = weight(_text_:und in 3230) [ClassicSimilarity], result of:
          0.03134244 = score(doc=3230,freq=14.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.32394084 = fieldWeight in 3230, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3230)
      0.33333334 = coord(2/6)
    
    Abstract
    Dieses Dokument beschreibt das Abstraktmodell für Dublin-Core-Metadaten. Ziel des Dokuments ist es vor allem, die Elemente und Strukturen, die in Dublin-Core-Metadaten verwendet werden, zu benennen. Das Dokument definiert die verwendeten Elemente und beschreibt, wie sie miteinander kombiniert werden, um Informationsstrukturen zu bilden. Es stellt ein von jeglicher besonderen Codierungssyntax unabhängiges Informationsmodell dar. Ein solches Informationsmodell macht es uns möglich, die Beschreibungen, die wir codieren wollen, besser zu verstehen und erleichtert die Entwicklung besserer Mappings und syntaxübergreifender Datenkonvertierungen. Dieses Dokument richtet sich in erster Linie an Entwickler von Softwareanwendungen, die Dublin-Core-Metadaten unterstützen, an Personen, die neue syntaktische Codierungsrichtlinien für Dublin-Core-Metadaten entwickeln und an Personen, die Metadatenprofile entwickeln, die auf DCMI- oder anderen kompatibelen Vokabularen basieren. Das DCMI-Abstraktmodell basiert auf der Arbeit des World Wide Web Consortium (W3C) am Resource Description Framework (RDF). Die Verwendung von Konzepten aus RDF wird unten im Abschnitt 5 zusammengefasst. Das DCMI-Abstraktmodell wird hier mit UML-Klassen-Diagrammen dargestellt. Für Leser, die solche UML-Klassen-Diagramme nicht kennen, eine kurze Anleitung: Linien, die in einem Maßpfeil enden, werden als 'ist' oder 'ist eine' gelesen (z.B. "value ist eine resource"). Linien, die mit einer Raute beginnen, werden als 'hat' oder 'hat eine' gelesen (z.B. "statement hat einen property URI"). Andere Beziehungen werden entsprechend gekennzeichnet. Die kursiv geschriebenen Wörter und Phrasen in diesem Dokument werden im Abschnitt 7 ("Terminologie") definiert. Wir danken Dan Brickley, Rachel Heery, Alistair Miles, Sarah Pulis, den Mitgliedern des DCMI Usage Board und den Mitgliedern der DCMI Architecture Community für ihr Feedback zu den vorangegangenen Versionen dieses Dokuments.
  19. Schweibenz, W.: Metadaten für Museen : Ein Bericht vom CIMI Dublin core Metadaten Workshop vom 27. bis 28. April 2000 in Amstelveen, Niederlande (2000) 0.01
    0.013046755 = product of:
      0.039140265 = sum of:
        0.010709076 = weight(_text_:in in 4959) [ClassicSimilarity], result of:
          0.010709076 = score(doc=4959,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18034597 = fieldWeight in 4959, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=4959)
        0.02843119 = weight(_text_:und in 4959) [ClassicSimilarity], result of:
          0.02843119 = score(doc=4959,freq=2.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.29385152 = fieldWeight in 4959, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4959)
      0.33333334 = coord(2/6)
    
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.5, S.291-292
  20. Korb, N.; Wollschläger, T.: Koordinierungsstelle DissOnline auf dem 2. Bibliothekskongress in Leipzig : Strategien zur Lösung von technischen und Rechtsfragen bei Online-Hochschulschriften (2004) 0.01
    0.013046755 = product of:
      0.039140265 = sum of:
        0.010709076 = weight(_text_:in in 2385) [ClassicSimilarity], result of:
          0.010709076 = score(doc=2385,freq=8.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18034597 = fieldWeight in 2385, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2385)
        0.02843119 = weight(_text_:und in 2385) [ClassicSimilarity], result of:
          0.02843119 = score(doc=2385,freq=8.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.29385152 = fieldWeight in 2385, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2385)
      0.33333334 = coord(2/6)
    
    Abstract
    Zur Unterstützung von Autoren, Bibliotheken, Verlagen und weiteren Institutionen bei der Publikation von elektronischen Hochschulschriften sowie zur Förderung ihrer Verbreitung und Nutzung wurde 2001 auf Empfehlung des Projektes der Deutschen Forschungsgemeinschaft (DFG) »Dissertationen Online« die Koordinierungsstelle DissOnline an Der Deutschen Bibliothek eingerichtet. Die Koordinierungsstelle hat sich inzwischen in Deutschland etabliert. Seit ihrer Gründung 2001 führte die Koordinierungsstelle auf jedem Bibliothekartag eine Veranstaltung durch. Auf dem diesjährigen 2. Bibliothekskongress in Leipzig wurde in einer Einführung von Dr. Thomas Wollschläger (die Deutsche Bibliothek Frankfurt am Main) über die aktuelle Arbeit der Koordinierungsstelle berichtet. Es wurden neue Entwicklungen bei der Informationsvermittlung mittels DissOnline vorgestellt und es konnte sowohl eine wachsende Nutzung der Möglichkeit zur OnlinePublikation als auch ein verstärkter Zugriff - auf Online-Hochschulschriften selbst verzeichnet werden. Deutlich wurden dabei auch die Vorteile der Metadaten für eine effektive Nutzung der Online-Veröffentlichungen.

Authors

Languages

  • e 212
  • d 49
  • chi 1
  • dk 1
  • More… Less…

Types

  • a 229
  • el 38
  • m 9
  • s 8
  • n 3
  • b 2
  • x 2
  • p 1
  • r 1
  • More… Less…