Search (385 results, page 1 of 20)

  • × theme_ss:"Metadaten"
  1. Janssen, U.: ONIX - Metadaten in Verlagen und Buchhandel (2003) 0.08
    0.0781659 = product of:
      0.3238302 = sum of:
        0.02377548 = weight(_text_:und in 1764) [ClassicSimilarity], result of:
          0.02377548 = score(doc=1764,freq=34.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.50482535 = fieldWeight in 1764, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1764)
        0.02020079 = product of:
          0.04040158 = sum of:
            0.04040158 = weight(_text_:bibliothekswesen in 1764) [ClassicSimilarity], result of:
              0.04040158 = score(doc=1764,freq=6.0), product of:
                0.09472281 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02124939 = queryNorm
                0.4265243 = fieldWeight in 1764, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1764)
          0.5 = coord(1/2)
        0.0127314795 = weight(_text_:des in 1764) [ClassicSimilarity], result of:
          0.0127314795 = score(doc=1764,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.21635216 = fieldWeight in 1764, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1764)
        0.10454555 = weight(_text_:buchhandels in 1764) [ClassicSimilarity], result of:
          0.10454555 = score(doc=1764,freq=4.0), product of:
            0.1686285 = queryWeight, product of:
              7.935687 = idf(docFreq=42, maxDocs=44218)
              0.02124939 = queryNorm
            0.61997557 = fieldWeight in 1764, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.935687 = idf(docFreq=42, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1764)
        0.0127314795 = weight(_text_:des in 1764) [ClassicSimilarity], result of:
          0.0127314795 = score(doc=1764,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.21635216 = fieldWeight in 1764, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1764)
        0.10454555 = weight(_text_:buchhandels in 1764) [ClassicSimilarity], result of:
          0.10454555 = score(doc=1764,freq=4.0), product of:
            0.1686285 = queryWeight, product of:
              7.935687 = idf(docFreq=42, maxDocs=44218)
              0.02124939 = queryNorm
            0.61997557 = fieldWeight in 1764, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.935687 = idf(docFreq=42, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1764)
        0.045299873 = weight(_text_:europa in 1764) [ClassicSimilarity], result of:
          0.045299873 = score(doc=1764,freq=2.0), product of:
            0.13200313 = queryWeight, product of:
              6.2120905 = idf(docFreq=240, maxDocs=44218)
              0.02124939 = queryNorm
            0.34317273 = fieldWeight in 1764, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2120905 = idf(docFreq=240, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1764)
      0.2413793 = coord(7/29)
    
    Abstract
    ONIX (das Akronym steht für Online information exchange) ist der erste weltweit akzeptierte Standard für angereicherte Metadaten über Bücher, Fortsetzungswerke und andere Produkte des Buchhandels. Er wurde ursprünglich in den USA entwickelt, zunächst mit dem Ziel, dem Internetbuchhandel in einem einheitlichen Format Katalogdaten und zusätzlich Marketingmaterial zur Verfügung stellen zu können. Von Anfang an waren Barsortimente, bibliographische Agenturen und Verlage in den USA und bald auch aus dem Vereinigten Königreich an der Entwicklung von ONIX beteiligt und haben diese finanziell sowie personell gefördert. Die Pflege und Weiterentwicklung dieses neuen Standards wurde dann in die Hände von EDItEUR gelegt, der internationalen Dachorganisation für Standardisierung im Buchhandel, gegründet und gefördert von Verbänden aus Buchhandel, Verlagen und Bibliothekswesen, darunter dem Börsenverein des Deutschen Buchhandels und der European Booksellers Federation. Büro und Sekretariat von EDItEUR werden in London von Book Industry Communication (BIC), einer Gemeinschaftsorganisation der britischen Verleger- und Buchhändlerverbände, gestellt. EDIMUR wurde vor zehn Jahren gegründet, um EDIStandards (EDI = electronic data interchange, elektronischer Datenaustausch) für die Kommunikation zwischen Buchhandel und Verlagen einerseits und Bibliotheken und ihren Lieferanten andererseits zu entwickeln. Dafür wurden Richtlinien für eine Reihe von EANCOM-Nachrichten verabschiedet, darunter für Bestellungen, Auftragsbestätigungen, Rechnungen und Angebote. Ein Richtlinienentwurf für die Nachricht PRICAT (Price and sales catalogue), die für die Übermittlung von Katalogdaten bestimmt ist, wurde zwar vor einigen Jahren entwickelt, aber bisher noch nirgendwo in der Praxis getestet oder gar produktiv eingesetzt. Hingegen sind die transaktionsbezogenen EDI-Nachrichten sowohl im Bibliothekswesen als auch im Buchhandel in Europa vielfach im Einsatz.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.210-214
  2. Rusch-Feja, D.: ¬Die Open Archives Initiative (OAI) : Neue Zugangsformen zu wissenschaftlichen Arbeiten? (2001) 0.04
    0.03609793 = product of:
      0.14954856 = sum of:
        0.018307757 = weight(_text_:und in 1133) [ClassicSimilarity], result of:
          0.018307757 = score(doc=1133,freq=14.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.38872904 = fieldWeight in 1133, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1133)
        0.021606037 = weight(_text_:des in 1133) [ClassicSimilarity], result of:
          0.021606037 = score(doc=1133,freq=8.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.36716178 = fieldWeight in 1133, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1133)
        0.021606037 = weight(_text_:des in 1133) [ClassicSimilarity], result of:
          0.021606037 = score(doc=1133,freq=8.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.36716178 = fieldWeight in 1133, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1133)
        0.020781705 = weight(_text_:nach in 1133) [ClassicSimilarity], result of:
          0.020781705 = score(doc=1133,freq=2.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.25462174 = fieldWeight in 1133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.046875 = fieldNorm(doc=1133)
        0.004250179 = product of:
          0.008500358 = sum of:
            0.008500358 = weight(_text_:1 in 1133) [ClassicSimilarity], result of:
              0.008500358 = score(doc=1133,freq=2.0), product of:
                0.05219918 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02124939 = queryNorm
                0.16284466 = fieldWeight in 1133, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1133)
          0.5 = coord(1/2)
        0.054359853 = weight(_text_:europa in 1133) [ClassicSimilarity], result of:
          0.054359853 = score(doc=1133,freq=2.0), product of:
            0.13200313 = queryWeight, product of:
              6.2120905 = idf(docFreq=240, maxDocs=44218)
              0.02124939 = queryNorm
            0.4118073 = fieldWeight in 1133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2120905 = idf(docFreq=240, maxDocs=44218)
              0.046875 = fieldNorm(doc=1133)
        0.008636996 = product of:
          0.017273992 = sum of:
            0.017273992 = weight(_text_:22 in 1133) [ClassicSimilarity], result of:
              0.017273992 = score(doc=1133,freq=2.0), product of:
                0.07441174 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02124939 = queryNorm
                0.23214069 = fieldWeight in 1133, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1133)
          0.5 = coord(1/2)
      0.2413793 = coord(7/29)
    
    Abstract
    Nach einer Erläuterung der Ereignisse und Gründe, die zur Entwicklung der Open Archives Initiative (OAI) geführt haben, wird die Entstehungsgeschichte der OAI sowie ihre Organisationsstruktur dargestellt. Der Input und Diskussionen von Interessierten und Erstanwendern bei mehreren öffentlichen Workshops trugen zur Optimierung der Alpha-Version des Protokolls bei, mit dem Ergebnis, dass die erste offizielle Version im Januar 2001 vorgestellt wurde. Darauf hin folgten zwei Workshops in den USA und Europa zur Darlegung des Protokolls und Vorstellung exemplarischer Implementierung des Protokolls. Das OAI Metadata Harvesting Protokoll wird in seiner Zielsetzung und Möglichkeiten detailliert dargestellt. Auch die vom Protokoll erforderlichen Metadaten werden erläutert. Die Basisbefehle zur Abfrage in verschiedenen OAI-kompatiblen Repositories, auch mit Unterscheidung zwischen besonderen Sammlungen innerhalb der Repositories werden erklärt. Zum Schluß werden die Aussichten für die OAI im Rahmen der Experimentierphase der 1. Version des Protokolls sowie im Rahmen der gegenwärtigen Entwicklungen im wissenschaftlichen Publikationswesen diskutiert.
    Date
    22. 4.2002 12:23:54
    Source
    Bibliothek: Forschung und Praxis. 25(2001) H.3, S.291-300
  3. Metadata for semantic and social applications : proceedings of the International Conference on Dublin Core and Metadata Applications, Berlin, 22 - 26 September 2008, DC 2008: Berlin, Germany (2008) 0.04
    0.03591118 = product of:
      0.13017803 = sum of:
        0.037827723 = weight(_text_:allgemeines in 2668) [ClassicSimilarity], result of:
          0.037827723 = score(doc=2668,freq=4.0), product of:
            0.12123675 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.02124939 = queryNorm
            0.31201532 = fieldWeight in 2668, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2668)
        0.025120184 = weight(_text_:buch in 2668) [ClassicSimilarity], result of:
          0.025120184 = score(doc=2668,freq=4.0), product of:
            0.09879628 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.02124939 = queryNorm
            0.25426245 = fieldWeight in 2668, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2668)
        0.005708446 = weight(_text_:und in 2668) [ClassicSimilarity], result of:
          0.005708446 = score(doc=2668,freq=4.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.12120757 = fieldWeight in 2668, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2668)
        0.016328104 = product of:
          0.032656208 = sum of:
            0.032656208 = weight(_text_:bibliothekswesen in 2668) [ClassicSimilarity], result of:
              0.032656208 = score(doc=2668,freq=8.0), product of:
                0.09472281 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02124939 = queryNorm
                0.34475547 = fieldWeight in 2668, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2668)
          0.5 = coord(1/2)
        0.033348955 = weight(_text_:informationswissenschaft in 2668) [ClassicSimilarity], result of:
          0.033348955 = score(doc=2668,freq=8.0), product of:
            0.09572223 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02124939 = queryNorm
            0.348393 = fieldWeight in 2668, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2668)
        0.004327097 = product of:
          0.012981291 = sum of:
            0.012981291 = weight(_text_:l in 2668) [ClassicSimilarity], result of:
              0.012981291 = score(doc=2668,freq=2.0), product of:
                0.08445894 = queryWeight, product of:
                  3.9746525 = idf(docFreq=2257, maxDocs=44218)
                  0.02124939 = queryNorm
                0.15369943 = fieldWeight in 2668, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9746525 = idf(docFreq=2257, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2668)
          0.33333334 = coord(1/3)
        0.0024792708 = product of:
          0.0049585416 = sum of:
            0.0049585416 = weight(_text_:1 in 2668) [ClassicSimilarity], result of:
              0.0049585416 = score(doc=2668,freq=2.0), product of:
                0.05219918 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02124939 = queryNorm
                0.09499271 = fieldWeight in 2668, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2668)
          0.5 = coord(1/2)
        0.005038248 = product of:
          0.010076496 = sum of:
            0.010076496 = weight(_text_:22 in 2668) [ClassicSimilarity], result of:
              0.010076496 = score(doc=2668,freq=2.0), product of:
                0.07441174 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02124939 = queryNorm
                0.1354154 = fieldWeight in 2668, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2668)
          0.5 = coord(1/2)
      0.27586207 = coord(8/29)
    
    BK
    06.38 / Kooperation <Bibliothekswesen, Dokumentationswesen>
    Classification
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
    06.38 / Kooperation <Bibliothekswesen, Dokumentationswesen>
    Content
    Carol Jean Godby, Devon Smith, Eric Childress: Encoding Application Profiles in a Computational Model of the Crosswalk. - Maria Elisabete Catarino, Ana Alice Baptista: Relating Folksonomies with Dublin Core. - Ed Summers, Antoine Isaac, Clay Redding, Dan Krech: LCSH, SKOS and Linked Data. - Xia Lin, Jiexun Li, Xiaohua Zhou: Theme Creation for Digital Collections. - Boris Lauser, Gudrun Johannsen, Caterina Caracciolo, Willem Robert van Hage, Johannes Keizer, Philipp Mayr: Comparing Human and Automatic Thesaurus Mapping Approaches in the Agricultural Domain. - P. Bryan Heidorn, Qin Wei: Automatic Metadata Extraction From Museum Specimen Labels. - Stuart Allen Sutton, Diny Golder: Achievement Standards Network (ASN): An Application Profile for Mapping K-12 Educational Resources to Achievement Standards. - Allen H. Renear, Karen M. Wickett, Richard J. Urban, David Dubin, Sarah L. Shreeves: Collection/Item Metadata Relationships. - Seth van Hooland, Yves Bontemps, Seth Kaufman: Answering the Call for more Accountability: Applying Data Profiling to Museum Metadata. - Thomas Margaritopoulos, Merkourios Margaritopoulos, Ioannis Mavridis, Athanasios Manitsaris: A Conceptual Framework for Metadata Quality Assessment. - Miao Chen, Xiaozhong Liu, Jian Qin: Semantic Relation Extraction from Socially-Generated Tags: A Methodology for Metadata Generation. - Hak Lae Kim, Simon Scerri, John G. Breslin, Stefan Decker, Hong Gee Kim: The State of the Art in Tag Ontologies: A Semantic Model for Tagging and Folksonomies. - Martin Malmsten: Making a Library Catalogue Part of the Semantic Web. - Philipp Mayr, Vivien Petras: Building a Terminology Network for Search: The KoMoHe Project. - Michael Panzer: Cool URIs for the DDC: Towards Web-scale Accessibility of a Large Classification System. - Barbara Levergood, Stefan Farrenkopf, Elisabeth Frasnelli: The Specification of the Language of the Field and Interoperability: Cross-language Access to Catalogues and Online Libraries (CACAO)
    Footnote
    Vgl.: http://dcpapers.dublincore.org/index.php/pubs/issue/view/32/showToc. - Vgl. auch den Bericht über die Tagung in: ZfBB 26(2009) H.1, S.35-37 (C. Frodl u. M. Keßler)
    RVK
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
  4. Baker, T.; Fischer, T.: Bericht von der Dublin-Core-Konferenz (DC-2005) in Madrid (2005) 0.03
    0.02886252 = product of:
      0.10462663 = sum of:
        0.02292706 = weight(_text_:allgemeines in 4872) [ClassicSimilarity], result of:
          0.02292706 = score(doc=4872,freq=2.0), product of:
            0.12123675 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.02124939 = queryNorm
            0.18910983 = fieldWeight in 4872, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4872)
        0.013399906 = weight(_text_:und in 4872) [ClassicSimilarity], result of:
          0.013399906 = score(doc=4872,freq=30.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.28452054 = fieldWeight in 4872, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4872)
        0.0069977585 = product of:
          0.013995517 = sum of:
            0.013995517 = weight(_text_:bibliothekswesen in 4872) [ClassicSimilarity], result of:
              0.013995517 = score(doc=4872,freq=2.0), product of:
                0.09472281 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02124939 = queryNorm
                0.14775234 = fieldWeight in 4872, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4872)
          0.5 = coord(1/2)
        0.010803019 = weight(_text_:des in 4872) [ClassicSimilarity], result of:
          0.010803019 = score(doc=4872,freq=8.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.18358089 = fieldWeight in 4872, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4872)
        0.010803019 = weight(_text_:des in 4872) [ClassicSimilarity], result of:
          0.010803019 = score(doc=4872,freq=8.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.18358089 = fieldWeight in 4872, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4872)
        0.010390853 = weight(_text_:nach in 4872) [ClassicSimilarity], result of:
          0.010390853 = score(doc=4872,freq=2.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.12731087 = fieldWeight in 4872, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4872)
        0.0021250895 = product of:
          0.004250179 = sum of:
            0.004250179 = weight(_text_:1 in 4872) [ClassicSimilarity], result of:
              0.004250179 = score(doc=4872,freq=2.0), product of:
                0.05219918 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02124939 = queryNorm
                0.08142233 = fieldWeight in 4872, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4872)
          0.5 = coord(1/2)
        0.027179927 = weight(_text_:europa in 4872) [ClassicSimilarity], result of:
          0.027179927 = score(doc=4872,freq=2.0), product of:
            0.13200313 = queryWeight, product of:
              6.2120905 = idf(docFreq=240, maxDocs=44218)
              0.02124939 = queryNorm
            0.20590365 = fieldWeight in 4872, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2120905 = idf(docFreq=240, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4872)
      0.27586207 = coord(8/29)
    
    Content
    "1. Die Konferenz Vom 12. bis 15. September 2005 fand in Leganés (Madrid) die "International Conference an Dublin Core and Metadata Applications" mit dem Thema "Vocabularies in Practice" statt [DC2005]. Gastgeber war der Fachbereich Bibliothekswesen und Dokumentation der "Universidad Carlos III de Madrid" zusammen mit dem Institut "Agustin Millares" für Dokumentation und Wissensmanagement. Den 214 Teilnehmern aus 33 Ländern wurden 14 ausführliche und 18 Kurzpräsentationen geboten sowie zehn "Special Sessions" [DC2005-PAPERS]. Fünf Einführungsseminare zu Themen der Metadaten und maschinell verarbeitbarer Thesauri wurden abgehalten. Die Hauptreden der vier Konferenztage wurden von Thomas Baker (Staats- und Universitätsbibliothek Göttingen), Ricardo Baeza (University of Chile), Johannes Keizer (Food and Agriculture Organization of the United Nations) und Eric Miller (World Wide Web Consortium) gehalten. Plenarvorträge wurden simultan ins Spanische übersetzt und mehrere Treffen wurden in französischer oder spanischer Sprache abgehalten. Die Dublin-Core-Konferenz ist auch das zentrale Ereignis des Jahres für die Dublin Core Metadata Initiative (DCMI) als Organisation. Vor und nach der Konferenz tagten das DCMI Board of Trustees, ein Gremium aus Metadatenexperten und nationalen Vertretern ("Affiliates"); das "Usage Board", das den Standard inhaltlich verwaltet, und das "Advisory Board", das hauptsächlich aus Leitern von DCMI-Arbeitsgruppen besteht. Während der Konferenz haben sich vierzehn Arbeitsgruppen zu speziellen Fragen im Bereich Metadaten getroffen. 2. Von der Kernsemantik zum Modell "Zehn Jahre Dublin Core" war der Hintergrund für die Keynote-Präsehtation von Thomas Baker, DCMI Director of Specifications and Documentation. März 1995 fand in Dublin (Ohio) der Workshop statt, auf dem die Kernelemente erstmals entworfen wurden - Creator, Subject, Date, usw. - die der Initiative den Namen gegeben haben. Dieser "Dublin Core" wurde 1998 bei der Internet Engineering Task Force als Request for Comments (RFC 2413) publiziert, 2000 formal als Standard in Europa (CWA 13874/2000 bei CEN), 2001 in den USA (Z39.95 bei NISO) und 2003 international (ISO 15836/2003) anerkannt [DUBLINCORE]. Am Anfang wurde der Dublin Core als Datenformat konzipiert - d.h. als streng festgelegte Vorlage für digitale Karteikarten. Bereits früh wurden die Elemente jedoch als Vokabular aufgefasst, d.h. als Satz prinzipiell rekombinierbarer Elemente für Beschreibungen, die den Anforderungen spezifischer Anwendungsbereiche angepasst werden konnten - kurz, als Bausteine für Anwendungsprofile. Ausgehend von der vermeintlich simplen Aufgabe, Webseiten auf einfache Art zu beschreiben, hat sich ab 1997 in gegenseitiger Beeinflussung mit der sich entwickelnden Webtechnik von HTML bis hin zu XML und RDF ein allgemeines Modell für Metadaten herauskristallisiert.
    Im März 2005 hat die DCMI mit der Verabschiedung des so genannten "Abstrakten Modells" einen wichtigen Meilenstein erreicht. Dieses DC-Modell ist die formale Grammatik der Metadatensprache, die sich im Laufe der Jahre entwickelt hat. Es hat eine gemeinsame Wurzel mit dem Modell des Semantic Web beim W3C und teilt dessen Grundstruktur, bleibt jedoch absichtlich einfacher als die voll entwickelten Ontologiesprachen des letzteren. Das abstrakte Modell dient als Maßstab für den systematischen Vergleich verschiedenartiger Implementierungstechniken in Bezug auf deren Ausdrucksfähigkeit. Ein hierarchisch aufgebautes XML-Schema kann beispielsweise Metainformationen differenzierter übertragen als ein HTML-Webdokument mit einem flachen Satz eingebetteter META-Tags. Dagegen kann RDF expliziter als ein XML-Schema die Semantik einer Beschreibung in einen größeren semantischen Zusammenhang verankern und somit die Rekombinierbarkeit der Daten erleichtern. In der Praxis müssen Systementwickler sich für die eine oder andere Implementierungstechnik entscheiden, dabei liefern die Metadaten nur eines von mehreren Kriterien. Das DC-Modell bietet eine Basis für den Vergleich der möglichen Lösungen in Hinblick auf die Unterstützung von Metadaten und dient somit als Vorbereitung für deren spätere Integration. Die Interoperabilität der Metadaten ist aber nicht nur eine Frage einer gemeinsamen Semantik mit einem gemeinsamen Modell. Wie auch bei menschlichen Sprachen wird die Interoperabilität umso vollkommener, je besser die Sprachgebräuche verstanden werden - d.h. die Katalogisierungsregeln, die den Metadaten zugrunde liegen. Die Metadatenregeln, die innerhalb einer Anwendungsgemeinschaft benutzt werden, sind Gegenstand eines so genannten Anwendungsprofils. Viele DCMI-Arbeitsgruppen sehen ihre Hauptaufgabe darin, ein Anwendungsprofil für ein bestimmtes Arbeitsgebiet zu erstellen (siehe Abschnitt 6, unten). Diesem Trend zufolge orientiert sich das DCMI Usage Board zunehmend auf die Überprüfung ganzer Anwendungsprofile auf Übereinstimmung mit dem DCMI-Modell."
  5. Gartner, R.: Metadata in the digital library : building an integrated strategy with XML (2021) 0.02
    0.021731185 = product of:
      0.10503406 = sum of:
        0.03242376 = weight(_text_:allgemeines in 732) [ClassicSimilarity], result of:
          0.03242376 = score(doc=732,freq=4.0), product of:
            0.12123675 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.02124939 = queryNorm
            0.2674417 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.021531584 = weight(_text_:buch in 732) [ClassicSimilarity], result of:
          0.021531584 = score(doc=732,freq=4.0), product of:
            0.09879628 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.02124939 = queryNorm
            0.21793923 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.0048929537 = weight(_text_:und in 732) [ClassicSimilarity], result of:
          0.0048929537 = score(doc=732,freq=4.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.10389221 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.009896325 = product of:
          0.01979265 = sum of:
            0.01979265 = weight(_text_:bibliothekswesen in 732) [ClassicSimilarity], result of:
              0.01979265 = score(doc=732,freq=4.0), product of:
                0.09472281 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02124939 = queryNorm
                0.20895338 = fieldWeight in 732, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=732)
          0.5 = coord(1/2)
        0.020212518 = weight(_text_:informationswissenschaft in 732) [ClassicSimilarity], result of:
          0.020212518 = score(doc=732,freq=4.0), product of:
            0.09572223 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02124939 = queryNorm
            0.21115804 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.016076924 = sum of:
          0.0073615266 = weight(_text_:1 in 732) [ClassicSimilarity], result of:
            0.0073615266 = score(doc=732,freq=6.0), product of:
              0.05219918 = queryWeight, product of:
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.02124939 = queryNorm
              0.14102763 = fieldWeight in 732, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.0234375 = fieldNorm(doc=732)
          0.008715398 = weight(_text_:29 in 732) [ClassicSimilarity], result of:
            0.008715398 = score(doc=732,freq=2.0), product of:
              0.07474871 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.02124939 = queryNorm
              0.11659596 = fieldWeight in 732, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.0234375 = fieldNorm(doc=732)
      0.20689656 = coord(6/29)
    
    Classification
    AN 73700: Digitale Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    Content
    Inhalt: 1 Introduction, Aims and Definitions -- 1.1 Origins -- 1.2 From information science to libraries -- 1.3 The central place of metadata -- 1.4 The book in outline -- 2 Metadata Basics -- 2.1 Introduction -- 2.2 Three types of metadata -- 2.2.1 Descriptive metadata -- 2.2.2 Administrative metadata -- 2.2.3 Structural metadata -- 2.3 The core components of metadata -- 2.3.1 Syntax -- 2.3.2 Semantics -- 2.3.3 Content rules -- 2.4 Metadata standards -- 2.5 Conclusion -- 3 Planning a Metadata Strategy: Basic Principles -- 3.1 Introduction -- 3.2 Principle 1: Support all stages of the digital curation lifecycle -- 3.3 Principle 2: Support the long-term preservation of the digital object -- 3.4 Principle 3: Ensure interoperability -- 3.5 Principle 4: Control metadata content wherever possible -- 3.6 Principle 5: Ensure software independence -- 3.7 Principle 6: Impose a logical system of identifiers -- 3.8 Principle 7: Use standards whenever possible -- 3.9 Principle 8: Ensure the integrity of the metadata itself -- 3.10 Summary: the basic principles of a metadata strategy -- 4 Planning a Metadata Strategy: Applying the Basic Principles -- 4.1 Introduction -- 4.2 Initial steps: standards as a foundation -- 4.2.1 'Off-the shelf' standards -- 4.2.2 Mapping out an architecture and serialising it into a standard -- 4.2.3 Devising a local metadata scheme -- 4.2.4 How standards support the basic principles -- 4.3 Identifiers: everything in its place -- 5 XML: The Syntactical Foundation of Metadata -- 5.1 Introduction -- 5.2 What XML looks like -- 5.3 XML schemas -- 5.4 Namespaces -- 5.5 Creating and editing XML -- 5.6 Transforming XML -- 5.7 Why use XML? -- 6 METS: The Metadata Package -- 6.1 Introduction -- 6.2 Why use METS?.
    Date
    29. 9.2022 17:57:57
    Isbn
    978-1-78330-532-2
    RVK
    AN 73700: Digitale Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
  6. Rusch-Feja, D.: Dublin Core Educational Metadata : Entwicklungen bei Metadaten für den Bildungsbereich (2000) 0.02
    0.02013642 = product of:
      0.097326025 = sum of:
        0.016145922 = weight(_text_:und in 4451) [ClassicSimilarity], result of:
          0.016145922 = score(doc=4451,freq=8.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.34282678 = fieldWeight in 4451, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4451)
        0.016328104 = product of:
          0.032656208 = sum of:
            0.032656208 = weight(_text_:bibliothekswesen in 4451) [ClassicSimilarity], result of:
              0.032656208 = score(doc=4451,freq=2.0), product of:
                0.09472281 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02124939 = queryNorm
                0.34475547 = fieldWeight in 4451, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4451)
          0.5 = coord(1/2)
        0.01782407 = weight(_text_:des in 4451) [ClassicSimilarity], result of:
          0.01782407 = score(doc=4451,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.302893 = fieldWeight in 4451, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4451)
        0.01782407 = weight(_text_:des in 4451) [ClassicSimilarity], result of:
          0.01782407 = score(doc=4451,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.302893 = fieldWeight in 4451, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4451)
        0.024245322 = weight(_text_:nach in 4451) [ClassicSimilarity], result of:
          0.024245322 = score(doc=4451,freq=2.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.2970587 = fieldWeight in 4451, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4451)
        0.0049585416 = product of:
          0.009917083 = sum of:
            0.009917083 = weight(_text_:1 in 4451) [ClassicSimilarity], result of:
              0.009917083 = score(doc=4451,freq=2.0), product of:
                0.05219918 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02124939 = queryNorm
                0.18998542 = fieldWeight in 4451, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4451)
          0.5 = coord(1/2)
      0.20689656 = coord(6/29)
    
    Abstract
    August 1999 wurde eine Arbeitsgruppe für bildungsbezogene Metadaten im Rahmen der Dublin Core Metadaten-Initiative unter der Leitung von Prof. Dr. Stuart Sutton (Gateway for Educational Materials, GEM, und School of Libraray and Information Science der University of Washington, USA und Dr. Jon Mason, Direktor des Education Network Australia, EdNA, Australien) konstituiert. Innerhalb einer Woche nach der Presseankündigung hatten sich weltweit über 70 Teilnehmer für die Arbeitsgruppe gemeldet. Ziele dieser Arbeitsgruppe sind: ... die Eingrenzungen und Erweiterungen zum Dublin Core Metadatensatz zu entwickeln, der Bildungsinformationen zum Zwecke einer besseren Quellensuche beschreibt. Es ist zu erwarten, daß die daraus resultierenden Metadaten sowohl bildungsbezogene Qualifier innerhalb des Rahmens der bestehenden Dublin Core Elemente beinhalten als auch potentiell einige, die für den Bibldungsbereich spezifisch sind
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.20-25
  7. Ecker, R.: ¬Das digitale Buch im Internet : Methoden der Erfassung, Aufbereitung und Bereitstellung (1998) 0.02
    0.018656207 = product of:
      0.1352575 = sum of:
        0.040600345 = weight(_text_:buch in 1511) [ClassicSimilarity], result of:
          0.040600345 = score(doc=1511,freq=2.0), product of:
            0.09879628 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.02124939 = queryNorm
            0.41095015 = fieldWeight in 1511, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0625 = fieldNorm(doc=1511)
        0.027678724 = weight(_text_:und in 1511) [ClassicSimilarity], result of:
          0.027678724 = score(doc=1511,freq=18.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.58770305 = fieldWeight in 1511, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1511)
        0.02770894 = weight(_text_:nach in 1511) [ClassicSimilarity], result of:
          0.02770894 = score(doc=1511,freq=2.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.33949566 = fieldWeight in 1511, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.0625 = fieldNorm(doc=1511)
        0.03926949 = sum of:
          0.016028428 = weight(_text_:1 in 1511) [ClassicSimilarity], result of:
            0.016028428 = score(doc=1511,freq=4.0), product of:
              0.05219918 = queryWeight, product of:
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.02124939 = queryNorm
              0.30706283 = fieldWeight in 1511, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.0625 = fieldNorm(doc=1511)
          0.02324106 = weight(_text_:29 in 1511) [ClassicSimilarity], result of:
            0.02324106 = score(doc=1511,freq=2.0), product of:
              0.07474871 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.02124939 = queryNorm
              0.31092256 = fieldWeight in 1511, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.0625 = fieldNorm(doc=1511)
      0.13793103 = coord(4/29)
    
    Abstract
    Die elektronische Erfassung aller bedeutenden gedruckten Informationen und ihre Verbreitung über die weltweiten Datennetze in digitalisierter Form oder als Volltext stellt eine der zur Zeit größten Herausforderungen und Chancen für unsere Informationsgesellschaft dar. Der nachstehende Artikel widmet sich der oft gestellten Frage nach den technischen Methoden für die elektronische Erfassung, Erschließung und Bereitstellung gedruckter Vorlagen und beschreibt die wichtigsten Schritte der Digitalisierung und Datenaufbereitung und ihrer technischen und organisatorischen Parameter
    Content
    Beschreibt den Prozeß der digitalisierten Aufbereitung von Text und Bild etc. über Scannen
    Date
    29. 8.2000 11:59:32
    Source
    B.I.T.online. 1(1998) H.1/2, S.35-40
  8. Oehlschläger, S.: Abschlussworkshop des Projektes META-LIB und 1. Metadaten-Workshop der Arbeitsstelle für Standardisierung Der Deutschen Bibliothek : Metadaten - Alter Wein in neuen Schläuchen? (2003) 0.02
    0.018114317 = product of:
      0.105063036 = sum of:
        0.022833783 = weight(_text_:und in 1758) [ClassicSimilarity], result of:
          0.022833783 = score(doc=1758,freq=16.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.4848303 = fieldWeight in 1758, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1758)
        0.016328104 = product of:
          0.032656208 = sum of:
            0.032656208 = weight(_text_:bibliothekswesen in 1758) [ClassicSimilarity], result of:
              0.032656208 = score(doc=1758,freq=2.0), product of:
                0.09472281 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02124939 = queryNorm
                0.34475547 = fieldWeight in 1758, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1758)
          0.5 = coord(1/2)
        0.01782407 = weight(_text_:des in 1758) [ClassicSimilarity], result of:
          0.01782407 = score(doc=1758,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.302893 = fieldWeight in 1758, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1758)
        0.01782407 = weight(_text_:des in 1758) [ClassicSimilarity], result of:
          0.01782407 = score(doc=1758,freq=4.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.302893 = fieldWeight in 1758, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1758)
        0.030253012 = sum of:
          0.009917083 = weight(_text_:1 in 1758) [ClassicSimilarity], result of:
            0.009917083 = score(doc=1758,freq=2.0), product of:
              0.05219918 = queryWeight, product of:
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.02124939 = queryNorm
              0.18998542 = fieldWeight in 1758, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1758)
          0.020335928 = weight(_text_:29 in 1758) [ClassicSimilarity], result of:
            0.020335928 = score(doc=1758,freq=2.0), product of:
              0.07474871 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.02124939 = queryNorm
              0.27205724 = fieldWeight in 1758, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1758)
      0.1724138 = coord(5/29)
    
    Abstract
    Die seit Mitte der goer Jahre des letzten Jahrhunderts durch das Internet und vor allem durch das World Wide Web (WWW) entstandenen neuen Kommunikations- und Publikationsmöglichkeiten stellen die mit der Sammlung, Erschließung und Nutzbarmachung von Veröffentlichungen beauftragten wissenschaftlichen Bibliotheken vor neue Herausforderungen. Netzpublikationen erfordern die Überprüfung und Anpassung bestehender Methoden und Geschäftsgänge. Neben den bibliothekarischen Verfahren haben sich im WWW neue Vorgehensweisen herausgebildet. Um die Suche, die Identifikation und den Zugriff auf Netzpublikationen zu unterstützen, werden strukturierte Daten beigegeben: Metadaten. Außer den zum Auffinden der Ressourcen notwendigen Metadaten spielen weitere Arten von Metadaten für Netzpublikationen eine zunehmend wichtige Rolle.
    Date
    17. 8.2003 15:29:05
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.179-181
  9. Söhler, M.: Schluss mit Schema F (2011) 0.02
    0.016876386 = product of:
      0.0815692 = sum of:
        0.01598032 = weight(_text_:und in 4439) [ClassicSimilarity], result of:
          0.01598032 = score(doc=4439,freq=24.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.33931053 = fieldWeight in 4439, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
        0.01610419 = weight(_text_:des in 4439) [ClassicSimilarity], result of:
          0.01610419 = score(doc=4439,freq=10.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.27366623 = fieldWeight in 4439, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
        0.01610419 = weight(_text_:des in 4439) [ClassicSimilarity], result of:
          0.01610419 = score(doc=4439,freq=10.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.27366623 = fieldWeight in 4439, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
        0.01959318 = weight(_text_:nach in 4439) [ClassicSimilarity], result of:
          0.01959318 = score(doc=4439,freq=4.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.24005969 = fieldWeight in 4439, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
        0.0028334525 = product of:
          0.005666905 = sum of:
            0.005666905 = weight(_text_:1 in 4439) [ClassicSimilarity], result of:
              0.005666905 = score(doc=4439,freq=2.0), product of:
                0.05219918 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02124939 = queryNorm
                0.1085631 = fieldWeight in 4439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4439)
          0.5 = coord(1/2)
        0.010953867 = product of:
          0.021907734 = sum of:
            0.021907734 = weight(_text_:deutschland in 4439) [ClassicSimilarity], result of:
              0.021907734 = score(doc=4439,freq=2.0), product of:
                0.10263357 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.02124939 = queryNorm
                0.21345583 = fieldWeight in 4439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4439)
          0.5 = coord(1/2)
      0.20689656 = coord(6/29)
    
    Abstract
    Mit Schema.org und dem semantischen Web sollen Suchmaschinen verstehen lernen
    Content
    "Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere vom Fernsehen. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit Bedeutungen unterscheiden und verarbeiten lernen, können dies Suchmaschinen von selbst nicht. Stets listen sie dumpf hintereinander weg alles auf, was sie zu einem Thema finden. Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden. Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler - die Analyseprogramme der Suchmaschinen - gekennzeichnet und aufbereitet werden.
    Indem Schlagworte, sogenannte Tags, in den für Normal-User nicht sichtbaren Teil des Codes von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog ZBW Mediatalk wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht, so Stefan Keuchel, Pressesprecher von Google Deutschland. Bis das so weit ist, hilft der Verweis von Daniel Bahns auf die bereits existierende semantische Suchmaschine Sig.ma. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf.
    Footnote
    Vgl.: http://www.taz.de/1/archiv/digitaz/artikel/?ressort=tz&dig=2011%2F06%2F20%2Fa0129&cHash=e07470cda4. Vgl.: http://schema.org/#.
  10. Söhler, M.: "Dumm wie Google" war gestern : semantische Suche im Netz (2011) 0.02
    0.016467867 = product of:
      0.07959469 = sum of:
        0.015103128 = weight(_text_:und in 4440) [ClassicSimilarity], result of:
          0.015103128 = score(doc=4440,freq=28.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.3206851 = fieldWeight in 4440, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
        0.014091165 = weight(_text_:des in 4440) [ClassicSimilarity], result of:
          0.014091165 = score(doc=4440,freq=10.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.23945795 = fieldWeight in 4440, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
        0.014091165 = weight(_text_:des in 4440) [ClassicSimilarity], result of:
          0.014091165 = score(doc=4440,freq=10.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.23945795 = fieldWeight in 4440, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
        0.024245322 = weight(_text_:nach in 4440) [ClassicSimilarity], result of:
          0.024245322 = score(doc=4440,freq=8.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.2970587 = fieldWeight in 4440, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
        0.0024792708 = product of:
          0.0049585416 = sum of:
            0.0049585416 = weight(_text_:1 in 4440) [ClassicSimilarity], result of:
              0.0049585416 = score(doc=4440,freq=2.0), product of:
                0.05219918 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02124939 = queryNorm
                0.09499271 = fieldWeight in 4440, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4440)
          0.5 = coord(1/2)
        0.009584634 = product of:
          0.019169267 = sum of:
            0.019169267 = weight(_text_:deutschland in 4440) [ClassicSimilarity], result of:
              0.019169267 = score(doc=4440,freq=2.0), product of:
                0.10263357 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.02124939 = queryNorm
                0.18677385 = fieldWeight in 4440, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4440)
          0.5 = coord(1/2)
      0.20689656 = coord(6/29)
    
    Abstract
    "Casablanca" bringt bei der Google-Suche Millionen Ergebnisse. Ist die Stadt gemeint oder der Film? Suchmaschinen sind dumm und schnell. Schema.org will das ändern.
    Content
    "6.500 Einzelsprachen so zu verstehen, dass noch die dümmsten Maschinen sie in all ihren Sätzen, Wörtern, Bedeutungen nicht nur erfassen, sondern auch verarbeiten können - das ist ein komplexer Vorgang, an dem große Teile des Internets inklusive fast aller Suchmaschinen bisher gescheitert sind. Wem schon der gerade gelesene Satz zu komplex erscheint, dem sei es einfacher ausgedrückt: Erstmal geht es um "Teekesselchen". Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere kennen ihn vom Zappen am Fernsehgerät. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite einer Zeitung. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit zu unterscheiden lernen, lernen dies Suchmaschinen von selbst nicht. Nach einer entsprechenden Eingabe listen sie dumpf hintereinander weg alles auf, was sie zum Thema finden können. "Dumm wie Google", könnte man sagen, "doof wie Yahoo" oder "blöd wie Bing". Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden.
    - Neue Standards Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. "Damit wollen Google, Bing und Yahoo! dem Info-Chaos im WWW den Garaus machen", schreibt André Vatter im Blog ZBW Mediatalk. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler der Suchmaschinen gekennzeichnet und aufbereitet werden. Indem Schlagworte, so genannte Tags, in den Code von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist."
    - "Gemeinsames Format für strukturierte Daten" Aber warum sollten Google, Yahoo und Bing plötzlich zusammenarbeiten, wo doch bisher die Konkurrenz das Verhältnis prägte? Stefan Keuchel, Pressesprecher von Google Deutschland, betont, alle beteiligten Unternehmen wollten "ein deutliches Zeichen setzen, um die Qualität der Suche zu verbessern". Man entwickele "ein gemeinsames Format für strukturierte Daten, mit dem Dinge ermöglicht werden, die heute noch nicht möglich sind - Stichwort: semantische Suche". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht. "Erst mit der Einigung auf eine gemeinsame Sprache können Suchmaschinen einen Mehrwert durch semantische Technologien generieren", antwortet Daniel Bahls auf die Frage nach Gemeinsamkeit und Konkurrenz der Suchmaschinen. Er weist außerdem darauf hin, dass es bereits die semantische Suchmaschine Sig.ma gibt. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf."
    Footnote
    Vgl.: http://www.taz.de/1/archiv/digitaz/artikel/?ressort=tz&dig=2011%2F06%2F20%2Fa0129&cHash=e07470cda4. Vgl.: http://schema.org/#.
  11. Gömpel, R.; Altenhöner, R.; Kunz, M.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 70. IFLA-Generalkonferenz in Buenos Aires : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICABS und UNIMARC sowie der Information Technology Section (2004) 0.02
    0.01615834 = product of:
      0.07809864 = sum of:
        0.010150086 = weight(_text_:buch in 2874) [ClassicSimilarity], result of:
          0.010150086 = score(doc=2874,freq=2.0), product of:
            0.09879628 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.02124939 = queryNorm
            0.10273754 = fieldWeight in 2874, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.015625 = fieldNorm(doc=2874)
        0.015472877 = weight(_text_:und in 2874) [ClassicSimilarity], result of:
          0.015472877 = score(doc=2874,freq=90.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.32853597 = fieldWeight in 2874, product of:
              9.486833 = tf(freq=90.0), with freq of:
                90.0 = termFreq=90.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=2874)
        0.012983612 = weight(_text_:des in 2874) [ClassicSimilarity], result of:
          0.012983612 = score(doc=2874,freq=26.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.22063677 = fieldWeight in 2874, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.015625 = fieldNorm(doc=2874)
        0.012983612 = weight(_text_:des in 2874) [ClassicSimilarity], result of:
          0.012983612 = score(doc=2874,freq=26.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.22063677 = fieldWeight in 2874, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.015625 = fieldNorm(doc=2874)
        0.00979659 = weight(_text_:nach in 2874) [ClassicSimilarity], result of:
          0.00979659 = score(doc=2874,freq=4.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.120029844 = fieldWeight in 2874, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.015625 = fieldNorm(doc=2874)
        0.016711865 = sum of:
          0.010953867 = weight(_text_:deutschland in 2874) [ClassicSimilarity], result of:
            0.010953867 = score(doc=2874,freq=2.0), product of:
              0.10263357 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.02124939 = queryNorm
              0.10672791 = fieldWeight in 2874, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.015625 = fieldNorm(doc=2874)
          0.0057579977 = weight(_text_:22 in 2874) [ClassicSimilarity], result of:
            0.0057579977 = score(doc=2874,freq=2.0), product of:
              0.07441174 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02124939 = queryNorm
              0.07738023 = fieldWeight in 2874, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.015625 = fieldNorm(doc=2874)
      0.20689656 = coord(6/29)
    
    Abstract
    "Libraries: Tools for Education and Development" war das Motto der 70. IFLA-Generalkonferenz, dem Weltkongress Bibliothek und Information, der vom 22.-27. August 2004 in Buenos Aires, Argentinien, und damit erstmals in Lateinamerika stattfand. Rund 3.000 Teilnehmerinnen und Teilnehmer, davon ein Drittel aus spanischsprachigen Ländern, allein 600 aus Argentinien, besuchten die von der IFLA und dem nationalen Organisationskomitee gut organisierte Tagung mit mehr als 200 Sitzungen und Veranstaltungen. Aus Deutschland waren laut Teilnehmerverzeichnis leider nur 45 Kolleginnen und Kollegen angereist, womit ihre Zahl wieder auf das Niveau von Boston gesunken ist. Erfreulicherweise gab es nunmehr bereits im dritten Jahr eine deutschsprachige Ausgabe des IFLA-Express. Auch in diesem Jahr soll hier über die Veranstaltungen der Division IV Bibliographic Control berichtet werden. Die Arbeit der Division mit ihren Sektionen Bibliography, Cataloguing, Classification and Indexing sowie der neuen Sektion Knowledge Management bildet einen der Schwerpunkte der IFLA-Arbeit, die dabei erzielten konkreten Ergebnisse und Empfehlungen haben maßgeblichen Einfluss auf die tägliche Arbeit der Bibliothekarinnen und Bibliothekare. Erstmals wird auch ausführlich über die Arbeit der Core Activities ICABS und UNIMARC und der Information Technology Section berichtet.
    Content
    Bibliography Section (Sektion Bibliographie) Die Sektion befasst sich mit Inhalt, Aufbau, Produktion, Verteilung und Erhaltung von bibliographischen Informationen, in erster Linie, aber nicht ausschließlich bezogen auf Nationalbibliographien. Sie fördert die "Universal Bibliographic Control (UBC)" durch die Verbreitung von Standards und praktischen Anwendungsbeispielen.
    Cataloguing Section (Sektion Katalogisierung) Der Schwerpunkt der Arbeit dieser Sektion liegt auf der Erarbeitung bzw. internationalen Harmonisierung von Strukturen, Regeln und Arbeitsverfahren mit dem Ziel, die internationale Kooperation im Katalogisierungsbereich zu verbessern. In Anbetracht des laufenden Evaluierungsprozesses wurde der Strategieplan der Sektion zum jetzigen Zeitpunkt nur dort aktualisiert, wo es unbedingt erforderlich war. Neue Ziele wurden nicht aufgenommen. Oberste Priorität bei den strategischen Zielen behielt die Entwicklung internationaler Katalogisierungsstandards für die bibliographische Beschreibung und den Zugriff. In ihrer zentralen Bedeutung bestätigt wurden auch die "Functional Requirements for Bibliographic Records" (FRBR). Darüber hinaus gehört auch in Zukunft die Weiterentwicklung und Revision der ISBDs zu den zentralen Anliegen der Arbeit der Sektion Katalogisierung. Ein weiteres vorrangiges Ziel bleibt die Erarbeitung von Standards, Regeln und Informationslisten, um den Zugang zu bibliographischen Daten in allen Sprachen zu ermöglichen. Hierzu zählen u. a.: - die vollständige Veröffentlichung der Anonymous Classics: Der Teil für europäische Literatur ist inzwischen veröffentlicht'. Für die Erarbeitung weiterer Teile (Lateinamerika, Afrika und Asien) soll das Verfahren gestrafft und ein Zeitplan erstellt werden. - die Beobachtung der Aktivitäten zu Unicode und die Information der Sektionsmitglieder darüber zur Förderung des mehrsprachigen Zugangs zu bibliographischer Information - die Entwicklung eines web-basierten multilingualen Wörterbuchs für Katalogisierungsbegriffe - die Entwicklung und der Test von (Daten-)Modellen für eine virtuelle internationale Normdatei - die Überarbeitung der "IFLA Names of persons". Das Open Programme der Sektion stand in diesem Jahr unter dem Motto "Developments in Cataloguing Guidelines" und wurde von Barbara Tillett, Lynne Howarth und Carol van Nuys bestritten. Lynne Howarth ging in ihrem Vortrag "Enabling metadata: creating a core record for resource discovery" auf die Reaktionen im weltweiten Stellungnahmeverfahren auf die Veröffentlichung des Papiers "Guidance an the Structure, Content and Application of Metadata Records for digital resources and collections" der Working Group an the Use of Metadata Schemes ein. Carol van Nuys stellte das norwegische "Paradigma Project and its quest for metadata solutions and services" vor.
    Aus den Arbeitsgruppen der Cataloguing Sektion: Schwerpunkt der Arbeiten der ISBD Review Group bleibt die Fortsetzung des generellen Revisionsprojekts. 2004 konnte die revidierte ISBD(G) veröffentlicht werden Für die Revision der ISBD(A) wurde eine Study Group aus Experten für das Alte Buch gebildet. Das weltweite Stellungnahmeverfahren ist für Frühjahr 2005 geplant. Bezüglich der Revision der ISBD(ER) konnten im weltweiten Stellungnahmeverfahren aufgekommene Fragen während der Sitzungen in Buenos Aires abschließend geklärt werden. Die Veröffentlichung der neuen ISBD(ER) ist für Ende 2004 / Anfang 2005 geplant. Die Revision der ISBD(CM) ist im Rahmen einer gemeinsamen Arbeitsgruppe der ISBD Review Group und der Sektion Geographie und Karten weiter vorangekommen. Für die Revision der ISBD(NBM) soll eine eigene Study Group gebildet werden. Die FRBR Review Group konnte erste Fortschritte bei der Erreichung der im vergangenen Jahr gesetzten Ziele Erarbeitung einer Richtlinie zur Anwendung der FRBR bei der Katalogisierung, Erweiterung der FRBR-Web-Seite im IFLAnet, um bei anderen communities (Archive, Museen etc.) für das Modell zu werben, sowie Überarbeitung des FRBR-Modells vermeIden. Von den in Berlin gebildeten fünf FRBR-Arbeitsgruppen (Expression entity Working Group, Working Group an continuing resources, Working Group an teaching and training, Working Group an subject relationships and classification, Working Group an FRBR/CRM dialogue) sind einige bereits aktiv gewesen, vor allem die letztgenannte Working Group an FRBR/CRM dialogue. Die "Working Group an subject relationships and classification" soll demnächst in Zusammenarbeit mit der Classification and Indexing Section etabliert werden. Ziel hierbei ist es, die FRBR auch auf den Bereich der Inhaltserschließung auszuweiten. Die "Working Group an continuing resources" hat in Buenos Aires beschlossen, ihre Arbeit nicht fortzuführen, da die FRBR in ihrer derzeitigen Fassung "seriality" nicht ausreichend berücksichtigen. Es ist geplant, eine neue Arbeitsgruppe unter Einbeziehung ausgewiesener Experten für fortlaufende Werke zu bilden, die sich mit diesem Problem beschäftigen soll. Für das IFLA Multilingual Dictionary of Cataloguing Terms and Concepts - MulDiCat' konnten die Richtlinien für die Eingabe in die Datenbank fertig gestellt und erforderliche Änderungen in der Datenbank implementiert werden. Die Datenbank dieses IFLA-Projekts enthält mittlerweile alle englischsprachigen Definitionen des AACR2-Glossars, die deutschen Übersetzungen der AACR2-Glossar-Definitionen sowie alle ISBD-Definitionen. Im nächsten Schritt sollen Einträge für die FRBR-Terminologie ergänzt werden. Ebenso sollen Ergänzungen zu den englischen Einträgen vorgenommen werden (aus AACR, ISBD, FRBR und weiteren IFLA-Publikationen). Die Guidelines for OPAC Displays (Richtlinien zur Präsentation von Suchergebnissen im OPAC) stehen nach der Durchführung des weltweiten Stellungnahmeverfahrens zur Veröffentlichung im IFLAnet bereit. Die Working Group an OPAC Displays hat damit ihre Arbeit beendet.
    Classification and Indexing Section (Sektion Klassifikation und Indexierung) Die Working Group an Guidelines for Multilingual Thesauri hat ihre Arbeit abgeschlossen, die Richtlinien werden Ende 2004 im IFLAnet zur Verfügung stehen. Die 2003 ins Leben gerufene Arbeitsgruppe zu Mindeststandards der Inhaltserschließung in Nationalbibliographien hat sich in Absprache mit den Mitgliedern des Standing Committee auf den Namen "Guidelines for minimal requirements for subject access by national bibliographic agencies" verständigt. Als Grundlage der zukünftigen Arbeit soll der "Survey an Subject Heading Languages Used in National Libraries and Bibliographies" von Magda HeinerFreiling dienen. Davon ausgehend soll eruiert werden, welche Arten von Medienwerken mit welchen Instrumentarien und in welcher Tiefe erschlossen werden. Eine weitere Arbeitsgruppe der Sektion befasst sich mit dem sachlichen Zugriff auf Netzpublikationen (Working Group an Subject Access to Web Resources). Die Veranstaltung "Implementation and adaption of global tools for subject access to local needs" fand regen Zuspruch. Drei Vortragende zeigten auf, wie in ihrem Sprachgebiet die Subject Headings der Library of Congress (LoC) übernommen werden (Development of a Spanish subject heading list und Subject indexing in Sweden) bzw. wie sich die Zusammenarbeit mit der LoC gestalten lässt, um den besonderen terminologischen Bedürfnissen eines Sprach- und Kulturraums außerhalb der USA Rechnung zu tragen (The SACO Program in Latin America). Aus deutscher Sicht verdiente der Vortrag "Subject indexing between international standards and local context - the Italian case" besondere Beachtung. Die Entwicklung eines Regelwerks zur verbalen Sacherschließung und die Erarbeitung einer italienischen Schlagwortnormdatei folgen nämlich erklärtermaßen der deutschen Vorgehensweise mit RSWK und SWD.
    Knowledge Management Section (Sektion Wissensmanagement) Ziel der neuen Sektion ist es, die Entwicklung und Implementierung des Wissensmanagements in Bibliotheken und Informationszentren zu fördern. Die Sektion will dafür eine internationale Plattform für die professionelle Kommunikation bieten und damit das Thema bekannter und allgemein verständlicher machen. Auf diese Weise soll seine Bedeutung auch für Bibliotheken und die mit ihm arbeitenden Einrichtungen herausgestellt werden. IFLA-CDNL Alliance for Bibliographic Standards (ICABS) Ein Jahr nach ihrer Gründung in Berlin hat die IFLA Core Activity "IFLA-CDNL Alliance for Bibliographic Standards (ICABS)" in Buenos Aires zum ersten Mal das Spektrum ihrer Arbeitsfelder einem großen Fachpublikum vorgestellt. Die IFLA Core Activity UNIMARC, einer der Partner der Allianz, hatte am Donnerstagvormittag zu einer Veranstaltung unter dem Titel "The holdings record as a bibliographic control tool" geladen. Am Nachmittag des selben Tages fand unter dem Titel "The new IFLA-CDNL Alliance for Bibliographic Standards - umbrella for multifaceted activities: strategies and practical ways to improve international coordination" die umfassende ICABS-Veranstaltung statt, die von der Generaldirektorin Der Deutschen Bibliothek, Dr. Elisabeth Niggemann, moderiert wurde. Nachdem die Vorsitzende des Advisory Board in ihrem Vortrag auf die Entstehungsgeschichte der Allianz eingegangen war, gab sie einen kurzen Oberblick über die Organisation und die Arbeit von ICABS als Dach der vielfältigen Aktivitäten im Bereich bibliographischer Standards. Vertreter aller in ICABS zusammengeschlossener Bibliotheken stellten im Anschluss daran ihre Arbeitsbereiche und -ergebnisse vor.
    Projekt "Mapping ISBDs to FRBR" Die Deutsche Bibliothek und die British Library haben im Rahmen ihrer jeweiligen Zuständigkeiten innerhalb von ICABS gemeinsam das Projekt "Mapping ISBDs to FRBR" finanziert. Beide Bibliotheken unterstützen damit die strategischen Ziele der IFLA-CDNL Allianz für bibliographische Standards. Die Deutsche Bibliothek ist innerhalb der Allianz verantwortlich für die Unterstützung der Pflege und Weiterentwicklung der ISBD, während die British Library für die Unterstützung von Pflege und Entwicklung der FRBR zuständig ist. Für die Durchführung des Projekts konnte Tom Delsey gewonnen werden, der federführender Autor der FRBR ist und Beiträge zu vielen verschiedenen Aspekten der ISBDs geliefert hat. Das Ergebnis seiner Arbeit "Mapping ISBD Elements to FRBR Entity Attributes and Relationships" steht im IFLAnet zur VerFügung (http://www.ifla.org/VII/s13/pubs/ISBD-FRBR-mappingFinal.pdf).
  12. Minas, M.; Shklar, L.: Visualizing information repositories on the World-Wide Web (1996) 0.02
    0.015361507 = product of:
      0.08909674 = sum of:
        0.008072961 = weight(_text_:und in 6267) [ClassicSimilarity], result of:
          0.008072961 = score(doc=6267,freq=2.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.17141339 = fieldWeight in 6267, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6267)
        0.047162544 = weight(_text_:informationswissenschaft in 6267) [ClassicSimilarity], result of:
          0.047162544 = score(doc=6267,freq=4.0), product of:
            0.09572223 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02124939 = queryNorm
            0.4927021 = fieldWeight in 6267, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6267)
        0.012603521 = weight(_text_:des in 6267) [ClassicSimilarity], result of:
          0.012603521 = score(doc=6267,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.2141777 = fieldWeight in 6267, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6267)
        0.012603521 = weight(_text_:des in 6267) [ClassicSimilarity], result of:
          0.012603521 = score(doc=6267,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.2141777 = fieldWeight in 6267, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6267)
        0.008654194 = product of:
          0.025962582 = sum of:
            0.025962582 = weight(_text_:l in 6267) [ClassicSimilarity], result of:
              0.025962582 = score(doc=6267,freq=2.0), product of:
                0.08445894 = queryWeight, product of:
                  3.9746525 = idf(docFreq=2257, maxDocs=44218)
                  0.02124939 = queryNorm
                0.30739886 = fieldWeight in 6267, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9746525 = idf(docFreq=2257, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=6267)
          0.33333334 = coord(1/3)
      0.1724138 = coord(5/29)
    
    Series
    Schriften zur Informationswissenschaft; Bd.27
    Source
    Herausforderungen an die Informationswirtschaft: Informationsverdichtung, Informationsbewertung und Datenvisualisierung. Proceedings des 5. Internationalen Symposiums für Informationswissenschaft (ISI'96), Humboldt-Universität zu Berlin, 17.-19. Oktober 1996. Hrsg.: J. Krause u.a
  13. Weiss, B.: ¬Die Metadaten-Initiative deutscher Bibliotheken : Das META-LIB-Projekt (2000) 0.01
    0.014310038 = product of:
      0.082998216 = sum of:
        0.018051691 = weight(_text_:und in 4457) [ClassicSimilarity], result of:
          0.018051691 = score(doc=4457,freq=10.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.38329202 = fieldWeight in 4457, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4457)
        0.016328104 = product of:
          0.032656208 = sum of:
            0.032656208 = weight(_text_:bibliothekswesen in 4457) [ClassicSimilarity], result of:
              0.032656208 = score(doc=4457,freq=2.0), product of:
                0.09472281 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02124939 = queryNorm
                0.34475547 = fieldWeight in 4457, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4457)
          0.5 = coord(1/2)
        0.021829942 = weight(_text_:des in 4457) [ClassicSimilarity], result of:
          0.021829942 = score(doc=4457,freq=6.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.3709667 = fieldWeight in 4457, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4457)
        0.021829942 = weight(_text_:des in 4457) [ClassicSimilarity], result of:
          0.021829942 = score(doc=4457,freq=6.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.3709667 = fieldWeight in 4457, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4457)
        0.0049585416 = product of:
          0.009917083 = sum of:
            0.009917083 = weight(_text_:1 in 4457) [ClassicSimilarity], result of:
              0.009917083 = score(doc=4457,freq=2.0), product of:
                0.05219918 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02124939 = queryNorm
                0.18998542 = fieldWeight in 4457, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4457)
          0.5 = coord(1/2)
      0.1724138 = coord(5/29)
    
    Abstract
    META-LIB ist ein gemeinsames Projekt der Niedersächsischen Staats- und Universitätsbibliothek Göttingen, Der Deutschen Bibliothek, der Bayerischen Staatsbibliothek und des Deutschen Bibliotheksinstituts. Es wird im Rahmen des Förderbereichs 'Verteilte digitale Forschungsbibliothek', Einzelprogramm 'Modernisierung und Rationalisierung in wissenschaftlichen Bibliotheken' von der DFG gefördert. META-LIB hat zum Ziel, Richtlinien für den Einsatz von Metadaten, insbesondere des Dublin-Core-Sets, zur Erschließung digitaler und digitalisierter Ressourcen in wissenschaftlichen Bibliotheken zu entwickeln. Vorgestellt wird das Teilprojekt Der Deutschen Bibliothek, welches zur Aufgabe die 'Entwicklung von Konventionen für die (national)bibliographische Erschließung digitaler Publikationen' hat
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.56-62
  14. Woitas, K.: Bibliografische Daten, Normdaten und Metadaten im Semantic Web : Konzepte der bibliografischen Kontrolle im Wandel (2010) 0.01
    0.013999242 = product of:
      0.101494506 = sum of:
        0.0199754 = weight(_text_:und in 115) [ClassicSimilarity], result of:
          0.0199754 = score(doc=115,freq=24.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.42413816 = fieldWeight in 115, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=115)
        0.041258633 = weight(_text_:informationswissenschaft in 115) [ClassicSimilarity], result of:
          0.041258633 = score(doc=115,freq=6.0), product of:
            0.09572223 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02124939 = queryNorm
            0.43102458 = fieldWeight in 115, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=115)
        0.020130236 = weight(_text_:des in 115) [ClassicSimilarity], result of:
          0.020130236 = score(doc=115,freq=10.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.3420828 = fieldWeight in 115, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=115)
        0.020130236 = weight(_text_:des in 115) [ClassicSimilarity], result of:
          0.020130236 = score(doc=115,freq=10.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.3420828 = fieldWeight in 115, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=115)
      0.13793103 = coord(4/29)
    
    Abstract
    Bibliografische Daten, Normdaten und Metadaten im Semantic Web - Konzepte der Bibliografischen Kontrolle im Wandel. Der Titel dieser Arbeit zielt in ein essentielles Feld der Bibliotheks- und Informationswissenschaft, die Bibliografische Kontrolle. Als zweites zentrales Konzept wird der in der Weiterentwicklung des World Wide Webs (WWW) bedeutsame Begriff des Semantic Webs genannt. Auf den ersten Blick handelt es sich hier um einen ungleichen Wettstreit. Auf der einen Seite die Bibliografische Kontrolle, welche die Methoden und Mittel zur Erschließung von bibliothekarischen Objekten umfasst und traditionell in Form von formal-inhaltlichen Surrogaten in Katalogen daherkommt. Auf der anderen Seite das Buzzword Semantic Web mit seinen hochtrabenden Konnotationen eines durch Selbstreferenzialität "bedeutungstragenden", wenn nicht sogar "intelligenten" Webs. Wie kamen also eine wissenschaftliche Bibliothekarin und ein Mitglied des World Wide Web Consortiums 2007 dazu, gemeinsam einen Aufsatz zu publizieren und darin zu behaupten, das semantische Netz würde ein "bibliothekarischeres" Netz sein? Um sich dieser Frage zu nähern, soll zunächst kurz die historische Entwicklung der beiden Informationssphären Bibliothek und WWW gemeinsam betrachtet werden. Denn so oft - und völlig zurecht - die informationelle Revolution durch das Internet beschworen wird, so taucht auch immer wieder das Analogon einer weltweiten, virtuellen Bibliothek auf. Genauer gesagt, nahmen die theoretischen Überlegungen, die später zur Entwicklung des Internets führen sollten, ihren Ausgangspunkt (neben Kybernetik und entstehender Computertechnik) beim Konzept des Informationsspeichers Bibliothek.
    Content
    Magisterarbeit am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin. Vgl. unter: http://woitas.org/wp-content/uploads/2010/11/Kathi-Woitas-Magisterarbeit.pdf.
    Imprint
    Berlin : Humboldt-Universität, Institut für Bibliotheks- und Informationswissenschaft
  15. Weber, J.: Nachlässe und Autographen im WWW : Dublin Core in Museen, Archiven und Bibliotheken (2000) 0.01
    0.013464136 = product of:
      0.07809199 = sum of:
        0.030450258 = weight(_text_:buch in 4458) [ClassicSimilarity], result of:
          0.030450258 = score(doc=4458,freq=2.0), product of:
            0.09879628 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.02124939 = queryNorm
            0.3082126 = fieldWeight in 4458, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=4458)
        0.020759044 = weight(_text_:und in 4458) [ClassicSimilarity], result of:
          0.020759044 = score(doc=4458,freq=18.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.4407773 = fieldWeight in 4458, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4458)
        0.013995517 = product of:
          0.027991034 = sum of:
            0.027991034 = weight(_text_:bibliothekswesen in 4458) [ClassicSimilarity], result of:
              0.027991034 = score(doc=4458,freq=2.0), product of:
                0.09472281 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02124939 = queryNorm
                0.2955047 = fieldWeight in 4458, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4458)
          0.5 = coord(1/2)
        0.004250179 = product of:
          0.008500358 = sum of:
            0.008500358 = weight(_text_:1 in 4458) [ClassicSimilarity], result of:
              0.008500358 = score(doc=4458,freq=2.0), product of:
                0.05219918 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02124939 = queryNorm
                0.16284466 = fieldWeight in 4458, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4458)
          0.5 = coord(1/2)
        0.008636996 = product of:
          0.017273992 = sum of:
            0.017273992 = weight(_text_:22 in 4458) [ClassicSimilarity], result of:
              0.017273992 = score(doc=4458,freq=2.0), product of:
                0.07441174 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02124939 = queryNorm
                0.23214069 = fieldWeight in 4458, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4458)
          0.5 = coord(1/2)
      0.1724138 = coord(5/29)
    
    Abstract
    Vielen Bibliotheksbenutzern wird inzwischen mehr und mehr bewußt: Alle Vernetzungsbestrebungen in Bibliotheksbereich, die lokale Traditionen zugunsten eines überregionalen Nachweises der Bestände aufgeben, handeln auch gegen die Benutzerinteressen. Wir werden uns zunehmend klar darüber, daß von den meisten wissenschaftlern der lokale Online-Katalog allein für Literaturrecherchen herangezogen wird, und zwar aus dem Grund, daß das gesuchte Buch so schnell und unkompliziert wie möglich zur Hand sein soll. Diese Feststellung impliziert auch den Gedanken, daß die Aufgabe guter lokaler Katalogisierungstraditionen möglicherweise ein unwiederbringlicher Verlust ist, ein Schritt hin zu einer schlechteren und oberflächlicheren Information. Wie sich eine überregionale Verbesserung der Nachweissituation unter gleichzeitiger Bewahrung lokaler Traditionen darstellen kann, ist Gegenstand der folgenden Ausführungen. Sie bahandeln das Thema aus dem Blickwinkel der Bilbiotheken, Archive und Museen, deren aufgabe im Nachweis und der Bewahrung von Unikaten besteht. die hier behandelte Metadatendiskussion bezieht sich also auf die Beschreibungskriterien nicht für digitales Material, sondern für Manuskripte, Briefe, Gegenstände
    Date
    12. 3.2000 19:25:22
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.63-69
  16. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Ein Halbzeitbericht (2001) 0.01
    0.013378837 = product of:
      0.07759725 = sum of:
        0.015299992 = weight(_text_:und in 5900) [ClassicSimilarity], result of:
          0.015299992 = score(doc=5900,freq=22.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.3248651 = fieldWeight in 5900, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
        0.014404024 = weight(_text_:des in 5900) [ClassicSimilarity], result of:
          0.014404024 = score(doc=5900,freq=8.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.24477452 = fieldWeight in 5900, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
        0.014404024 = weight(_text_:des in 5900) [ClassicSimilarity], result of:
          0.014404024 = score(doc=5900,freq=8.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.24477452 = fieldWeight in 5900, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
        0.01385447 = weight(_text_:nach in 5900) [ClassicSimilarity], result of:
          0.01385447 = score(doc=5900,freq=2.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.16974783 = fieldWeight in 5900, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
        0.019634744 = sum of:
          0.008014214 = weight(_text_:1 in 5900) [ClassicSimilarity], result of:
            0.008014214 = score(doc=5900,freq=4.0), product of:
              0.05219918 = queryWeight, product of:
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.02124939 = queryNorm
              0.15353142 = fieldWeight in 5900, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.03125 = fieldNorm(doc=5900)
          0.01162053 = weight(_text_:29 in 5900) [ClassicSimilarity], result of:
            0.01162053 = score(doc=5900,freq=2.0), product of:
              0.07474871 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.02124939 = queryNorm
              0.15546128 = fieldWeight in 5900, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.03125 = fieldNorm(doc=5900)
      0.1724138 = coord(5/29)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
  17. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Bericht über den middleOfTheRoad Workshop (2001) 0.01
    0.013378837 = product of:
      0.07759725 = sum of:
        0.015299992 = weight(_text_:und in 5901) [ClassicSimilarity], result of:
          0.015299992 = score(doc=5901,freq=22.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.3248651 = fieldWeight in 5901, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
        0.014404024 = weight(_text_:des in 5901) [ClassicSimilarity], result of:
          0.014404024 = score(doc=5901,freq=8.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.24477452 = fieldWeight in 5901, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
        0.014404024 = weight(_text_:des in 5901) [ClassicSimilarity], result of:
          0.014404024 = score(doc=5901,freq=8.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.24477452 = fieldWeight in 5901, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
        0.01385447 = weight(_text_:nach in 5901) [ClassicSimilarity], result of:
          0.01385447 = score(doc=5901,freq=2.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.16974783 = fieldWeight in 5901, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
        0.019634744 = sum of:
          0.008014214 = weight(_text_:1 in 5901) [ClassicSimilarity], result of:
            0.008014214 = score(doc=5901,freq=4.0), product of:
              0.05219918 = queryWeight, product of:
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.02124939 = queryNorm
              0.15353142 = fieldWeight in 5901, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.03125 = fieldNorm(doc=5901)
          0.01162053 = weight(_text_:29 in 5901) [ClassicSimilarity], result of:
            0.01162053 = score(doc=5901,freq=2.0), product of:
              0.07474871 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.02124939 = queryNorm
              0.15546128 = fieldWeight in 5901, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.03125 = fieldNorm(doc=5901)
      0.1724138 = coord(5/29)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
  18. Pfister, E.; Wittwer, B.; Wolff, M.: Metadaten - Manuelle Datenpflege vs. Automatisieren : ein Praxisbericht zu Metadatenmanagement an der ETH-Bibliothek (2017) 0.01
    0.012700026 = product of:
      0.07366015 = sum of:
        0.018051691 = weight(_text_:und in 5630) [ClassicSimilarity], result of:
          0.018051691 = score(doc=5630,freq=10.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.38329202 = fieldWeight in 5630, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5630)
        0.016328104 = product of:
          0.032656208 = sum of:
            0.032656208 = weight(_text_:bibliothekswesen in 5630) [ClassicSimilarity], result of:
              0.032656208 = score(doc=5630,freq=2.0), product of:
                0.09472281 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02124939 = queryNorm
                0.34475547 = fieldWeight in 5630, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5630)
          0.5 = coord(1/2)
        0.024245322 = weight(_text_:nach in 5630) [ClassicSimilarity], result of:
          0.024245322 = score(doc=5630,freq=2.0), product of:
            0.08161795 = queryWeight, product of:
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.02124939 = queryNorm
            0.2970587 = fieldWeight in 5630, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.840955 = idf(docFreq=2580, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5630)
        0.0049585416 = product of:
          0.009917083 = sum of:
            0.009917083 = weight(_text_:1 in 5630) [ClassicSimilarity], result of:
              0.009917083 = score(doc=5630,freq=2.0), product of:
                0.05219918 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02124939 = queryNorm
                0.18998542 = fieldWeight in 5630, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5630)
          0.5 = coord(1/2)
        0.010076496 = product of:
          0.020152992 = sum of:
            0.020152992 = weight(_text_:22 in 5630) [ClassicSimilarity], result of:
              0.020152992 = score(doc=5630,freq=2.0), product of:
                0.07441174 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02124939 = queryNorm
                0.2708308 = fieldWeight in 5630, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5630)
          0.5 = coord(1/2)
      0.1724138 = coord(5/29)
    
    Abstract
    Neue Entwicklungen im Bibliothekswesen und in der Technologie führen zu neuen ufgaben, die spezialisierte Fachkräfte erfordern. Die ETH-Bibliothek reagierte darauf, indem sie das Pilotprojekt "Metadatenmanagement" startete, welches sich mit Datenanalysen, -einspielungen und -mutationen, Datenmappings, der Erstellung eines Datenflussdiagramms, sowie mit der Einführung von RDA und GND beschäftigte. Nach zwei Jahren zeigte sich, dass zahlreiche Aufgabengebiete existieren, welche von Metadatenspezialisten, als Schnittstelle zwischen den Fachabteilungen und der IT, übernommen werden können. Dieser Bericht fasst die getätigten Arbeiten, Erfahrungen und Erkenntnisse der zweijährigen Pilotphase zusammen.
    Source
    B.I.T.online. 20(2017) H.1, S.22-25
  19. Keßler, M.: KIM - Kompetenzzentrum Interoperable Metadaten : Gemeinsamer Workshop der Deutschen Nationalbibliothek und des Arbeitskreises Elektronisches Publizieren (AKEP) (2007) 0.01
    0.0125568025 = product of:
      0.072829455 = sum of:
        0.020759044 = weight(_text_:und in 2406) [ClassicSimilarity], result of:
          0.020759044 = score(doc=2406,freq=18.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.4407773 = fieldWeight in 2406, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2406)
        0.018711379 = weight(_text_:des in 2406) [ClassicSimilarity], result of:
          0.018711379 = score(doc=2406,freq=6.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.31797147 = fieldWeight in 2406, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2406)
        0.018711379 = weight(_text_:des in 2406) [ClassicSimilarity], result of:
          0.018711379 = score(doc=2406,freq=6.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.31797147 = fieldWeight in 2406, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2406)
        0.0060106604 = product of:
          0.012021321 = sum of:
            0.012021321 = weight(_text_:1 in 2406) [ClassicSimilarity], result of:
              0.012021321 = score(doc=2406,freq=4.0), product of:
                0.05219918 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02124939 = queryNorm
                0.23029712 = fieldWeight in 2406, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2406)
          0.5 = coord(1/2)
        0.008636996 = product of:
          0.017273992 = sum of:
            0.017273992 = weight(_text_:22 in 2406) [ClassicSimilarity], result of:
              0.017273992 = score(doc=2406,freq=2.0), product of:
                0.07441174 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02124939 = queryNorm
                0.23214069 = fieldWeight in 2406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2406)
          0.5 = coord(1/2)
      0.1724138 = coord(5/29)
    
    Abstract
    Das Kompetenzzentrum Interoperable Metadaten (KIM) ist eine Informations- und Kommunikationsplattform für Metadatenanwender und -entwickler zur Verbesserung der Interoperabilität von Metadaten im deutschsprachigen Raum. KIM unterstützt und fördert die Erarbeitung von Metadatenstandards, die interoperable Gestaltung von Formaten und damit die optimale Nutzung von Metadaten in digitalen Informationsumgebungen mittels Lehrmaterialien, Schulungen und Beratungen. Das Kompetenzzentrum entsteht im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projekts KIM unter der Federführung der Niedersächsischen Staats- und Universitätsbibliothek Göttingen (SUB) in Zusammenarbeit mit der Deutschen Nationalbibliothek (DNB). Projektpartner sind in der Schweiz die Hochschule für Technik und Wirtschaft HTW Chur, die Eidgenössische Technische Hochschule (ETH) Zürich und in Österreich die Universität Wien. Aufgabe des Kompetenzzentrums ist es, die Interoperabilität von Metadaten zu verbessern. Interoperabilität ist die Fähigkeit zur Zusammenarbeit von heterogenen Systemen. Datenbestände unabhängiger Systeme können ausgetauscht oder zusammengeführt werden, um z. B. eine systemübergreifende Suche oder das Browsen zu ermöglichen. Daten werden zum Teil in sehr unterschiedlichen Datenbanksystemen gespeichert. Interoperabilität entsteht dann, wenn die Systeme umfangreiche Schnittstellen implementieren, die ein weitgehend verlustfreies Mapping der internen Datenrepräsentation ermöglichen.
    Date
    1. 8.2010 17:46:04
    Source
    Dialog mit Bibliotheken. 20(2008) H.1, S.22-24
  20. Bourne, R.: ¬The European BIBLINK Project (1999) 0.01
    0.012520679 = product of:
      0.09077492 = sum of:
        0.019571815 = weight(_text_:und in 2804) [ClassicSimilarity], result of:
          0.019571815 = score(doc=2804,freq=4.0), product of:
            0.047096446 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02124939 = queryNorm
            0.41556883 = fieldWeight in 2804, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2804)
        0.027991034 = product of:
          0.05598207 = sum of:
            0.05598207 = weight(_text_:bibliothekswesen in 2804) [ClassicSimilarity], result of:
              0.05598207 = score(doc=2804,freq=2.0), product of:
                0.09472281 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02124939 = queryNorm
                0.5910094 = fieldWeight in 2804, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2804)
          0.5 = coord(1/2)
        0.021606037 = weight(_text_:des in 2804) [ClassicSimilarity], result of:
          0.021606037 = score(doc=2804,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.36716178 = fieldWeight in 2804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=2804)
        0.021606037 = weight(_text_:des in 2804) [ClassicSimilarity], result of:
          0.021606037 = score(doc=2804,freq=2.0), product of:
            0.058846094 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02124939 = queryNorm
            0.36716178 = fieldWeight in 2804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=2804)
      0.13793103 = coord(4/29)
    
    Series
    Zeitschrift für Bibliothekswesen und Bibliographie: Sonderh.74
    Source
    Bibliotheken und Verlage als Träger der Informationsgesellschaft: Vorträge des 4. europäischen Bielefeld-Kolloquiums, 10.-12.2.1998. Hrsg.: K.W. Neubauer u. W.R. Müller

Authors

Years

Languages

Types

  • a 333
  • el 36
  • m 22
  • s 15
  • n 5
  • x 5
  • b 2
  • r 1
  • More… Less…

Subjects