Search (195 results, page 1 of 10)

  • × theme_ss:"Metadaten"
  1. Rusch-Feja, D.: ¬Die Open Archives Initiative (OAI) : Neue Zugangsformen zu wissenschaftlichen Arbeiten? (2001) 0.05
    0.04691765 = product of:
      0.16421176 = sum of:
        0.14948897 = weight(_text_:abfrage in 1133) [ClassicSimilarity], result of:
          0.14948897 = score(doc=1133,freq=2.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.52305293 = fieldWeight in 1133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.046875 = fieldNorm(doc=1133)
        0.0147228 = product of:
          0.0294456 = sum of:
            0.0294456 = weight(_text_:22 in 1133) [ClassicSimilarity], result of:
              0.0294456 = score(doc=1133,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23214069 = fieldWeight in 1133, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1133)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Nach einer Erläuterung der Ereignisse und Gründe, die zur Entwicklung der Open Archives Initiative (OAI) geführt haben, wird die Entstehungsgeschichte der OAI sowie ihre Organisationsstruktur dargestellt. Der Input und Diskussionen von Interessierten und Erstanwendern bei mehreren öffentlichen Workshops trugen zur Optimierung der Alpha-Version des Protokolls bei, mit dem Ergebnis, dass die erste offizielle Version im Januar 2001 vorgestellt wurde. Darauf hin folgten zwei Workshops in den USA und Europa zur Darlegung des Protokolls und Vorstellung exemplarischer Implementierung des Protokolls. Das OAI Metadata Harvesting Protokoll wird in seiner Zielsetzung und Möglichkeiten detailliert dargestellt. Auch die vom Protokoll erforderlichen Metadaten werden erläutert. Die Basisbefehle zur Abfrage in verschiedenen OAI-kompatiblen Repositories, auch mit Unterscheidung zwischen besonderen Sammlungen innerhalb der Repositories werden erklärt. Zum Schluß werden die Aussichten für die OAI im Rahmen der Experimentierphase der 1. Version des Protokolls sowie im Rahmen der gegenwärtigen Entwicklungen im wissenschaftlichen Publikationswesen diskutiert.
    Date
    22. 4.2002 12:23:54
  2. Kopácsi, S. et al.: Development of a classification server to support metadata harmonization in a long term preservation system (2016) 0.02
    0.015732879 = product of:
      0.055065073 = sum of:
        0.030527074 = product of:
          0.07631768 = sum of:
            0.03661892 = weight(_text_:retrieval in 3280) [ClassicSimilarity], result of:
              0.03661892 = score(doc=3280,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.33420905 = fieldWeight in 3280, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3280)
            0.03969876 = weight(_text_:system in 3280) [ClassicSimilarity], result of:
              0.03969876 = score(doc=3280,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.3479797 = fieldWeight in 3280, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3280)
          0.4 = coord(2/5)
        0.024538001 = product of:
          0.049076002 = sum of:
            0.049076002 = weight(_text_:22 in 3280) [ClassicSimilarity], result of:
              0.049076002 = score(doc=3280,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.38690117 = fieldWeight in 3280, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3280)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Source
    Metadata and semantics research: 10th International Conference, MTSR 2016, Göttingen, Germany, November 22-25, 2016, Proceedings. Eds.: E. Garoufallou
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  3. Kent, R.E.: Organizing conceptual knowledge online : metadata interoperability and faceted classification (1998) 0.01
    0.012226459 = product of:
      0.042792603 = sum of:
        0.025616003 = product of:
          0.064040005 = sum of:
            0.036250874 = weight(_text_:retrieval in 57) [ClassicSimilarity], result of:
              0.036250874 = score(doc=57,freq=4.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.33085006 = fieldWeight in 57, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=57)
            0.027789133 = weight(_text_:system in 57) [ClassicSimilarity], result of:
              0.027789133 = score(doc=57,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.2435858 = fieldWeight in 57, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=57)
          0.4 = coord(2/5)
        0.0171766 = product of:
          0.0343532 = sum of:
            0.0343532 = weight(_text_:22 in 57) [ClassicSimilarity], result of:
              0.0343532 = score(doc=57,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.2708308 = fieldWeight in 57, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=57)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Conceptual Knowledge Markup Language (CKML), an application of XML, is a new standard being promoted for the specification of online conceptual knowledge (Kent and Shrivastava, 1998). CKML follows the philosophy of Conceptual Knowledge Processing (Wille, 1982), a principled approach to knowledge representation and data analysis, which advocates the development of methodologies and techniques to support people in their rational thinking, judgement and actions. CKML was developed and is being used in the WAVE networked information discovery and retrieval system (Kent and Neuss, 1994) as a standard for the specification of conceptual knowledge
    Date
    30.12.2001 16:22:41
    Theme
    Klassifikationssysteme im Online-Retrieval
  4. Franklin, R.A.: Re-inventing subject access for the semantic web (2003) 0.01
    0.012161928 = product of:
      0.042566746 = sum of:
        0.027843947 = product of:
          0.069609866 = sum of:
            0.02197135 = weight(_text_:retrieval in 2556) [ClassicSimilarity], result of:
              0.02197135 = score(doc=2556,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.20052543 = fieldWeight in 2556, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2556)
            0.047638513 = weight(_text_:system in 2556) [ClassicSimilarity], result of:
              0.047638513 = score(doc=2556,freq=8.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.41757566 = fieldWeight in 2556, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2556)
          0.4 = coord(2/5)
        0.0147228 = product of:
          0.0294456 = sum of:
            0.0294456 = weight(_text_:22 in 2556) [ClassicSimilarity], result of:
              0.0294456 = score(doc=2556,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23214069 = fieldWeight in 2556, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2556)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    First generation scholarly research on the Web lacked a firm system of authority control. Second generation Web research is beginning to model subject access with library science principles of bibliographic control and cataloguing. Harnessing the Web and organising the intellectual content with standards and controlled vocabulary provides precise search and retrieval capability, increasing relevance and efficient use of technology. Dublin Core metadata standards permit a full evaluation and cataloguing of Web resources appropriate to highly specific research needs and discovery. Current research points to a type of structure based on a system of faceted classification. This system allows the semantic and syntactic relationships to be defined. Controlled vocabulary, such as the Library of Congress Subject Headings, can be assigned, not in a hierarchical structure, but rather as descriptive facets of relating concepts. Web design features such as this are adding value to discovery and filtering out data that lack authority. The system design allows for scalability and extensibility, two technical features that are integral to future development of the digital library and resource discovery.
    Date
    30.12.2008 18:22:46
  5. Renear, A.H.; Wickett, K.M.; Urban, R.J.; Dubin, D.; Shreeves, S.L.: Collection/item metadata relationships (2008) 0.01
    0.010479822 = product of:
      0.036679376 = sum of:
        0.021956576 = product of:
          0.054891437 = sum of:
            0.03107218 = weight(_text_:retrieval in 2623) [ClassicSimilarity], result of:
              0.03107218 = score(doc=2623,freq=4.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.2835858 = fieldWeight in 2623, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2623)
            0.023819257 = weight(_text_:system in 2623) [ClassicSimilarity], result of:
              0.023819257 = score(doc=2623,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.20878783 = fieldWeight in 2623, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2623)
          0.4 = coord(2/5)
        0.0147228 = product of:
          0.0294456 = sum of:
            0.0294456 = weight(_text_:22 in 2623) [ClassicSimilarity], result of:
              0.0294456 = score(doc=2623,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23214069 = fieldWeight in 2623, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2623)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Contemporary retrieval systems, which search across collections, usually ignore collection-level metadata. Alternative approaches, exploiting collection-level information, will require an understanding of the various kinds of relationships that can obtain between collection-level and item-level metadata. This paper outlines the problem and describes a project that is developing a logic-based framework for classifying collection/item metadata relationships. This framework will support (i) metadata specification developers defining metadata elements, (ii) metadata creators describing objects, and (iii) system designers implementing systems that take advantage of collection-level metadata. We present three examples of collection/item metadata relationship categories, attribute/value-propagation, value-propagation, and value-constraint and show that even in these simple cases a precise formulation requires modal notions in addition to first-order logic. These formulations are related to recent work in information retrieval and ontology evaluation.
    Source
    Metadata for semantic and social applications : proceedings of the International Conference on Dublin Core and Metadata Applications, Berlin, 22 - 26 September 2008, DC 2008: Berlin, Germany / ed. by Jane Greenberg and Wolfgang Klas
  6. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Ein Halbzeitbericht (2001) 0.01
    0.0095827235 = product of:
      0.03353953 = sum of:
        0.005074066 = product of:
          0.02537033 = sum of:
            0.02537033 = weight(_text_:retrieval in 5900) [ClassicSimilarity], result of:
              0.02537033 = score(doc=5900,freq=6.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23154683 = fieldWeight in 5900, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5900)
          0.2 = coord(1/5)
        0.028465465 = product of:
          0.05693093 = sum of:
            0.05693093 = weight(_text_:zugriff in 5900) [ClassicSimilarity], result of:
              0.05693093 = score(doc=5900,freq=2.0), product of:
                0.2160124 = queryWeight, product of:
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.03622214 = queryNorm
                0.26355398 = fieldWeight in 5900, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5900)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
  7. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Bericht über den middleOfTheRoad Workshop (2001) 0.01
    0.0095827235 = product of:
      0.03353953 = sum of:
        0.005074066 = product of:
          0.02537033 = sum of:
            0.02537033 = weight(_text_:retrieval in 5901) [ClassicSimilarity], result of:
              0.02537033 = score(doc=5901,freq=6.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23154683 = fieldWeight in 5901, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5901)
          0.2 = coord(1/5)
        0.028465465 = product of:
          0.05693093 = sum of:
            0.05693093 = weight(_text_:zugriff in 5901) [ClassicSimilarity], result of:
              0.05693093 = score(doc=5901,freq=2.0), product of:
                0.2160124 = queryWeight, product of:
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.03622214 = queryNorm
                0.26355398 = fieldWeight in 5901, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5901)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
  8. Heidorn, P.B.; Wei, Q.: Automatic metadata extraction from museum specimen labels (2008) 0.01
    0.008806083 = product of:
      0.03082129 = sum of:
        0.018552288 = product of:
          0.04638072 = sum of:
            0.01830946 = weight(_text_:retrieval in 2624) [ClassicSimilarity], result of:
              0.01830946 = score(doc=2624,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.16710453 = fieldWeight in 2624, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2624)
            0.028071264 = weight(_text_:system in 2624) [ClassicSimilarity], result of:
              0.028071264 = score(doc=2624,freq=4.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.24605882 = fieldWeight in 2624, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2624)
          0.4 = coord(2/5)
        0.0122690005 = product of:
          0.024538001 = sum of:
            0.024538001 = weight(_text_:22 in 2624) [ClassicSimilarity], result of:
              0.024538001 = score(doc=2624,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.19345059 = fieldWeight in 2624, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2624)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    This paper describes the information properties of museum specimen labels and machine learning tools to automatically extract Darwin Core (DwC) and other metadata from these labels processed through Optical Character Recognition (OCR). The DwC is a metadata profile describing the core set of access points for search and retrieval of natural history collections and observation databases. Using the HERBIS Learning System (HLS) we extract 74 independent elements from these labels. The automated text extraction tools are provided as a web service so that users can reference digital images of specimens and receive back an extended Darwin Core XML representation of the content of the label. This automated extraction task is made more difficult by the high variability of museum label formats, OCR errors and the open class nature of some elements. In this paper we introduce our overall system architecture, and variability robust solutions including, the application of Hidden Markov and Naïve Bayes machine learning models, data cleaning, use of field element identifiers, and specialist learning models. The techniques developed here could be adapted to any metadata extraction situation with noisy text and weakly ordered elements.
    Source
    Metadata for semantic and social applications : proceedings of the International Conference on Dublin Core and Metadata Applications, Berlin, 22 - 26 September 2008, DC 2008: Berlin, Germany / ed. by Jane Greenberg and Wolfgang Klas
  9. Peereboom, M.: DutchESS : Dutch Electronic Subject Service - a Dutch national collaborative effort (2000) 0.01
    0.007976091 = product of:
      0.027916316 = sum of:
        0.008285915 = product of:
          0.04142957 = sum of:
            0.04142957 = weight(_text_:retrieval in 4869) [ClassicSimilarity], result of:
              0.04142957 = score(doc=4869,freq=4.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.37811437 = fieldWeight in 4869, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4869)
          0.2 = coord(1/5)
        0.0196304 = product of:
          0.0392608 = sum of:
            0.0392608 = weight(_text_:22 in 4869) [ClassicSimilarity], result of:
              0.0392608 = score(doc=4869,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.30952093 = fieldWeight in 4869, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4869)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    This article gives an overview of the design and organisation of DutchESS, a Dutch information subject gateway created as a national collaborative effort of the National Library and a number of academic libraries. The combined centralised and distributed model of DutchESS is discussed, as well as its selection policy, its metadata format, classification scheme and retrieval options. Also some options for future collaboration on an international level are explored
    Date
    22. 6.2002 19:39:23
    Theme
    Klassifikationssysteme im Online-Retrieval
  10. Brugger, J.M.: Cataloging for digital libraries (1996) 0.01
    0.007423487 = product of:
      0.025982203 = sum of:
        0.006351802 = product of:
          0.03175901 = sum of:
            0.03175901 = weight(_text_:system in 3689) [ClassicSimilarity], result of:
              0.03175901 = score(doc=3689,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.27838376 = fieldWeight in 3689, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3689)
          0.2 = coord(1/5)
        0.0196304 = product of:
          0.0392608 = sum of:
            0.0392608 = weight(_text_:22 in 3689) [ClassicSimilarity], result of:
              0.0392608 = score(doc=3689,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.30952093 = fieldWeight in 3689, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3689)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Using grant funding, some prominent creators of digital libraries have promised users of networked resources certain kinds of access. Some of this access finds a ready-made vehicle in USMARC, some of it in the TEI header, some of it has yet to find the most appropriate vehicle. In its quest to provide access to what users need, the cataloging community can show leadership by exploring the strength inherent in a metadata-providing system like the TEI header.
    Source
    Cataloging and classification quarterly. 22(1996) nos.3/4, S.59-73
  11. Gardner, T.; Iannella, R.: Architecture and software solutions (2000) 0.01
    0.007282694 = product of:
      0.025489427 = sum of:
        0.0058590267 = product of:
          0.029295133 = sum of:
            0.029295133 = weight(_text_:retrieval in 4867) [ClassicSimilarity], result of:
              0.029295133 = score(doc=4867,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.26736724 = fieldWeight in 4867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4867)
          0.2 = coord(1/5)
        0.0196304 = product of:
          0.0392608 = sum of:
            0.0392608 = weight(_text_:22 in 4867) [ClassicSimilarity], result of:
              0.0392608 = score(doc=4867,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.30952093 = fieldWeight in 4867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4867)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    The current subject gateways have evolved over time when the discipline of Internet resource discovery was in its infancy. This is reflected by the lack of well-established, light-weight, deployable, easy-to-use, standards for metadata and information retrieval. We provide an introduction to the architecture, standards and software solutions in use by subject gateways, and to the issues that must be addressed to support future subject gateways
    Date
    22. 6.2002 19:38:24
  12. Gömpel, R.; Altenhöner, R.; Kunz, M.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 70. IFLA-Generalkonferenz in Buenos Aires : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICABS und UNIMARC sowie der Information Technology Section (2004) 0.01
    0.0071530645 = product of:
      0.050071448 = sum of:
        0.050071448 = sum of:
          0.040256247 = weight(_text_:zugriff in 2874) [ClassicSimilarity], result of:
            0.040256247 = score(doc=2874,freq=4.0), product of:
              0.2160124 = queryWeight, product of:
                5.963546 = idf(docFreq=308, maxDocs=44218)
                0.03622214 = queryNorm
              0.1863608 = fieldWeight in 2874, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.963546 = idf(docFreq=308, maxDocs=44218)
                0.015625 = fieldNorm(doc=2874)
          0.0098152 = weight(_text_:22 in 2874) [ClassicSimilarity], result of:
            0.0098152 = score(doc=2874,freq=2.0), product of:
              0.12684377 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03622214 = queryNorm
              0.07738023 = fieldWeight in 2874, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.015625 = fieldNorm(doc=2874)
      0.14285715 = coord(1/7)
    
    Abstract
    "Libraries: Tools for Education and Development" war das Motto der 70. IFLA-Generalkonferenz, dem Weltkongress Bibliothek und Information, der vom 22.-27. August 2004 in Buenos Aires, Argentinien, und damit erstmals in Lateinamerika stattfand. Rund 3.000 Teilnehmerinnen und Teilnehmer, davon ein Drittel aus spanischsprachigen Ländern, allein 600 aus Argentinien, besuchten die von der IFLA und dem nationalen Organisationskomitee gut organisierte Tagung mit mehr als 200 Sitzungen und Veranstaltungen. Aus Deutschland waren laut Teilnehmerverzeichnis leider nur 45 Kolleginnen und Kollegen angereist, womit ihre Zahl wieder auf das Niveau von Boston gesunken ist. Erfreulicherweise gab es nunmehr bereits im dritten Jahr eine deutschsprachige Ausgabe des IFLA-Express. Auch in diesem Jahr soll hier über die Veranstaltungen der Division IV Bibliographic Control berichtet werden. Die Arbeit der Division mit ihren Sektionen Bibliography, Cataloguing, Classification and Indexing sowie der neuen Sektion Knowledge Management bildet einen der Schwerpunkte der IFLA-Arbeit, die dabei erzielten konkreten Ergebnisse und Empfehlungen haben maßgeblichen Einfluss auf die tägliche Arbeit der Bibliothekarinnen und Bibliothekare. Erstmals wird auch ausführlich über die Arbeit der Core Activities ICABS und UNIMARC und der Information Technology Section berichtet.
    Content
    Cataloguing Section (Sektion Katalogisierung) Der Schwerpunkt der Arbeit dieser Sektion liegt auf der Erarbeitung bzw. internationalen Harmonisierung von Strukturen, Regeln und Arbeitsverfahren mit dem Ziel, die internationale Kooperation im Katalogisierungsbereich zu verbessern. In Anbetracht des laufenden Evaluierungsprozesses wurde der Strategieplan der Sektion zum jetzigen Zeitpunkt nur dort aktualisiert, wo es unbedingt erforderlich war. Neue Ziele wurden nicht aufgenommen. Oberste Priorität bei den strategischen Zielen behielt die Entwicklung internationaler Katalogisierungsstandards für die bibliographische Beschreibung und den Zugriff. In ihrer zentralen Bedeutung bestätigt wurden auch die "Functional Requirements for Bibliographic Records" (FRBR). Darüber hinaus gehört auch in Zukunft die Weiterentwicklung und Revision der ISBDs zu den zentralen Anliegen der Arbeit der Sektion Katalogisierung. Ein weiteres vorrangiges Ziel bleibt die Erarbeitung von Standards, Regeln und Informationslisten, um den Zugang zu bibliographischen Daten in allen Sprachen zu ermöglichen. Hierzu zählen u. a.: - die vollständige Veröffentlichung der Anonymous Classics: Der Teil für europäische Literatur ist inzwischen veröffentlicht'. Für die Erarbeitung weiterer Teile (Lateinamerika, Afrika und Asien) soll das Verfahren gestrafft und ein Zeitplan erstellt werden. - die Beobachtung der Aktivitäten zu Unicode und die Information der Sektionsmitglieder darüber zur Förderung des mehrsprachigen Zugangs zu bibliographischer Information - die Entwicklung eines web-basierten multilingualen Wörterbuchs für Katalogisierungsbegriffe - die Entwicklung und der Test von (Daten-)Modellen für eine virtuelle internationale Normdatei - die Überarbeitung der "IFLA Names of persons". Das Open Programme der Sektion stand in diesem Jahr unter dem Motto "Developments in Cataloguing Guidelines" und wurde von Barbara Tillett, Lynne Howarth und Carol van Nuys bestritten. Lynne Howarth ging in ihrem Vortrag "Enabling metadata: creating a core record for resource discovery" auf die Reaktionen im weltweiten Stellungnahmeverfahren auf die Veröffentlichung des Papiers "Guidance an the Structure, Content and Application of Metadata Records for digital resources and collections" der Working Group an the Use of Metadata Schemes ein. Carol van Nuys stellte das norwegische "Paradigma Project and its quest for metadata solutions and services" vor.
    Classification and Indexing Section (Sektion Klassifikation und Indexierung) Die Working Group an Guidelines for Multilingual Thesauri hat ihre Arbeit abgeschlossen, die Richtlinien werden Ende 2004 im IFLAnet zur Verfügung stehen. Die 2003 ins Leben gerufene Arbeitsgruppe zu Mindeststandards der Inhaltserschließung in Nationalbibliographien hat sich in Absprache mit den Mitgliedern des Standing Committee auf den Namen "Guidelines for minimal requirements for subject access by national bibliographic agencies" verständigt. Als Grundlage der zukünftigen Arbeit soll der "Survey an Subject Heading Languages Used in National Libraries and Bibliographies" von Magda HeinerFreiling dienen. Davon ausgehend soll eruiert werden, welche Arten von Medienwerken mit welchen Instrumentarien und in welcher Tiefe erschlossen werden. Eine weitere Arbeitsgruppe der Sektion befasst sich mit dem sachlichen Zugriff auf Netzpublikationen (Working Group an Subject Access to Web Resources). Die Veranstaltung "Implementation and adaption of global tools for subject access to local needs" fand regen Zuspruch. Drei Vortragende zeigten auf, wie in ihrem Sprachgebiet die Subject Headings der Library of Congress (LoC) übernommen werden (Development of a Spanish subject heading list und Subject indexing in Sweden) bzw. wie sich die Zusammenarbeit mit der LoC gestalten lässt, um den besonderen terminologischen Bedürfnissen eines Sprach- und Kulturraums außerhalb der USA Rechnung zu tragen (The SACO Program in Latin America). Aus deutscher Sicht verdiente der Vortrag "Subject indexing between international standards and local context - the Italian case" besondere Beachtung. Die Entwicklung eines Regelwerks zur verbalen Sacherschließung und die Erarbeitung einer italienischen Schlagwortnormdatei folgen nämlich erklärtermaßen der deutschen Vorgehensweise mit RSWK und SWD.
  13. Oehlschläger, S.: Abschlussworkshop des Projektes META-LIB und 1. Metadaten-Workshop der Arbeitsstelle für Standardisierung Der Deutschen Bibliothek : Metadaten - Alter Wein in neuen Schläuchen? (2003) 0.01
    0.0071163666 = product of:
      0.049814563 = sum of:
        0.049814563 = product of:
          0.09962913 = sum of:
            0.09962913 = weight(_text_:zugriff in 1758) [ClassicSimilarity], result of:
              0.09962913 = score(doc=1758,freq=2.0), product of:
                0.2160124 = queryWeight, product of:
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.03622214 = queryNorm
                0.46121946 = fieldWeight in 1758, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1758)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Die seit Mitte der goer Jahre des letzten Jahrhunderts durch das Internet und vor allem durch das World Wide Web (WWW) entstandenen neuen Kommunikations- und Publikationsmöglichkeiten stellen die mit der Sammlung, Erschließung und Nutzbarmachung von Veröffentlichungen beauftragten wissenschaftlichen Bibliotheken vor neue Herausforderungen. Netzpublikationen erfordern die Überprüfung und Anpassung bestehender Methoden und Geschäftsgänge. Neben den bibliothekarischen Verfahren haben sich im WWW neue Vorgehensweisen herausgebildet. Um die Suche, die Identifikation und den Zugriff auf Netzpublikationen zu unterstützen, werden strukturierte Daten beigegeben: Metadaten. Außer den zum Auffinden der Ressourcen notwendigen Metadaten spielen weitere Arten von Metadaten für Netzpublikationen eine zunehmend wichtige Rolle.
  14. Büttner, G.: Integration audiovisueller Aufzeichnungen in das Records Management einer Organisation : ein konzeptionelles Metadatenmodell (2017) 0.01
    0.0071163666 = product of:
      0.049814563 = sum of:
        0.049814563 = product of:
          0.09962913 = sum of:
            0.09962913 = weight(_text_:zugriff in 4202) [ClassicSimilarity], result of:
              0.09962913 = score(doc=4202,freq=2.0), product of:
                0.2160124 = queryWeight, product of:
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.03622214 = queryNorm
                0.46121946 = fieldWeight in 4202, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4202)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Dieser Artikel stellt ein konzeptionelles Metadatenmodell vor, das auf Records verschiedener Medientypen anwendbar ist. Organisationen, die im Zuge ihrer Tätigkeit regelmäßig sowohl textbasierte als auch audiovisuelle Records erstellen, haben beide Medien im Sinne des Records Management zu verwalten. Dazu sind Metadaten, einschließlich der des zentralen Ordnungssystems für Records, ein Hauptwerkzeug. Inspiriert durch medienübergreifende, auf gemeinsamen Zugriff ausgerichtete Metadatenmodelle, wird ein neues Modell vorgeschlagen. Es kombiniert die hierarchische Abstraktion der existierenden Modelle mit den Prinzipien des Records Management. Das Modell kann Organisationen dabei helfen, Entscheidungen über Metadaten für ihre Records zu treffen.
  15. Hakala, J.: Dublin core in 1997 : a report from Dublin Core metadata workshops 4 & 5 (1998) 0.01
    0.0063723573 = product of:
      0.02230325 = sum of:
        0.0051266486 = product of:
          0.025633242 = sum of:
            0.025633242 = weight(_text_:retrieval in 2220) [ClassicSimilarity], result of:
              0.025633242 = score(doc=2220,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23394634 = fieldWeight in 2220, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2220)
          0.2 = coord(1/5)
        0.0171766 = product of:
          0.0343532 = sum of:
            0.0343532 = weight(_text_:22 in 2220) [ClassicSimilarity], result of:
              0.0343532 = score(doc=2220,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.2708308 = fieldWeight in 2220, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2220)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Creation of more and better metadata, or resource descriptions, is the best means to solve the problems of massive recall and lack of precision associated with Internet information retrieval. Dublin Core Metadata workshops aim to develop the resource descriptions. Describes the 4th workshop held in Canberra March 1997 and the 5th held in Oct. 1997 in Helsinki. DC-4 dealt with element structure with qualifiers language, scheme and type; extensibility issues; and element refinement. DC-5 dealt with element refinement and stability; definition of sub-elements and resource types; and sharing of Dublin Core implementation experiences, one of which is the Nordic Metadata project. The Nordic countries are now well prepared to implement useful new tools built by the Internet metadata community
    Source
    Nordinfo Nytt. 1997, nos.3/4, S.10-22
  16. Brasethvik, T.: ¬A semantic modeling approach to metadata (1998) 0.01
    0.0063723573 = product of:
      0.02230325 = sum of:
        0.0051266486 = product of:
          0.025633242 = sum of:
            0.025633242 = weight(_text_:retrieval in 5165) [ClassicSimilarity], result of:
              0.025633242 = score(doc=5165,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23394634 = fieldWeight in 5165, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5165)
          0.2 = coord(1/5)
        0.0171766 = product of:
          0.0343532 = sum of:
            0.0343532 = weight(_text_:22 in 5165) [ClassicSimilarity], result of:
              0.0343532 = score(doc=5165,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.2708308 = fieldWeight in 5165, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5165)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    States that heterogeneous project groups today may be expected to use the mechanisms of the Web for sharing information. Metadata has been proposed as a mechanism for expressing the semantics of information and, hence, facilitate information retrieval, understanding and use. Presents an approach to sharing information which aims to use a semantic modeling language as the basis for expressing the semantics of information and designing metadata schemes. Functioning on the borderline between human and computer understandability, the modeling language would be able to express the semantics of published Web documents. Reporting on work in progress, presents the overall framework and ideas
    Date
    9. 9.2000 17:22:23
  17. Metadata and semantics research : 10th International Conference, MTSR 2016, Göttingen, Germany, November 22-25, 2016, Proceedings (2016) 0.01
    0.0063723573 = product of:
      0.02230325 = sum of:
        0.0051266486 = product of:
          0.025633242 = sum of:
            0.025633242 = weight(_text_:retrieval in 3283) [ClassicSimilarity], result of:
              0.025633242 = score(doc=3283,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23394634 = fieldWeight in 3283, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3283)
          0.2 = coord(1/5)
        0.0171766 = product of:
          0.0343532 = sum of:
            0.0343532 = weight(_text_:22 in 3283) [ClassicSimilarity], result of:
              0.0343532 = score(doc=3283,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.2708308 = fieldWeight in 3283, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3283)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    This book constitutes the refereed proceedings of the 10th Metadata and Semantics Research Conference, MTSR 2016, held in Göttingen, Germany, in November 2016. The 26 full papers and 6 short papers presented were carefully reviewed and selected from 67 submissions. The papers are organized in several sessions and tracks: Digital Libraries, Information Retrieval, Linked and Social Data, Metadata and Semantics for Open Repositories, Research Information Systems and Data Infrastructures, Metadata and Semantics for Agriculture, Food and Environment, Metadata and Semantics for Cultural Collections and Applications, European and National Projects.
  18. Korb, N.; Wollschläger, T.: Koordinierungsstelle DissOnline auf dem 2. Bibliothekskongress in Leipzig : Strategien zur Lösung von technischen und Rechtsfragen bei Online-Hochschulschriften (2004) 0.01
    0.006099743 = product of:
      0.042698197 = sum of:
        0.042698197 = product of:
          0.085396394 = sum of:
            0.085396394 = weight(_text_:zugriff in 2385) [ClassicSimilarity], result of:
              0.085396394 = score(doc=2385,freq=2.0), product of:
                0.2160124 = queryWeight, product of:
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.03622214 = queryNorm
                0.39533097 = fieldWeight in 2385, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2385)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Zur Unterstützung von Autoren, Bibliotheken, Verlagen und weiteren Institutionen bei der Publikation von elektronischen Hochschulschriften sowie zur Förderung ihrer Verbreitung und Nutzung wurde 2001 auf Empfehlung des Projektes der Deutschen Forschungsgemeinschaft (DFG) »Dissertationen Online« die Koordinierungsstelle DissOnline an Der Deutschen Bibliothek eingerichtet. Die Koordinierungsstelle hat sich inzwischen in Deutschland etabliert. Seit ihrer Gründung 2001 führte die Koordinierungsstelle auf jedem Bibliothekartag eine Veranstaltung durch. Auf dem diesjährigen 2. Bibliothekskongress in Leipzig wurde in einer Einführung von Dr. Thomas Wollschläger (die Deutsche Bibliothek Frankfurt am Main) über die aktuelle Arbeit der Koordinierungsstelle berichtet. Es wurden neue Entwicklungen bei der Informationsvermittlung mittels DissOnline vorgestellt und es konnte sowohl eine wachsende Nutzung der Möglichkeit zur OnlinePublikation als auch ein verstärkter Zugriff - auf Online-Hochschulschriften selbst verzeichnet werden. Deutlich wurden dabei auch die Vorteile der Metadaten für eine effektive Nutzung der Online-Veröffentlichungen.
  19. Jimenez, V.O.R.: Nuevas perspectivas para la catalogacion : metadatos ver MARC (1999) 0.01
    0.00594891 = product of:
      0.041642368 = sum of:
        0.041642368 = product of:
          0.083284736 = sum of:
            0.083284736 = weight(_text_:22 in 5743) [ClassicSimilarity], result of:
              0.083284736 = score(doc=5743,freq=4.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.6565931 = fieldWeight in 5743, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5743)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    30. 3.2002 19:45:22
    Source
    Revista Española de Documentaçion Cientifica. 22(1999) no.2, S.198-219
  20. Haslhofer, B.: ¬A Web-based mapping technique for establishing metadata interoperability (2008) 0.01
    0.0058851554 = product of:
      0.020598043 = sum of:
        0.0028071264 = product of:
          0.014035632 = sum of:
            0.014035632 = weight(_text_:system in 3173) [ClassicSimilarity], result of:
              0.014035632 = score(doc=3173,freq=4.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.12302941 = fieldWeight in 3173, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3173)
          0.2 = coord(1/5)
        0.017790915 = product of:
          0.03558183 = sum of:
            0.03558183 = weight(_text_:zugriff in 3173) [ClassicSimilarity], result of:
              0.03558183 = score(doc=3173,freq=2.0), product of:
                0.2160124 = queryWeight, product of:
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.03622214 = queryNorm
                0.16472124 = fieldWeight in 3173, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3173)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    The integration of metadata from distinct, heterogeneous data sources requires metadata interoperability, which is a qualitative property of metadata information objects that is not given by default. The technique of metadata mapping allows domain experts to establish metadata interoperability in a certain integration scenario. Mapping solutions, as a technical manifestation of this technique, are already available for the intensively studied domain of database system interoperability, but they rarely exist for the Web. If we consider the amount of steadily increasing structured metadata and corresponding metadata schemes on theWeb, we can observe a clear need for a mapping solution that can operate in aWeb-based environment. To achieve that, we first need to build its technical core, which is a mapping model that provides the language primitives to define mapping relationships. Existing SemanticWeb languages such as RDFS and OWL define some basic mapping elements (e.g., owl:equivalentProperty, owl:sameAs), but do not address the full spectrum of semantic and structural heterogeneities that can occur among distinct, incompatible metadata information objects. Furthermore, it is still unclear how to process defined mapping relationships during run-time in order to deliver metadata to the client in a uniform way. As the main contribution of this thesis, we present an abstract mapping model, which reflects the mapping problem on a generic level and provides the means for reconciling incompatible metadata. Instance transformation functions and URIs take a central role in that model. The former cover a broad spectrum of possible structural and semantic heterogeneities, while the latter bind the complete mapping model to the architecture of the Word Wide Web. On the concrete, language-specific level we present a binding of the abstract mapping model for the RDF Vocabulary Description Language (RDFS), which allows us to create mapping specifications among incompatible metadata schemes expressed in RDFS. The mapping model is embedded in a cyclic process that categorises the requirements a mapping solution should fulfil into four subsequent phases: mapping discovery, mapping representation, mapping execution, and mapping maintenance. In this thesis, we mainly focus on mapping representation and on the transformation of mapping specifications into executable SPARQL queries. For mapping discovery support, the model provides an interface for plugging-in schema and ontology matching algorithms. For mapping maintenance we introduce the concept of a simple, but effective mapping registry. Based on the mapping model, we propose aWeb-based mediator wrapper-architecture that allows domain experts to set up mediation endpoints that provide a uniform SPARQL query interface to a set of distributed metadata sources. The involved data sources are encapsulated by wrapper components that expose the contained metadata and the schema definitions on the Web and provide a SPARQL query interface to these metadata. In this thesis, we present the OAI2LOD Server, a wrapper component for integrating metadata that are accessible via the Open Archives Initiative Protocol for Metadata Harvesting (OAI-PMH). In a case study, we demonstrate how mappings can be created in aWeb environment and how our mediator wrapper architecture can easily be configured in order to integrate metadata from various heterogeneous data sources without the need to install any mapping solution or metadata integration solution in a local system environment.
    Content
    Die Integration von Metadaten aus unterschiedlichen, heterogenen Datenquellen erfordert Metadaten-Interoperabilität, eine Eigenschaft die nicht standardmäßig gegeben ist. Metadaten Mapping Verfahren ermöglichen es Domänenexperten Metadaten-Interoperabilität in einem bestimmten Integrationskontext herzustellen. Mapping Lösungen sollen dabei die notwendige Unterstützung bieten. Während diese für den etablierten Bereich interoperabler Datenbanken bereits existieren, ist dies für Web-Umgebungen nicht der Fall. Betrachtet man das Ausmaß ständig wachsender strukturierter Metadaten und Metadatenschemata im Web, so zeichnet sich ein Bedarf nach Web-basierten Mapping Lösungen ab. Den Kern einer solchen Lösung bildet ein Mappingmodell, das die zur Spezifikation von Mappings notwendigen Sprachkonstrukte definiert. Existierende Semantic Web Sprachen wie beispielsweise RDFS oder OWL bieten zwar grundlegende Mappingelemente (z.B.: owl:equivalentProperty, owl:sameAs), adressieren jedoch nicht das gesamte Sprektrum möglicher semantischer und struktureller Heterogenitäten, die zwischen unterschiedlichen, inkompatiblen Metadatenobjekten auftreten können. Außerdem fehlen technische Lösungsansätze zur Überführung zuvor definierter Mappings in ausfu¨hrbare Abfragen. Als zentraler wissenschaftlicher Beitrag dieser Dissertation, wird ein abstraktes Mappingmodell pr¨asentiert, welches das Mappingproblem auf generischer Ebene reflektiert und Lösungsansätze zum Abgleich inkompatibler Schemata bietet. Instanztransformationsfunktionen und URIs nehmen in diesem Modell eine zentrale Rolle ein. Erstere überbrücken ein breites Spektrum möglicher semantischer und struktureller Heterogenitäten, während letztere das Mappingmodell in die Architektur des World Wide Webs einbinden. Auf einer konkreten, sprachspezifischen Ebene wird die Anbindung des abstrakten Modells an die RDF Vocabulary Description Language (RDFS) präsentiert, wodurch ein Mapping zwischen unterschiedlichen, in RDFS ausgedrückten Metadatenschemata ermöglicht wird. Das Mappingmodell ist in einen zyklischen Mappingprozess eingebunden, der die Anforderungen an Mappinglösungen in vier aufeinanderfolgende Phasen kategorisiert: mapping discovery, mapping representation, mapping execution und mapping maintenance. Im Rahmen dieser Dissertation beschäftigen wir uns hauptsächlich mit der Representation-Phase sowie mit der Transformation von Mappingspezifikationen in ausführbare SPARQL-Abfragen. Zur Unterstützung der Discovery-Phase bietet das Mappingmodell eine Schnittstelle zur Einbindung von Schema- oder Ontologymatching-Algorithmen. Für die Maintenance-Phase präsentieren wir ein einfaches, aber seinen Zweck erfüllendes Mapping-Registry Konzept. Auf Basis des Mappingmodells stellen wir eine Web-basierte Mediator-Wrapper Architektur vor, die Domänenexperten die Möglichkeit bietet, SPARQL-Mediationsschnittstellen zu definieren. Die zu integrierenden Datenquellen müssen dafür durch Wrapper-Komponenen gekapselt werden, welche die enthaltenen Metadaten im Web exponieren und SPARQL-Zugriff ermöglichen. Als beipielhafte Wrapper Komponente präsentieren wir den OAI2LOD Server, mit dessen Hilfe Datenquellen eingebunden werden können, die ihre Metadaten über das Open Archives Initative Protocol for Metadata Harvesting (OAI-PMH) exponieren. Im Rahmen einer Fallstudie zeigen wir, wie Mappings in Web-Umgebungen erstellt werden können und wie unsere Mediator-Wrapper Architektur nach wenigen, einfachen Konfigurationsschritten Metadaten aus unterschiedlichen, heterogenen Datenquellen integrieren kann, ohne dass dadurch die Notwendigkeit entsteht, eine Mapping Lösung in einer lokalen Systemumgebung zu installieren.

Authors

Years

Languages

Types

  • a 164
  • el 16
  • m 16
  • s 12
  • b 2
  • x 2
  • n 1
  • r 1
  • More… Less…