Search (142 results, page 2 of 8)

  • × theme_ss:"Metadaten"
  • × year_i:[2000 TO 2010}
  1. Weibel, S.L.; Miller, E.J.: Image Description on the Internet : Summary of CNI/OCLC Image Metadata Workshop (2001) 0.01
    0.008727819 = product of:
      0.05236691 = sum of:
        0.05236691 = weight(_text_:internet in 1045) [ClassicSimilarity], result of:
          0.05236691 = score(doc=1045,freq=4.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.46128747 = fieldWeight in 1045, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.078125 = fieldNorm(doc=1045)
      0.16666667 = coord(1/6)
    
    Footnote
    Teil eines Themenheftes: OCLC and the Internet: An Historical Overview of Research Activities, 1990-1999 - Part I
  2. O'Neill, E.T.; Lavoie, B.F.; McClain, P.D.: Web Characterization Project : An Analysis of Metadata Usage on the Web (2001) 0.01
    0.008727819 = product of:
      0.05236691 = sum of:
        0.05236691 = weight(_text_:internet in 1061) [ClassicSimilarity], result of:
          0.05236691 = score(doc=1061,freq=4.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.46128747 = fieldWeight in 1061, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.078125 = fieldNorm(doc=1061)
      0.16666667 = coord(1/6)
    
    Footnote
    Teil eines Themenheftes: OCLC and the Internet: An Historical Overview of Research Activities, 1990-1999 - Part II
    Theme
    Internet
  3. Weinheimer, J.L.: How to keep the practice of librarianship relevant in the age of the Internet (2000) 0.01
    0.008640099 = product of:
      0.051840592 = sum of:
        0.051840592 = weight(_text_:internet in 4904) [ClassicSimilarity], result of:
          0.051840592 = score(doc=4904,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.45665127 = fieldWeight in 4904, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.109375 = fieldNorm(doc=4904)
      0.16666667 = coord(1/6)
    
  4. Zhang, J.; Dimitroff, A.: Internet search engines' response to Metadata Dublin Core implementation (2005) 0.01
    0.008640099 = product of:
      0.051840592 = sum of:
        0.051840592 = weight(_text_:internet in 4652) [ClassicSimilarity], result of:
          0.051840592 = score(doc=4652,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.45665127 = fieldWeight in 4652, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.109375 = fieldNorm(doc=4652)
      0.16666667 = coord(1/6)
    
  5. Hunter, J.L.: ¬A survey of metadata research for organizing the Web (2004) 0.01
    0.00855148 = product of:
      0.05130888 = sum of:
        0.05130888 = weight(_text_:internet in 2117) [ClassicSimilarity], result of:
          0.05130888 = score(doc=2117,freq=6.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.45196757 = fieldWeight in 2117, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=2117)
      0.16666667 = coord(1/6)
    
    Abstract
    This article attempts to provide an overview of the key metadata research issues and the current projects and initiatives that are investigating methods and developing technologies aimed at improving our ability to discover, access, retrieve, and assimilate information on the Internet through the use of metadata.
    Footnote
    Beitrag in einem Themenheft: Organizing the Internet
    Theme
    Internet
  6. Schroeder, K.: Persistant identifiers im Kontext von Metadaten (2003) 0.01
    0.008354569 = product of:
      0.05012741 = sum of:
        0.05012741 = weight(_text_:bibliothek in 1743) [ClassicSimilarity], result of:
          0.05012741 = score(doc=1743,freq=2.0), product of:
            0.1578712 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.038453303 = queryNorm
            0.31752092 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1743)
      0.16666667 = coord(1/6)
    
    Abstract
    Metadaten und Persistent Identifiers (PI) sind zwei eigenständige Bereiche, die auf syntaktischer, semantischer und funktionaler Ebene miteinander in Beziehung stehen. Die Standardisierung beider Bereiche schafft die Voraussetzung, Metadaten mit Pls zu kombinieren und dadurch deren Vorteile synergetisch zu nutzen wie z. B. in Form einer zuverlässigen Referenz von Metadaten auf den Volltext oder kontext-sensitiver Verknüpfungen. Ziel dieses Aufsatzes ist eine Diskussion über die Standardisierung der Schnittmenge aus Metadaten und Pls. Dazu werden zunächst Überschneidungen aufsyntaktischer und semantischer Ebene dargestellt. Anhand der Uniform Resource Name (URN) Implementation Der Deutschen Bibliothek wird die Wechselbeziehung auf funktionaler Ebene exemplarisch verdeutlicht.
  7. Binz, V.; Rühle, S.: KIM - Das Kompetenzzentrum Interoperable Metadaten (2009) 0.01
    0.008354569 = product of:
      0.05012741 = sum of:
        0.05012741 = weight(_text_:bibliothek in 4559) [ClassicSimilarity], result of:
          0.05012741 = score(doc=4559,freq=2.0), product of:
            0.1578712 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.038453303 = queryNorm
            0.31752092 = fieldWeight in 4559, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4559)
      0.16666667 = coord(1/6)
    
    Source
    Bibliothek: Forschung und Praxis. 33(2009) H.3, S.370-374
  8. Henshaw, R.; Valauskas, E.J.: Metadata as a catalyst: : experiments with metadata and search engines in the Internet journal, First Monday (2001) 0.01
    0.007405799 = product of:
      0.044434793 = sum of:
        0.044434793 = weight(_text_:internet in 7098) [ClassicSimilarity], result of:
          0.044434793 = score(doc=7098,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.3914154 = fieldWeight in 7098, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.09375 = fieldNorm(doc=7098)
      0.16666667 = coord(1/6)
    
  9. Dillon, M.: Metadata for Web resources : how metadata works on the Web (2000) 0.01
    0.007405799 = product of:
      0.044434793 = sum of:
        0.044434793 = weight(_text_:internet in 6798) [ClassicSimilarity], result of:
          0.044434793 = score(doc=6798,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.3914154 = fieldWeight in 6798, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.09375 = fieldNorm(doc=6798)
      0.16666667 = coord(1/6)
    
    Theme
    Internet
  10. Howarth, L.C.: Metadata schemes for subject gateways (2003) 0.01
    0.007405799 = product of:
      0.044434793 = sum of:
        0.044434793 = weight(_text_:internet in 1747) [ClassicSimilarity], result of:
          0.044434793 = score(doc=1747,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.3914154 = fieldWeight in 1747, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.09375 = fieldNorm(doc=1747)
      0.16666667 = coord(1/6)
    
    Theme
    Internet
  11. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Ein Halbzeitbericht (2001) 0.01
    0.0072737252 = product of:
      0.021821175 = sum of:
        0.014811598 = weight(_text_:internet in 5900) [ClassicSimilarity], result of:
          0.014811598 = score(doc=5900,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.1304718 = fieldWeight in 5900, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
        0.007009578 = product of:
          0.021028733 = sum of:
            0.021028733 = weight(_text_:29 in 5900) [ClassicSimilarity], result of:
              0.021028733 = score(doc=5900,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.15546128 = fieldWeight in 5900, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5900)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
    Theme
    Internet
  12. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Bericht über den middleOfTheRoad Workshop (2001) 0.01
    0.0072737252 = product of:
      0.021821175 = sum of:
        0.014811598 = weight(_text_:internet in 5901) [ClassicSimilarity], result of:
          0.014811598 = score(doc=5901,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.1304718 = fieldWeight in 5901, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
        0.007009578 = product of:
          0.021028733 = sum of:
            0.021028733 = weight(_text_:29 in 5901) [ClassicSimilarity], result of:
              0.021028733 = score(doc=5901,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.15546128 = fieldWeight in 5901, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5901)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
    Theme
    Internet
  13. Wessel, C.: "Publishing and sharing your metadata application profile" : 2. SCHEMAS-Workshop in Bonn (2001) 0.01
    0.007252707 = product of:
      0.02175812 = sum of:
        0.014811598 = weight(_text_:internet in 5650) [ClassicSimilarity], result of:
          0.014811598 = score(doc=5650,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.1304718 = fieldWeight in 5650, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=5650)
        0.0069465227 = product of:
          0.020839568 = sum of:
            0.020839568 = weight(_text_:22 in 5650) [ClassicSimilarity], result of:
              0.020839568 = score(doc=5650,freq=2.0), product of:
                0.13465692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038453303 = queryNorm
                0.15476047 = fieldWeight in 5650, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5650)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Immer mehr Institutionen erkennen die Bedeutung von Metadaten für die Auffindung elektronischer Dokumente und entwickeln ihr eigenes, domain-spezifisches Application Profile. Sie wählen aus einem bereits existierenden Set von Metadaten ein für ihre Bedürfnisse passendes Subset aus, fügen lokale Ergänzungen hinzu und passen die Definitionen an. Um andere über die eigenen Anwendungen zu informieren, ist es sinnvoll, die jeweiligen Application Profiles zu veröffentlichen. Dadurch wird eine Nachnutzung ermöglicht und neuen Anwendern die Entwicklung eigener Profile erleichtert. Weitere Vorteile wären eine Standardisierung der Metadatenelemente und -formate und Erhöhung der Interoperabilität. In diesem Kontext entstehende Fragen wurden auf dem 2. SCHEMAS-Workshop diskutiert, der vom 23. bis 24. November 2000 in Bonn stattfand. Die einzelnen Vorträge finden sich unter <http://lwww. schemas-forum.org/workshops/ws2/Programme.htm/>. SCHEMAS1 ist die Bezeichnung für ein "Forum for Metadata Schema Implementors". Dieses EU-Projekt wird getragen von Makx Dekkers (PricewaterhouseCoopers), Tom Baker (GMD) und Rachel Heery (UKOLN). In seiner Einführung erläuterte Makx Dekkers die Ziele von SCHEMAS: Da es viele verschiedene Schemes zur Beschreibung von Internet-Ressourcen gibt, wächst die Notwendigkeit der Entwicklung von Standards zur Vermeidung von Doppelarbeit und Konfusion. SCHEMAS stellt Informationen bereit (Metadata Watch Reports, Standards Framework Reports, Guidelines), veranstaltet Workshops und entwickelt ein Registry, in dem Metadatenprofile gesammelt werden sollen. Dadurch sollen Anwender von Metadatenformaten über den Status und neue Entwicklungen im Bereich Metadaten informiert werden. Über die Definition des Begriffs Application Profile war bereits beim 8. Workshop der Dublin Core Metadata Initiative in Ottawa im Oktober2 diskutiert worden. Rachel Heery legte nun folgende Definition vor: In einem "Namespace Schema" werden neue Elemente genannt und definiert, so dass ein standardisiertes Set entsteht. Ein "Application Profile" nutzt bereits vorhandene Elemente aus einem oder mehreren Namespace Schemas nach und optimiert diese für eine bestimmte Anwendung. Da die Zahl der Namespaces und Application Profiles ständig zunimmt, ist es sinnvoll, sie an einer zentralen Stelle zu registrieren. Diese Zentralstelle will das SCHEMAS Registry werden. Tom Baker beschrieb dessen Funktion mit einem Vergleich aus der Linguistik: Metadaten sind eine Sprache, Registries das Wörterbuch. Wie ein Wörterbuch, so hat auch ein Registry zwei Aufgaben: Es beschreibt Sprache anhand von Gebrauchsbeispielen und schreibt diesen Gebrauch vor, indem es Empfehlungen gibt (describe and prescribe). Dadurch entsteht ein Standard für diese Sprache
    Date
    11. 3.2001 17:10:22
  14. Baker, T.: ¬A grammar of Dublin Core (2000) 0.01
    0.007252707 = product of:
      0.02175812 = sum of:
        0.014811598 = weight(_text_:internet in 1236) [ClassicSimilarity], result of:
          0.014811598 = score(doc=1236,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.1304718 = fieldWeight in 1236, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=1236)
        0.0069465227 = product of:
          0.020839568 = sum of:
            0.020839568 = weight(_text_:22 in 1236) [ClassicSimilarity], result of:
              0.020839568 = score(doc=1236,freq=2.0), product of:
                0.13465692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038453303 = queryNorm
                0.15476047 = fieldWeight in 1236, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1236)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Dublin Core is often presented as a modern form of catalog card -- a set of elements (and now qualifiers) that describe resources in a complete package. Sometimes it is proposed as an exchange format for sharing records among multiple collections. The founding principle that "every element is optional and repeatable" reinforces the notion that a Dublin Core description is to be taken as a whole. This paper, in contrast, is based on a much different premise: Dublin Core is a language. More precisely, it is a small language for making a particular class of statements about resources. Like natural languages, it has a vocabulary of word-like terms, the two classes of which -- elements and qualifiers -- function within statements like nouns and adjectives; and it has a syntax for arranging elements and qualifiers into statements according to a simple pattern. Whenever tourists order a meal or ask directions in an unfamiliar language, considerate native speakers will spontaneously limit themselves to basic words and simple sentence patterns along the lines of "I am so-and-so" or "This is such-and-such". Linguists call this pidginization. In such situations, a small phrase book or translated menu can be most helpful. By analogy, today's Web has been called an Internet Commons where users and information providers from a wide range of scientific, commercial, and social domains present their information in a variety of incompatible data models and description languages. In this context, Dublin Core presents itself as a metadata pidgin for digital tourists who must find their way in this linguistically diverse landscape. Its vocabulary is small enough to learn quickly, and its basic pattern is easily grasped. It is well-suited to serve as an auxiliary language for digital libraries. This grammar starts by defining terms. It then follows a 200-year-old tradition of English grammar teaching by focusing on the structure of single statements. It concludes by looking at the growing dictionary of Dublin Core vocabulary terms -- its registry, and at how statements can be used to build the metadata equivalent of paragraphs and compositions -- the application profile.
    Date
    26.12.2011 14:01:22
  15. Mittler, E.: Dublin Core und deutsche Bibliotheken (2000) 0.01
    0.007161058 = product of:
      0.042966347 = sum of:
        0.042966347 = weight(_text_:bibliothek in 4455) [ClassicSimilarity], result of:
          0.042966347 = score(doc=4455,freq=2.0), product of:
            0.1578712 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.038453303 = queryNorm
            0.27216077 = fieldWeight in 4455, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.046875 = fieldNorm(doc=4455)
      0.16666667 = coord(1/6)
    
    Abstract
    Ende Oktober 1999 hat das 7. Dublin core Meeting in der Deutschen Bibliothek in Frankfurt/M. in beeindruckender Weise die Internationalität und Interdisziplinarität dieses Ansatzes zur Beschreibung elektronischer Medien verdeutlicht. Es war zugleich eine Anerkennung für die vielfältigen deutschen Aktivitäten. Anhand von Beispielen (Math-Net und Math-Bibl-Net; SSG-FI der SUB Göttingen; Südwestverbund und HBZ) werden die Zielvorstellungen von Dublin Core herausgearbeitet. Um die Auffindbarkeit der elektronischen Dokumente durch Standardisierung der Metadaten zu sichern setzt DC schon beim Autor an. Es ist u.a. gelungen, DC im Rahmen von neuen Standards wie open-e-book zu implementieren. Damit wird die Interoperabilität von Metadaten wesentlich verbessert. Die deutschen Bibliotheken haben sich erfolgreich in die internationale Entwicklung integriert. Auch die Teilnahme am OCLC-Projekt CORC trägt dazu bei. Das kann Rückwirkungen auch auf die Regeln für die Katalogisierung gedruckter Medien haben
  16. Cremer, M.; Neuroth, H.: ¬Das CORC-Projekt von OCLC an der Niedersächsischen Staats- und Universitätsbibliothek Göttingen (2000) 0.01
    0.0061715 = product of:
      0.037028998 = sum of:
        0.037028998 = weight(_text_:internet in 4787) [ClassicSimilarity], result of:
          0.037028998 = score(doc=4787,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.3261795 = fieldWeight in 4787, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.078125 = fieldNorm(doc=4787)
      0.16666667 = coord(1/6)
    
    Theme
    Internet
  17. Hickey, T.R.: CORC : a system for gateway creation (2000) 0.01
    0.0061094724 = product of:
      0.036656834 = sum of:
        0.036656834 = weight(_text_:internet in 4870) [ClassicSimilarity], result of:
          0.036656834 = score(doc=4870,freq=4.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.32290122 = fieldWeight in 4870, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4870)
      0.16666667 = coord(1/6)
    
    Abstract
    CORC is an OCLC project that id developing tools and systems to enable libraries to provide enhanced access to Internet resources. By adapting and extending library techniques and procedures, we are developing a self-supporting system capable of describing a large and useful subset of the Web. CORC is more a system for hosting and supporting subject gateways than a gateway itself and relies on large-scale cooperation among libraries to maintain a centralized database. By supporting emerging metadata standards such as Dublin Core and other standards such as Unicode and RDF, CORC broadens the range of libraries and librarians able to participate. Current plans are for OCLC as a full service in July 2000
    Theme
    Internet
  18. Zhang, J.; Jastram, I.: ¬A study of the metadata creation behavior of different user groups on the Internet (2006) 0.01
    0.0061094724 = product of:
      0.036656834 = sum of:
        0.036656834 = weight(_text_:internet in 982) [ClassicSimilarity], result of:
          0.036656834 = score(doc=982,freq=4.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.32290122 = fieldWeight in 982, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=982)
      0.16666667 = coord(1/6)
    
    Abstract
    Metadata is designed to improve information organization and information retrieval effectiveness and efficiency on the Internet. The way web publishers respond to metadata and the way they use it when publishing their web pages, however, is still a mystery. The authors of this paper aim to solve this mystery by defining different professional publisher groups, examining the behaviors of these user groups, and identifying the characteristics of their metadata use. This study will enhance the current understanding of metadata application behavior and provide evidence useful to researchers, web publishers, and search engine designers.
  19. Hengel, C.: Normdaten und Metadaten : die Idee eines internationalen authority file (2003) 0.01
    0.005967549 = product of:
      0.035805292 = sum of:
        0.035805292 = weight(_text_:bibliothek in 1763) [ClassicSimilarity], result of:
          0.035805292 = score(doc=1763,freq=2.0), product of:
            0.1578712 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.038453303 = queryNorm
            0.22680065 = fieldWeight in 1763, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1763)
      0.16666667 = coord(1/6)
    
    Abstract
    Normdaten sind Metadaten besonderer Oualität: Metadaten zu Metadaten. In einem getrennt vom Metadaten-Set zur einzelnen Publikation gebildeten Normdaten-Satz werden die unterschiedlichen in den Publikationen verwendeten Namensformen bzw. Bezeichnungen für dasselbe Objekt zusammengeführt und normiert. Durch die Verwendung von Normdaten als Metadaten wird kontrolliert und sichergestellt, dass z. B. für Autoren, Urheber, Verleger, Sachinhalte etc. gleich bleibende, identische Sucheinstiege und Zugriffspunkte gebildet werden (Authority Control). Für die Recherche wirkt sich die Normierung so aus, dass die zugehörigen Publikationen über alle im Normdatensatz beinhalteten Namensformen und Bezeichnungen gefunden werden können. Durch die Angabe von Attributen und Relationen zu den einzelnen Objekten werden zudem zusätzliche, vernetzte Zugriffspunkte bereitgestellt. Normdaten sind damit ideal zur Bildung von semantischen Navigationsnetzen für die Suche und den Zugriff auf Publikationen und andere Objekte geeignet. Das standardisierte Vokabular und das Nummernsystem einer Normdatei hat aber nur im eigenen Anwendungsbereich Gültigkeit, und die gemeinsame Nutzung von Titeldaten kann durch die Nutzung unterschiedlicher Normdateien behindert werden. Die IFLA-Arbeitsgruppe FRANAR hat mit der Vision eines gemeinsamen Virtuellen Authority File ein Modell entwickelt, wie im Bibliothekswesen Interoperabilität zwischen den nationalen Normdateien hergestellt werden kann. Um die Realisierbarkeit eines solchen Vorhabens nachzuweisen, haben die Library of Congress, OCLC und Die Deutsche Bibliothek ein gemeinsames Projekt vereinbart, in dem exemplarisch für den Bereich der Personennormdaten ein VIAF (Virtual International Authority File) aufgebaut werden soll.
  20. Plümer, J.: Metadaten in den wissenschaftlichen Fachgesellschaften (2000) 0.00
    0.0049371994 = product of:
      0.029623196 = sum of:
        0.029623196 = weight(_text_:internet in 4459) [ClassicSimilarity], result of:
          0.029623196 = score(doc=4459,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.2609436 = fieldWeight in 4459, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=4459)
      0.16666667 = coord(1/6)
    
    Abstract
    Wissenschaftler nutzen Dublin Core Metadaten im Internet einerseits zur besseren Verfügbarkeit ihrer Arbeitsergebnisse, andererseits zur besseren Darstellung ihrer Arbeitsgruppen, Lehrveranstaltungen und Forschungsprojekte. Die Metadaten erlauben ein qualitativ hochwertiges Retrieval auf diesem spezifischen Material. die Nutzung von Retrievalwerkzeugen und das Angebot von Indexen dieser Materialien, sowie die Bereitstellung von Metadaten wird seit einigen Jahren von den Wissenschaftlern selbst übernommen. Die dazu verwendeten technischen Methoden und Organisationsstrukturen werden exemplarisch am Mathematics PREprint Search System vorgestellt

Authors

Languages

  • e 116
  • d 23
  • dk 1
  • ru 1
  • More… Less…

Types

  • a 130
  • el 9
  • s 6
  • m 4
  • b 2
  • More… Less…