Search (19 results, page 1 of 1)

  • × language_ss:"d"
  • × theme_ss:"Metadaten"
  1. Berkemeyer, J.; Weiß, B.: Sammlung von Online-Dissertationen an Der Deutschen Bibliothek : Neue Metadatenschnittstelle und neues Metadatenformat (1999) 0.04
    0.04388957 = product of:
      0.08777914 = sum of:
        0.08777914 = product of:
          0.17555828 = sum of:
            0.17555828 = weight(_text_:dokumente in 2765) [ClassicSimilarity], result of:
              0.17555828 = score(doc=2765,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.6752353 = fieldWeight in 2765, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2765)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  2. Wessel, C.: "Publishing and sharing your metadata application profile" : 2. SCHEMAS-Workshop in Bonn (2001) 0.04
    0.043092906 = product of:
      0.08618581 = sum of:
        0.08618581 = sum of:
          0.058519427 = weight(_text_:dokumente in 5650) [ClassicSimilarity], result of:
            0.058519427 = score(doc=5650,freq=2.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.22507842 = fieldWeight in 5650, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.03125 = fieldNorm(doc=5650)
          0.027666384 = weight(_text_:22 in 5650) [ClassicSimilarity], result of:
            0.027666384 = score(doc=5650,freq=2.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.15476047 = fieldWeight in 5650, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=5650)
      0.5 = coord(1/2)
    
    Abstract
    Immer mehr Institutionen erkennen die Bedeutung von Metadaten für die Auffindung elektronischer Dokumente und entwickeln ihr eigenes, domain-spezifisches Application Profile. Sie wählen aus einem bereits existierenden Set von Metadaten ein für ihre Bedürfnisse passendes Subset aus, fügen lokale Ergänzungen hinzu und passen die Definitionen an. Um andere über die eigenen Anwendungen zu informieren, ist es sinnvoll, die jeweiligen Application Profiles zu veröffentlichen. Dadurch wird eine Nachnutzung ermöglicht und neuen Anwendern die Entwicklung eigener Profile erleichtert. Weitere Vorteile wären eine Standardisierung der Metadatenelemente und -formate und Erhöhung der Interoperabilität. In diesem Kontext entstehende Fragen wurden auf dem 2. SCHEMAS-Workshop diskutiert, der vom 23. bis 24. November 2000 in Bonn stattfand. Die einzelnen Vorträge finden sich unter <http://lwww. schemas-forum.org/workshops/ws2/Programme.htm/>. SCHEMAS1 ist die Bezeichnung für ein "Forum for Metadata Schema Implementors". Dieses EU-Projekt wird getragen von Makx Dekkers (PricewaterhouseCoopers), Tom Baker (GMD) und Rachel Heery (UKOLN). In seiner Einführung erläuterte Makx Dekkers die Ziele von SCHEMAS: Da es viele verschiedene Schemes zur Beschreibung von Internet-Ressourcen gibt, wächst die Notwendigkeit der Entwicklung von Standards zur Vermeidung von Doppelarbeit und Konfusion. SCHEMAS stellt Informationen bereit (Metadata Watch Reports, Standards Framework Reports, Guidelines), veranstaltet Workshops und entwickelt ein Registry, in dem Metadatenprofile gesammelt werden sollen. Dadurch sollen Anwender von Metadatenformaten über den Status und neue Entwicklungen im Bereich Metadaten informiert werden. Über die Definition des Begriffs Application Profile war bereits beim 8. Workshop der Dublin Core Metadata Initiative in Ottawa im Oktober2 diskutiert worden. Rachel Heery legte nun folgende Definition vor: In einem "Namespace Schema" werden neue Elemente genannt und definiert, so dass ein standardisiertes Set entsteht. Ein "Application Profile" nutzt bereits vorhandene Elemente aus einem oder mehreren Namespace Schemas nach und optimiert diese für eine bestimmte Anwendung. Da die Zahl der Namespaces und Application Profiles ständig zunimmt, ist es sinnvoll, sie an einer zentralen Stelle zu registrieren. Diese Zentralstelle will das SCHEMAS Registry werden. Tom Baker beschrieb dessen Funktion mit einem Vergleich aus der Linguistik: Metadaten sind eine Sprache, Registries das Wörterbuch. Wie ein Wörterbuch, so hat auch ein Registry zwei Aufgaben: Es beschreibt Sprache anhand von Gebrauchsbeispielen und schreibt diesen Gebrauch vor, indem es Empfehlungen gibt (describe and prescribe). Dadurch entsteht ein Standard für diese Sprache
    Date
    11. 3.2001 17:10:22
  3. Ecker, R.: ¬Das digitale Buch im Internet : Methoden der Erfassung, Aufbereitung und Bereitstellung (1998) 0.03
    0.029259713 = product of:
      0.058519427 = sum of:
        0.058519427 = product of:
          0.11703885 = sum of:
            0.11703885 = weight(_text_:dokumente in 1511) [ClassicSimilarity], result of:
              0.11703885 = score(doc=1511,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.45015684 = fieldWeight in 1511, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1511)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  4. Diekmann, B.; Korb, N.; Schroeder, K.: Langzeitverfügbarkeit digitaler Dissertationen : das Projekt CARMEN-AP4 "Persistent Identifier" und die Koordinierungsstelle "DissOnline" (2002) 0.03
    0.029259713 = product of:
      0.058519427 = sum of:
        0.058519427 = product of:
          0.11703885 = sum of:
            0.11703885 = weight(_text_:dokumente in 612) [ClassicSimilarity], result of:
              0.11703885 = score(doc=612,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.45015684 = fieldWeight in 612, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0625 = fieldNorm(doc=612)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  5. Neudecker, C.; Zaczynska, K.; Baierer, K.; Rehm, G.; Gerber, M.; Moreno Schneider, J.: Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten (2021) 0.03
    0.025862178 = product of:
      0.051724356 = sum of:
        0.051724356 = product of:
          0.10344871 = sum of:
            0.10344871 = weight(_text_:dokumente in 369) [ClassicSimilarity], result of:
              0.10344871 = score(doc=369,freq=4.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.3978862 = fieldWeight in 369, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=369)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Durch die systematische Digitalisierung der Bestände in Bibliotheken und Archiven hat die Verfügbarkeit von Bilddigitalisaten historischer Dokumente rasant zugenommen. Das hat zunächst konservatorische Gründe: Digitalisierte Dokumente lassen sich praktisch nach Belieben in hoher Qualität vervielfältigen und sichern. Darüber hinaus lässt sich mit einer digitalisierten Sammlung eine wesentlich höhere Reichweite erzielen, als das mit dem Präsenzbestand allein jemals möglich wäre. Mit der zunehmenden Verfügbarkeit digitaler Bibliotheks- und Archivbestände steigen jedoch auch die Ansprüche an deren Präsentation und Nachnutzbarkeit. Neben der Suche auf Basis bibliothekarischer Metadaten erwarten Nutzer:innen auch, dass sie die Inhalte von Dokumenten durchsuchen können. Im wissenschaftlichen Bereich werden mit maschinellen, quantitativen Analysen von Textmaterial große Erwartungen an neue Möglichkeiten für die Forschung verbunden. Neben der Bilddigitalisierung wird daher immer häufiger auch eine Erfassung des Volltextes gefordert. Diese kann entweder manuell durch Transkription oder automatisiert mit Methoden der Optical Character Recognition (OCR) geschehen (Engl et al. 2020). Der manuellen Erfassung wird im Allgemeinen eine höhere Qualität der Zeichengenauigkeit zugeschrieben. Im Bereich der Massendigitalisierung fällt die Wahl aus Kostengründen jedoch meist auf automatische OCR-Verfahren.
  6. Frodl, C.; Gros, A.; Rühle, S.: Übersetzung des Singapore Framework für Dublin-Core-Anwendungsprofile (2009) 0.03
    0.02560225 = product of:
      0.0512045 = sum of:
        0.0512045 = product of:
          0.102409 = sum of:
            0.102409 = weight(_text_:dokumente in 3229) [ClassicSimilarity], result of:
              0.102409 = score(doc=3229,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.39388722 = fieldWeight in 3229, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3229)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Singapore Framework für Dublin-Core-Anwendungsprofile nennt die Rahmenbedingungen um Metadatenanwendungen möglichst interoperabel zu gestalten und so zu dokumentieren, dass sie nachnutzbar sind. Es definiert die Komponenten, die erforderlich und hilfreich sind, um ein Anwendungsprofil zu dokumentieren und es beschreibt, wie sich diese dokumentarischen Standards gegenüber Standard-Domain-Modellen und den Semantic-Web-Standards verhalten. Das Singapore Framework ist die Grundlage für die Beurteilung von Anwendungsprofilen in Hinblick auf Vollständigkeit der Dokumentation und auf Übereinstimmung mit den Prinzipien der Web-Architektur. Dieses Dokument bietet eine kurze Übersicht über das Singapore Framework. Weitere Dokumente, die als Anleitung für die Erstellung der erforderlichen Dokumentation dienen, sind in Planung.
  7. Holzhause, R.; Krömker, H.; Schnöll, M.: Vernetzung von audiovisuellen Inhalten und Metadaten : Metadatengestütztes System zur Generierung und Erschließung von Medienfragmenten (Teil 2) (2016) 0.03
    0.02560225 = product of:
      0.0512045 = sum of:
        0.0512045 = product of:
          0.102409 = sum of:
            0.102409 = weight(_text_:dokumente in 5861) [ClassicSimilarity], result of:
              0.102409 = score(doc=5861,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.39388722 = fieldWeight in 5861, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5861)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Metadaten beschreiben audiovisuelle Medien (A/V-Medien) bisher meist nur als Ganzes und nicht im Detail. Die zeitliche Dimension, der Ablauf von Bildund Tonfolgen, bietet eine entscheidende Verknüpfungskette für Metadaten zur tiefen Erschließung von A/V-Medien. Zeitbezogene Zusatzinformationen eröffnen vielseitige Möglichkeiten zur Interaktion, Suche und Selektion zusammenhängender Inhalte, welche zudem auf unterschiedlichen Medienformen basieren können. Im Folgenden werden webbasierte Werkzeuge vorgestellt, welche sowohl für die Verarbeitung von zeitbezogenen Metadaten als auch für die Erstellung von Medienfragmenten konzipiert sind. Die daraus resultierenden hypermedialen Erzeugnisse können über bereitgestellte Widgets aktiv in bestehende Plattformen eingebunden werden. Somit können auch bereits vorhandene Datensätze und Dokumente engmaschig mit einem Medium vernetzt werden.
  8. Mittler, E.: Dublin Core und deutsche Bibliotheken (2000) 0.02
    0.021944785 = product of:
      0.04388957 = sum of:
        0.04388957 = product of:
          0.08777914 = sum of:
            0.08777914 = weight(_text_:dokumente in 4455) [ClassicSimilarity], result of:
              0.08777914 = score(doc=4455,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.33761764 = fieldWeight in 4455, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4455)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Ende Oktober 1999 hat das 7. Dublin core Meeting in der Deutschen Bibliothek in Frankfurt/M. in beeindruckender Weise die Internationalität und Interdisziplinarität dieses Ansatzes zur Beschreibung elektronischer Medien verdeutlicht. Es war zugleich eine Anerkennung für die vielfältigen deutschen Aktivitäten. Anhand von Beispielen (Math-Net und Math-Bibl-Net; SSG-FI der SUB Göttingen; Südwestverbund und HBZ) werden die Zielvorstellungen von Dublin Core herausgearbeitet. Um die Auffindbarkeit der elektronischen Dokumente durch Standardisierung der Metadaten zu sichern setzt DC schon beim Autor an. Es ist u.a. gelungen, DC im Rahmen von neuen Standards wie open-e-book zu implementieren. Damit wird die Interoperabilität von Metadaten wesentlich verbessert. Die deutschen Bibliotheken haben sich erfolgreich in die internationale Entwicklung integriert. Auch die Teilnahme am OCLC-Projekt CORC trägt dazu bei. Das kann Rückwirkungen auch auf die Regeln für die Katalogisierung gedruckter Medien haben
  9. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Ein Halbzeitbericht (2001) 0.02
    0.020689743 = product of:
      0.041379485 = sum of:
        0.041379485 = product of:
          0.08275897 = sum of:
            0.08275897 = weight(_text_:dokumente in 5900) [ClassicSimilarity], result of:
              0.08275897 = score(doc=5900,freq=4.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.31830895 = fieldWeight in 5900, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5900)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
  10. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Bericht über den middleOfTheRoad Workshop (2001) 0.02
    0.020689743 = product of:
      0.041379485 = sum of:
        0.041379485 = product of:
          0.08275897 = sum of:
            0.08275897 = weight(_text_:dokumente in 5901) [ClassicSimilarity], result of:
              0.08275897 = score(doc=5901,freq=4.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.31830895 = fieldWeight in 5901, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5901)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
  11. Strötgen, R.; Kokkelink, S.: Metadatenextraktion aus Internetquellen : Heterogenitätsbehandlung im Projekt CARMEN (2001) 0.02
    0.018287322 = product of:
      0.036574643 = sum of:
        0.036574643 = product of:
          0.073149286 = sum of:
            0.073149286 = weight(_text_:dokumente in 5808) [ClassicSimilarity], result of:
              0.073149286 = score(doc=5808,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.28134802 = fieldWeight in 5808, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5808)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Sonderfördermaßnahme CARMEN (Content Analysis, Retrieval and Metadata: Effective Networking) zielt im Rahmen des vom BMB+F geförderten Programms GLOBAL INFO darauf ab, in der heutigen dezentralen Informationsweit geeignete Informationssysteme für die verteilten Datenbestände in Bibliotheken, Fachinformationszentren und im Internet zu schaffen. Diese Zusammenführung ist weniger technisch als inhaltlich und konzeptuell problematisch. Heterogenität tritt beispielsweise auf, wenn unterschiedliche Datenbestände zur Inhaltserschließung verschiedene Thesauri oder Klassifikationen benutzen, wenn Metadaten unterschiedlich oder überhaupt nicht erfasst werden oder wenn intellektuell aufgearbeitete Quellen mit in der Regel vollständig unerschlossenen Internetdokumenten zusammentreffen. Im Projekt CARMEN wird dieses Problem mit mehreren Methoden angegangen: Über deduktiv-heuristische Verfahren werden Metadaten automatisch aus Dokumenten generiert, außerdem lassen sich mit statistisch-quantitativen Methoden die unterschiedlichen Verwendungen von Termen in den verschiedenen Beständen aufeinander abbilden, und intellektuell erstellte Crosskonkordanzen schaffen sichere Übergänge von einer Dokumentationssprache in eine andere. Für die Extraktion von Metadaten gemäß Dublin Core (v. a. Autor, Titel, Institution, Abstract, Schlagworte) werden anhand typischer Dokumente (Dissertationen aus Math-Net im PostScript-Format und verschiedenste HTML-Dateien von WWW-Servern deutscher sozialwissenschaftlicher Institutionen) Heuristiken entwickelt. Die jeweilige Wahrscheinlichkeit, dass die so gewonnenen Metadaten korrekt und vertrauenswürdig sind, wird über Gewichte den einzelnen Daten zugeordnet. Die Heuristiken werden iterativ in ein Extraktionswerkzeug implementiert, getestet und verbessert, um die Zuverlässigkeit der Verfahren zu erhöhen. Derzeit werden an der Universität Osnabrück und im InformationsZentrum Sozialwissenschaften Bonn anhand mathematischer und sozialwissenschaftlicher Datenbestände erste Prototypen derartiger Transfermodule erstellt
  12. Hoffmann, L.: Metadaten von Internetressourcen und ihre Integrierung in Bibliothekskataloge (1998) 0.02
    0.01729149 = product of:
      0.03458298 = sum of:
        0.03458298 = product of:
          0.06916596 = sum of:
            0.06916596 = weight(_text_:22 in 1032) [ClassicSimilarity], result of:
              0.06916596 = score(doc=1032,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.38690117 = fieldWeight in 1032, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1032)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 5.1998 18:45:36
  13. Essen, F. von: Metadaten - neue Perspektiven für die Erschließung von Netzpublikationen in Bibliotheken : Erster META-LIB-Workshop in Göttingen (1998) 0.02
    0.01729149 = product of:
      0.03458298 = sum of:
        0.03458298 = product of:
          0.06916596 = sum of:
            0.06916596 = weight(_text_:22 in 2275) [ClassicSimilarity], result of:
              0.06916596 = score(doc=2275,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.38690117 = fieldWeight in 2275, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2275)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Bericht über den Workshop, der am 22. u. 23.6.98 in der SUB Göttingen stattfand
  14. Pfister, E.; Wittwer, B.; Wolff, M.: Metadaten - Manuelle Datenpflege vs. Automatisieren : ein Praxisbericht zu Metadatenmanagement an der ETH-Bibliothek (2017) 0.01
    0.012104043 = product of:
      0.024208086 = sum of:
        0.024208086 = product of:
          0.04841617 = sum of:
            0.04841617 = weight(_text_:22 in 5630) [ClassicSimilarity], result of:
              0.04841617 = score(doc=5630,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.2708308 = fieldWeight in 5630, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5630)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    B.I.T.online. 20(2017) H.1, S.22-25
  15. Weber, J.: Nachlässe und Autographen im WWW : Dublin Core in Museen, Archiven und Bibliotheken (2000) 0.01
    0.010374893 = product of:
      0.020749787 = sum of:
        0.020749787 = product of:
          0.041499574 = sum of:
            0.041499574 = weight(_text_:22 in 4458) [ClassicSimilarity], result of:
              0.041499574 = score(doc=4458,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.23214069 = fieldWeight in 4458, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4458)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    12. 3.2000 19:25:22
  16. Rusch-Feja, D.: ¬Die Open Archives Initiative (OAI) : Neue Zugangsformen zu wissenschaftlichen Arbeiten? (2001) 0.01
    0.010374893 = product of:
      0.020749787 = sum of:
        0.020749787 = product of:
          0.041499574 = sum of:
            0.041499574 = weight(_text_:22 in 1133) [ClassicSimilarity], result of:
              0.041499574 = score(doc=1133,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.23214069 = fieldWeight in 1133, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1133)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 4.2002 12:23:54
  17. Keßler, M.: KIM - Kompetenzzentrum Interoperable Metadaten : Gemeinsamer Workshop der Deutschen Nationalbibliothek und des Arbeitskreises Elektronisches Publizieren (AKEP) (2007) 0.01
    0.010374893 = product of:
      0.020749787 = sum of:
        0.020749787 = product of:
          0.041499574 = sum of:
            0.041499574 = weight(_text_:22 in 2406) [ClassicSimilarity], result of:
              0.041499574 = score(doc=2406,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.23214069 = fieldWeight in 2406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2406)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Dialog mit Bibliotheken. 20(2008) H.1, S.22-24
  18. Sewing, S.: Bestandserhaltung und Archivierung : Koordinierung auf der Basis eines gemeinsamen Metadatenformates in den deutschen und österreichischen Bibliotheksverbünden (2021) 0.01
    0.010374893 = product of:
      0.020749787 = sum of:
        0.020749787 = product of:
          0.041499574 = sum of:
            0.041499574 = weight(_text_:22 in 266) [ClassicSimilarity], result of:
              0.041499574 = score(doc=266,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.23214069 = fieldWeight in 266, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=266)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 5.2021 12:43:05
  19. Gömpel, R.; Altenhöner, R.; Kunz, M.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 70. IFLA-Generalkonferenz in Buenos Aires : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICABS und UNIMARC sowie der Information Technology Section (2004) 0.00
    0.003458298 = product of:
      0.006916596 = sum of:
        0.006916596 = product of:
          0.013833192 = sum of:
            0.013833192 = weight(_text_:22 in 2874) [ClassicSimilarity], result of:
              0.013833192 = score(doc=2874,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.07738023 = fieldWeight in 2874, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2874)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    "Libraries: Tools for Education and Development" war das Motto der 70. IFLA-Generalkonferenz, dem Weltkongress Bibliothek und Information, der vom 22.-27. August 2004 in Buenos Aires, Argentinien, und damit erstmals in Lateinamerika stattfand. Rund 3.000 Teilnehmerinnen und Teilnehmer, davon ein Drittel aus spanischsprachigen Ländern, allein 600 aus Argentinien, besuchten die von der IFLA und dem nationalen Organisationskomitee gut organisierte Tagung mit mehr als 200 Sitzungen und Veranstaltungen. Aus Deutschland waren laut Teilnehmerverzeichnis leider nur 45 Kolleginnen und Kollegen angereist, womit ihre Zahl wieder auf das Niveau von Boston gesunken ist. Erfreulicherweise gab es nunmehr bereits im dritten Jahr eine deutschsprachige Ausgabe des IFLA-Express. Auch in diesem Jahr soll hier über die Veranstaltungen der Division IV Bibliographic Control berichtet werden. Die Arbeit der Division mit ihren Sektionen Bibliography, Cataloguing, Classification and Indexing sowie der neuen Sektion Knowledge Management bildet einen der Schwerpunkte der IFLA-Arbeit, die dabei erzielten konkreten Ergebnisse und Empfehlungen haben maßgeblichen Einfluss auf die tägliche Arbeit der Bibliothekarinnen und Bibliothekare. Erstmals wird auch ausführlich über die Arbeit der Core Activities ICABS und UNIMARC und der Information Technology Section berichtet.