Search (216 results, page 1 of 11)

  • × theme_ss:"Metadaten"
  1. Blumauer, A.; Hochmeister, M.: Tag-Recommender gestützte Annotation von Web-Dokumenten (2009) 0.10
    0.09780277 = product of:
      0.19560555 = sum of:
        0.04057602 = product of:
          0.08115204 = sum of:
            0.08115204 = weight(_text_:methoden in 4866) [ClassicSimilarity], result of:
              0.08115204 = score(doc=4866,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.40078837 = fieldWeight in 4866, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4866)
          0.5 = coord(1/2)
        0.11406896 = weight(_text_:techniken in 4866) [ClassicSimilarity], result of:
          0.11406896 = score(doc=4866,freq=2.0), product of:
            0.2400592 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.039072596 = queryNorm
            0.47517014 = fieldWeight in 4866, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4866)
        0.014844264 = weight(_text_:und in 4866) [ClassicSimilarity], result of:
          0.014844264 = score(doc=4866,freq=2.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.17141339 = fieldWeight in 4866, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4866)
        0.0261163 = weight(_text_:der in 4866) [ClassicSimilarity], result of:
          0.0261163 = score(doc=4866,freq=6.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.29922754 = fieldWeight in 4866, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4866)
      0.5 = coord(4/8)
    
    Abstract
    In diesem Kapitel wird die zentrale Bedeutung der Annotation von Webdokumenten bzw. von Ressourcen in einem Semantischen Web diskutiert. Es wird auf aktuelle Methoden und Techniken in diesem Gebiet eingegangen, insbesondere wird das Phänomen "Social Tagging" als zentrales Element eines "Social Semantic Webs" beleuchtet. Weiters wird der Frage nachgegangen, welchen Mehrwert "Tag Recommender" beim Annotationsvorgang bieten, sowohl aus Sicht des End-Users aber auch im Sinne eines kollaborativen Ontologieerstellungsprozesses. Schließlich wird ein Funktionsprinzip für einen semi-automatischen Tag-Recommender vorgestellt unter besonderer Berücksichtigung der Anwendbarkeit in einem Corporate Semantic Web.
  2. Strötgen, R.; Kokkelink, S.: Metadatenextraktion aus Internetquellen : Heterogenitätsbehandlung im Projekt CARMEN (2001) 0.08
    0.081326164 = product of:
      0.16265233 = sum of:
        0.04098797 = product of:
          0.08197594 = sum of:
            0.08197594 = weight(_text_:methoden in 5808) [ClassicSimilarity], result of:
              0.08197594 = score(doc=5808,freq=4.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.4048574 = fieldWeight in 5808, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5808)
          0.5 = coord(1/2)
        0.03673003 = weight(_text_:und in 5808) [ClassicSimilarity], result of:
          0.03673003 = score(doc=5808,freq=24.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.42413816 = fieldWeight in 5808, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
        0.05643911 = weight(_text_:organisation in 5808) [ClassicSimilarity], result of:
          0.05643911 = score(doc=5808,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.28248245 = fieldWeight in 5808, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
        0.028495219 = weight(_text_:der in 5808) [ClassicSimilarity], result of:
          0.028495219 = score(doc=5808,freq=14.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.326484 = fieldWeight in 5808, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
      0.5 = coord(4/8)
    
    Abstract
    Die Sonderfördermaßnahme CARMEN (Content Analysis, Retrieval and Metadata: Effective Networking) zielt im Rahmen des vom BMB+F geförderten Programms GLOBAL INFO darauf ab, in der heutigen dezentralen Informationsweit geeignete Informationssysteme für die verteilten Datenbestände in Bibliotheken, Fachinformationszentren und im Internet zu schaffen. Diese Zusammenführung ist weniger technisch als inhaltlich und konzeptuell problematisch. Heterogenität tritt beispielsweise auf, wenn unterschiedliche Datenbestände zur Inhaltserschließung verschiedene Thesauri oder Klassifikationen benutzen, wenn Metadaten unterschiedlich oder überhaupt nicht erfasst werden oder wenn intellektuell aufgearbeitete Quellen mit in der Regel vollständig unerschlossenen Internetdokumenten zusammentreffen. Im Projekt CARMEN wird dieses Problem mit mehreren Methoden angegangen: Über deduktiv-heuristische Verfahren werden Metadaten automatisch aus Dokumenten generiert, außerdem lassen sich mit statistisch-quantitativen Methoden die unterschiedlichen Verwendungen von Termen in den verschiedenen Beständen aufeinander abbilden, und intellektuell erstellte Crosskonkordanzen schaffen sichere Übergänge von einer Dokumentationssprache in eine andere. Für die Extraktion von Metadaten gemäß Dublin Core (v. a. Autor, Titel, Institution, Abstract, Schlagworte) werden anhand typischer Dokumente (Dissertationen aus Math-Net im PostScript-Format und verschiedenste HTML-Dateien von WWW-Servern deutscher sozialwissenschaftlicher Institutionen) Heuristiken entwickelt. Die jeweilige Wahrscheinlichkeit, dass die so gewonnenen Metadaten korrekt und vertrauenswürdig sind, wird über Gewichte den einzelnen Daten zugeordnet. Die Heuristiken werden iterativ in ein Extraktionswerkzeug implementiert, getestet und verbessert, um die Zuverlässigkeit der Verfahren zu erhöhen. Derzeit werden an der Universität Osnabrück und im InformationsZentrum Sozialwissenschaften Bonn anhand mathematischer und sozialwissenschaftlicher Datenbestände erste Prototypen derartiger Transfermodule erstellt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  3. Neudecker, C.; Zaczynska, K.; Baierer, K.; Rehm, G.; Gerber, M.; Moreno Schneider, J.: Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten (2021) 0.06
    0.063447244 = product of:
      0.12689449 = sum of:
        0.04098797 = product of:
          0.08197594 = sum of:
            0.08197594 = weight(_text_:methoden in 369) [ClassicSimilarity], result of:
              0.08197594 = score(doc=369,freq=4.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.4048574 = fieldWeight in 369, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=369)
          0.5 = coord(1/2)
        0.028053021 = weight(_text_:und in 369) [ClassicSimilarity], result of:
          0.028053021 = score(doc=369,freq=14.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.32394084 = fieldWeight in 369, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=369)
        0.032310538 = weight(_text_:der in 369) [ClassicSimilarity], result of:
          0.032310538 = score(doc=369,freq=18.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.37019804 = fieldWeight in 369, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=369)
        0.025542954 = product of:
          0.051085908 = sum of:
            0.051085908 = weight(_text_:forschung in 369) [ClassicSimilarity], result of:
              0.051085908 = score(doc=369,freq=2.0), product of:
                0.19008557 = queryWeight, product of:
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.039072596 = queryNorm
                0.26875216 = fieldWeight in 369, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=369)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    Durch die systematische Digitalisierung der Bestände in Bibliotheken und Archiven hat die Verfügbarkeit von Bilddigitalisaten historischer Dokumente rasant zugenommen. Das hat zunächst konservatorische Gründe: Digitalisierte Dokumente lassen sich praktisch nach Belieben in hoher Qualität vervielfältigen und sichern. Darüber hinaus lässt sich mit einer digitalisierten Sammlung eine wesentlich höhere Reichweite erzielen, als das mit dem Präsenzbestand allein jemals möglich wäre. Mit der zunehmenden Verfügbarkeit digitaler Bibliotheks- und Archivbestände steigen jedoch auch die Ansprüche an deren Präsentation und Nachnutzbarkeit. Neben der Suche auf Basis bibliothekarischer Metadaten erwarten Nutzer:innen auch, dass sie die Inhalte von Dokumenten durchsuchen können. Im wissenschaftlichen Bereich werden mit maschinellen, quantitativen Analysen von Textmaterial große Erwartungen an neue Möglichkeiten für die Forschung verbunden. Neben der Bilddigitalisierung wird daher immer häufiger auch eine Erfassung des Volltextes gefordert. Diese kann entweder manuell durch Transkription oder automatisiert mit Methoden der Optical Character Recognition (OCR) geschehen (Engl et al. 2020). Der manuellen Erfassung wird im Allgemeinen eine höhere Qualität der Zeichengenauigkeit zugeschrieben. Im Bereich der Massendigitalisierung fällt die Wahl aus Kostengründen jedoch meist auf automatische OCR-Verfahren.
    Series
    Bibliotheks- und Informationspraxis; 70
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a
  4. Rusch-Feja, D.: ¬Die Open Archives Initiative (OAI) : Neue Zugangsformen zu wissenschaftlichen Arbeiten? (2001) 0.06
    0.062063307 = product of:
      0.16550215 = sum of:
        0.033663627 = weight(_text_:und in 1133) [ClassicSimilarity], result of:
          0.033663627 = score(doc=1133,freq=14.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.38872904 = fieldWeight in 1133, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1133)
        0.038772646 = weight(_text_:der in 1133) [ClassicSimilarity], result of:
          0.038772646 = score(doc=1133,freq=18.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.44423765 = fieldWeight in 1133, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1133)
        0.09306587 = sum of:
          0.06130309 = weight(_text_:forschung in 1133) [ClassicSimilarity], result of:
            0.06130309 = score(doc=1133,freq=2.0), product of:
              0.19008557 = queryWeight, product of:
                4.8649335 = idf(docFreq=926, maxDocs=44218)
                0.039072596 = queryNorm
              0.32250258 = fieldWeight in 1133, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.8649335 = idf(docFreq=926, maxDocs=44218)
                0.046875 = fieldNorm(doc=1133)
          0.031762782 = weight(_text_:22 in 1133) [ClassicSimilarity], result of:
            0.031762782 = score(doc=1133,freq=2.0), product of:
              0.13682558 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.039072596 = queryNorm
              0.23214069 = fieldWeight in 1133, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1133)
      0.375 = coord(3/8)
    
    Abstract
    Nach einer Erläuterung der Ereignisse und Gründe, die zur Entwicklung der Open Archives Initiative (OAI) geführt haben, wird die Entstehungsgeschichte der OAI sowie ihre Organisationsstruktur dargestellt. Der Input und Diskussionen von Interessierten und Erstanwendern bei mehreren öffentlichen Workshops trugen zur Optimierung der Alpha-Version des Protokolls bei, mit dem Ergebnis, dass die erste offizielle Version im Januar 2001 vorgestellt wurde. Darauf hin folgten zwei Workshops in den USA und Europa zur Darlegung des Protokolls und Vorstellung exemplarischer Implementierung des Protokolls. Das OAI Metadata Harvesting Protokoll wird in seiner Zielsetzung und Möglichkeiten detailliert dargestellt. Auch die vom Protokoll erforderlichen Metadaten werden erläutert. Die Basisbefehle zur Abfrage in verschiedenen OAI-kompatiblen Repositories, auch mit Unterscheidung zwischen besonderen Sammlungen innerhalb der Repositories werden erklärt. Zum Schluß werden die Aussichten für die OAI im Rahmen der Experimentierphase der 1. Version des Protokolls sowie im Rahmen der gegenwärtigen Entwicklungen im wissenschaftlichen Publikationswesen diskutiert.
    Date
    22. 4.2002 12:23:54
    Source
    Bibliothek: Forschung und Praxis. 25(2001) H.3, S.291-300
  5. Ecker, R.: ¬Das digitale Buch im Internet : Methoden der Erfassung, Aufbereitung und Bereitstellung (1998) 0.06
    0.05950713 = product of:
      0.15868568 = sum of:
        0.06558075 = product of:
          0.1311615 = sum of:
            0.1311615 = weight(_text_:methoden in 1511) [ClassicSimilarity], result of:
              0.1311615 = score(doc=1511,freq=4.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.64777184 = fieldWeight in 1511, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1511)
          0.5 = coord(1/2)
        0.050894618 = weight(_text_:und in 1511) [ClassicSimilarity], result of:
          0.050894618 = score(doc=1511,freq=18.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.58770305 = fieldWeight in 1511, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1511)
        0.04221031 = weight(_text_:der in 1511) [ClassicSimilarity], result of:
          0.04221031 = score(doc=1511,freq=12.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.4836247 = fieldWeight in 1511, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1511)
      0.375 = coord(3/8)
    
    Abstract
    Die elektronische Erfassung aller bedeutenden gedruckten Informationen und ihre Verbreitung über die weltweiten Datennetze in digitalisierter Form oder als Volltext stellt eine der zur Zeit größten Herausforderungen und Chancen für unsere Informationsgesellschaft dar. Der nachstehende Artikel widmet sich der oft gestellten Frage nach den technischen Methoden für die elektronische Erfassung, Erschließung und Bereitstellung gedruckter Vorlagen und beschreibt die wichtigsten Schritte der Digitalisierung und Datenaufbereitung und ihrer technischen und organisatorischen Parameter
    Content
    Beschreibt den Prozeß der digitalisierten Aufbereitung von Text und Bild etc. über Scannen
  6. Rusch-Feja, D.: Nationale und internationale Ansätze zur Vereinheitlichung von Metadaten im Bildungsbereich (2001) 0.06
    0.059225507 = product of:
      0.15793468 = sum of:
        0.041985918 = weight(_text_:und in 5859) [ClassicSimilarity], result of:
          0.041985918 = score(doc=5859,freq=16.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.4848303 = fieldWeight in 5859, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5859)
        0.07901475 = weight(_text_:organisation in 5859) [ClassicSimilarity], result of:
          0.07901475 = score(doc=5859,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.3954754 = fieldWeight in 5859, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5859)
        0.03693402 = weight(_text_:der in 5859) [ClassicSimilarity], result of:
          0.03693402 = score(doc=5859,freq=12.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.4231716 = fieldWeight in 5859, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5859)
      0.375 = coord(3/8)
    
    Abstract
    Die vielen Aktivitäten und Anzahl von Partnern, die an diesen Gruppen teilnehmen, zeigen, wie wichtig die Vereinheitlichung und semantische Interoperabilität der Metadaten im Bildungsbereich ist. Beispiele der einzlnen Metadatensätze können den Konkordanzen von Stuart Sutton entnommen werden, wobei deutlich ist, dass die Übereinstimmung mancher Konzepte hinter den Metadatenkategorien nicht vorhanden ist. Die gemeinsame Arbeit der Gruppen hat gerade angefangen und in den nächsten Monaten können Ergebnisse dieser Standardisierungsprozesses erwartet werden
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  7. Grossmann, S.: Meta-Strukturen in Intranets : Konzepte, Vorgehensweise, Beispiele (2001) 0.06
    0.058208622 = product of:
      0.155223 = sum of:
        0.03927423 = weight(_text_:und in 5775) [ClassicSimilarity], result of:
          0.03927423 = score(doc=5775,freq=14.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.4535172 = fieldWeight in 5775, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5775)
        0.07901475 = weight(_text_:organisation in 5775) [ClassicSimilarity], result of:
          0.07901475 = score(doc=5775,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.3954754 = fieldWeight in 5775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5775)
        0.03693402 = weight(_text_:der in 5775) [ClassicSimilarity], result of:
          0.03693402 = score(doc=5775,freq=12.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.4231716 = fieldWeight in 5775, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5775)
      0.375 = coord(3/8)
    
    Abstract
    Die meisten Intranets stehen vor einem Informationsinfarkt - es fehlt in den Organisationen vielfach an klaren Rollenkonzepten zur Eingabe, Pflege und Weiterentwicklung der Intranets, vor allem aber auch an methodischen Grundsätzen zur Erfassung und Erschließung der verschiedenartigen Informationen. In diesem Beitrag werden die Grundkonzepte zur Meta-Strukturierung beschrieben, eine erprobte Vorgehensweise bei der Implementierung entsprechender Standards erarbeitet und zur besseren Illustration an konkreten Beispielen dargestellt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  8. Gömpel, R.; Altenhöner, R.; Kunz, M.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 70. IFLA-Generalkonferenz in Buenos Aires : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICABS und UNIMARC sowie der Information Technology Section (2004) 0.05
    0.046938647 = product of:
      0.09387729 = sum of:
        0.028450955 = weight(_text_:und in 2874) [ClassicSimilarity], result of:
          0.028450955 = score(doc=2874,freq=90.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.32853597 = fieldWeight in 2874, product of:
              9.486833 = tf(freq=90.0), with freq of:
                90.0 = termFreq=90.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=2874)
        0.022575643 = weight(_text_:organisation in 2874) [ClassicSimilarity], result of:
          0.022575643 = score(doc=2874,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.11299297 = fieldWeight in 2874, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.015625 = fieldNorm(doc=2874)
        0.0375569 = weight(_text_:der in 2874) [ClassicSimilarity], result of:
          0.0375569 = score(doc=2874,freq=152.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.43030822 = fieldWeight in 2874, product of:
              12.328828 = tf(freq=152.0), with freq of:
                152.0 = termFreq=152.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=2874)
        0.0052937972 = product of:
          0.0105875945 = sum of:
            0.0105875945 = weight(_text_:22 in 2874) [ClassicSimilarity], result of:
              0.0105875945 = score(doc=2874,freq=2.0), product of:
                0.13682558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039072596 = queryNorm
                0.07738023 = fieldWeight in 2874, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2874)
          0.5 = coord(1/2)
      0.5 = coord(4/8)
    
    Abstract
    "Libraries: Tools for Education and Development" war das Motto der 70. IFLA-Generalkonferenz, dem Weltkongress Bibliothek und Information, der vom 22.-27. August 2004 in Buenos Aires, Argentinien, und damit erstmals in Lateinamerika stattfand. Rund 3.000 Teilnehmerinnen und Teilnehmer, davon ein Drittel aus spanischsprachigen Ländern, allein 600 aus Argentinien, besuchten die von der IFLA und dem nationalen Organisationskomitee gut organisierte Tagung mit mehr als 200 Sitzungen und Veranstaltungen. Aus Deutschland waren laut Teilnehmerverzeichnis leider nur 45 Kolleginnen und Kollegen angereist, womit ihre Zahl wieder auf das Niveau von Boston gesunken ist. Erfreulicherweise gab es nunmehr bereits im dritten Jahr eine deutschsprachige Ausgabe des IFLA-Express. Auch in diesem Jahr soll hier über die Veranstaltungen der Division IV Bibliographic Control berichtet werden. Die Arbeit der Division mit ihren Sektionen Bibliography, Cataloguing, Classification and Indexing sowie der neuen Sektion Knowledge Management bildet einen der Schwerpunkte der IFLA-Arbeit, die dabei erzielten konkreten Ergebnisse und Empfehlungen haben maßgeblichen Einfluss auf die tägliche Arbeit der Bibliothekarinnen und Bibliothekare. Erstmals wird auch ausführlich über die Arbeit der Core Activities ICABS und UNIMARC und der Information Technology Section berichtet.
    Content
    Bibliography Section (Sektion Bibliographie) Die Sektion befasst sich mit Inhalt, Aufbau, Produktion, Verteilung und Erhaltung von bibliographischen Informationen, in erster Linie, aber nicht ausschließlich bezogen auf Nationalbibliographien. Sie fördert die "Universal Bibliographic Control (UBC)" durch die Verbreitung von Standards und praktischen Anwendungsbeispielen.
    Cataloguing Section (Sektion Katalogisierung) Der Schwerpunkt der Arbeit dieser Sektion liegt auf der Erarbeitung bzw. internationalen Harmonisierung von Strukturen, Regeln und Arbeitsverfahren mit dem Ziel, die internationale Kooperation im Katalogisierungsbereich zu verbessern. In Anbetracht des laufenden Evaluierungsprozesses wurde der Strategieplan der Sektion zum jetzigen Zeitpunkt nur dort aktualisiert, wo es unbedingt erforderlich war. Neue Ziele wurden nicht aufgenommen. Oberste Priorität bei den strategischen Zielen behielt die Entwicklung internationaler Katalogisierungsstandards für die bibliographische Beschreibung und den Zugriff. In ihrer zentralen Bedeutung bestätigt wurden auch die "Functional Requirements for Bibliographic Records" (FRBR). Darüber hinaus gehört auch in Zukunft die Weiterentwicklung und Revision der ISBDs zu den zentralen Anliegen der Arbeit der Sektion Katalogisierung. Ein weiteres vorrangiges Ziel bleibt die Erarbeitung von Standards, Regeln und Informationslisten, um den Zugang zu bibliographischen Daten in allen Sprachen zu ermöglichen. Hierzu zählen u. a.: - die vollständige Veröffentlichung der Anonymous Classics: Der Teil für europäische Literatur ist inzwischen veröffentlicht'. Für die Erarbeitung weiterer Teile (Lateinamerika, Afrika und Asien) soll das Verfahren gestrafft und ein Zeitplan erstellt werden. - die Beobachtung der Aktivitäten zu Unicode und die Information der Sektionsmitglieder darüber zur Förderung des mehrsprachigen Zugangs zu bibliographischer Information - die Entwicklung eines web-basierten multilingualen Wörterbuchs für Katalogisierungsbegriffe - die Entwicklung und der Test von (Daten-)Modellen für eine virtuelle internationale Normdatei - die Überarbeitung der "IFLA Names of persons". Das Open Programme der Sektion stand in diesem Jahr unter dem Motto "Developments in Cataloguing Guidelines" und wurde von Barbara Tillett, Lynne Howarth und Carol van Nuys bestritten. Lynne Howarth ging in ihrem Vortrag "Enabling metadata: creating a core record for resource discovery" auf die Reaktionen im weltweiten Stellungnahmeverfahren auf die Veröffentlichung des Papiers "Guidance an the Structure, Content and Application of Metadata Records for digital resources and collections" der Working Group an the Use of Metadata Schemes ein. Carol van Nuys stellte das norwegische "Paradigma Project and its quest for metadata solutions and services" vor.
    Aus den Arbeitsgruppen der Cataloguing Sektion: Schwerpunkt der Arbeiten der ISBD Review Group bleibt die Fortsetzung des generellen Revisionsprojekts. 2004 konnte die revidierte ISBD(G) veröffentlicht werden Für die Revision der ISBD(A) wurde eine Study Group aus Experten für das Alte Buch gebildet. Das weltweite Stellungnahmeverfahren ist für Frühjahr 2005 geplant. Bezüglich der Revision der ISBD(ER) konnten im weltweiten Stellungnahmeverfahren aufgekommene Fragen während der Sitzungen in Buenos Aires abschließend geklärt werden. Die Veröffentlichung der neuen ISBD(ER) ist für Ende 2004 / Anfang 2005 geplant. Die Revision der ISBD(CM) ist im Rahmen einer gemeinsamen Arbeitsgruppe der ISBD Review Group und der Sektion Geographie und Karten weiter vorangekommen. Für die Revision der ISBD(NBM) soll eine eigene Study Group gebildet werden. Die FRBR Review Group konnte erste Fortschritte bei der Erreichung der im vergangenen Jahr gesetzten Ziele Erarbeitung einer Richtlinie zur Anwendung der FRBR bei der Katalogisierung, Erweiterung der FRBR-Web-Seite im IFLAnet, um bei anderen communities (Archive, Museen etc.) für das Modell zu werben, sowie Überarbeitung des FRBR-Modells vermeIden. Von den in Berlin gebildeten fünf FRBR-Arbeitsgruppen (Expression entity Working Group, Working Group an continuing resources, Working Group an teaching and training, Working Group an subject relationships and classification, Working Group an FRBR/CRM dialogue) sind einige bereits aktiv gewesen, vor allem die letztgenannte Working Group an FRBR/CRM dialogue. Die "Working Group an subject relationships and classification" soll demnächst in Zusammenarbeit mit der Classification and Indexing Section etabliert werden. Ziel hierbei ist es, die FRBR auch auf den Bereich der Inhaltserschließung auszuweiten. Die "Working Group an continuing resources" hat in Buenos Aires beschlossen, ihre Arbeit nicht fortzuführen, da die FRBR in ihrer derzeitigen Fassung "seriality" nicht ausreichend berücksichtigen. Es ist geplant, eine neue Arbeitsgruppe unter Einbeziehung ausgewiesener Experten für fortlaufende Werke zu bilden, die sich mit diesem Problem beschäftigen soll. Für das IFLA Multilingual Dictionary of Cataloguing Terms and Concepts - MulDiCat' konnten die Richtlinien für die Eingabe in die Datenbank fertig gestellt und erforderliche Änderungen in der Datenbank implementiert werden. Die Datenbank dieses IFLA-Projekts enthält mittlerweile alle englischsprachigen Definitionen des AACR2-Glossars, die deutschen Übersetzungen der AACR2-Glossar-Definitionen sowie alle ISBD-Definitionen. Im nächsten Schritt sollen Einträge für die FRBR-Terminologie ergänzt werden. Ebenso sollen Ergänzungen zu den englischen Einträgen vorgenommen werden (aus AACR, ISBD, FRBR und weiteren IFLA-Publikationen). Die Guidelines for OPAC Displays (Richtlinien zur Präsentation von Suchergebnissen im OPAC) stehen nach der Durchführung des weltweiten Stellungnahmeverfahrens zur Veröffentlichung im IFLAnet bereit. Die Working Group an OPAC Displays hat damit ihre Arbeit beendet.
    Classification and Indexing Section (Sektion Klassifikation und Indexierung) Die Working Group an Guidelines for Multilingual Thesauri hat ihre Arbeit abgeschlossen, die Richtlinien werden Ende 2004 im IFLAnet zur Verfügung stehen. Die 2003 ins Leben gerufene Arbeitsgruppe zu Mindeststandards der Inhaltserschließung in Nationalbibliographien hat sich in Absprache mit den Mitgliedern des Standing Committee auf den Namen "Guidelines for minimal requirements for subject access by national bibliographic agencies" verständigt. Als Grundlage der zukünftigen Arbeit soll der "Survey an Subject Heading Languages Used in National Libraries and Bibliographies" von Magda HeinerFreiling dienen. Davon ausgehend soll eruiert werden, welche Arten von Medienwerken mit welchen Instrumentarien und in welcher Tiefe erschlossen werden. Eine weitere Arbeitsgruppe der Sektion befasst sich mit dem sachlichen Zugriff auf Netzpublikationen (Working Group an Subject Access to Web Resources). Die Veranstaltung "Implementation and adaption of global tools for subject access to local needs" fand regen Zuspruch. Drei Vortragende zeigten auf, wie in ihrem Sprachgebiet die Subject Headings der Library of Congress (LoC) übernommen werden (Development of a Spanish subject heading list und Subject indexing in Sweden) bzw. wie sich die Zusammenarbeit mit der LoC gestalten lässt, um den besonderen terminologischen Bedürfnissen eines Sprach- und Kulturraums außerhalb der USA Rechnung zu tragen (The SACO Program in Latin America). Aus deutscher Sicht verdiente der Vortrag "Subject indexing between international standards and local context - the Italian case" besondere Beachtung. Die Entwicklung eines Regelwerks zur verbalen Sacherschließung und die Erarbeitung einer italienischen Schlagwortnormdatei folgen nämlich erklärtermaßen der deutschen Vorgehensweise mit RSWK und SWD.
    Knowledge Management Section (Sektion Wissensmanagement) Ziel der neuen Sektion ist es, die Entwicklung und Implementierung des Wissensmanagements in Bibliotheken und Informationszentren zu fördern. Die Sektion will dafür eine internationale Plattform für die professionelle Kommunikation bieten und damit das Thema bekannter und allgemein verständlicher machen. Auf diese Weise soll seine Bedeutung auch für Bibliotheken und die mit ihm arbeitenden Einrichtungen herausgestellt werden. IFLA-CDNL Alliance for Bibliographic Standards (ICABS) Ein Jahr nach ihrer Gründung in Berlin hat die IFLA Core Activity "IFLA-CDNL Alliance for Bibliographic Standards (ICABS)" in Buenos Aires zum ersten Mal das Spektrum ihrer Arbeitsfelder einem großen Fachpublikum vorgestellt. Die IFLA Core Activity UNIMARC, einer der Partner der Allianz, hatte am Donnerstagvormittag zu einer Veranstaltung unter dem Titel "The holdings record as a bibliographic control tool" geladen. Am Nachmittag des selben Tages fand unter dem Titel "The new IFLA-CDNL Alliance for Bibliographic Standards - umbrella for multifaceted activities: strategies and practical ways to improve international coordination" die umfassende ICABS-Veranstaltung statt, die von der Generaldirektorin Der Deutschen Bibliothek, Dr. Elisabeth Niggemann, moderiert wurde. Nachdem die Vorsitzende des Advisory Board in ihrem Vortrag auf die Entstehungsgeschichte der Allianz eingegangen war, gab sie einen kurzen Oberblick über die Organisation und die Arbeit von ICABS als Dach der vielfältigen Aktivitäten im Bereich bibliographischer Standards. Vertreter aller in ICABS zusammengeschlossener Bibliotheken stellten im Anschluss daran ihre Arbeitsbereiche und -ergebnisse vor.
    Projekt "Mapping ISBDs to FRBR" Die Deutsche Bibliothek und die British Library haben im Rahmen ihrer jeweiligen Zuständigkeiten innerhalb von ICABS gemeinsam das Projekt "Mapping ISBDs to FRBR" finanziert. Beide Bibliotheken unterstützen damit die strategischen Ziele der IFLA-CDNL Allianz für bibliographische Standards. Die Deutsche Bibliothek ist innerhalb der Allianz verantwortlich für die Unterstützung der Pflege und Weiterentwicklung der ISBD, während die British Library für die Unterstützung von Pflege und Entwicklung der FRBR zuständig ist. Für die Durchführung des Projekts konnte Tom Delsey gewonnen werden, der federführender Autor der FRBR ist und Beiträge zu vielen verschiedenen Aspekten der ISBDs geliefert hat. Das Ergebnis seiner Arbeit "Mapping ISBD Elements to FRBR Entity Attributes and Relationships" steht im IFLAnet zur VerFügung (http://www.ifla.org/VII/s13/pubs/ISBD-FRBR-mappingFinal.pdf).
  9. Biesenbender, S.; Tobias, R.: Rolle und Aufgaben von Bibliotheken im Umfeld des Kerndatensatz Forschung (2019) 0.05
    0.04527589 = product of:
      0.120735705 = sum of:
        0.035987932 = weight(_text_:und in 5350) [ClassicSimilarity], result of:
          0.035987932 = score(doc=5350,freq=16.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.41556883 = fieldWeight in 5350, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5350)
        0.031657733 = weight(_text_:der in 5350) [ClassicSimilarity], result of:
          0.031657733 = score(doc=5350,freq=12.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.36271852 = fieldWeight in 5350, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5350)
        0.053090036 = product of:
          0.10618007 = sum of:
            0.10618007 = weight(_text_:forschung in 5350) [ClassicSimilarity], result of:
              0.10618007 = score(doc=5350,freq=6.0), product of:
                0.19008557 = queryWeight, product of:
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.039072596 = queryNorm
                0.5585909 = fieldWeight in 5350, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5350)
          0.5 = coord(1/2)
      0.375 = coord(3/8)
    
    Abstract
    In diesem Artikel wird die Frage aufgegriffen, welche Auswirkungen der Kerndatensatz Forschung (KDSF) auf die aktuelle bibliothekarische Praxis haben kann. Dabei wird eine Bestandsaufnahme der (möglichen) Betätigungsfelder von Bibliotheken rund um den KDSF und die Einführung von Forschungsinformationssystemen (FIS) gezogen. Es sollen die Herausforderungen und das Potenzial des KDSF für die tägliche bibliothekarische Praxis im Rahmen einer modernen und integrierten Forschungsberichterstattung beleuchtet und Impulse für in der Zukunft erforderliche Anpassungsprozesse gegeben werden. Der Artikel stellt Aufbau und Konzept des KDSF vor. Der Fokus liegt dabei auf dem Kerndatensatz-Bereich "Publikationen". Bisherige Erfahrungen und Rückmeldungen an den "Helpdesk für die Einführung des Kerndatensatz Forschung" werden aus bibliothekarischer Sicht erörtert. Ein weiterer Teil zeigt beispielhafte Aktivitäten und Herangehensweisen, die sich für Bibliotheken im Umfeld der Einführung von FIS ergeben.
  10. Oehlschläger, S.: Abschlussworkshop des Projektes META-LIB und 1. Metadaten-Workshop der Arbeitsstelle für Standardisierung Der Deutschen Bibliothek : Metadaten - Alter Wein in neuen Schläuchen? (2003) 0.04
    0.043604225 = product of:
      0.11627793 = sum of:
        0.04057602 = product of:
          0.08115204 = sum of:
            0.08115204 = weight(_text_:methoden in 1758) [ClassicSimilarity], result of:
              0.08115204 = score(doc=1758,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.40078837 = fieldWeight in 1758, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1758)
          0.5 = coord(1/2)
        0.041985918 = weight(_text_:und in 1758) [ClassicSimilarity], result of:
          0.041985918 = score(doc=1758,freq=16.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.4848303 = fieldWeight in 1758, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1758)
        0.033715997 = weight(_text_:der in 1758) [ClassicSimilarity], result of:
          0.033715997 = score(doc=1758,freq=10.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.38630107 = fieldWeight in 1758, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1758)
      0.375 = coord(3/8)
    
    Abstract
    Die seit Mitte der goer Jahre des letzten Jahrhunderts durch das Internet und vor allem durch das World Wide Web (WWW) entstandenen neuen Kommunikations- und Publikationsmöglichkeiten stellen die mit der Sammlung, Erschließung und Nutzbarmachung von Veröffentlichungen beauftragten wissenschaftlichen Bibliotheken vor neue Herausforderungen. Netzpublikationen erfordern die Überprüfung und Anpassung bestehender Methoden und Geschäftsgänge. Neben den bibliothekarischen Verfahren haben sich im WWW neue Vorgehensweisen herausgebildet. Um die Suche, die Identifikation und den Zugriff auf Netzpublikationen zu unterstützen, werden strukturierte Daten beigegeben: Metadaten. Außer den zum Auffinden der Ressourcen notwendigen Metadaten spielen weitere Arten von Metadaten für Netzpublikationen eine zunehmend wichtige Rolle.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.179-181
  11. Büttner, G.: Integration audiovisueller Aufzeichnungen in das Records Management einer Organisation : ein konzeptionelles Metadatenmodell (2017) 0.04
    0.04319358 = product of:
      0.11518288 = sum of:
        0.014844264 = weight(_text_:und in 4202) [ClassicSimilarity], result of:
          0.014844264 = score(doc=4202,freq=2.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.17141339 = fieldWeight in 4202, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4202)
        0.07901475 = weight(_text_:organisation in 4202) [ClassicSimilarity], result of:
          0.07901475 = score(doc=4202,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.3954754 = fieldWeight in 4202, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4202)
        0.021323869 = weight(_text_:der in 4202) [ClassicSimilarity], result of:
          0.021323869 = score(doc=4202,freq=4.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.24431825 = fieldWeight in 4202, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4202)
      0.375 = coord(3/8)
    
    Abstract
    Dieser Artikel stellt ein konzeptionelles Metadatenmodell vor, das auf Records verschiedener Medientypen anwendbar ist. Organisationen, die im Zuge ihrer Tätigkeit regelmäßig sowohl textbasierte als auch audiovisuelle Records erstellen, haben beide Medien im Sinne des Records Management zu verwalten. Dazu sind Metadaten, einschließlich der des zentralen Ordnungssystems für Records, ein Hauptwerkzeug. Inspiriert durch medienübergreifende, auf gemeinsamen Zugriff ausgerichtete Metadatenmodelle, wird ein neues Modell vorgeschlagen. Es kombiniert die hierarchische Abstraktion der existierenden Modelle mit den Prinzipien des Records Management. Das Modell kann Organisationen dabei helfen, Entscheidungen über Metadaten für ihre Records zu treffen.
    Source
    Information - Wissenschaft und Praxis. 68(2017) H.1, S.25-37
  12. Dogtas, G.; Ibitz, M.-P.; Jonitz, F.; Kocher, V.; Poyer, A.,; Stapf, L.: Kritik an rassifizierenden und diskriminierenden Titeln und Metadaten : Praxisorientierte Lösungsansätze (2022) 0.04
    0.043150462 = product of:
      0.1150679 = sum of:
        0.057383157 = product of:
          0.114766315 = sum of:
            0.114766315 = weight(_text_:methoden in 1828) [ClassicSimilarity], result of:
              0.114766315 = score(doc=1828,freq=4.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.56680036 = fieldWeight in 1828, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1828)
          0.5 = coord(1/2)
        0.036360875 = weight(_text_:und in 1828) [ClassicSimilarity], result of:
          0.036360875 = score(doc=1828,freq=12.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.41987535 = fieldWeight in 1828, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1828)
        0.021323869 = weight(_text_:der in 1828) [ClassicSimilarity], result of:
          0.021323869 = score(doc=1828,freq=4.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.24431825 = fieldWeight in 1828, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1828)
      0.375 = coord(3/8)
    
    Abstract
    In den letzten Jahren ist eine Debatte immer stärker in der Öffentlichkeit ausgetragen worden: Wie mit rassistischen Inhalten umgehen? Auch in Bibliotheken, Archiven und Museen muss die Frage gestellt werden, welche Methoden Anwendung finden sollen, um diskriminierende Inhalte nicht weiter zu reproduzieren. Der Beitrag untersucht Methoden im Umgang mit rassifizierendem und diskriminierendem Vokabular sowie den technischen Herausforderungen. Bei dem Versuch praxisorientierte Lösungsansätze zu verhandeln, werden die Bedürfnisse von kuratorischer Verantwortung, Einbeziehung, Nutzung und Bereitstellung diskutiert und in einem Orientierungsleitfaden zusammengeführt.
  13. Qualität in der Inhaltserschließung (2021) 0.04
    0.042146876 = product of:
      0.11239167 = sum of:
        0.032790374 = product of:
          0.06558075 = sum of:
            0.06558075 = weight(_text_:methoden in 753) [ClassicSimilarity], result of:
              0.06558075 = score(doc=753,freq=4.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.32388592 = fieldWeight in 753, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.03125 = fieldNorm(doc=753)
          0.5 = coord(1/2)
        0.044076033 = weight(_text_:und in 753) [ClassicSimilarity], result of:
          0.044076033 = score(doc=753,freq=54.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.5089658 = fieldWeight in 753, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.03552527 = weight(_text_:der in 753) [ClassicSimilarity], result of:
          0.03552527 = score(doc=753,freq=34.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.40703082 = fieldWeight in 753, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
      0.375 = coord(3/8)
    
    Abstract
    Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Footnote
    Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
    Series
    Bibliotheks- und Informationspraxis; 70
  14. Schroeder, K.: Persistent Identifiers im Kontext der Langzeitarchivierung : EPICUR auf dem 2. Bibliothekskongress in Leipzig (2004) 0.04
    0.03914344 = product of:
      0.10438251 = sum of:
        0.029384023 = weight(_text_:und in 2787) [ClassicSimilarity], result of:
          0.029384023 = score(doc=2787,freq=24.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.33931053 = fieldWeight in 2787, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
        0.045151286 = weight(_text_:organisation in 2787) [ClassicSimilarity], result of:
          0.045151286 = score(doc=2787,freq=2.0), product of:
            0.19979687 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.039072596 = queryNorm
            0.22598594 = fieldWeight in 2787, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
        0.0298472 = weight(_text_:der in 2787) [ClassicSimilarity], result of:
          0.0298472 = score(doc=2787,freq=24.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.34197432 = fieldWeight in 2787, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
      0.375 = coord(3/8)
    
    Abstract
    Mit elektronischem Publizieren werden folgende Eigenschaften verbunden: »schnell, kostengünstig, weltweit«. Aber ist das aus Nutzersicht bzw. aus der Perspektive der Autoren ausreichend, um eine Online-Veröffentlichung dauerhaft zu nutzen und zuverlässig zu zitieren? Ein Mechanismus, mit dem netzbasierte Publikationen eindeutig gekennzeichnet werden und jederzeit auffindbar sind, wird durch flüchtige Uniform Resource Locator (URLs) nicht bereitgestellt. Eine Lösung bieten Persistent Identifiers (Pls), wie z. B. Uniform Resource Names (URN)". Damit die Anwendung eines persistenten Adressierungsschemas wie den URNs langfristig gewährleistet werden kann, muss eine Infrastruktur mit einer institutionellen Unterstützung geschaffen werden. Ein wesentlicher Aspekt in diesem Kontext ist die Langzeitarchivierung der digitalen Objekte. Die Darstellung und Erläuterung der Schnittstellen zwischen Langzeitarchivierung und Pls sowie der damit verbundenen Aktivitäten und Ergebnisse des EPICUR-Projektes war Gegenstand des Vortrages von Kathrin Schroeder auf dem diesjährigen z. Bibliothekskongress in Leipzig im Rahmen des Workshops »Technische Aspekte der Langzeitarchivierung«". Es besteht ein enger Zusammenhang zwischen den Bereichen Pls (standortunabhängige, eindeutige Bezeichner für digitale Objekte) und Langzeitarchivierung (Maßnahmen, die dazu dienen, digitale Objekte für die Nachwelt dauerhaft zu erhalten): Pls werden als stabiler Zugriffsmechanismus für digitale Objekte verwendet, die in einem Depotsystem archiviert werden. Ein Depotsystem ist ein »( ...) Archiv für digitale Objekte, in dem Menschen und Systeme als 'Organisation' mit der Aufgabenstellung zusammenwirken, Informationen zu erhalten und einer definierten Nutzerschaft verfügbar zu machen.« Dazu gehören im erweiterten Sinne auch eine Infrastruktur vor der Eingangsschnittstelle des Depotsystems, die zum Transfer digitaler Objekte von den Produzenten in das Archiv dient, und die Infrastruktur der Endnutzer-Umgebungen hinter der Auslieferungsschnittstelle des Depotsystems, in denen die digitalen Objekte benutzt werden sollen. In diesem Umfeld werden Pls in folgenden Bereichen angewendet: - Metadaten, - Datenaustauschformate, - Automatisierte Lieferungen von Objekten in ein Archivsystem, - Depotsystem und - Nutzung von Pls als stabiler Zugriffsmechanismus auf ein Objekt als wichtigster Aspekt für den Endnutzer (Wissenschaftler und Autoren). Im Folgenden werden zu den einzelnen Bereichen die Ergebnisse des EPICUR-Projektes und die Aktivitäten Der Deutschen Bibliothek diskutiert.
  15. Preza, J.L.: Data science und analytics in libraries (2017) 0.04
    0.03807731 = product of:
      0.10153949 = sum of:
        0.046372592 = product of:
          0.092745185 = sum of:
            0.092745185 = weight(_text_:methoden in 3916) [ClassicSimilarity], result of:
              0.092745185 = score(doc=3916,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.45804384 = fieldWeight in 3916, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3916)
          0.5 = coord(1/2)
        0.03793461 = weight(_text_:und in 3916) [ClassicSimilarity], result of:
          0.03793461 = score(doc=3916,freq=10.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.438048 = fieldWeight in 3916, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3916)
        0.017232288 = weight(_text_:der in 3916) [ClassicSimilarity], result of:
          0.017232288 = score(doc=3916,freq=2.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.19743896 = fieldWeight in 3916, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3916)
      0.375 = coord(3/8)
    
    Abstract
    Bibliotheken sind in einer priviligierten Situation: Sie verwalten riesige Mengen von Daten und Informationen. Data Science und Analytics-Methoden ermöglichen es Bibliotheken, den Inhalt, den sie verwalten, voll auszunutzen, um den Nutzern bessere Informationen, Suche und Empfehlungen zu bieten.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.244-248
  16. Woitas, K.: Bibliografische Daten, Normdaten und Metadaten im Semantic Web : Konzepte der bibliografischen Kontrolle im Wandel (2010) 0.04
    0.0374142 = product of:
      0.0997712 = sum of:
        0.02898287 = product of:
          0.05796574 = sum of:
            0.05796574 = weight(_text_:methoden in 115) [ClassicSimilarity], result of:
              0.05796574 = score(doc=115,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.2862774 = fieldWeight in 115, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=115)
          0.5 = coord(1/2)
        0.03673003 = weight(_text_:und in 115) [ClassicSimilarity], result of:
          0.03673003 = score(doc=115,freq=24.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.42413816 = fieldWeight in 115, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=115)
        0.0340583 = weight(_text_:der in 115) [ClassicSimilarity], result of:
          0.0340583 = score(doc=115,freq=20.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.390223 = fieldWeight in 115, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=115)
      0.375 = coord(3/8)
    
    Abstract
    Bibliografische Daten, Normdaten und Metadaten im Semantic Web - Konzepte der Bibliografischen Kontrolle im Wandel. Der Titel dieser Arbeit zielt in ein essentielles Feld der Bibliotheks- und Informationswissenschaft, die Bibliografische Kontrolle. Als zweites zentrales Konzept wird der in der Weiterentwicklung des World Wide Webs (WWW) bedeutsame Begriff des Semantic Webs genannt. Auf den ersten Blick handelt es sich hier um einen ungleichen Wettstreit. Auf der einen Seite die Bibliografische Kontrolle, welche die Methoden und Mittel zur Erschließung von bibliothekarischen Objekten umfasst und traditionell in Form von formal-inhaltlichen Surrogaten in Katalogen daherkommt. Auf der anderen Seite das Buzzword Semantic Web mit seinen hochtrabenden Konnotationen eines durch Selbstreferenzialität "bedeutungstragenden", wenn nicht sogar "intelligenten" Webs. Wie kamen also eine wissenschaftliche Bibliothekarin und ein Mitglied des World Wide Web Consortiums 2007 dazu, gemeinsam einen Aufsatz zu publizieren und darin zu behaupten, das semantische Netz würde ein "bibliothekarischeres" Netz sein? Um sich dieser Frage zu nähern, soll zunächst kurz die historische Entwicklung der beiden Informationssphären Bibliothek und WWW gemeinsam betrachtet werden. Denn so oft - und völlig zurecht - die informationelle Revolution durch das Internet beschworen wird, so taucht auch immer wieder das Analogon einer weltweiten, virtuellen Bibliothek auf. Genauer gesagt, nahmen die theoretischen Überlegungen, die später zur Entwicklung des Internets führen sollten, ihren Ausgangspunkt (neben Kybernetik und entstehender Computertechnik) beim Konzept des Informationsspeichers Bibliothek.
    Content
    Magisterarbeit am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin. Vgl. unter: http://woitas.org/wp-content/uploads/2010/11/Kathi-Woitas-Magisterarbeit.pdf.
    Imprint
    Berlin : Humboldt-Universität, Institut für Bibliotheks- und Informationswissenschaft
  17. Mainberger, C.: Aktuelles aus der Digital Library (2003) 0.04
    0.036593616 = product of:
      0.09758297 = sum of:
        0.023186296 = product of:
          0.046372592 = sum of:
            0.046372592 = weight(_text_:methoden in 1547) [ClassicSimilarity], result of:
              0.046372592 = score(doc=1547,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.22902192 = fieldWeight in 1547, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1547)
          0.5 = coord(1/2)
        0.038871408 = weight(_text_:und in 1547) [ClassicSimilarity], result of:
          0.038871408 = score(doc=1547,freq=42.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.44886562 = fieldWeight in 1547, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1547)
        0.03552527 = weight(_text_:der in 1547) [ClassicSimilarity], result of:
          0.03552527 = score(doc=1547,freq=34.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.40703082 = fieldWeight in 1547, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1547)
      0.375 = coord(3/8)
    
    Abstract
    Digitales Bibliotheksgut bildet neben dem Verbundsystem und Lokalsystemen schon seit einigen Jahren einen der Schwerpunkte des Bibliotheksservice-Zentrum Baden-Württemberg (BSZ). Dazu wurden in einer Reihe von Projekten unterschiedliche Gesichtspunkte dieser vergleichsweise neuen Medien berücksichtigt. Viele dieser Projekte sind mittlerweile abgeschlossen, einige in einen regelrechten Routinebetrieb übergegangen. Video- und Audiofiles, aber auch Image- und Textdateien stellen zunächst durch ihre technische Form spezielle Anforderungen an ihre Erzeugung, Aufbewahrung und Nutzung. Daran schließt sich die Entwicklung geeigneter Verfahren und Hilfsmittel zur Verzeichnung und Erschließung an. Spezielle Suchmaschinen und Austauschprotokolle ermöglichen ein adäquates Retrieval elektronischer Ressourcen und ihre Distribution. Ein eigenes Feld stellt der Einsatz von multimedialen Lehr- und Lernmaterialien im Hochschulunterricht dar. Die technischen Eigenschaften und Möglichkeiten führen darüber hinaus zu anderen inhaltlichen Strukturen als bei "konventioneller" Literatur und schließlich zu einer andersartigen rechtlichen Verortung dieser Bestände. Zu allen diesen Themen war das BSZ tätig, meist in Kooperationen mit Partnern wie z.B. den OPUS-Anwendern oder der DLmeta-Initative. Im Mittelpunkt dieses Engagements steht der Virtuelle Medienserver, der die Metadaten der dezentral vorgehaltenen Objekte enthält, diese über Hyperlinks erreichen kann und der mit der Verbunddatenbank synchronisiert ist. Die "digitale" Bibliotheksarbeit orientiert sich dabei an den Methoden und Prinzipien der "analogen" Bibliotheksarbeit, passt diese teils den neuen, digitalen Möglichkeiten an, insbesondere der Online-Zugänglichkeit, vermeidet aber Brüche in den Nachweisinstrumenten. Im Folgenden soll dies an vier zentralen Aspekten deutlich gemacht werden, die Teil jeder Bibliotheksarbeit sind und entsprechend in aktuellen Projekten der Digital Library im BSZ ihren Niederschlag finden: Recherche- und Zugangsmöglichkeiten oder "Portale", Inhalte und Medien oder "Content", Regelwerke und Formate oder "Metadaten", Sprachverwendung oder "Normvokabular und Klassifikationen". Illustriert werden diese Themen anhand aktueller Projekte, zunächst die Sprachverwendung anhand des BAM-Portals: Das BAM-Portal wird in einem DFG-Projekt in Kooperation des BSZ mit der Landesarchivdirektion Baden-Württemberg und dem Landesmuseum für Technik und Arbeit entwickelt. Es zielt darauf ab, in Bibliotheken, Archiven und Museen vorhandene digitale Bestände unter einer einheitlichen Oberfläche übers World Wide Web zugänglich zu machen. Eine Recherche im BAMPortal führt auf eine fachübergreifende Trefferliste, in der jeder Treffer über Internetlinks mit einer ausführlichen, herkunftsgerechten Beschreibung verknüpft ist. Von dort ist gegebenenfalls ein zugehöriges Digitalisat bzw. eine multimediale Veranschaulichung erreichbar. Da übliche Suchaspekte, wie der Autor für Literatur oder die Provenienz für das Archivalien im gemeinsamen Kontext nicht fachübergreifende Resultate ergeben, treten hier themenbezogene Recherchen in den Vordergrund. Daher widmen wir im BAM-Portal der thematischen Erschließung der verschiedenen Datenbestände die größte Aufmerksamkeit.
  18. Plümer, J.: Metadaten in den wissenschaftlichen Fachgesellschaften (2000) 0.04
    0.036575485 = product of:
      0.09753463 = sum of:
        0.046372592 = product of:
          0.092745185 = sum of:
            0.092745185 = weight(_text_:methoden in 4459) [ClassicSimilarity], result of:
              0.092745185 = score(doc=4459,freq=2.0), product of:
                0.20248102 = queryWeight, product of:
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.039072596 = queryNorm
                0.45804384 = fieldWeight in 4459, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1821747 = idf(docFreq=674, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4459)
          0.5 = coord(1/2)
        0.033929747 = weight(_text_:und in 4459) [ClassicSimilarity], result of:
          0.033929747 = score(doc=4459,freq=8.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.39180204 = fieldWeight in 4459, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4459)
        0.017232288 = weight(_text_:der in 4459) [ClassicSimilarity], result of:
          0.017232288 = score(doc=4459,freq=2.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.19743896 = fieldWeight in 4459, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4459)
      0.375 = coord(3/8)
    
    Abstract
    Wissenschaftler nutzen Dublin Core Metadaten im Internet einerseits zur besseren Verfügbarkeit ihrer Arbeitsergebnisse, andererseits zur besseren Darstellung ihrer Arbeitsgruppen, Lehrveranstaltungen und Forschungsprojekte. Die Metadaten erlauben ein qualitativ hochwertiges Retrieval auf diesem spezifischen Material. die Nutzung von Retrievalwerkzeugen und das Angebot von Indexen dieser Materialien, sowie die Bereitstellung von Metadaten wird seit einigen Jahren von den Wissenschaftlern selbst übernommen. Die dazu verwendeten technischen Methoden und Organisationsstrukturen werden exemplarisch am Mathematics PREprint Search System vorgestellt
    Footnote
    Vgl. auch: http://www.mathematik.uni-osnabrueck.de/imagemaps/ (Image-Map der deutschen mathematischen Fachbereiche); http://MathNet.preprints.org
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.70-80
  19. Keßler, M.: KIM - Kompetenzzentrum Interoperable Metadaten : Gemeinsamer Workshop der Deutschen Nationalbibliothek und des Arbeitskreises Elektronisches Publizieren (AKEP) (2007) 0.03
    0.033977836 = product of:
      0.09060756 = sum of:
        0.038170967 = weight(_text_:und in 2406) [ClassicSimilarity], result of:
          0.038170967 = score(doc=2406,freq=18.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.4407773 = fieldWeight in 2406, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2406)
        0.036555205 = weight(_text_:der in 2406) [ClassicSimilarity], result of:
          0.036555205 = score(doc=2406,freq=16.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.4188313 = fieldWeight in 2406, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2406)
        0.015881391 = product of:
          0.031762782 = sum of:
            0.031762782 = weight(_text_:22 in 2406) [ClassicSimilarity], result of:
              0.031762782 = score(doc=2406,freq=2.0), product of:
                0.13682558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039072596 = queryNorm
                0.23214069 = fieldWeight in 2406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2406)
          0.5 = coord(1/2)
      0.375 = coord(3/8)
    
    Abstract
    Das Kompetenzzentrum Interoperable Metadaten (KIM) ist eine Informations- und Kommunikationsplattform für Metadatenanwender und -entwickler zur Verbesserung der Interoperabilität von Metadaten im deutschsprachigen Raum. KIM unterstützt und fördert die Erarbeitung von Metadatenstandards, die interoperable Gestaltung von Formaten und damit die optimale Nutzung von Metadaten in digitalen Informationsumgebungen mittels Lehrmaterialien, Schulungen und Beratungen. Das Kompetenzzentrum entsteht im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projekts KIM unter der Federführung der Niedersächsischen Staats- und Universitätsbibliothek Göttingen (SUB) in Zusammenarbeit mit der Deutschen Nationalbibliothek (DNB). Projektpartner sind in der Schweiz die Hochschule für Technik und Wirtschaft HTW Chur, die Eidgenössische Technische Hochschule (ETH) Zürich und in Österreich die Universität Wien. Aufgabe des Kompetenzzentrums ist es, die Interoperabilität von Metadaten zu verbessern. Interoperabilität ist die Fähigkeit zur Zusammenarbeit von heterogenen Systemen. Datenbestände unabhängiger Systeme können ausgetauscht oder zusammengeführt werden, um z. B. eine systemübergreifende Suche oder das Browsen zu ermöglichen. Daten werden zum Teil in sehr unterschiedlichen Datenbanksystemen gespeichert. Interoperabilität entsteht dann, wenn die Systeme umfangreiche Schnittstellen implementieren, die ein weitgehend verlustfreies Mapping der internen Datenrepräsentation ermöglichen.
    Source
    Dialog mit Bibliotheken. 20(2008) H.1, S.22-24
  20. Binz, V.; Rühle, S.: KIM - Das Kompetenzzentrum Interoperable Metadaten (2009) 0.03
    0.03379223 = product of:
      0.09011262 = sum of:
        0.03927423 = weight(_text_:und in 4559) [ClassicSimilarity], result of:
          0.03927423 = score(doc=4559,freq=14.0), product of:
            0.08659921 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039072596 = queryNorm
            0.4535172 = fieldWeight in 4559, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4559)
        0.015078252 = weight(_text_:der in 4559) [ClassicSimilarity], result of:
          0.015078252 = score(doc=4559,freq=2.0), product of:
            0.08727907 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039072596 = queryNorm
            0.17275909 = fieldWeight in 4559, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4559)
        0.035760134 = product of:
          0.07152027 = sum of:
            0.07152027 = weight(_text_:forschung in 4559) [ClassicSimilarity], result of:
              0.07152027 = score(doc=4559,freq=2.0), product of:
                0.19008557 = queryWeight, product of:
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.039072596 = queryNorm
                0.376253 = fieldWeight in 4559, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8649335 = idf(docFreq=926, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4559)
          0.5 = coord(1/2)
      0.375 = coord(3/8)
    
    Abstract
    Die Interoperabilität von Metadaten ist eine wichtige Voraussetzung für das Generieren von Information und Wissen in einer vernetzten Welt. Aus diesem Grund entstehen seit Mitte der Neunziger Jahre verschiedene Standards mit dem Ziel, die Interoperabilität von Metadaten zu erhöhen. Genannt seien hier vor allem DCMES und DCAM, RDF und SKOS. Aufgabe von KIM ist es, diese Entwicklungen zu begleiten und in die deutschsprachige Community zu tragen. Dabei bietet KIM neben reinen Informationsangeboten (z. B. in Form von Übersetzungen, Vorträgen und Handreichungen) auch konkrete Unterstützung in Form von Schulungen und Beratungen an.
    Source
    Bibliothek: Forschung und Praxis. 33(2009) H.3, S.370-374

Authors

Years

Languages

  • e 112
  • d 101
  • dk 1
  • sp 1
  • More… Less…

Types

  • a 184
  • el 28
  • m 7
  • s 6
  • x 4
  • b 2
  • n 2
  • r 1
  • More… Less…