Search (2 results, page 1 of 1)

  • × author_ss:"Baierer, K."
  • × language_ss:"d"
  • × type_ss:"a"
  1. Gradmann, S.; Iwanowa, J.; Dröge, E.; Hennicke, S.; Trkulja, V.; Olensky, M.; Stein, C.; Struck, A.; Baierer, K.: Modellierung und Ontologien im Wissensmanagement : Erfahrungen aus drei Projekten im Umfeld von Europeana und des DFG-Exzellenzclusters Bild Wissen Gestaltung an der Humboldt-Universität zu Berlin (2013) 0.01
    0.011001873 = product of:
      0.077013105 = sum of:
        0.077013105 = product of:
          0.15402621 = sum of:
            0.15402621 = weight(_text_:wissensmanagement in 904) [ClassicSimilarity], result of:
              0.15402621 = score(doc=904,freq=6.0), product of:
                0.22308187 = queryWeight, product of:
                  6.0133076 = idf(docFreq=293, maxDocs=44218)
                  0.03709803 = queryNorm
                0.690447 = fieldWeight in 904, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  6.0133076 = idf(docFreq=293, maxDocs=44218)
                  0.046875 = fieldNorm(doc=904)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Im Artikel werden laufende Arbeiten und Ergebnisse der Forschergruppe Wissensmanagement beschrieben. Diese entstanden vor allem durch die am Lehrstuhl Wissensmanagement angesiedelten Projekte Europeana v2.0, Digitised Manuscripts to Europeana (DM2E) sowie von Teilprojekten des vor kurzem gestarteten DFG-Exzellenzclusters Bild Wissen Gestaltung. Die Projekte befassen sich mit Spezialisierungen des Europeana Data Model, der Umwandlung von Metadaten in RDF und der automatisierten und nutzerbasierten semantischen Anreicherung dieser Daten auf Basis eigens entwickelter oder modifizierter Anwendungen sowie der Modellierung von Forschungsaktivitäten, welche derzeit auf die digitale Geisteswissenschaft zugeschnitten ist. Allen Projekten gemeinsam ist die konzeptionelle oder technische Modellierung von Informationsentitäten oder Nutzeraktivitäten, welche am Ende im Linked Data Web repräsentiert werden.
  2. Neudecker, C.; Zaczynska, K.; Baierer, K.; Rehm, G.; Gerber, M.; Moreno Schneider, J.: Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten (2021) 0.01
    0.010610605 = product of:
      0.07427423 = sum of:
        0.07427423 = weight(_text_:digitalisierung in 369) [ClassicSimilarity], result of:
          0.07427423 = score(doc=369,freq=2.0), product of:
            0.2233351 = queryWeight, product of:
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.03709803 = queryNorm
            0.33256853 = fieldWeight in 369, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.0390625 = fieldNorm(doc=369)
      0.14285715 = coord(1/7)
    
    Abstract
    Durch die systematische Digitalisierung der Bestände in Bibliotheken und Archiven hat die Verfügbarkeit von Bilddigitalisaten historischer Dokumente rasant zugenommen. Das hat zunächst konservatorische Gründe: Digitalisierte Dokumente lassen sich praktisch nach Belieben in hoher Qualität vervielfältigen und sichern. Darüber hinaus lässt sich mit einer digitalisierten Sammlung eine wesentlich höhere Reichweite erzielen, als das mit dem Präsenzbestand allein jemals möglich wäre. Mit der zunehmenden Verfügbarkeit digitaler Bibliotheks- und Archivbestände steigen jedoch auch die Ansprüche an deren Präsentation und Nachnutzbarkeit. Neben der Suche auf Basis bibliothekarischer Metadaten erwarten Nutzer:innen auch, dass sie die Inhalte von Dokumenten durchsuchen können. Im wissenschaftlichen Bereich werden mit maschinellen, quantitativen Analysen von Textmaterial große Erwartungen an neue Möglichkeiten für die Forschung verbunden. Neben der Bilddigitalisierung wird daher immer häufiger auch eine Erfassung des Volltextes gefordert. Diese kann entweder manuell durch Transkription oder automatisiert mit Methoden der Optical Character Recognition (OCR) geschehen (Engl et al. 2020). Der manuellen Erfassung wird im Allgemeinen eine höhere Qualität der Zeichengenauigkeit zugeschrieben. Im Bereich der Massendigitalisierung fällt die Wahl aus Kostengründen jedoch meist auf automatische OCR-Verfahren.