Search (3 results, page 1 of 1)

  • × author_ss:"Baierer, K."
  1. Gradmann, S.; Iwanowa, J.; Dröge, E.; Hennicke, S.; Trkulja, V.; Olensky, M.; Stein, C.; Struck, A.; Baierer, K.: Modellierung und Ontologien im Wissensmanagement : Erfahrungen aus drei Projekten im Umfeld von Europeana und des DFG-Exzellenzclusters Bild Wissen Gestaltung an der Humboldt-Universität zu Berlin (2013) 0.01
    0.011771991 = product of:
      0.07063194 = sum of:
        0.017521333 = weight(_text_:und in 904) [ClassicSimilarity], result of:
          0.017521333 = score(doc=904,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 904, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=904)
        0.01934244 = weight(_text_:des in 904) [ClassicSimilarity], result of:
          0.01934244 = score(doc=904,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.31797147 = fieldWeight in 904, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=904)
        0.016246837 = weight(_text_:der in 904) [ClassicSimilarity], result of:
          0.016246837 = score(doc=904,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3311152 = fieldWeight in 904, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=904)
        0.017521333 = weight(_text_:und in 904) [ClassicSimilarity], result of:
          0.017521333 = score(doc=904,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 904, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=904)
      0.16666667 = coord(4/24)
    
    Abstract
    Im Artikel werden laufende Arbeiten und Ergebnisse der Forschergruppe Wissensmanagement beschrieben. Diese entstanden vor allem durch die am Lehrstuhl Wissensmanagement angesiedelten Projekte Europeana v2.0, Digitised Manuscripts to Europeana (DM2E) sowie von Teilprojekten des vor kurzem gestarteten DFG-Exzellenzclusters Bild Wissen Gestaltung. Die Projekte befassen sich mit Spezialisierungen des Europeana Data Model, der Umwandlung von Metadaten in RDF und der automatisierten und nutzerbasierten semantischen Anreicherung dieser Daten auf Basis eigens entwickelter oder modifizierter Anwendungen sowie der Modellierung von Forschungsaktivitäten, welche derzeit auf die digitale Geisteswissenschaft zugeschnitten ist. Allen Projekten gemeinsam ist die konzeptionelle oder technische Modellierung von Informationsentitäten oder Nutzeraktivitäten, welche am Ende im Linked Data Web repräsentiert werden.
    Source
    Information - Wissenschaft und Praxis. 64(2013) H.2/3, S.127-136
  2. Baierer, K.; Zumstein, P.: Verbesserung der OCR in digitalen Sammlungen von Bibliotheken (2016) 0.01
    0.0101301 = product of:
      0.0607806 = sum of:
        0.008366567 = product of:
          0.0250997 = sum of:
            0.0250997 = weight(_text_:p in 2818) [ClassicSimilarity], result of:
              0.0250997 = score(doc=2818,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.31780142 = fieldWeight in 2818, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2818)
          0.33333334 = coord(1/3)
        0.016519273 = weight(_text_:und in 2818) [ClassicSimilarity], result of:
          0.016519273 = score(doc=2818,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.33931053 = fieldWeight in 2818, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2818)
        0.019375484 = weight(_text_:der in 2818) [ClassicSimilarity], result of:
          0.019375484 = score(doc=2818,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3948779 = fieldWeight in 2818, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2818)
        0.016519273 = weight(_text_:und in 2818) [ClassicSimilarity], result of:
          0.016519273 = score(doc=2818,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.33931053 = fieldWeight in 2818, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2818)
      0.16666667 = coord(4/24)
    
    Abstract
    Möglichkeiten zur Verbesserung der automatischen Texterkennung (OCR) in digitalen Sammlungen insbesondere durch computerlinguistische Methoden werden beschrieben und bisherige PostOCR-Verfahren analysiert. Im Gegensatz zu diesen Möglichkeiten aus der Forschung oder aus einzelnen Projekten unterscheidet sich die momentane Anwendung von OCR in der Bibliothekspraxis wesentlich und nutzt das Potential nur teilweise aus.
    Content
    Beitrag in einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl.: http://0277.ch/ojs/index.php/cdrs_0277/article/view/155/353.
  3. Neudecker, C.; Zaczynska, K.; Baierer, K.; Rehm, G.; Gerber, M.; Moreno Schneider, J.: Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten (2021) 0.01
    0.0098354425 = product of:
      0.05901265 = sum of:
        0.015771002 = weight(_text_:und in 369) [ClassicSimilarity], result of:
          0.015771002 = score(doc=369,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.32394084 = fieldWeight in 369, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=369)
        0.009306135 = weight(_text_:des in 369) [ClassicSimilarity], result of:
          0.009306135 = score(doc=369,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.15298408 = fieldWeight in 369, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=369)
        0.018164515 = weight(_text_:der in 369) [ClassicSimilarity], result of:
          0.018164515 = score(doc=369,freq=18.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.37019804 = fieldWeight in 369, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=369)
        0.015771002 = weight(_text_:und in 369) [ClassicSimilarity], result of:
          0.015771002 = score(doc=369,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.32394084 = fieldWeight in 369, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=369)
      0.16666667 = coord(4/24)
    
    Abstract
    Durch die systematische Digitalisierung der Bestände in Bibliotheken und Archiven hat die Verfügbarkeit von Bilddigitalisaten historischer Dokumente rasant zugenommen. Das hat zunächst konservatorische Gründe: Digitalisierte Dokumente lassen sich praktisch nach Belieben in hoher Qualität vervielfältigen und sichern. Darüber hinaus lässt sich mit einer digitalisierten Sammlung eine wesentlich höhere Reichweite erzielen, als das mit dem Präsenzbestand allein jemals möglich wäre. Mit der zunehmenden Verfügbarkeit digitaler Bibliotheks- und Archivbestände steigen jedoch auch die Ansprüche an deren Präsentation und Nachnutzbarkeit. Neben der Suche auf Basis bibliothekarischer Metadaten erwarten Nutzer:innen auch, dass sie die Inhalte von Dokumenten durchsuchen können. Im wissenschaftlichen Bereich werden mit maschinellen, quantitativen Analysen von Textmaterial große Erwartungen an neue Möglichkeiten für die Forschung verbunden. Neben der Bilddigitalisierung wird daher immer häufiger auch eine Erfassung des Volltextes gefordert. Diese kann entweder manuell durch Transkription oder automatisiert mit Methoden der Optical Character Recognition (OCR) geschehen (Engl et al. 2020). Der manuellen Erfassung wird im Allgemeinen eine höhere Qualität der Zeichengenauigkeit zugeschrieben. Im Bereich der Massendigitalisierung fällt die Wahl aus Kostengründen jedoch meist auf automatische OCR-Verfahren.
    Series
    Bibliotheks- und Informationspraxis; 70
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a