Search (11 results, page 1 of 1)

  • × theme_ss:"Automatisches Indexieren"
  • × year_i:[2010 TO 2020}
  1. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.02
    0.024811404 = product of:
      0.08683991 = sum of:
        0.07427423 = weight(_text_:digitalisierung in 3780) [ClassicSimilarity], result of:
          0.07427423 = score(doc=3780,freq=2.0), product of:
            0.2233351 = queryWeight, product of:
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.03709803 = queryNorm
            0.33256853 = fieldWeight in 3780, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.012565679 = product of:
          0.025131358 = sum of:
            0.025131358 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
              0.025131358 = score(doc=3780,freq=2.0), product of:
                0.12991099 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03709803 = queryNorm
                0.19345059 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  2. Kugler, A.: Automatisierte Volltexterschließung von Retrodigitalisaten am Beispiel historischer Zeitungen (2018) 0.01
    0.012732725 = product of:
      0.08912907 = sum of:
        0.08912907 = weight(_text_:digitalisierung in 4595) [ClassicSimilarity], result of:
          0.08912907 = score(doc=4595,freq=2.0), product of:
            0.2233351 = queryWeight, product of:
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.03709803 = queryNorm
            0.3990822 = fieldWeight in 4595, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.046875 = fieldNorm(doc=4595)
      0.14285715 = coord(1/7)
    
    Abstract
    Seit ein paar Jahren postuliert die DFG in ihren Praxisregeln "Digitalisierung", dass eine ausschließliche Bilddigitalisierung nicht mehr den wissenschaftlichen Ansprüchen Genüge leiste, sondern der digitale Volltext notwendig sei, da dieser die Basis für eine wissenschaftliche Nachnutzung darstellt. Um ein besseres Verständnis davon zu erlangen, was sich hinter dem Begriff "Volltext" verbirgt, wird im Folgenden ein kleiner Einblick in die technischen Verfahren zur automatisierten Volltexterschließung von Retrodigitalisaten geboten. Fortschritte und auch Grenzen der aktuellen Methoden werden vorgestellt und wie Qualität in diesem Zusammenhang überhaupt bemessen werden kann. Die automatisierten Verfahren zur Volltexterschließung werden am Beispiel historischer Zeitungen erläutert, da deren Zugänglichmachung gerade in den Geisteswissenschaften ein großes Desiderat ist und diese Quellengattung zugleich aufgrund der Spaltenstruktur besondere technische Herausforderungen mit sich bringt. 2016 wurde das DFG-Projekt zur Erstellung eines "Masterplan Zeitungsdigitalisierung" fertiggestellt, dessen Ergebnisse hier einfließen.
  3. Hauer, M.: Tiefenindexierung im Bibliothekskatalog : 17 Jahre intelligentCAPTURE (2019) 0.00
    0.0043082326 = product of:
      0.030157628 = sum of:
        0.030157628 = product of:
          0.060315255 = sum of:
            0.060315255 = weight(_text_:22 in 5629) [ClassicSimilarity], result of:
              0.060315255 = score(doc=5629,freq=2.0), product of:
                0.12991099 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03709803 = queryNorm
                0.46428138 = fieldWeight in 5629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5629)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Source
    B.I.T.online. 22(2019) H.2, S.163-166
  4. Stankovic, R. et al.: Indexing of textual databases based on lexical resources : a case study for Serbian (2016) 0.00
    0.003590194 = product of:
      0.025131358 = sum of:
        0.025131358 = product of:
          0.050262716 = sum of:
            0.050262716 = weight(_text_:22 in 2759) [ClassicSimilarity], result of:
              0.050262716 = score(doc=2759,freq=2.0), product of:
                0.12991099 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03709803 = queryNorm
                0.38690117 = fieldWeight in 2759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2759)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    1. 2.2016 18:25:22
  5. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.00
    0.002872155 = product of:
      0.020105084 = sum of:
        0.020105084 = product of:
          0.04021017 = sum of:
            0.04021017 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.04021017 = score(doc=401,freq=2.0), product of:
                0.12991099 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03709803 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    11. 9.2012 19:43:22
  6. Kasprzik, A.: Voraussetzungen und Anwendungspotentiale einer präzisen Sacherschließung aus Sicht der Wissenschaft (2018) 0.00
    0.0025131358 = product of:
      0.01759195 = sum of:
        0.01759195 = product of:
          0.0351839 = sum of:
            0.0351839 = weight(_text_:22 in 5195) [ClassicSimilarity], result of:
              0.0351839 = score(doc=5195,freq=2.0), product of:
                0.12991099 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03709803 = queryNorm
                0.2708308 = fieldWeight in 5195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5195)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Große Aufmerksamkeit richtet sich im Moment auf das Potential von automatisierten Methoden in der Sacherschließung und deren Interaktionsmöglichkeiten mit intellektuellen Methoden. In diesem Kontext befasst sich der vorliegende Beitrag mit den folgenden Fragen: Was sind die Anforderungen an bibliothekarische Metadaten aus Sicht der Wissenschaft? Was wird gebraucht, um den Informationsbedarf der Fachcommunities zu bedienen? Und was bedeutet das entsprechend für die Automatisierung der Metadatenerstellung und -pflege? Dieser Beitrag fasst die von der Autorin eingenommene Position in einem Impulsvortrag und der Podiumsdiskussion beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  7. Franke-Maier, M.: Anforderungen an die Qualität der Inhaltserschließung im Spannungsfeld von intellektuell und automatisch erzeugten Metadaten (2018) 0.00
    0.0025131358 = product of:
      0.01759195 = sum of:
        0.01759195 = product of:
          0.0351839 = sum of:
            0.0351839 = weight(_text_:22 in 5344) [ClassicSimilarity], result of:
              0.0351839 = score(doc=5344,freq=2.0), product of:
                0.12991099 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03709803 = queryNorm
                0.2708308 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Spätestens seit dem Deutschen Bibliothekartag 2018 hat sich die Diskussion zu den automatischen Verfahren der Inhaltserschließung der Deutschen Nationalbibliothek von einer politisch geführten Diskussion in eine Qualitätsdiskussion verwandelt. Der folgende Beitrag beschäftigt sich mit Fragen der Qualität von Inhaltserschließung in digitalen Zeiten, wo heterogene Erzeugnisse unterschiedlicher Verfahren aufeinandertreffen und versucht, wichtige Anforderungen an Qualität zu definieren. Dieser Tagungsbeitrag fasst die vom Autor als Impulse vorgetragenen Ideen beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV am 29. August 2018 in Kiel zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  8. Busch, D.: Domänenspezifische hybride automatische Indexierung von bibliographischen Metadaten (2019) 0.00
    0.0021541163 = product of:
      0.015078814 = sum of:
        0.015078814 = product of:
          0.030157628 = sum of:
            0.030157628 = weight(_text_:22 in 5628) [ClassicSimilarity], result of:
              0.030157628 = score(doc=5628,freq=2.0), product of:
                0.12991099 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03709803 = queryNorm
                0.23214069 = fieldWeight in 5628, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5628)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Source
    B.I.T.online. 22(2019) H.6, S.465-469
  9. Martins, A.L.; Souza, R.R.; Ribeiro de Mello, H.: ¬The use of noun phrases in information retrieval : proposing a mechanism for automatic classification (2014) 0.00
    0.0014360775 = product of:
      0.010052542 = sum of:
        0.010052542 = product of:
          0.020105084 = sum of:
            0.020105084 = weight(_text_:22 in 1441) [ClassicSimilarity], result of:
              0.020105084 = score(doc=1441,freq=2.0), product of:
                0.12991099 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03709803 = queryNorm
                0.15476047 = fieldWeight in 1441, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1441)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Source
    Knowledge organization in the 21st century: between historical patterns and future prospects. Proceedings of the Thirteenth International ISKO Conference 19-22 May 2014, Kraków, Poland. Ed.: Wieslaw Babik
  10. Mesquita, L.A.P.; Souza, R.R.; Baracho Porto, R.M.A.: Noun phrases in automatic indexing: : a structural analysis of the distribution of relevant terms in doctoral theses (2014) 0.00
    0.0014360775 = product of:
      0.010052542 = sum of:
        0.010052542 = product of:
          0.020105084 = sum of:
            0.020105084 = weight(_text_:22 in 1442) [ClassicSimilarity], result of:
              0.020105084 = score(doc=1442,freq=2.0), product of:
                0.12991099 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03709803 = queryNorm
                0.15476047 = fieldWeight in 1442, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1442)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Source
    Knowledge organization in the 21st century: between historical patterns and future prospects. Proceedings of the Thirteenth International ISKO Conference 19-22 May 2014, Kraków, Poland. Ed.: Wieslaw Babik
  11. Greiner-Petter, A.; Schubotz, M.; Cohl, H.S.; Gipp, B.: Semantic preserving bijective mappings for expressions involving special functions between computer algebra systems and document preparation systems (2019) 0.00
    0.0014360775 = product of:
      0.010052542 = sum of:
        0.010052542 = product of:
          0.020105084 = sum of:
            0.020105084 = weight(_text_:22 in 5499) [ClassicSimilarity], result of:
              0.020105084 = score(doc=5499,freq=2.0), product of:
                0.12991099 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03709803 = queryNorm
                0.15476047 = fieldWeight in 5499, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5499)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    20. 1.2015 18:30:22