Search (195 results, page 1 of 10)

  • × theme_ss:"Automatisches Indexieren"
  1. Fuhr, N.: Klassifikationsverfahren bei der automatischen Indexierung (1983) 0.05
    0.05024307 = product of:
      0.10048614 = sum of:
        0.04964163 = weight(_text_:der in 7697) [ClassicSimilarity], result of:
          0.04964163 = score(doc=7697,freq=14.0), product of:
            0.095030755 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042542826 = queryNorm
            0.5223744 = fieldWeight in 7697, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=7697)
        0.050844505 = product of:
          0.15253352 = sum of:
            0.15253352 = weight(_text_:physik in 7697) [ClassicSimilarity], result of:
              0.15253352 = score(doc=7697,freq=2.0), product of:
                0.2709557 = queryWeight, product of:
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.042542826 = queryNorm
                0.5629463 = fieldWeight in 7697, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.0625 = fieldNorm(doc=7697)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Nach einer kurzen Einführung in die Darmstädter Projekte WAI und AIR werden die folgenden Themen behandelt: Ein Ansatz zur automatischen Klassifikation. Statistische Relationen für die Klassifikation. Indexieren von Dokumenten als Spezialfall der automatischen Klassifikation. Klassifikation von Elementen der Relevanzbeschreibung. Klassifikation zur Verbesserung der Relevanzbeschreibungen. Automatische Dokumentklassifikation und Automatische Indexierung klassifizierter Dokumente. Das Projekt AIR wird in Zusammenarbeit mit der Datenbasis INKA-PHYS des Fachinformationszentrums Energie, Physik, Mathematik in Karlsruhe durchgeführt
    Source
    Automatisierung in der Klassifikation. Proc. 7. Jahrestagung der Gesellschaft für Klassifikation (Teil 1), Königswinter, 5.-8.4.1983. Hrsg.: I. Dahlberg u.a
  2. Franke-Maier, M.: Anforderungen an die Qualität der Inhaltserschließung im Spannungsfeld von intellektuell und automatisch erzeugten Metadaten (2018) 0.05
    0.050238334 = product of:
      0.10047667 = sum of:
        0.046435494 = weight(_text_:der in 5344) [ClassicSimilarity], result of:
          0.046435494 = score(doc=5344,freq=16.0), product of:
            0.095030755 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042542826 = queryNorm
            0.4886365 = fieldWeight in 5344, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.054041177 = product of:
          0.081061766 = sum of:
            0.040714007 = weight(_text_:29 in 5344) [ClassicSimilarity], result of:
              0.040714007 = score(doc=5344,freq=2.0), product of:
                0.14965236 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.042542826 = queryNorm
                0.27205724 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
            0.04034776 = weight(_text_:22 in 5344) [ClassicSimilarity], result of:
              0.04034776 = score(doc=5344,freq=2.0), product of:
                0.14897773 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042542826 = queryNorm
                0.2708308 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Spätestens seit dem Deutschen Bibliothekartag 2018 hat sich die Diskussion zu den automatischen Verfahren der Inhaltserschließung der Deutschen Nationalbibliothek von einer politisch geführten Diskussion in eine Qualitätsdiskussion verwandelt. Der folgende Beitrag beschäftigt sich mit Fragen der Qualität von Inhaltserschließung in digitalen Zeiten, wo heterogene Erzeugnisse unterschiedlicher Verfahren aufeinandertreffen und versucht, wichtige Anforderungen an Qualität zu definieren. Dieser Tagungsbeitrag fasst die vom Autor als Impulse vorgetragenen Ideen beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV am 29. August 2018 in Kiel zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  3. Biebricher, P.; Fuhr, N.; Knorz, G.; Lustig, G.; Schwandtner, M.: Entwicklung und Anwendung des automatischen Indexierungssystems AIR/PHYS (1988) 0.05
    0.048401862 = product of:
      0.096803725 = sum of:
        0.04595922 = weight(_text_:der in 2320) [ClassicSimilarity], result of:
          0.04595922 = score(doc=2320,freq=12.0), product of:
            0.095030755 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042542826 = queryNorm
            0.4836247 = fieldWeight in 2320, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2320)
        0.050844505 = product of:
          0.15253352 = sum of:
            0.15253352 = weight(_text_:physik in 2320) [ClassicSimilarity], result of:
              0.15253352 = score(doc=2320,freq=2.0), product of:
                0.2709557 = queryWeight, product of:
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.042542826 = queryNorm
                0.5629463 = fieldWeight in 2320, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2320)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Seit 1985 wird das automatische Indexierungssystem AIR/PHYS in der Inputproduktion der Physik-Datenbank PHYS des Fachinformationszentrums Karlsruhe angewandt. Das AIR/PHYS-System teilt englischsprachigen Referatetexten Deskriptoren aus einem vorgeschriebenen Vokabular zu. In der vorliegenden Arbeit werden der zugrundeliegende fehlertolerierende Ansatz, der Aufbau des Systems und die wichtigsten Verfahren zur Entwicklung eines großen Indexierungswörterbuches beschrieben. Ferner werden Probleme der Anwendung und Weiterentwicklung des Systems behandelt
  4. Automatische Indexierung zwischen Forschung und Anwendung (1986) 0.05
    0.047875866 = product of:
      0.09575173 = sum of:
        0.032834854 = weight(_text_:der in 953) [ClassicSimilarity], result of:
          0.032834854 = score(doc=953,freq=8.0), product of:
            0.095030755 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042542826 = queryNorm
            0.34551817 = fieldWeight in 953, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=953)
        0.062916875 = product of:
          0.18875061 = sum of:
            0.18875061 = weight(_text_:physik in 953) [ClassicSimilarity], result of:
              0.18875061 = score(doc=953,freq=4.0), product of:
                0.2709557 = queryWeight, product of:
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.042542826 = queryNorm
                0.69661057 = fieldWeight in 953, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=953)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Die automatische Indexierung von Dokumenten für das Information Retrieval, d. h. die automatische Charakterisierung von Dokumentinhalten mittels Deskriptoren (Schlagwörtern) ist bereits seit über 25 Jahren ein Gebiet theoretischer und experimenteller Forschung. Dagegen wurde erst im Oktober 1985 mit der Anwendung der automatischen Indexierung in der Inputproduktion für ein großes Retrievalsystem begonnen. Es handelt sich um die Indexierung englischer Referatetexte für die Physik-Datenbasis des Informationszentrums Energie, Physik, Mathematik GmbH in Karlsruhe. In dem vorliegenden Buch beschreiben Mitarbeiter der Technischen Hochschule Darmstadt ihre Forschungs- und Entwicklungsarbeiten, die zu dieser Pilotanwendung geführt haben.
  5. Kempf, A.O.: Neue Verfahrenswege der Wissensorganisation : eine Evaluation automatischer Indexierung in der sozialwissenschaftlichen Fachinformation (2017) 0.04
    0.039620522 = product of:
      0.079241045 = sum of:
        0.06566971 = weight(_text_:der in 3497) [ClassicSimilarity], result of:
          0.06566971 = score(doc=3497,freq=32.0), product of:
            0.095030755 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042542826 = queryNorm
            0.69103634 = fieldWeight in 3497, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3497)
        0.013571336 = product of:
          0.040714007 = sum of:
            0.040714007 = weight(_text_:29 in 3497) [ClassicSimilarity], result of:
              0.040714007 = score(doc=3497,freq=2.0), product of:
                0.14965236 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.042542826 = queryNorm
                0.27205724 = fieldWeight in 3497, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3497)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.13
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  6. Schulz, K.U.; Brunner, L.: Vollautomatische thematische Verschlagwortung großer Textkollektionen mittels semantischer Netze (2017) 0.04
    0.03749986 = product of:
      0.07499972 = sum of:
        0.061428383 = weight(_text_:der in 3493) [ClassicSimilarity], result of:
          0.061428383 = score(doc=3493,freq=28.0), product of:
            0.095030755 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042542826 = queryNorm
            0.6464053 = fieldWeight in 3493, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3493)
        0.013571336 = product of:
          0.040714007 = sum of:
            0.040714007 = weight(_text_:29 in 3493) [ClassicSimilarity], result of:
              0.040714007 = score(doc=3493,freq=2.0), product of:
                0.14965236 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.042542826 = queryNorm
                0.27205724 = fieldWeight in 3493, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3493)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.13
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  7. Böhm, A.; Seifert, C.; Schlötterer, J.; Granitzer, M.: Identifying tweets from the economic domain (2017) 0.04
    0.03749986 = product of:
      0.07499972 = sum of:
        0.061428383 = weight(_text_:der in 3495) [ClassicSimilarity], result of:
          0.061428383 = score(doc=3495,freq=28.0), product of:
            0.095030755 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042542826 = queryNorm
            0.6464053 = fieldWeight in 3495, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
        0.013571336 = product of:
          0.040714007 = sum of:
            0.040714007 = weight(_text_:29 in 3495) [ClassicSimilarity], result of:
              0.040714007 = score(doc=3495,freq=2.0), product of:
                0.14965236 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.042542826 = queryNorm
                0.27205724 = fieldWeight in 3495, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3495)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.13
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  8. Kasprzik, A.: Voraussetzungen und Anwendungspotentiale einer präzisen Sacherschließung aus Sicht der Wissenschaft (2018) 0.03
    0.03394985 = product of:
      0.0678997 = sum of:
        0.054450445 = weight(_text_:der in 5195) [ClassicSimilarity], result of:
          0.054450445 = score(doc=5195,freq=22.0), product of:
            0.095030755 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042542826 = queryNorm
            0.57297707 = fieldWeight in 5195, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.0134492535 = product of:
          0.04034776 = sum of:
            0.04034776 = weight(_text_:22 in 5195) [ClassicSimilarity], result of:
              0.04034776 = score(doc=5195,freq=2.0), product of:
                0.14897773 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042542826 = queryNorm
                0.2708308 = fieldWeight in 5195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5195)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Große Aufmerksamkeit richtet sich im Moment auf das Potential von automatisierten Methoden in der Sacherschließung und deren Interaktionsmöglichkeiten mit intellektuellen Methoden. In diesem Kontext befasst sich der vorliegende Beitrag mit den folgenden Fragen: Was sind die Anforderungen an bibliothekarische Metadaten aus Sicht der Wissenschaft? Was wird gebraucht, um den Informationsbedarf der Fachcommunities zu bedienen? Und was bedeutet das entsprechend für die Automatisierung der Metadatenerstellung und -pflege? Dieser Beitrag fasst die von der Autorin eingenommene Position in einem Impulsvortrag und der Podiumsdiskussion beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  9. Hauer, M.: Automatische Indexierung (2000) 0.03
    0.03142886 = product of:
      0.06285772 = sum of:
        0.039801855 = weight(_text_:der in 5887) [ClassicSimilarity], result of:
          0.039801855 = score(doc=5887,freq=4.0), product of:
            0.095030755 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042542826 = queryNorm
            0.4188313 = fieldWeight in 5887, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=5887)
        0.023055863 = product of:
          0.069167584 = sum of:
            0.069167584 = weight(_text_:22 in 5887) [ClassicSimilarity], result of:
              0.069167584 = score(doc=5887,freq=2.0), product of:
                0.14897773 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042542826 = queryNorm
                0.46428138 = fieldWeight in 5887, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5887)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Series
    Proceedings - Online-Tagung der DGI; 1
    Source
    Wissen in Aktion: Wege des Knowledge Managements. 22. Online-Tagung der DGI, Frankfurt am Main, 2.-4.5.2000. Proceedings. Hrsg.: R. Schmidt
  10. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.03
    0.03142886 = product of:
      0.06285772 = sum of:
        0.039801855 = weight(_text_:der in 2051) [ClassicSimilarity], result of:
          0.039801855 = score(doc=2051,freq=4.0), product of:
            0.095030755 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042542826 = queryNorm
            0.4188313 = fieldWeight in 2051, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.023055863 = product of:
          0.069167584 = sum of:
            0.069167584 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.069167584 = score(doc=2051,freq=2.0), product of:
                0.14897773 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042542826 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Frage der Konzeption von Rankingalgorithmen auf Grundlage gewichteter Indexierung mittels statistischer Verfahren.
    Date
    14. 6.2015 22:12:56
  11. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.03
    0.026872084 = product of:
      0.053744167 = sum of:
        0.042216238 = weight(_text_:der in 1746) [ClassicSimilarity], result of:
          0.042216238 = score(doc=1746,freq=18.0), product of:
            0.095030755 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042542826 = queryNorm
            0.44423765 = fieldWeight in 1746, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.011527931 = product of:
          0.034583792 = sum of:
            0.034583792 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.034583792 = score(doc=1746,freq=2.0), product of:
                0.14897773 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042542826 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Content
    Dissertation an der Universität Trier - Fachbereich IV - zur Erlangung der Würde eines Doktors der Wirtschafts- und Sozialwissenschaften. Vgl.: http://ubt.opus.hbz-nrw.de/volltexte/2006/377/pdf/LorenzSaschaDiss.pdf.
    Date
    22. 3.2015 9:17:30
  12. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.03
    0.02644806 = product of:
      0.05289612 = sum of:
        0.037525546 = weight(_text_:der in 3581) [ClassicSimilarity], result of:
          0.037525546 = score(doc=3581,freq=8.0), product of:
            0.095030755 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042542826 = queryNorm
            0.3948779 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.015370576 = product of:
          0.046111725 = sum of:
            0.046111725 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.046111725 = score(doc=3581,freq=2.0), product of:
                0.14897773 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042542826 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Lingo ist ein frei verfügbares System (open source) zur automatischen Indexierung der deutschen Sprache. Bei der Entwicklung von lingo standen hohe Konfigurierbarkeit und Flexibilität des Systems für unterschiedliche Einsatzmöglichkeiten im Vordergrund. Der Beitrag zeigt den Nutzen einer linguistisch basierten automatischen Indexierung für das Information Retrieval auf. Die für eine Retrievalverbesserung zur Verfügung stehende linguistische Funktionalität von lingo wird vorgestellt und an Beispielen erläutert: Grundformerkennung, Kompositumerkennung bzw. Kompositumzerlegung, Wortrelationierung, lexikalische und algorithmische Mehrwortgruppenerkennung, OCR-Fehlerkorrektur. Der offene Systemaufbau von lingo wird beschrieben, mögliche Einsatzszenarien und Anwendungsgrenzen werden benannt.
    Date
    24. 3.2006 12:22:02
  13. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.03
    0.02644806 = product of:
      0.05289612 = sum of:
        0.037525546 = weight(_text_:der in 401) [ClassicSimilarity], result of:
          0.037525546 = score(doc=401,freq=8.0), product of:
            0.095030755 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042542826 = queryNorm
            0.3948779 = fieldWeight in 401, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.015370576 = product of:
          0.046111725 = sum of:
            0.046111725 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.046111725 = score(doc=401,freq=2.0), product of:
                0.14897773 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042542826 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Ein Bericht über die Ergebnisse und die Prozessanalyse einer automatischen Indexierung mit Mehrwortgruppen. Diese Bachelorarbeit beschreibt, inwieweit der Inhalt informationswissenschaftlicher Fachtexte durch informationswissenschaftliches Fachvokabular erschlossen werden kann und sollte und dass in diesen wissenschaftlichen Texten ein Großteil der fachlichen Inhalte in Mehrwortgruppen vorkommt. Die Ergebnisse wurden durch eine automatische Indexierung mit Mehrwortgruppen mithilfe des Programme Lingo an einer informationswissenschaftlichen Datenbank ermittelt.
    Content
    Bachelorarbeit im Studiengang Bibliothekswesen der Fakultät für Informations- und Kommunikationswissenschaften an der Fachhochschule Köln.
    Date
    11. 9.2012 19:43:22
  14. Groß, T.: Automatische Indexierung von Dokumenten in einer wissenschaftlichen Bibliothek : Implementierung und Evaluierung am Beispiel der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (2011) 0.03
    0.025987575 = product of:
      0.05197515 = sum of:
        0.042281337 = weight(_text_:der in 1083) [ClassicSimilarity], result of:
          0.042281337 = score(doc=1083,freq=26.0), product of:
            0.095030755 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042542826 = queryNorm
            0.4449227 = fieldWeight in 1083, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1083)
        0.009693813 = product of:
          0.029081436 = sum of:
            0.029081436 = weight(_text_:29 in 1083) [ClassicSimilarity], result of:
              0.029081436 = score(doc=1083,freq=2.0), product of:
                0.14965236 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.042542826 = queryNorm
                0.19432661 = fieldWeight in 1083, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1083)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Die Bewertung der Indexierungsqualität bzw. -güte ist ein grundlegendes Problem von intellektuellen und automatischen Indexierungsverfahren. Letztere werden aber gerade im digitalen Zeitalter als einzige Möglichkeit angesehen, den zunehmenden Schwierigkeiten bibliothekarischer Informationsstrukturierung gerecht zu werden. Diese Studie befasst sich mit der Funktionsweise, Implementierung und Evaluierung der Sacherschließungssoftware MindServer Categorizer der Firma Recommind an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften. Grundlage der maschinellen Sacherschließung und anschließenden quantitativen und qualitativen Auswertung bilden rund 39.000 wirtschaftswissenschaftliche Dokumente aus den Datenbanken Econis und EconStor. Unter Zuhilfenahme des rund 6.000 Schlagwörter umfassenden Standard-Thesaurus Wirtschaft wird der ursprünglich rein statistische Indexierungsansatz des MindServer Categorizer zu einem begriffsorientierten Verfahren weiterentwickelt und zur Inhaltserschließung digitaler Informationsressourcen eingesetzt. Der zentrale Fokus dieser Studie liegt vor allem auf der Evaluierung der maschinell beschlagworteten Titel, in Anlehnung an die hierzu von Stock und Lancaster vorgeschlagenen Kriterien: Indexierungskonsistenz, -tiefe, -breite, -spezifität, -effektivität. Weiterhin wird die Belegungsbilanz des STW evaluiert und es erfolgt zusätzlich eine qualitative, stichprobenartige Bewertung der Ergebnisse seitens der zuständigen Fachreferenten und -referentinnen.
    Date
    19. 6.2015 18:00:29
  15. Junger, U.: Möglichkeiten und Probleme automatischer Erschließungsverfahren in Bibliotheken : Bericht vom KASCADE-Workshop in der Universitäts- und Landesbibliothek Düsseldorf (1999) 0.03
    0.025704656 = product of:
      0.05140931 = sum of:
        0.02814416 = weight(_text_:der in 3645) [ClassicSimilarity], result of:
          0.02814416 = score(doc=3645,freq=2.0), product of:
            0.095030755 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042542826 = queryNorm
            0.29615843 = fieldWeight in 3645, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=3645)
        0.02326515 = product of:
          0.069795445 = sum of:
            0.069795445 = weight(_text_:29 in 3645) [ClassicSimilarity], result of:
              0.069795445 = score(doc=3645,freq=2.0), product of:
                0.14965236 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.042542826 = queryNorm
                0.46638384 = fieldWeight in 3645, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3645)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Date
    23.10.1996 17:26:29
  16. Nicoletti, M.: Automatische Indexierung (2001) 0.03
    0.025704656 = product of:
      0.05140931 = sum of:
        0.02814416 = weight(_text_:der in 4326) [ClassicSimilarity], result of:
          0.02814416 = score(doc=4326,freq=2.0), product of:
            0.095030755 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042542826 = queryNorm
            0.29615843 = fieldWeight in 4326, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4326)
        0.02326515 = product of:
          0.069795445 = sum of:
            0.069795445 = weight(_text_:29 in 4326) [ClassicSimilarity], result of:
              0.069795445 = score(doc=4326,freq=2.0), product of:
                0.14965236 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.042542826 = queryNorm
                0.46638384 = fieldWeight in 4326, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4326)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Content
    Inhalt: 1. Aufgabe - 2. Ermittlung von Mehrwortgruppen - 2.1 Definition - 3. Kennzeichnung der Mehrwortgruppen - 4. Grundformen - 5. Term- und Dokumenthäufigkeit --- Termgewichtung - 6. Steuerungsinstrument Schwellenwert - 7. Invertierter Index. Vgl. unter: http://www.grin.com/de/e-book/104966/automatische-indexierung.
    Date
    29. 9.2017 12:00:04
  17. Probst, M.; Mittelbach, J.: Maschinelle Indexierung in der Sacherschließung wissenschaftlicher Bibliotheken (2006) 0.02
    0.023934327 = product of:
      0.047868654 = sum of:
        0.032498077 = weight(_text_:der in 1755) [ClassicSimilarity], result of:
          0.032498077 = score(doc=1755,freq=6.0), product of:
            0.095030755 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042542826 = queryNorm
            0.34197432 = fieldWeight in 1755, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.015370576 = product of:
          0.046111725 = sum of:
            0.046111725 = weight(_text_:22 in 1755) [ClassicSimilarity], result of:
              0.046111725 = score(doc=1755,freq=2.0), product of:
                0.14897773 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042542826 = queryNorm
                0.30952093 = fieldWeight in 1755, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1755)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Obwohl fast alle größeren Bibliotheken intellektuelle Sacherschließung betreiben, sind elektronische Kataloge für die zielgerichtete sachliche Suche nur eingeschränkt nutzbar. Durch maschinelle Indexierung können ohne nennenswerten personellen Mehraufwand ausreichend große Datenmengen für Informationsretrievalsysteme erzeugt und somit die Auffindbarkeit von Dokumenten erhöht werden. Geeignete Sprachanalysetechniken zur Indextermerzeugung sind bekannt und bieten im Gegensatz zur gebräuchlichen Freitextinvertierung entscheidende Vorteile beim Retrieval. Im Fokus steht die Betrachtung der Vor- und Nachteile der gängigen Indexierungssysteme MILOS und intelligentCAPTURE.
    Date
    22. 3.2008 12:35:19
  18. Lepsky, K.: Automatisches Indexieren (2023) 0.02
    0.023203095 = product of:
      0.04640619 = sum of:
        0.032834854 = weight(_text_:der in 781) [ClassicSimilarity], result of:
          0.032834854 = score(doc=781,freq=8.0), product of:
            0.095030755 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042542826 = queryNorm
            0.34551817 = fieldWeight in 781, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=781)
        0.013571336 = product of:
          0.040714007 = sum of:
            0.040714007 = weight(_text_:29 in 781) [ClassicSimilarity], result of:
              0.040714007 = score(doc=781,freq=2.0), product of:
                0.14965236 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.042542826 = queryNorm
                0.27205724 = fieldWeight in 781, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=781)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Unter Indexierung versteht man die Zuordnung von inhaltskennzeichnenden Ausdrücken (Indextermen, Indexaten, Erschließungsmerkmalen) zu Dokumenten. Über die zugeteilten Indexterme soll ein gezieltes Auffinden der Dokumente ermöglicht werden. Indexterme können inhaltsbeschreibende Merkmale wie Notationen, Deskriptoren, kontrollierte oder freie Schlagwörter sein; es kann sich auch um reine Stichwörter handeln, die aus dem Text des Dokuments gewonnen werden. Eine Indexierung kann intellektuell, computerunterstützt oder automatisch erfolgen. Computerunterstützte Indexierungsverfahren kombinieren die intellektuelle Indexierung mit automatischen Vorarbeiten. Bei der automatischen Indexierung werden die Indexterme automatisch aus dem Dokumenttext ermittelt und dem Dokument zugeordnet. Automatische Indexierung bedient sich für die Verarbeitung der Zeichenketten im Dokument linguistischer und statistischer Verfahren.
    Date
    24.11.2022 13:29:16
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  19. Schöneberg, U.; Gödert, W.: Erschließung mathematischer Publikationen mittels linguistischer Verfahren (2012) 0.02
    0.023050994 = product of:
      0.046101987 = sum of:
        0.034469415 = weight(_text_:der in 1055) [ClassicSimilarity], result of:
          0.034469415 = score(doc=1055,freq=12.0), product of:
            0.095030755 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042542826 = queryNorm
            0.36271852 = fieldWeight in 1055, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1055)
        0.011632575 = product of:
          0.034897722 = sum of:
            0.034897722 = weight(_text_:29 in 1055) [ClassicSimilarity], result of:
              0.034897722 = score(doc=1055,freq=2.0), product of:
                0.14965236 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.042542826 = queryNorm
                0.23319192 = fieldWeight in 1055, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1055)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Die Zahl der mathematik-relevanten Publikationn steigt von Jahr zu Jahr an. Referatedienste wie da Zentralblatt MATH und Mathematical Reviews erfassen die bibliographischen Daten, erschließen die Arbeiten inhaltlich und machen sie - heute über Datenbanken, früher in gedruckter Form - für den Nutzer suchbar. Keywords sind ein wesentlicher Bestandteil der inhaltlichen Erschließung der Publikationen. Keywords sind meist keine einzelnen Wörter, sondern Mehrwortphrasen. Das legt die Anwendung linguistischer Methoden und Verfahren nahe. Die an der FH Köln entwickelte Software 'Lingo' wurde für die speziellen Anforderungen mathematischer Texte angepasst und sowohl zum Aufbau eines kontrollierten Vokabulars als auch zur Extraction von Keywords aus mathematischen Publikationen genutzt. Es ist geplant, über eine Verknüpfung von kontrolliertem Vokabular und der Mathematical Subject Classification Methoden für die automatische Klassifikation für den Referatedienst Zentralblatt MATH zu entwickeln und zu erproben.
    Date
    12. 9.2013 12:29:05
    Footnote
    Vortrag anlässlich der DMV-Tagung in Saarbrücken, 17.-20.09.2012.
  20. Gaese, V.: "Automatische Klassifikation von Presseartikeln in der Gruner + Jahr Dokumentation" (2003) 0.02
    0.021549352 = product of:
      0.043098703 = sum of:
        0.031466126 = weight(_text_:der in 1915) [ClassicSimilarity], result of:
          0.031466126 = score(doc=1915,freq=10.0), product of:
            0.095030755 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042542826 = queryNorm
            0.3311152 = fieldWeight in 1915, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
        0.011632575 = product of:
          0.034897722 = sum of:
            0.034897722 = weight(_text_:29 in 1915) [ClassicSimilarity], result of:
              0.034897722 = score(doc=1915,freq=2.0), product of:
                0.14965236 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.042542826 = queryNorm
                0.23319192 = fieldWeight in 1915, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1915)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Das Klassifizieren von Texten, auch Indexieren, inhaltliches Erschließen oder verschlagworten genannt, gehört seit jeher zu den zwar notwendigen aber sehr aufwändigen Aufgaben von Archiven bzw. Dokumentationen. Ihre unterschiedlichen Zwecke bzw. Anforderungen sind sicher ein Grund dafür, dass es fast ebenso viele Erschließungsinventare, Thesauri oder Schlagwortverzeichnisse wie Dokumentationen gibt. Im folgenden werden Klassifizierung, Indexierung, Erschließung und Verschlagwortung synonym verwendet. In der G+J Dokumentation arbeiten heute ca. 20 Dokumentare an Auswahl und Erschließung von täglich etwa 1.100 Artikeln aus insgesamt ca. 210 Titeln. In der G+J Pressedatenbank sind aktuell ca. 7 Mio Artikel gespeichert, gut 2 Mio als digitaler Volltext (OCR/Satzdaten). Archiviert sind nur Artikel, für die die G+J Dokumentation die entsprechenden Rechte hat.
    Source
    Bibliotheken und Informationseinrichtungen - Aufgaben, Strukturen, Ziele: 29. Arbeits- und Fortbildungstagung der ASpB / Sektion 5 im DBV in Zusammenarbeit mit der BDB, BIB, DBV, DGI und VDB, zugleich DBV-Jahrestagung, 8.-11.4.2003 in Stuttgart. Red.: Margit Bauer

Years

Languages

Types

  • a 148
  • x 28
  • el 22
  • m 8
  • s 4
  • d 2
  • p 2
  • r 1
  • More… Less…