Search (172 results, page 1 of 9)

  • × theme_ss:"Automatisches Indexieren"
  1. Kutschekmanesch, S.; Lutes, B.; Moelle, K.; Thiel, U.; Tzeras, K.: Automated multilingual indexing : a synthesis of rule-based and thesaurus-based methods (1998) 0.07
    0.07310008 = product of:
      0.1827502 = sum of:
        0.024689304 = weight(_text_:der in 4157) [ClassicSimilarity], result of:
          0.024689304 = score(doc=4157,freq=2.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.2467987 = fieldWeight in 4157, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=4157)
        0.1580609 = sum of:
          0.09738401 = weight(_text_:gesellschaft in 4157) [ClassicSimilarity], result of:
            0.09738401 = score(doc=4157,freq=2.0), product of:
              0.19868058 = queryWeight, product of:
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.044784546 = queryNorm
              0.49015367 = fieldWeight in 4157, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.078125 = fieldNorm(doc=4157)
          0.06067688 = weight(_text_:22 in 4157) [ClassicSimilarity], result of:
            0.06067688 = score(doc=4157,freq=2.0), product of:
              0.15682785 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044784546 = queryNorm
              0.38690117 = fieldWeight in 4157, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=4157)
      0.4 = coord(2/5)
    
    Source
    Information und Märkte: 50. Deutscher Dokumentartag 1998, Kongreß der Deutschen Gesellschaft für Dokumentation e.V. (DGD), Rheinische Friedrich-Wilhelms-Universität Bonn, 22.-24. September 1998. Hrsg. von Marlies Ockenfeld u. Gerhard J. Mantwill
  2. Kempf, A.O.: Neue Verfahrenswege der Wissensorganisation : eine Evaluation automatischer Indexierung in der sozialwissenschaftlichen Fachinformation (2017) 0.05
    0.05491954 = product of:
      0.13729885 = sum of:
        0.069130056 = weight(_text_:der in 3497) [ClassicSimilarity], result of:
          0.069130056 = score(doc=3497,freq=32.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.69103634 = fieldWeight in 3497, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3497)
        0.068168804 = product of:
          0.13633761 = sum of:
            0.13633761 = weight(_text_:gesellschaft in 3497) [ClassicSimilarity], result of:
              0.13633761 = score(doc=3497,freq=8.0), product of:
                0.19868058 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.044784546 = queryNorm
                0.6862151 = fieldWeight in 3497, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3497)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.13
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  3. Schulz, K.U.; Brunner, L.: Vollautomatische thematische Verschlagwortung großer Textkollektionen mittels semantischer Netze (2017) 0.05
    0.053133618 = product of:
      0.13283405 = sum of:
        0.06466524 = weight(_text_:der in 3493) [ClassicSimilarity], result of:
          0.06466524 = score(doc=3493,freq=28.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.6464053 = fieldWeight in 3493, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3493)
        0.068168804 = product of:
          0.13633761 = sum of:
            0.13633761 = weight(_text_:gesellschaft in 3493) [ClassicSimilarity], result of:
              0.13633761 = score(doc=3493,freq=8.0), product of:
                0.19868058 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.044784546 = queryNorm
                0.6862151 = fieldWeight in 3493, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3493)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.13
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  4. Böhm, A.; Seifert, C.; Schlötterer, J.; Granitzer, M.: Identifying tweets from the economic domain (2017) 0.05
    0.053133618 = product of:
      0.13283405 = sum of:
        0.06466524 = weight(_text_:der in 3495) [ClassicSimilarity], result of:
          0.06466524 = score(doc=3495,freq=28.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.6464053 = fieldWeight in 3495, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
        0.068168804 = product of:
          0.13633761 = sum of:
            0.13633761 = weight(_text_:gesellschaft in 3495) [ClassicSimilarity], result of:
              0.13633761 = score(doc=3495,freq=8.0), product of:
                0.19868058 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.044784546 = queryNorm
                0.6862151 = fieldWeight in 3495, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3495)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.13
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  5. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.05
    0.045578558 = product of:
      0.11394639 = sum of:
        0.03491595 = weight(_text_:der in 3780) [ClassicSimilarity], result of:
          0.03491595 = score(doc=3780,freq=16.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.34902605 = fieldWeight in 3780, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.07903045 = sum of:
          0.048692007 = weight(_text_:gesellschaft in 3780) [ClassicSimilarity], result of:
            0.048692007 = score(doc=3780,freq=2.0), product of:
              0.19868058 = queryWeight, product of:
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.044784546 = queryNorm
              0.24507684 = fieldWeight in 3780, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3780)
          0.03033844 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
            0.03033844 = score(doc=3780,freq=2.0), product of:
              0.15682785 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044784546 = queryNorm
              0.19345059 = fieldWeight in 3780, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3780)
      0.4 = coord(2/5)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  6. Lepsky, K.: Vom OPAC zum Hyperkatalog : Daten und Indexierung (1996) 0.04
    0.043898467 = product of:
      0.109746166 = sum of:
        0.051315762 = weight(_text_:der in 7726) [ClassicSimilarity], result of:
          0.051315762 = score(doc=7726,freq=6.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.5129615 = fieldWeight in 7726, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=7726)
        0.058430403 = product of:
          0.11686081 = sum of:
            0.11686081 = weight(_text_:gesellschaft in 7726) [ClassicSimilarity], result of:
              0.11686081 = score(doc=7726,freq=2.0), product of:
                0.19868058 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.044784546 = queryNorm
                0.58818436 = fieldWeight in 7726, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.09375 = fieldNorm(doc=7726)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Imprint
    Oldenburg : Bibliotheks- und Informationssystem der Universität
    Source
    Erschließen, Suchen, Finden: Vorträge aus den bibliothekarischen Arbeitsgruppen der 19. und 20. Jahrestagungen (Basel 1995 / Freiburg 1996) der Gesellschaft für Klassifikation. Hrsg.: H.-J. Hermes u. H.-J. Wätjen
  7. Zimmermann, H.: Automatische Indexierung: Entwicklung und Perspektiven (1983) 0.04
    0.037927654 = product of:
      0.09481913 = sum of:
        0.05586552 = weight(_text_:der in 2318) [ClassicSimilarity], result of:
          0.05586552 = score(doc=2318,freq=16.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.5584417 = fieldWeight in 2318, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2318)
        0.038953606 = product of:
          0.07790721 = sum of:
            0.07790721 = weight(_text_:gesellschaft in 2318) [ClassicSimilarity], result of:
              0.07790721 = score(doc=2318,freq=2.0), product of:
                0.19868058 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.044784546 = queryNorm
                0.39212292 = fieldWeight in 2318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2318)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Die Automatische Indexierung als ein Teilgebiet der Inhaltserschließung wird inzwischen in einer Reihe von Gebieten, vor allem in der Fachinformation und Kommunikation praktisch eingesetzt. Dabei dominieren äußerst einfache Systeme, die (noch) erhebliche Anpassungen des Benutzers an die jeweilige Systemstrategie voraussetzen. Unter Berücksichtigung des Konzepts der Einheit von Informationserschließung und -retrieval werden höherwertige ("intelligentere") Verfahren vorgestellt, die der Entlastung des Informationssuchenden wie auch der Verbesserung der Rechercheergebnisse dienen sollen
    Source
    Automatisierung in der Klassifikation. Proc. 7. Jahrestagung der Gesellschaft für Klassifikation (Teil 1), Königswinter, 5.-8.4.1983. Hrsg.: I. Dahlberg u.a
  8. Salton, G.: Fast document classification in automatic information retrieval (1978) 0.04
    0.03783664 = product of:
      0.0945916 = sum of:
        0.03950289 = weight(_text_:der in 2331) [ClassicSimilarity], result of:
          0.03950289 = score(doc=2331,freq=8.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.3948779 = fieldWeight in 2331, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2331)
        0.055088717 = product of:
          0.110177435 = sum of:
            0.110177435 = weight(_text_:gesellschaft in 2331) [ClassicSimilarity], result of:
              0.110177435 = score(doc=2331,freq=4.0), product of:
                0.19868058 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.044784546 = queryNorm
                0.5545456 = fieldWeight in 2331, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2331)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Imprint
    Frankfurt : Gesellschaft für Klassifikation
    Source
    Kooperation in der Klassifikation I. Proc. der Sekt.1-3 der 2. Fachtagung der Gesellschaft für Klassifikation, Frankfurt-Hoechst, 6.-7.4.1978. Bearb.: W. Dahlberg
  9. Peters, G.: Verschlagwortung und automatische Verfahren in der G+J Dokumentation (2003) 0.04
    0.036582053 = product of:
      0.09145513 = sum of:
        0.04276313 = weight(_text_:der in 2377) [ClassicSimilarity], result of:
          0.04276313 = score(doc=2377,freq=6.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.42746788 = fieldWeight in 2377, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=2377)
        0.048692007 = product of:
          0.09738401 = sum of:
            0.09738401 = weight(_text_:gesellschaft in 2377) [ClassicSimilarity], result of:
              0.09738401 = score(doc=2377,freq=2.0), product of:
                0.19868058 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.044784546 = queryNorm
                0.49015367 = fieldWeight in 2377, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2377)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Wie man die Erarbeitung des Produkts Sacherschließung wirtschaftlicher gestalten kann, war Gegenstand des Referenten Günter Peters von der Gruner + Jahr-Dokumentation, Hamburg. Günter Peters berichtete unter anderem über das System DocCat, dem er eine erhebliche Kompetenz attestierte.
    Footnote
    Beitrag anläßlich der 27. Jahrestagung Gesellschaft für Klassifikation e.V.
  10. Fuhr, N.: Klassifikationsverfahren bei der automatischen Indexierung (1983) 0.04
    0.03648441 = product of:
      0.09121102 = sum of:
        0.05225741 = weight(_text_:der in 7697) [ClassicSimilarity], result of:
          0.05225741 = score(doc=7697,freq=14.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.5223744 = fieldWeight in 7697, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=7697)
        0.038953606 = product of:
          0.07790721 = sum of:
            0.07790721 = weight(_text_:gesellschaft in 7697) [ClassicSimilarity], result of:
              0.07790721 = score(doc=7697,freq=2.0), product of:
                0.19868058 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.044784546 = queryNorm
                0.39212292 = fieldWeight in 7697, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0625 = fieldNorm(doc=7697)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Nach einer kurzen Einführung in die Darmstädter Projekte WAI und AIR werden die folgenden Themen behandelt: Ein Ansatz zur automatischen Klassifikation. Statistische Relationen für die Klassifikation. Indexieren von Dokumenten als Spezialfall der automatischen Klassifikation. Klassifikation von Elementen der Relevanzbeschreibung. Klassifikation zur Verbesserung der Relevanzbeschreibungen. Automatische Dokumentklassifikation und Automatische Indexierung klassifizierter Dokumente. Das Projekt AIR wird in Zusammenarbeit mit der Datenbasis INKA-PHYS des Fachinformationszentrums Energie, Physik, Mathematik in Karlsruhe durchgeführt
    Source
    Automatisierung in der Klassifikation. Proc. 7. Jahrestagung der Gesellschaft für Klassifikation (Teil 1), Königswinter, 5.-8.4.1983. Hrsg.: I. Dahlberg u.a
  11. Lepsky, K.: Auf dem Weg zur automatischen Inhaltserschließung? : Das DFG-Projekt MILOS und seine Ergebnisse (1997) 0.03
    0.033247672 = product of:
      0.08311918 = sum of:
        0.04416557 = weight(_text_:der in 11) [ClassicSimilarity], result of:
          0.04416557 = score(doc=11,freq=10.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.44148692 = fieldWeight in 11, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=11)
        0.038953606 = product of:
          0.07790721 = sum of:
            0.07790721 = weight(_text_:gesellschaft in 11) [ClassicSimilarity], result of:
              0.07790721 = score(doc=11,freq=2.0), product of:
                0.19868058 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.044784546 = queryNorm
                0.39212292 = fieldWeight in 11, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0625 = fieldNorm(doc=11)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Der Beitrag beschäftigt sich mit der Anwendung eines Verfahrens zur Automatischen Indexierung von Titeldaten in Bibliotheken. Die Arbeitsweise des Verfahrens und seine Nutzung innerhalb des von der Deutschen Forschungsgemeinschaft geförderten und an der Universitäts- und Landesbibliothek Düsseldorf durchgeführten Projekts MILOS werden geschildert. Die Ergebnisse eines Retrievaltests belegen die Tauglichkeit des Verfahrens für den Einsatz in Bibliotheken. Aufbauend auf diesen Ergebnissen werden Perspektiven für eine sinnvolle Verbindung von konventioneller bibliothekarischer Sacherschließung und automatischen Verfahren entworfen
    Source
    Mitteilungen der Gesellschaft für Bibliothekswesen und Dokumentation des Landbaus. 1997, H.53, S.46-52
  12. Kasprzik, A.: Voraussetzungen und Anwendungspotentiale einer präzisen Sacherschließung aus Sicht der Wissenschaft (2018) 0.03
    0.03142261 = product of:
      0.07855652 = sum of:
        0.05731961 = weight(_text_:der in 5195) [ClassicSimilarity], result of:
          0.05731961 = score(doc=5195,freq=22.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.57297707 = fieldWeight in 5195, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.021236908 = product of:
          0.042473815 = sum of:
            0.042473815 = weight(_text_:22 in 5195) [ClassicSimilarity], result of:
              0.042473815 = score(doc=5195,freq=2.0), product of:
                0.15682785 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044784546 = queryNorm
                0.2708308 = fieldWeight in 5195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5195)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Große Aufmerksamkeit richtet sich im Moment auf das Potential von automatisierten Methoden in der Sacherschließung und deren Interaktionsmöglichkeiten mit intellektuellen Methoden. In diesem Kontext befasst sich der vorliegende Beitrag mit den folgenden Fragen: Was sind die Anforderungen an bibliothekarische Metadaten aus Sicht der Wissenschaft? Was wird gebraucht, um den Informationsbedarf der Fachcommunities zu bedienen? Und was bedeutet das entsprechend für die Automatisierung der Metadatenerstellung und -pflege? Dieser Beitrag fasst die von der Autorin eingenommene Position in einem Impulsvortrag und der Podiumsdiskussion beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  13. Hauer, M.: Automatische Indexierung (2000) 0.03
    0.031322107 = product of:
      0.07830527 = sum of:
        0.04189914 = weight(_text_:der in 5887) [ClassicSimilarity], result of:
          0.04189914 = score(doc=5887,freq=4.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.4188313 = fieldWeight in 5887, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=5887)
        0.036406126 = product of:
          0.07281225 = sum of:
            0.07281225 = weight(_text_:22 in 5887) [ClassicSimilarity], result of:
              0.07281225 = score(doc=5887,freq=2.0), product of:
                0.15682785 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044784546 = queryNorm
                0.46428138 = fieldWeight in 5887, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5887)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Series
    Proceedings - Online-Tagung der DGI; 1
    Source
    Wissen in Aktion: Wege des Knowledge Managements. 22. Online-Tagung der DGI, Frankfurt am Main, 2.-4.5.2000. Proceedings. Hrsg.: R. Schmidt
  14. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.03
    0.031322107 = product of:
      0.07830527 = sum of:
        0.04189914 = weight(_text_:der in 2051) [ClassicSimilarity], result of:
          0.04189914 = score(doc=2051,freq=4.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.4188313 = fieldWeight in 2051, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.036406126 = product of:
          0.07281225 = sum of:
            0.07281225 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.07281225 = score(doc=2051,freq=2.0), product of:
                0.15682785 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044784546 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Frage der Konzeption von Rankingalgorithmen auf Grundlage gewichteter Indexierung mittels statistischer Verfahren.
    Date
    14. 6.2015 22:12:56
  15. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.03
    0.030149212 = product of:
      0.07537303 = sum of:
        0.04094258 = weight(_text_:der in 5863) [ClassicSimilarity], result of:
          0.04094258 = score(doc=5863,freq=22.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.40926933 = fieldWeight in 5863, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.03443045 = product of:
          0.0688609 = sum of:
            0.0688609 = weight(_text_:gesellschaft in 5863) [ClassicSimilarity], result of:
              0.0688609 = score(doc=5863,freq=4.0), product of:
                0.19868058 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.044784546 = queryNorm
                0.346591 = fieldWeight in 5863, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5863)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  16. Panyr, J.: Automatische Indexierung und Klassifikation (1983) 0.03
    0.029265646 = product of:
      0.07316411 = sum of:
        0.034210507 = weight(_text_:der in 7692) [ClassicSimilarity], result of:
          0.034210507 = score(doc=7692,freq=6.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.34197432 = fieldWeight in 7692, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=7692)
        0.038953606 = product of:
          0.07790721 = sum of:
            0.07790721 = weight(_text_:gesellschaft in 7692) [ClassicSimilarity], result of:
              0.07790721 = score(doc=7692,freq=2.0), product of:
                0.19868058 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.044784546 = queryNorm
                0.39212292 = fieldWeight in 7692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0625 = fieldNorm(doc=7692)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Im Beitrag wird zunächst eine terminologische Klärung und Gliederung für drei Indexierungsmethoden und weitere Begriffe, die Konsistenzprobleme bei intellektueller Indexierung betreffen, unternommen. Zur automatichen Indexierung werden Extraktionsmethoden erläutert und zur Automatischen Klassifikation (Clustering) und Indexierung zwei Anwendungen vorgestellt. Eine enge Kooperation zwischen den Befürwortern der intellektuellen und den Entwicklern von automatischen Indexierungsverfahren wird empfohlen
    Source
    Automatisierung in der Klassifikation. Proc. 7. Jahrestagung der Gesellschaft für Klassifikation (Teil 1), Königswinter, 5.-8.4.1983. Hrsg.: I. Dahlberg u.a
  17. Franke-Maier, M.: Anforderungen an die Qualität der Inhaltserschließung im Spannungsfeld von intellektuell und automatisch erzeugten Metadaten (2018) 0.03
    0.028047696 = product of:
      0.07011924 = sum of:
        0.04888233 = weight(_text_:der in 5344) [ClassicSimilarity], result of:
          0.04888233 = score(doc=5344,freq=16.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.4886365 = fieldWeight in 5344, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.021236908 = product of:
          0.042473815 = sum of:
            0.042473815 = weight(_text_:22 in 5344) [ClassicSimilarity], result of:
              0.042473815 = score(doc=5344,freq=2.0), product of:
                0.15682785 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044784546 = queryNorm
                0.2708308 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Spätestens seit dem Deutschen Bibliothekartag 2018 hat sich die Diskussion zu den automatischen Verfahren der Inhaltserschließung der Deutschen Nationalbibliothek von einer politisch geführten Diskussion in eine Qualitätsdiskussion verwandelt. Der folgende Beitrag beschäftigt sich mit Fragen der Qualität von Inhaltserschließung in digitalen Zeiten, wo heterogene Erzeugnisse unterschiedlicher Verfahren aufeinandertreffen und versucht, wichtige Anforderungen an Qualität zu definieren. Dieser Tagungsbeitrag fasst die vom Autor als Impulse vorgetragenen Ideen beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV am 29. August 2018 in Kiel zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  18. Liedloff, V.: Anwendung eines existenten Klassifikationssystems im Bereich der computerunterstützten Inhaltsanalyse (1985) 0.03
    0.02745977 = product of:
      0.068649426 = sum of:
        0.034565028 = weight(_text_:der in 2921) [ClassicSimilarity], result of:
          0.034565028 = score(doc=2921,freq=8.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.34551817 = fieldWeight in 2921, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2921)
        0.034084402 = product of:
          0.068168804 = sum of:
            0.068168804 = weight(_text_:gesellschaft in 2921) [ClassicSimilarity], result of:
              0.068168804 = score(doc=2921,freq=2.0), product of:
                0.19868058 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.044784546 = queryNorm
                0.34310755 = fieldWeight in 2921, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2921)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    In universitärer Grundlagenforschung wurde das Computergestützte TeXterschließungssystem (CTX) entwickelt. Es ist ein wörterbuchorientiertes Verfahren, das aufbauend auf einer wort- und satzorientierten Verarbeitung von Texten zu einem deutschsprachigen Text/ Dokument formal-inhaltliche Stichwörter (Grundformen, systemintern "Deskriptoren" genannt) erstellt. Diese dienen als Input für die Computer-Unterstützte Inhaltsanalyse (CUI). Mit Hilfe eines Thesaurus werden die Deskriptoren zu Oberbegriffen zusammengefaßt und die durch CTX erstellte Deskriptorliste über eine Vergleichsliste auf die Kategorien (=Oberbegriffe) des Thesaurus abgebildet. Das Ergebnis wird über mathematisch-statistische Auswertungsverfahren weiterverarbeitet. Weitere Vorteile der Einbringung eines Thesaurus werden genannt
    Source
    Anwendungen in der Klassifikation. I. Proc. 8. Jahrestagung der Gesellschaft für Klassifikation, Hofgeismar, 10.-13.4.1984. Hrsg.: R.G. Henzler
  19. Lustig, G.: Automatische Indexierung : Erfahrungen und Perspektiven (1989) 0.03
    0.026754547 = product of:
      0.066886365 = sum of:
        0.02793276 = weight(_text_:der in 2323) [ClassicSimilarity], result of:
          0.02793276 = score(doc=2323,freq=4.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.27922085 = fieldWeight in 2323, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2323)
        0.038953606 = product of:
          0.07790721 = sum of:
            0.07790721 = weight(_text_:gesellschaft in 2323) [ClassicSimilarity], result of:
              0.07790721 = score(doc=2323,freq=2.0), product of:
                0.19868058 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.044784546 = queryNorm
                0.39212292 = fieldWeight in 2323, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2323)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Es wird zunächst ein "ideales Information-Retrieval-System" beschrieben und diskutiert. Als Kernproblem für -selbst bescheidene - Entwicklungen in die dadurch aufgezeigte Richtung wird das "Verstehen" von Texten durch den Computer angesehen, wobei je nach der Aufgabenstellung einer Systemkomponente stets nur ein partielles Verstehen erforderlich ist. Ein relativ einfaches, aber keineswegs triviales Beispiel dieser Art ist die automatische Indexierung von Referatetexten bei vorgegebenen Deskriptorensystem. Von diesem Problem werden Ansätze, Ergebnisse und Erfahrungen mitgeteilt. Darauf aufbauend werden weitere Forschungsrichtungen und Entwicklungsmöglichkeiten mitgeteilt
    Source
    Klassifikation und Ordnung. Tagungsband 12. Jahrestagung der Gesellschaft für Klassifikation, Darmstadt 17.-19.3.1988. Hrsg.: R. Wille
  20. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.03
    0.025509456 = product of:
      0.06377364 = sum of:
        0.03950289 = weight(_text_:der in 3581) [ClassicSimilarity], result of:
          0.03950289 = score(doc=3581,freq=8.0), product of:
            0.10003823 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.044784546 = queryNorm
            0.3948779 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.02427075 = product of:
          0.0485415 = sum of:
            0.0485415 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.0485415 = score(doc=3581,freq=2.0), product of:
                0.15682785 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044784546 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Lingo ist ein frei verfügbares System (open source) zur automatischen Indexierung der deutschen Sprache. Bei der Entwicklung von lingo standen hohe Konfigurierbarkeit und Flexibilität des Systems für unterschiedliche Einsatzmöglichkeiten im Vordergrund. Der Beitrag zeigt den Nutzen einer linguistisch basierten automatischen Indexierung für das Information Retrieval auf. Die für eine Retrievalverbesserung zur Verfügung stehende linguistische Funktionalität von lingo wird vorgestellt und an Beispielen erläutert: Grundformerkennung, Kompositumerkennung bzw. Kompositumzerlegung, Wortrelationierung, lexikalische und algorithmische Mehrwortgruppenerkennung, OCR-Fehlerkorrektur. Der offene Systemaufbau von lingo wird beschrieben, mögliche Einsatzszenarien und Anwendungsgrenzen werden benannt.
    Date
    24. 3.2006 12:22:02

Years

Languages

  • d 145
  • e 24
  • a 1
  • m 1
  • ru 1
  • More… Less…

Types

  • a 125
  • x 28
  • el 20
  • m 8
  • s 4
  • d 2
  • p 2
  • r 1
  • More… Less…