Search (389 results, page 1 of 20)

  • × theme_ss:"Automatisches Indexieren"
  1. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.07
    0.07087884 = product of:
      0.14175768 = sum of:
        0.098482005 = weight(_text_:69 in 5671) [ClassicSimilarity], result of:
          0.098482005 = score(doc=5671,freq=2.0), product of:
            0.23243901 = queryWeight, product of:
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.042429138 = queryNorm
            0.42368966 = fieldWeight in 5671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.023155702 = weight(_text_:der in 5671) [ClassicSimilarity], result of:
          0.023155702 = score(doc=5671,freq=4.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.24431825 = fieldWeight in 5671, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.020119969 = product of:
          0.040239938 = sum of:
            0.040239938 = weight(_text_:22 in 5671) [ClassicSimilarity], result of:
              0.040239938 = score(doc=5671,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.2708308 = fieldWeight in 5671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5671)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Methoden der automatischen Inhaltserschließung werden seit mehr als 30 Jahren entwickelt, ohne in luD-Kreisen auf merkliche Akzeptanz zu stoßen. Gegenwärtig führen jedoch die steigende Informationsflut und der Bedarf an effizienten Zugriffsverfahren im Informations- und Wissensmanagement in breiten Anwenderkreisen zu einem wachsenden Interesse an diesen Methoden, zu verstärkten Anstrengungen in Forschung und Entwicklung und zu neuen Produkten. In diesem Beitrag werden verschiedene Ansätze zu intelligentem und inhaltsbasiertem Retrieval und zur automatischen Inhaltserschließung diskutiert sowie kommerziell vertriebene Softwarewerkzeuge und Lösungen präsentiert. Abschließend wird festgestellt, dass in naher Zukunft mit einer zunehmenden Automatisierung von bestimmten Komponenten des Informations- und Wissensmanagements zu rechnen ist, indem Software-Werkzeuge zur automatischen Inhaltserschließung in den Workflow integriert werden
    Date
    22. 3.2001 13:14:48
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.2, S.69-78
  2. Grün, S.: Bildung von Komposita-Indextermen auf der Basis einer algorithmischen Mehrwortgruppenanalyse mit Lingo (2015) 0.04
    0.04136955 = product of:
      0.12410864 = sum of:
        0.08441315 = weight(_text_:69 in 1335) [ClassicSimilarity], result of:
          0.08441315 = score(doc=1335,freq=2.0), product of:
            0.23243901 = queryWeight, product of:
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.042429138 = queryNorm
            0.36316258 = fieldWeight in 1335, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.046875 = fieldNorm(doc=1335)
        0.03969549 = weight(_text_:der in 1335) [ClassicSimilarity], result of:
          0.03969549 = score(doc=1335,freq=16.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.4188313 = fieldWeight in 1335, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1335)
      0.33333334 = coord(2/6)
    
    Abstract
    In der deutschen Sprache lassen sich Begriffe durch Komposita und Mehrwortgruppen ausdrücken. Letztere können dabei aber auch als Kompositum selbst ausgedrückt werden und entsprechend auf den gleichen Begriff verweisen. In der nachfolgenden Studie werden Mehrwortgruppen analysiert, die auch Komposita sein können. Ziel der Untersuchung ist es, diese Wortfolgen über Muster zu identifizieren. Analysiert wurden Daten des Karrieremanagers Placement24 GmbH - in Form von Stellenanzeigen. Die Extraktion von Mehrwortgruppen erfolgte algorithmisch und wurde mit der Open-Source Software Lingo durch geführt. Auf der Basis von Erweiterungen bzw. Anpassungen in Wörterbüchern und den darin getaggten Wörtern wurde drei- bis fünfstelligen Kandidaten analysiert. Aus positiv bewerteten Mehrwortgruppen wurden Komposita gebildet. Diese wurden mit den identifizierten Komposita aus den Stellenanzeigen verglichen. Der Vergleich zeigte, dass ein Großteil der neu generierten Komposita nicht durch eine Kompositaidentifizierung erzeugt wurde.
    Pages
    69 S
  3. Wellisch, H.H.: ¬The art of indexing and some fallacies of its automation (1992) 0.04
    0.04009966 = product of:
      0.12029898 = sum of:
        0.0077481195 = weight(_text_:e in 3958) [ClassicSimilarity], result of:
          0.0077481195 = score(doc=3958,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.12704675 = fieldWeight in 3958, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0625 = fieldNorm(doc=3958)
        0.11255086 = weight(_text_:69 in 3958) [ClassicSimilarity], result of:
          0.11255086 = score(doc=3958,freq=2.0), product of:
            0.23243901 = queryWeight, product of:
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.042429138 = queryNorm
            0.48421675 = fieldWeight in 3958, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.0625 = fieldNorm(doc=3958)
      0.33333334 = coord(2/6)
    
    Language
    e
    Source
    Logos. 3(1992) no.3, S.69-76
  4. Lu, K.; Mao, J.; Li, G.: Toward effective automated weighted subject indexing : a comparison of different approaches in different environments (2018) 0.03
    0.034774806 = product of:
      0.104324415 = sum of:
        0.0048425747 = weight(_text_:e in 4292) [ClassicSimilarity], result of:
          0.0048425747 = score(doc=4292,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.07940422 = fieldWeight in 4292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4292)
        0.09948184 = weight(_text_:69 in 4292) [ClassicSimilarity], result of:
          0.09948184 = score(doc=4292,freq=4.0), product of:
            0.23243901 = queryWeight, product of:
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.042429138 = queryNorm
            0.42799118 = fieldWeight in 4292, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4292)
      0.33333334 = coord(2/6)
    
    Footnote
    Vgl. das Erratum in JASIST 69(2018) no.7, S.956.
    Language
    e
    Source
    Journal of the Association for Information Science and Technology. 69(2018) no.1, S.121-133
  5. Kutschekmanesch, S.; Lutes, B.; Moelle, K.; Thiel, U.; Tzeras, K.: Automated multilingual indexing : a synthesis of rule-based and thesaurus-based methods (1998) 0.03
    0.030909376 = product of:
      0.061818752 = sum of:
        0.009685149 = weight(_text_:e in 4157) [ClassicSimilarity], result of:
          0.009685149 = score(doc=4157,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.15880844 = fieldWeight in 4157, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.078125 = fieldNorm(doc=4157)
        0.02339079 = weight(_text_:der in 4157) [ClassicSimilarity], result of:
          0.02339079 = score(doc=4157,freq=2.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.2467987 = fieldWeight in 4157, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=4157)
        0.028742813 = product of:
          0.057485625 = sum of:
            0.057485625 = weight(_text_:22 in 4157) [ClassicSimilarity], result of:
              0.057485625 = score(doc=4157,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.38690117 = fieldWeight in 4157, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4157)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Language
    e
    Source
    Information und Märkte: 50. Deutscher Dokumentartag 1998, Kongreß der Deutschen Gesellschaft für Dokumentation e.V. (DGD), Rheinische Friedrich-Wilhelms-Universität Bonn, 22.-24. September 1998. Hrsg. von Marlies Ockenfeld u. Gerhard J. Mantwill
  6. Vinyals, O.; Toshev, A.; Bengio, S.; Erhan, D.: Show and tell : a neural image caption generator (2014) 0.03
    0.025062285 = product of:
      0.075186856 = sum of:
        0.0048425747 = weight(_text_:e in 1869) [ClassicSimilarity], result of:
          0.0048425747 = score(doc=1869,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.07940422 = fieldWeight in 1869, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1869)
        0.070344284 = weight(_text_:69 in 1869) [ClassicSimilarity], result of:
          0.070344284 = score(doc=1869,freq=2.0), product of:
            0.23243901 = queryWeight, product of:
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.042429138 = queryNorm
            0.30263546 = fieldWeight in 1869, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1869)
      0.33333334 = coord(2/6)
    
    Abstract
    Automatically describing the content of an image is a fundamental problem in artificial intelligence that connects computer vision and natural language processing. In this paper, we present a generative model based on a deep recurrent architecture that combines recent advances in computer vision and machine translation and that can be used to generate natural sentences describing an image. The model is trained to maximize the likelihood of the target description sentence given the training image. Experiments on several datasets show the accuracy of the model and the fluency of the language it learns solely from image descriptions. Our model is often quite accurate, which we verify both qualitatively and quantitatively. For instance, while the current state-of-the-art BLEU-1 score (the higher the better) on the Pascal dataset is 25, our approach yields 59, to be compared to human performance around 69. We also show BLEU-1 score improvements on Flickr30k, from 56 to 66, and on SBU, from 19 to 28. Lastly, on the newly released COCO dataset, we achieve a BLEU-4 of 27.7, which is the current state-of-the-art.
    Language
    e
  7. Kasprzik, A.: Voraussetzungen und Anwendungspotentiale einer präzisen Sacherschließung aus Sicht der Wissenschaft (2018) 0.02
    0.024808303 = product of:
      0.07442491 = sum of:
        0.054304935 = weight(_text_:der in 5195) [ClassicSimilarity], result of:
          0.054304935 = score(doc=5195,freq=22.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.57297707 = fieldWeight in 5195, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.020119969 = product of:
          0.040239938 = sum of:
            0.040239938 = weight(_text_:22 in 5195) [ClassicSimilarity], result of:
              0.040239938 = score(doc=5195,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.2708308 = fieldWeight in 5195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5195)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Große Aufmerksamkeit richtet sich im Moment auf das Potential von automatisierten Methoden in der Sacherschließung und deren Interaktionsmöglichkeiten mit intellektuellen Methoden. In diesem Kontext befasst sich der vorliegende Beitrag mit den folgenden Fragen: Was sind die Anforderungen an bibliothekarische Metadaten aus Sicht der Wissenschaft? Was wird gebraucht, um den Informationsbedarf der Fachcommunities zu bedienen? Und was bedeutet das entsprechend für die Automatisierung der Metadatenerstellung und -pflege? Dieser Beitrag fasst die von der Autorin eingenommene Position in einem Impulsvortrag und der Podiumsdiskussion beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  8. Hauer, M.: Automatische Indexierung (2000) 0.02
    0.024728954 = product of:
      0.07418686 = sum of:
        0.03969549 = weight(_text_:der in 5887) [ClassicSimilarity], result of:
          0.03969549 = score(doc=5887,freq=4.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.4188313 = fieldWeight in 5887, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=5887)
        0.034491375 = product of:
          0.06898275 = sum of:
            0.06898275 = weight(_text_:22 in 5887) [ClassicSimilarity], result of:
              0.06898275 = score(doc=5887,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.46428138 = fieldWeight in 5887, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5887)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Series
    Proceedings - Online-Tagung der DGI; 1
    Source
    Wissen in Aktion: Wege des Knowledge Managements. 22. Online-Tagung der DGI, Frankfurt am Main, 2.-4.5.2000. Proceedings. Hrsg.: R. Schmidt
  9. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.02
    0.024728954 = product of:
      0.07418686 = sum of:
        0.03969549 = weight(_text_:der in 2051) [ClassicSimilarity], result of:
          0.03969549 = score(doc=2051,freq=4.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.4188313 = fieldWeight in 2051, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.034491375 = product of:
          0.06898275 = sum of:
            0.06898275 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.06898275 = score(doc=2051,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Frage der Konzeption von Rankingalgorithmen auf Grundlage gewichteter Indexierung mittels statistischer Verfahren.
    Date
    14. 6.2015 22:12:56
  10. Franke-Maier, M.: Anforderungen an die Qualität der Inhaltserschließung im Spannungsfeld von intellektuell und automatisch erzeugten Metadaten (2018) 0.02
    0.022143792 = product of:
      0.06643137 = sum of:
        0.046311405 = weight(_text_:der in 5344) [ClassicSimilarity], result of:
          0.046311405 = score(doc=5344,freq=16.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.4886365 = fieldWeight in 5344, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.020119969 = product of:
          0.040239938 = sum of:
            0.040239938 = weight(_text_:22 in 5344) [ClassicSimilarity], result of:
              0.040239938 = score(doc=5344,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.2708308 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Spätestens seit dem Deutschen Bibliothekartag 2018 hat sich die Diskussion zu den automatischen Verfahren der Inhaltserschließung der Deutschen Nationalbibliothek von einer politisch geführten Diskussion in eine Qualitätsdiskussion verwandelt. Der folgende Beitrag beschäftigt sich mit Fragen der Qualität von Inhaltserschließung in digitalen Zeiten, wo heterogene Erzeugnisse unterschiedlicher Verfahren aufeinandertreffen und versucht, wichtige Anforderungen an Qualität zu definieren. Dieser Tagungsbeitrag fasst die vom Autor als Impulse vorgetragenen Ideen beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV am 29. August 2018 in Kiel zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  11. Voorhees, E.M.: Implementing agglomerative hierarchic clustering algorithms for use in document retrieval (1986) 0.02
    0.020494914 = product of:
      0.06148474 = sum of:
        0.015496239 = weight(_text_:e in 402) [ClassicSimilarity], result of:
          0.015496239 = score(doc=402,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.2540935 = fieldWeight in 402, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.125 = fieldNorm(doc=402)
        0.0459885 = product of:
          0.091977 = sum of:
            0.091977 = weight(_text_:22 in 402) [ClassicSimilarity], result of:
              0.091977 = score(doc=402,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.61904186 = fieldWeight in 402, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=402)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Language
    e
    Source
    Information processing and management. 22(1986) no.6, S.465-476
  12. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.02
    0.02013984 = product of:
      0.060419515 = sum of:
        0.037425265 = weight(_text_:der in 3581) [ClassicSimilarity], result of:
          0.037425265 = score(doc=3581,freq=8.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.3948779 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.02299425 = product of:
          0.0459885 = sum of:
            0.0459885 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.0459885 = score(doc=3581,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Lingo ist ein frei verfügbares System (open source) zur automatischen Indexierung der deutschen Sprache. Bei der Entwicklung von lingo standen hohe Konfigurierbarkeit und Flexibilität des Systems für unterschiedliche Einsatzmöglichkeiten im Vordergrund. Der Beitrag zeigt den Nutzen einer linguistisch basierten automatischen Indexierung für das Information Retrieval auf. Die für eine Retrievalverbesserung zur Verfügung stehende linguistische Funktionalität von lingo wird vorgestellt und an Beispielen erläutert: Grundformerkennung, Kompositumerkennung bzw. Kompositumzerlegung, Wortrelationierung, lexikalische und algorithmische Mehrwortgruppenerkennung, OCR-Fehlerkorrektur. Der offene Systemaufbau von lingo wird beschrieben, mögliche Einsatzszenarien und Anwendungsgrenzen werden benannt.
    Date
    24. 3.2006 12:22:02
  13. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.02
    0.02013984 = product of:
      0.060419515 = sum of:
        0.037425265 = weight(_text_:der in 401) [ClassicSimilarity], result of:
          0.037425265 = score(doc=401,freq=8.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.3948779 = fieldWeight in 401, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.02299425 = product of:
          0.0459885 = sum of:
            0.0459885 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.0459885 = score(doc=401,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Ein Bericht über die Ergebnisse und die Prozessanalyse einer automatischen Indexierung mit Mehrwortgruppen. Diese Bachelorarbeit beschreibt, inwieweit der Inhalt informationswissenschaftlicher Fachtexte durch informationswissenschaftliches Fachvokabular erschlossen werden kann und sollte und dass in diesen wissenschaftlichen Texten ein Großteil der fachlichen Inhalte in Mehrwortgruppen vorkommt. Die Ergebnisse wurden durch eine automatische Indexierung mit Mehrwortgruppen mithilfe des Programme Lingo an einer informationswissenschaftlichen Datenbank ermittelt.
    Content
    Bachelorarbeit im Studiengang Bibliothekswesen der Fakultät für Informations- und Kommunikationswissenschaften an der Fachhochschule Köln.
    Date
    11. 9.2012 19:43:22
  14. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.02
    0.019783039 = product of:
      0.059349112 = sum of:
        0.042103425 = weight(_text_:der in 1746) [ClassicSimilarity], result of:
          0.042103425 = score(doc=1746,freq=18.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.44423765 = fieldWeight in 1746, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.017245688 = product of:
          0.034491375 = sum of:
            0.034491375 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.034491375 = score(doc=1746,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Content
    Dissertation an der Universität Trier - Fachbereich IV - zur Erlangung der Würde eines Doktors der Wirtschafts- und Sozialwissenschaften. Vgl.: http://ubt.opus.hbz-nrw.de/volltexte/2006/377/pdf/LorenzSaschaDiss.pdf.
    Date
    22. 3.2015 9:17:30
  15. Probst, M.; Mittelbach, J.: Maschinelle Indexierung in der Sacherschließung wissenschaftlicher Bibliotheken (2006) 0.02
    0.018468495 = product of:
      0.055405483 = sum of:
        0.032411233 = weight(_text_:der in 1755) [ClassicSimilarity], result of:
          0.032411233 = score(doc=1755,freq=6.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.34197432 = fieldWeight in 1755, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.02299425 = product of:
          0.0459885 = sum of:
            0.0459885 = weight(_text_:22 in 1755) [ClassicSimilarity], result of:
              0.0459885 = score(doc=1755,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.30952093 = fieldWeight in 1755, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1755)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Obwohl fast alle größeren Bibliotheken intellektuelle Sacherschließung betreiben, sind elektronische Kataloge für die zielgerichtete sachliche Suche nur eingeschränkt nutzbar. Durch maschinelle Indexierung können ohne nennenswerten personellen Mehraufwand ausreichend große Datenmengen für Informationsretrievalsysteme erzeugt und somit die Auffindbarkeit von Dokumenten erhöht werden. Geeignete Sprachanalysetechniken zur Indextermerzeugung sind bekannt und bieten im Gegensatz zur gebräuchlichen Freitextinvertierung entscheidende Vorteile beim Retrieval. Im Fokus steht die Betrachtung der Vor- und Nachteile der gängigen Indexierungssysteme MILOS und intelligentCAPTURE.
    Date
    22. 3.2008 12:35:19
  16. Hlava, M.M.K.: Automatic indexing : comparing rule-based and statistics-based indexing systems (2005) 0.02
    0.017933048 = product of:
      0.053799145 = sum of:
        0.013559209 = weight(_text_:e in 6265) [ClassicSimilarity], result of:
          0.013559209 = score(doc=6265,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.2223318 = fieldWeight in 6265, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.109375 = fieldNorm(doc=6265)
        0.040239938 = product of:
          0.080479875 = sum of:
            0.080479875 = weight(_text_:22 in 6265) [ClassicSimilarity], result of:
              0.080479875 = score(doc=6265,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.5416616 = fieldWeight in 6265, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6265)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Language
    e
    Source
    Information outlook. 9(2005) no.8, S.22-23
  17. Niggemann, E.: Wer suchet, der findet? : Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek (2006) 0.02
    0.017697003 = product of:
      0.05309101 = sum of:
        0.0067796046 = weight(_text_:e in 5812) [ClassicSimilarity], result of:
          0.0067796046 = score(doc=5812,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.1111659 = fieldWeight in 5812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.046311405 = weight(_text_:der in 5812) [ClassicSimilarity], result of:
          0.046311405 = score(doc=5812,freq=16.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.4886365 = fieldWeight in 5812, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
      0.33333334 = coord(2/6)
    
    Abstract
    Elektronische Bibliothekskataloge und Bibliografien haben ihr Monopol bei der Suche nach Büchern, Aufsätzen, musikalischen Werken u. a. verloren. Globale Suchmaschinen sind starke Konkurrenten, und Bibliotheken müssen heute so planen, dass ihre Dienstleistungen auch morgen noch interessant sind. Die Deutsche Bibliothek (DDB) wird ihre traditionelle Katalogrecherche zu einem globalen, netzbasierten Informationssystem erweitern, das die Vorteile der neutralen, qualitätsbasierten Katalogsuche mit den Vorteilen moderner Suchmaschinen zu verbinden sucht. Dieser Beitrag beschäftigt sich mit der Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek. Weitere Entwicklungsstränge sollen nur kurz im Ausblick angerissen werden.
  18. Zimmermann, H.H.: Automatische Indexierung und elektronische Thesauri (1996) 0.02
    0.01653028 = product of:
      0.049590837 = sum of:
        0.0077481195 = weight(_text_:e in 2062) [ClassicSimilarity], result of:
          0.0077481195 = score(doc=2062,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.12704675 = fieldWeight in 2062, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0625 = fieldNorm(doc=2062)
        0.041842718 = weight(_text_:der in 2062) [ClassicSimilarity], result of:
          0.041842718 = score(doc=2062,freq=10.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.44148692 = fieldWeight in 2062, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2062)
      0.33333334 = coord(2/6)
    
    Abstract
    Überblick über die Möglichkeiten des Einsatzes automatischer Indexierung für die Erschließung von Textdokumenten mit einer Kurzvorstellung der Verfahren PASSAT, CTX und IDX sowie einer Skizze des Nutzens der Einbindung von Thesauri in den Prozess der automatischen Indexierung.
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; Bd.25
    Source
    Zukunft der Sacherschließung im OPAC: Vorträge des 2. Düsseldorfer OPAC-Kolloquiums am 21. Juni 1995. Hrsg.: E. Niggemann u. K. Lepsky
  19. Busch, D.: Domänenspezifische hybride automatische Indexierung von bibliographischen Metadaten (2019) 0.02
    0.016209243 = product of:
      0.048627727 = sum of:
        0.03138204 = weight(_text_:der in 5628) [ClassicSimilarity], result of:
          0.03138204 = score(doc=5628,freq=10.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.3311152 = fieldWeight in 5628, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5628)
        0.017245688 = product of:
          0.034491375 = sum of:
            0.034491375 = weight(_text_:22 in 5628) [ClassicSimilarity], result of:
              0.034491375 = score(doc=5628,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.23214069 = fieldWeight in 5628, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5628)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Im Fraunhofer-Informationszentrum Raum und Bau (IRB) wird Fachliteratur im Bereich Planen und Bauen bibliographisch erschlossen. Die daraus resultierenden Dokumente (Metadaten-Einträge) werden u.a. bei der Produktion der bibliographischen Datenbanken des IRB verwendet. In Abb. 1 ist ein Dokument dargestellt, das einen Zeitschriftenartikel beschreibt. Die Dokumente werden mit Deskriptoren von einer Nomenklatur (Schlagwortliste IRB) indexiert. Ein Deskriptor ist "eine Benennung., die für sich allein verwendbar, eindeutig zur Inhaltskennzeichnung geeignet und im betreffenden Dokumentationssystem zugelassen ist". Momentan wird die Indexierung intellektuell von menschlichen Experten durchgeführt. Die intellektuelle Indexierung ist zeitaufwendig und teuer. Eine Lösung des Problems besteht in der automatischen Indexierung, bei der die Zuordnung von Deskriptoren durch ein Computerprogramm erfolgt. Solche Computerprogramme werden im Folgenden auch als Klassifikatoren bezeichnet. In diesem Beitrag geht es um ein System zur automatischen Indexierung von deutschsprachigen Dokumenten im Bereich Bauwesen mit Deskriptoren aus der Schlagwortliste IRB.
    Source
    B.I.T.online. 22(2019) H.6, S.465-469
  20. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.02
    0.015816994 = product of:
      0.04745098 = sum of:
        0.033079572 = weight(_text_:der in 3780) [ClassicSimilarity], result of:
          0.033079572 = score(doc=3780,freq=16.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.34902605 = fieldWeight in 3780, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.014371406 = product of:
          0.028742813 = sum of:
            0.028742813 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
              0.028742813 = score(doc=3780,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.19345059 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22

Languages

  • e 239
  • d 146
  • nl 2
  • a 1
  • m 1
  • ru 1
  • More… Less…

Types

  • a 328
  • el 38
  • x 28
  • m 14
  • s 9
  • d 2
  • p 2
  • r 1
  • More… Less…