Search (38 results, page 1 of 2)

  • × theme_ss:"Automatisches Indexieren"
  1. Hoppe, A.: ¬Die systematischen Grundlagen für ein linguistisch orientiertes maschinelles Dokumentationsverfahren (1969) 0.11
    0.10935613 = product of:
      0.4374245 = sum of:
        0.4374245 = weight(_text_:maschinelles in 4720) [ClassicSimilarity], result of:
          0.4374245 = score(doc=4720,freq=2.0), product of:
            0.35089135 = queryWeight, product of:
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.043538682 = queryNorm
            1.2466096 = fieldWeight in 4720, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.109375 = fieldNorm(doc=4720)
      0.25 = coord(1/4)
    
  2. Lepsky, K.: Maschinelles Indexieren zur Verbesserung der sachlichen Suche im OPAC : DFG-Projekt an der Universitäts- und Landesbibliothek Düsseldorf (1994) 0.11
    0.10935613 = product of:
      0.4374245 = sum of:
        0.4374245 = weight(_text_:maschinelles in 2882) [ClassicSimilarity], result of:
          0.4374245 = score(doc=2882,freq=2.0), product of:
            0.35089135 = queryWeight, product of:
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.043538682 = queryNorm
            1.2466096 = fieldWeight in 2882, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.109375 = fieldNorm(doc=2882)
      0.25 = coord(1/4)
    
  3. Lepsky, K.: Automatisierung in der Sacherschließung : Maschinelles Indexieren von Titeldaten (1996) 0.09
    0.093733825 = product of:
      0.3749353 = sum of:
        0.3749353 = weight(_text_:maschinelles in 3418) [ClassicSimilarity], result of:
          0.3749353 = score(doc=3418,freq=2.0), product of:
            0.35089135 = queryWeight, product of:
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.043538682 = queryNorm
            1.0685225 = fieldWeight in 3418, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.09375 = fieldNorm(doc=3418)
      0.25 = coord(1/4)
    
  4. Grummann, M.: Sind Verfahren zur maschinellen Indexierung für Literaturbestände Öffentlicher Bibliotheken geeignet? : Retrievaltests von indexierten ekz-Daten mit der Software IDX (2000) 0.06
    0.06248922 = product of:
      0.24995688 = sum of:
        0.24995688 = weight(_text_:maschinelles in 1879) [ClassicSimilarity], result of:
          0.24995688 = score(doc=1879,freq=2.0), product of:
            0.35089135 = queryWeight, product of:
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.043538682 = queryNorm
            0.71234834 = fieldWeight in 1879, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
      0.25 = coord(1/4)
    
    Abstract
    Maschinelles Indexieren vereinheitlicht und vermehrt das Suchvokabular eines Bibliothekskatalogs durch verschiedene Methoden (u.a. Ermittlung der Grundform, Kompositazerlegung, Wortableitungen). Ein Retrievaltest mit einem für öffentliche Bibliotheken typischen Sachbuchbestand zeigt, dass dieses Verfahren die Ergebnisse von OPAC-Recherchen verbessert - trotz 'blumiger' Titelformulierungen. Im Vergleich zu herkömmlichen Erschließungsmethoden (Stich- und Schlagwörter) werden mehr relevante Titel gefunden, ohne gleichzeitig den 'Ballast' zu erhöhen. Das maschinelle Indexieren kann die Verschlagwortung jedoch nicht ersetzen, sondern nur ergänzen
  5. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.03
    0.032609224 = product of:
      0.1304369 = sum of:
        0.1304369 = sum of:
          0.095043555 = weight(_text_:sehen in 1746) [ClassicSimilarity], result of:
            0.095043555 = score(doc=1746,freq=2.0), product of:
              0.24984509 = queryWeight, product of:
                5.7384624 = idf(docFreq=386, maxDocs=44218)
                0.043538682 = queryNorm
              0.38040993 = fieldWeight in 1746, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.7384624 = idf(docFreq=386, maxDocs=44218)
                0.046875 = fieldNorm(doc=1746)
          0.035393342 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
            0.035393342 = score(doc=1746,freq=2.0), product of:
              0.15246505 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.043538682 = queryNorm
              0.23214069 = fieldWeight in 1746, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1746)
      0.25 = coord(1/4)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Date
    22. 3.2015 9:17:30
  6. Voorhees, E.M.: Implementing agglomerative hierarchic clustering algorithms for use in document retrieval (1986) 0.01
    0.011797781 = product of:
      0.047191124 = sum of:
        0.047191124 = product of:
          0.09438225 = sum of:
            0.09438225 = weight(_text_:22 in 402) [ClassicSimilarity], result of:
              0.09438225 = score(doc=402,freq=2.0), product of:
                0.15246505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043538682 = queryNorm
                0.61904186 = fieldWeight in 402, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=402)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Information processing and management. 22(1986) no.6, S.465-476
  7. Fuhr, N.; Niewelt, B.: ¬Ein Retrievaltest mit automatisch indexierten Dokumenten (1984) 0.01
    0.010323058 = product of:
      0.04129223 = sum of:
        0.04129223 = product of:
          0.08258446 = sum of:
            0.08258446 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.08258446 = score(doc=262,freq=2.0), product of:
                0.15246505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043538682 = queryNorm
                0.5416616 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=262)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    20.10.2000 12:22:23
  8. Hlava, M.M.K.: Automatic indexing : comparing rule-based and statistics-based indexing systems (2005) 0.01
    0.010323058 = product of:
      0.04129223 = sum of:
        0.04129223 = product of:
          0.08258446 = sum of:
            0.08258446 = weight(_text_:22 in 6265) [ClassicSimilarity], result of:
              0.08258446 = score(doc=6265,freq=2.0), product of:
                0.15246505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043538682 = queryNorm
                0.5416616 = fieldWeight in 6265, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6265)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Information outlook. 9(2005) no.8, S.22-23
  9. Fuhr, N.: Ranking-Experimente mit gewichteter Indexierung (1986) 0.01
    0.008848336 = product of:
      0.035393342 = sum of:
        0.035393342 = product of:
          0.070786685 = sum of:
            0.070786685 = weight(_text_:22 in 58) [ClassicSimilarity], result of:
              0.070786685 = score(doc=58,freq=2.0), product of:
                0.15246505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043538682 = queryNorm
                0.46428138 = fieldWeight in 58, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=58)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    14. 6.2015 22:12:44
  10. Hauer, M.: Automatische Indexierung (2000) 0.01
    0.008848336 = product of:
      0.035393342 = sum of:
        0.035393342 = product of:
          0.070786685 = sum of:
            0.070786685 = weight(_text_:22 in 5887) [ClassicSimilarity], result of:
              0.070786685 = score(doc=5887,freq=2.0), product of:
                0.15246505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043538682 = queryNorm
                0.46428138 = fieldWeight in 5887, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5887)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Wissen in Aktion: Wege des Knowledge Managements. 22. Online-Tagung der DGI, Frankfurt am Main, 2.-4.5.2000. Proceedings. Hrsg.: R. Schmidt
  11. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.01
    0.008848336 = product of:
      0.035393342 = sum of:
        0.035393342 = product of:
          0.070786685 = sum of:
            0.070786685 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.070786685 = score(doc=2051,freq=2.0), product of:
                0.15246505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043538682 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    14. 6.2015 22:12:56
  12. Hauer, M.: Tiefenindexierung im Bibliothekskatalog : 17 Jahre intelligentCAPTURE (2019) 0.01
    0.008848336 = product of:
      0.035393342 = sum of:
        0.035393342 = product of:
          0.070786685 = sum of:
            0.070786685 = weight(_text_:22 in 5629) [ClassicSimilarity], result of:
              0.070786685 = score(doc=5629,freq=2.0), product of:
                0.15246505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043538682 = queryNorm
                0.46428138 = fieldWeight in 5629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5629)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    B.I.T.online. 22(2019) H.2, S.163-166
  13. Biebricher, N.; Fuhr, N.; Lustig, G.; Schwantner, M.; Knorz, G.: ¬The automatic indexing system AIR/PHYS : from research to application (1988) 0.01
    0.007373613 = product of:
      0.029494451 = sum of:
        0.029494451 = product of:
          0.058988903 = sum of:
            0.058988903 = weight(_text_:22 in 1952) [ClassicSimilarity], result of:
              0.058988903 = score(doc=1952,freq=2.0), product of:
                0.15246505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043538682 = queryNorm
                0.38690117 = fieldWeight in 1952, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1952)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    16. 8.1998 12:51:22
  14. Kutschekmanesch, S.; Lutes, B.; Moelle, K.; Thiel, U.; Tzeras, K.: Automated multilingual indexing : a synthesis of rule-based and thesaurus-based methods (1998) 0.01
    0.007373613 = product of:
      0.029494451 = sum of:
        0.029494451 = product of:
          0.058988903 = sum of:
            0.058988903 = weight(_text_:22 in 4157) [ClassicSimilarity], result of:
              0.058988903 = score(doc=4157,freq=2.0), product of:
                0.15246505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043538682 = queryNorm
                0.38690117 = fieldWeight in 4157, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4157)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Information und Märkte: 50. Deutscher Dokumentartag 1998, Kongreß der Deutschen Gesellschaft für Dokumentation e.V. (DGD), Rheinische Friedrich-Wilhelms-Universität Bonn, 22.-24. September 1998. Hrsg. von Marlies Ockenfeld u. Gerhard J. Mantwill
  15. Tsareva, P.V.: Algoritmy dlya raspoznavaniya pozitivnykh i negativnykh vkhozdenii deskriptorov v tekst i protsedura avtomaticheskoi klassifikatsii tekstov (1999) 0.01
    0.007373613 = product of:
      0.029494451 = sum of:
        0.029494451 = product of:
          0.058988903 = sum of:
            0.058988903 = weight(_text_:22 in 374) [ClassicSimilarity], result of:
              0.058988903 = score(doc=374,freq=2.0), product of:
                0.15246505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043538682 = queryNorm
                0.38690117 = fieldWeight in 374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=374)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    1. 4.2002 10:22:41
  16. Stankovic, R. et al.: Indexing of textual databases based on lexical resources : a case study for Serbian (2016) 0.01
    0.007373613 = product of:
      0.029494451 = sum of:
        0.029494451 = product of:
          0.058988903 = sum of:
            0.058988903 = weight(_text_:22 in 2759) [ClassicSimilarity], result of:
              0.058988903 = score(doc=2759,freq=2.0), product of:
                0.15246505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043538682 = queryNorm
                0.38690117 = fieldWeight in 2759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2759)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    1. 2.2016 18:25:22
  17. Maas, H.-D.: Indexieren mit AUTINDEX (2006) 0.01
    0.006930259 = product of:
      0.027721036 = sum of:
        0.027721036 = product of:
          0.055442072 = sum of:
            0.055442072 = weight(_text_:sehen in 6077) [ClassicSimilarity], result of:
              0.055442072 = score(doc=6077,freq=2.0), product of:
                0.24984509 = queryWeight, product of:
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.043538682 = queryNorm
                0.2219058 = fieldWeight in 6077, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=6077)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Wenn man ein Computerprogramm besitzt, das einem zu fast jedem Textwort dessen grammatische Merkmale bestimmt und außerdem noch seine interne Struktur und einige semantische Informationen liefert, dann fragt man sich irgendwann: Könnte ich nicht auf der Grundlage dieser Angaben einen Text global charakterisieren, etwa indem ich versuche, die wichtigen Wörter dieses Textes zu errechnen? Die häufigsten Textwörter können es nicht sein, denn gerade sie sind sehr nichtssagend. Die seltensten Textwörter sind zwar aussagekräftig, aber sie sind zu viele - die meisten Lemmata eines Textes erscheinen nur ein einziges Mal. Irgendwie müsste man den Wortschatz einschränken können. Die rettende Idee war: Wir tun so, als seien die semantischen Merkmale Wörter, denn dann enthält der Wortschatz dieser Sprache nur noch etwa hundert Elemente, weil unsere morphologische Analyse (Mpro) rund 100 semantische Features verwendet. Wir vermuteten nun, dass die häufig vorkommenden Features wichtig für den Text sind und die selteneren als Ausreißer betrachten werden können. Die Implementierung dieser Idee ist der Urahn unseres Programmpaketes AUTINDEX zur automatischen Indexierung von Texten. Dieses allererste Programm erstellte also zu einem Text eine Statistik der semantischen Merkmale und gab die drei häufigsten Klassen mit den zugehörigen Lemmata aus. Das Ergebnis war verblüffend: Auf den ersten Blick konnte man sehen, worum es in dem Text ging. Bei näherem Hinsehen wurden aber auch Unzulänglichkeiten deutlich. Einige der Schlagwörter waren doch ziemlich nichtssagend, andere hätte man gerne in der Liste gehabt, und schließlich hätte man sich noch eine ganz globale Charakterisierung des Textes durch die Angabe von Fachgebieten gewünscht, etwa in der Form: Der Text hat mit Politik oder Wirtschaft zu tun, er berichtet über einen Unfall, eine Feierlichkeit usw. Es wurde also sofort deutlich, dass das Programm ohne eine weitere Wissensquelle keine wirklich guten Ergebnisse würde liefern können. Man braucht also einen Thesaurus, ein Wörterbuch, in dem einzelne Lemmata und auch mehrwortige Ausdrücke mit zusätzlichen Informationen versehen sind.
  18. Tsujii, J.-I.: Automatic acquisition of semantic collocation from corpora (1995) 0.01
    0.0058988906 = product of:
      0.023595562 = sum of:
        0.023595562 = product of:
          0.047191124 = sum of:
            0.047191124 = weight(_text_:22 in 4709) [ClassicSimilarity], result of:
              0.047191124 = score(doc=4709,freq=2.0), product of:
                0.15246505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043538682 = queryNorm
                0.30952093 = fieldWeight in 4709, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4709)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    31. 7.1996 9:22:19
  19. Riloff, E.: ¬An empirical study of automated dictionary construction for information extraction in three domains (1996) 0.01
    0.0058988906 = product of:
      0.023595562 = sum of:
        0.023595562 = product of:
          0.047191124 = sum of:
            0.047191124 = weight(_text_:22 in 6752) [ClassicSimilarity], result of:
              0.047191124 = score(doc=6752,freq=2.0), product of:
                0.15246505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043538682 = queryNorm
                0.30952093 = fieldWeight in 6752, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6752)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    6. 3.1997 16:22:15
  20. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.01
    0.0058988906 = product of:
      0.023595562 = sum of:
        0.023595562 = product of:
          0.047191124 = sum of:
            0.047191124 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.047191124 = score(doc=3581,freq=2.0), product of:
                0.15246505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043538682 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    24. 3.2006 12:22:02