Search (9 results, page 1 of 1)

  • × language_ss:"d"
  • × theme_ss:"Automatisches Klassifizieren"
  1. Pfeffer, M.: Automatische Vergabe von RVK-Notationen mittels fallbasiertem Schließen (2009) 0.02
    0.022393432 = product of:
      0.06718029 = sum of:
        0.057286415 = weight(_text_:forschung in 3051) [ClassicSimilarity], result of:
          0.057286415 = score(doc=3051,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.32250258 = fieldWeight in 3051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=3051)
        0.009893879 = product of:
          0.029681636 = sum of:
            0.029681636 = weight(_text_:22 in 3051) [ClassicSimilarity], result of:
              0.029681636 = score(doc=3051,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.23214069 = fieldWeight in 3051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3051)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Klassifikation von bibliografischen Einheiten ist für einen systematischen Zugang zu den Beständen einer Bibliothek und deren Aufstellung unumgänglich. Bislang wurde diese Aufgabe von Fachexperten manuell erledigt, sei es individuell nach einer selbst entwickelten Systematik oder kooperativ nach einer gemeinsamen Systematik. In dieser Arbeit wird ein Verfahren zur Automatisierung des Klassifikationsvorgangs vorgestellt. Dabei kommt das Verfahren des fallbasierten Schließens zum Einsatz, das im Kontext der Forschung zur künstlichen Intelligenz entwickelt wurde. Das Verfahren liefert für jedes Werk, für das bibliografische Daten vorliegen, eine oder mehrere mögliche Klassifikationen. In Experimenten werden die Ergebnisse der automatischen Klassifikation mit der durch Fachexperten verglichen. Diese Experimente belegen die hohe Qualität der automatischen Klassifikation und dass das Verfahren geeignet ist, Fachexperten bei der Klassifikationsarbeit signifikant zu entlasten. Auch die nahezu vollständige Resystematisierung eines Bibliothekskataloges ist - mit gewissen Abstrichen - möglich.
    Date
    22. 8.2009 19:51:28
  2. Walther, R.: Möglichkeiten und Grenzen automatischer Klassifikationen von Web-Dokumenten (2001) 0.01
    0.011139026 = product of:
      0.06683415 = sum of:
        0.06683415 = weight(_text_:forschung in 1562) [ClassicSimilarity], result of:
          0.06683415 = score(doc=1562,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.376253 = fieldWeight in 1562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1562)
      0.16666667 = coord(1/6)
    
    Abstract
    Automatische Klassifikationen von Web- und andern Textdokumenten ermöglichen es, betriebsinterne und externe Informationen geordnet zugänglich zu machen. Die Forschung zur automatischen Klassifikation hat sich in den letzten Jahren intensiviert. Das Resultat sind verschiedenen Methoden, die heute in der Praxis einzeln oder kombiniert für die Klassifikation im Einsatz sind. In der vorliegenden Lizenziatsarbeit werden neben allgemeinen Grundsätzen einige Methoden zur automatischen Klassifikation genauer betrachtet und ihre Möglichkeiten und Grenzen erörtert. Daneben erfolgt die Präsentation der Resultate aus einer Umfrage bei Anbieterrfirmen von Softwarelösungen zur automatische Klassifikation von Text-Dokumenten. Die Ausführungen dienen der myax internet AG als Basis, ein eigenes Klassifikations-Produkt zu entwickeln
  3. Pfeffer, M.: Automatische Vergabe von RVK-Notationen anhand von bibliografischen Daten mittels fallbasiertem Schließen (2007) 0.01
    0.0095477365 = product of:
      0.057286415 = sum of:
        0.057286415 = weight(_text_:forschung in 558) [ClassicSimilarity], result of:
          0.057286415 = score(doc=558,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.32250258 = fieldWeight in 558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=558)
      0.16666667 = coord(1/6)
    
    Abstract
    Klassifikation von bibliografischen Einheiten ist für einen systematischen Zugang zu den Beständen einer Bibliothek und deren Aufstellung unumgänglich. Bislang wurde diese Aufgabe von Fachexperten manuell erledigt, sei es individuell nach einer selbst entwickelten Systematik oder kooperativ nach einer gemeinsamen Systematik. In dieser Arbeit wird ein Verfahren zur Automatisierung des Klassifikationsvorgangs vorgestellt. Dabei kommt das Verfahren des fallbasierten Schließens zum Einsatz, das im Kontext der Forschung zur künstlichen Intelligenz entwickelt wurde. Das Verfahren liefert für jedes Werk, für das bibliografische Daten vorliegen, eine oder mehrere mögliche Klassifikationen. In Experimenten werden die Ergebnisse der automatischen Klassifikation mit der durch Fachexperten verglichen. Diese Experimente belegen die hohe Qualität der automatischen Klassifikation und dass das Verfahren geeignet ist, Fachexperten bei der Klassifikationsarbeit signifikant zu entlasten. Auch die nahezu vollständige Resystematisierung eines Bibliothekskataloges ist - mit gewissen Abstrichen - möglich.
  4. Panyr, J.: STEINADLER: ein Verfahren zur automatischen Deskribierung und zur automatischen thematischen Klassifikation (1978) 0.00
    0.004437195 = product of:
      0.02662317 = sum of:
        0.02662317 = product of:
          0.07986951 = sum of:
            0.07986951 = weight(_text_:29 in 5169) [ClassicSimilarity], result of:
              0.07986951 = score(doc=5169,freq=2.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.6218451 = fieldWeight in 5169, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=5169)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Nachrichten für Dokumentation. 29(1978), S.92-96
  5. Reiner, U.: Automatische DDC-Klassifizierung von bibliografischen Titeldatensätzen (2009) 0.00
    0.0027483 = product of:
      0.0164898 = sum of:
        0.0164898 = product of:
          0.049469396 = sum of:
            0.049469396 = weight(_text_:22 in 611) [ClassicSimilarity], result of:
              0.049469396 = score(doc=611,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.38690117 = fieldWeight in 611, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=611)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 8.2009 12:54:24
  6. Bock, H.-H.: Datenanalyse zur Strukturierung und Ordnung von Information (1989) 0.00
    0.0019238098 = product of:
      0.011542859 = sum of:
        0.011542859 = product of:
          0.034628574 = sum of:
            0.034628574 = weight(_text_:22 in 141) [ClassicSimilarity], result of:
              0.034628574 = score(doc=141,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.2708308 = fieldWeight in 141, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=141)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Pages
    S.1-22
  7. Sommer, M.: Automatische Generierung von DDC-Notationen für Hochschulveröffentlichungen (2012) 0.00
    0.0016639482 = product of:
      0.009983689 = sum of:
        0.009983689 = product of:
          0.029951064 = sum of:
            0.029951064 = weight(_text_:29 in 587) [ClassicSimilarity], result of:
              0.029951064 = score(doc=587,freq=2.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.23319192 = fieldWeight in 587, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=587)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 1.2013 15:44:43
  8. Automatische Klassifikation und Extraktion in Documentum (2005) 0.00
    0.0013866236 = product of:
      0.008319741 = sum of:
        0.008319741 = product of:
          0.024959221 = sum of:
            0.024959221 = weight(_text_:29 in 3974) [ClassicSimilarity], result of:
              0.024959221 = score(doc=3974,freq=2.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.19432661 = fieldWeight in 3974, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3974)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Footnote
    Kontakt: LCI GmbH, Freiburger Str. 16, 16,79199 Kirchzarten, Tel.: (0 76 61) 9 89 961o, Fax: (01212) 5 37 48 29 36, info@lci-software.com, www.lci-software.com
  9. Reiner, U.: Automatische DDC-Klassifizierung bibliografischer Titeldatensätze der Deutschen Nationalbibliografie (2009) 0.00
    0.0010993199 = product of:
      0.006595919 = sum of:
        0.006595919 = product of:
          0.019787757 = sum of:
            0.019787757 = weight(_text_:22 in 3284) [ClassicSimilarity], result of:
              0.019787757 = score(doc=3284,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.15476047 = fieldWeight in 3284, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3284)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 1.2010 14:41:24