Search (5 results, page 1 of 1)

  • × theme_ss:"Automatisches Klassifizieren"
  • × type_ss:"a"
  • × year_i:[2010 TO 2020}
  1. Kasprzik, A.: Automatisierte und semiautomatisierte Klassifizierung : eine Analyse aktueller Projekte (2014) 0.02
    0.018820595 = product of:
      0.07528238 = sum of:
        0.07528238 = weight(_text_:intelligenz in 2470) [ClassicSimilarity], result of:
          0.07528238 = score(doc=2470,freq=2.0), product of:
            0.19999503 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.03522097 = queryNorm
            0.37642127 = fieldWeight in 2470, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
      0.25 = coord(1/4)
    
    Abstract
    Das sprunghafte Anwachsen der Menge digital verfügbarer Dokumente gepaart mit dem Zeit- und Personalmangel an wissenschaftlichen Bibliotheken legt den Einsatz von halb- oder vollautomatischen Verfahren für die verbale und klassifikatorische Inhaltserschließung nahe. Nach einer kurzen allgemeinen Einführung in die gängige Methodik beleuchtet dieser Artikel eine Reihe von Projekten zur automatisierten Klassifizierung aus dem Zeitraum 2007-2012 und aus dem deutschsprachigen Raum. Ein Großteil der vorgestellten Projekte verwendet Methoden des Maschinellen Lernens aus der Künstlichen Intelligenz, arbeitet meist mit angepassten Versionen einer kommerziellen Software und bezieht sich in der Regel auf die Dewey Decimal Classification (DDC). Als Datengrundlage dienen Metadatensätze, Abstracs, Inhaltsverzeichnisse und Volltexte in diversen Datenformaten. Die abschließende Analyse enthält eine Anordnung der Projekte nach einer Reihe von verschiedenen Kriterien und eine Zusammenfassung der aktuellen Lage und der größten Herausfordungen für automatisierte Klassifizierungsverfahren.
  2. HaCohen-Kerner, Y. et al.: Classification using various machine learning methods and combinations of key-phrases and visual features (2016) 0.01
    0.005964944 = product of:
      0.023859777 = sum of:
        0.023859777 = product of:
          0.047719553 = sum of:
            0.047719553 = weight(_text_:22 in 2748) [ClassicSimilarity], result of:
              0.047719553 = score(doc=2748,freq=2.0), product of:
                0.123337835 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03522097 = queryNorm
                0.38690117 = fieldWeight in 2748, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2748)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    1. 2.2016 18:25:22
  3. Zhu, W.Z.; Allen, R.B.: Document clustering using the LSI subspace signature model (2013) 0.00
    0.0035789663 = product of:
      0.014315865 = sum of:
        0.014315865 = product of:
          0.02863173 = sum of:
            0.02863173 = weight(_text_:22 in 690) [ClassicSimilarity], result of:
              0.02863173 = score(doc=690,freq=2.0), product of:
                0.123337835 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03522097 = queryNorm
                0.23214069 = fieldWeight in 690, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=690)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    23. 3.2013 13:22:36
  4. Egbert, J.; Biber, D.; Davies, M.: Developing a bottom-up, user-based method of web register classification (2015) 0.00
    0.0035789663 = product of:
      0.014315865 = sum of:
        0.014315865 = product of:
          0.02863173 = sum of:
            0.02863173 = weight(_text_:22 in 2158) [ClassicSimilarity], result of:
              0.02863173 = score(doc=2158,freq=2.0), product of:
                0.123337835 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03522097 = queryNorm
                0.23214069 = fieldWeight in 2158, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2158)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    4. 8.2015 19:22:04
  5. Liu, R.-L.: ¬A passage extractor for classification of disease aspect information (2013) 0.00
    0.002982472 = product of:
      0.011929888 = sum of:
        0.011929888 = product of:
          0.023859777 = sum of:
            0.023859777 = weight(_text_:22 in 1107) [ClassicSimilarity], result of:
              0.023859777 = score(doc=1107,freq=2.0), product of:
                0.123337835 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03522097 = queryNorm
                0.19345059 = fieldWeight in 1107, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1107)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    28.10.2013 19:22:57