Search (25 results, page 1 of 2)

  • × theme_ss:"Automatisches Klassifizieren"
  1. Dang, E.K.F.; Luk, R.W.P.; Ho, K.S.; Chan, S.C.F.; Lee, D.L.: ¬A new measure of clustering effectiveness : algorithms and experimental studies (2008) 0.06
    0.058072533 = product of:
      0.1742176 = sum of:
        0.1742176 = weight(_text_:d.l in 1367) [ClassicSimilarity], result of:
          0.1742176 = score(doc=1367,freq=2.0), product of:
            0.31052554 = queryWeight, product of:
              7.2542357 = idf(docFreq=84, maxDocs=44218)
              0.0428061 = queryNorm
            0.5610411 = fieldWeight in 1367, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2542357 = idf(docFreq=84, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1367)
      0.33333334 = coord(1/3)
    
  2. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.05
    0.04559299 = product of:
      0.06838948 = sum of:
        0.050990574 = product of:
          0.2039623 = sum of:
            0.2039623 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.2039623 = score(doc=562,freq=2.0), product of:
                0.3629106 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0428061 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.25 = coord(1/4)
        0.017398907 = product of:
          0.034797814 = sum of:
            0.034797814 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.034797814 = score(doc=562,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  3. Oberhauser, O.: Automatisches Klassifizieren und Bibliothekskataloge (2005) 0.01
    0.012703083 = product of:
      0.03810925 = sum of:
        0.03810925 = product of:
          0.0762185 = sum of:
            0.0762185 = weight(_text_:da in 4099) [ClassicSimilarity], result of:
              0.0762185 = score(doc=4099,freq=2.0), product of:
                0.20539105 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0428061 = queryNorm
                0.3710897 = fieldWeight in 4099, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4099)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    In der bibliothekarischen Welt sind die Vorzüge einer klassifikatorischen Inhaltserschließung seit jeher wohlbekannt. Auch im Zeitalter der Online-Kataloge gibt es dafür keinen wirklichen Ersatz, da - kurz formuliert - ein stichwortbasiertes Retrieval alleine mit Problemen wie Ambiguität und Mehrsprachigkeit nicht fertig zu werden vermag. Zahlreiche Online-Kataloge weisen daher Notationen verschiedener Klassifikationssysteme auf; allerdings sind die darauf basierenden Abfragemöglichkeiten meist noch arg unterentwickelt. Viele Datensätze in OPACs sind aber überhaupt nicht sachlich erschlossen, sei es, dass sie aus retrospektiv konvertierten Nominalkatalogen stammen, sei es, dass ein Mangel an personellen Ressourcen ihre inhaltliche Erschließung verhindert hat. Angesichts großer Mengen solcher Datensätze liegt ein Interesse an automatischen Verfahren zur Sacherschließung durchaus nahe.
  4. Wille, J.: Automatisches Klassifizieren bibliographischer Beschreibungsdaten : Vorgehensweise und Ergebnisse (2006) 0.01
    0.012703083 = product of:
      0.03810925 = sum of:
        0.03810925 = product of:
          0.0762185 = sum of:
            0.0762185 = weight(_text_:da in 6090) [ClassicSimilarity], result of:
              0.0762185 = score(doc=6090,freq=2.0), product of:
                0.20539105 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0428061 = queryNorm
                0.3710897 = fieldWeight in 6090, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=6090)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Footnote
    http://www.fbi.fh-koeln.de/institut/papers/abschlussarbeiten/abschlussarbeiten_ausgabe.php Vgl. auch: http://eprints.rclis.org/archive/00006659/01/wille_-_automatisches_klassifizieren_bibliographischer_beschreibungsdaten_(diplomarbeit).pdf. Für die Software vgl.: http://blackwinter.de/da/.
  5. Subramanian, S.; Shafer, K.E.: Clustering (2001) 0.01
    0.011599272 = product of:
      0.034797814 = sum of:
        0.034797814 = product of:
          0.06959563 = sum of:
            0.06959563 = weight(_text_:22 in 1046) [ClassicSimilarity], result of:
              0.06959563 = score(doc=1046,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.46428138 = fieldWeight in 1046, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1046)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    5. 5.2003 14:17:22
  6. Helmbrecht-Schaar, A.: Entwicklung eines Verfahrens der automatischen Klassifizierung für Textdokumente aus dem Fachbereich Informatik mithilfe eines fachspezifischen Klassifikationssystems (2007) 0.01
    0.010888357 = product of:
      0.03266507 = sum of:
        0.03266507 = product of:
          0.06533014 = sum of:
            0.06533014 = weight(_text_:da in 1410) [ClassicSimilarity], result of:
              0.06533014 = score(doc=1410,freq=2.0), product of:
                0.20539105 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0428061 = queryNorm
                0.31807688 = fieldWeight in 1410, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1410)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    In der vorliegenden Arbeit werden die Möglichkeiten für eine Automatisierung des Klassifizierens von Online Dokumenten evaluiert und ein mögliches Verfahren prototypisch implementiert. Dabei werden Verfahren der Terminologieextraktion angewandt, um die Sinnträger der Texte zu ermitteln. Klassifikationen, die im Allg. nur wenige weiterführende Informationen enthalten, sollen über einen Mapping Mechanismus auf die das Dokument beschreibenden Terme angewandt werden. Im Ansatz wird bereits sichtbar, dass es keine rein automatische Klassifikation geben kann, da es immer einen Bruch zwischen den intellektuell erstellten Klassifikationen und den aus den Texten generierten Informationen geben wird. Es wird ein semiautomatisches Verfahren vorgestellt, das durch Anwenderaktionen lernt und zu einer sukzessiven Automatisierung führen kann. Die Ergebnisse der semiautomatischen Klassifizierung werden mit denen einer manuellen verglichen. Im Anschluss wird ein Ausblick auf Möglichkeiten und Grenzen der automatischen Klassifikation gegeben.
  7. Cortez, E.; Herrera, M.R.; Silva, A.S. da; Moura, E.S. de; Neubert, M.: Lightweight methods for large-scale product categorization (2011) 0.01
    0.010888357 = product of:
      0.03266507 = sum of:
        0.03266507 = product of:
          0.06533014 = sum of:
            0.06533014 = weight(_text_:da in 4758) [ClassicSimilarity], result of:
              0.06533014 = score(doc=4758,freq=2.0), product of:
                0.20539105 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0428061 = queryNorm
                0.31807688 = fieldWeight in 4758, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4758)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
  8. Reiner, U.: Automatische DDC-Klassifizierung von bibliografischen Titeldatensätzen (2009) 0.01
    0.00966606 = product of:
      0.02899818 = sum of:
        0.02899818 = product of:
          0.05799636 = sum of:
            0.05799636 = weight(_text_:22 in 611) [ClassicSimilarity], result of:
              0.05799636 = score(doc=611,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.38690117 = fieldWeight in 611, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=611)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 8.2009 12:54:24
  9. HaCohen-Kerner, Y. et al.: Classification using various machine learning methods and combinations of key-phrases and visual features (2016) 0.01
    0.00966606 = product of:
      0.02899818 = sum of:
        0.02899818 = product of:
          0.05799636 = sum of:
            0.05799636 = weight(_text_:22 in 2748) [ClassicSimilarity], result of:
              0.05799636 = score(doc=2748,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.38690117 = fieldWeight in 2748, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2748)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    1. 2.2016 18:25:22
  10. Oberhauser, O.: Automatisches Klassifizieren : Verfahren zur Erschließung elektronischer Dokumente (2004) 0.01
    0.007258905 = product of:
      0.021776715 = sum of:
        0.021776715 = product of:
          0.04355343 = sum of:
            0.04355343 = weight(_text_:da in 2487) [ClassicSimilarity], result of:
              0.04355343 = score(doc=2487,freq=2.0), product of:
                0.20539105 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0428061 = queryNorm
                0.21205126 = fieldWeight in 2487, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2487)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Automatisches Klassifizieren von Textdokumenten bedeutet die maschinelle Zuordnung jeweils einer oder mehrerer Notationen eines vorgegebenen Klassifikationssystems zu natürlich-sprachlichen Texten mithilfe eines geeigneten Algorithmus. In der vorliegenden Arbeit wird in Form einer umfassenden Literaturstudie ein aktueller Kenntnisstand zu den Ein-satzmöglichkeiten des automatischen Klassifizierens für die sachliche Erschliessung von elektronischen Dokumenten, insbesondere von Web-Ressourcen, erarbeitet. Dies betrifft zum einen den methodischen Aspekt und zum anderen die in relevanten Projekten und Anwendungen gewonnenen Erfahrungen. In methodischer Hinsicht gelten heute statistische Verfahren, die auf dem maschinellen Lernen basieren und auf der Grundlage bereits klassifizierter Beispieldokumente ein Modell - einen "Klassifikator" - erstellen, das zur Klassifizierung neuer Dokumente verwendet werden kann, als "state-of-the-art". Die vier in den 1990er Jahren an den Universitäten Lund, Wolverhampton und Oldenburg sowie bei OCLC (Dublin, OH) durchgeführten "grossen" Projekte zum automatischen Klassifizieren von Web-Ressourcen, die in dieser Arbeit ausführlich analysiert werden, arbeiteten allerdings noch mit einfacheren bzw. älteren methodischen Ansätzen. Diese Projekte bedeuten insbesondere aufgrund ihrer Verwendung etablierter bibliothekarischer Klassifikationssysteme einen wichtigen Erfahrungsgewinn, selbst wenn sie bisher nicht zu permanenten und qualitativ zufriedenstellenden Diensten für die Erschliessung elektronischer Ressourcen geführt haben. Die Analyse der weiteren einschlägigen Anwendungen und Projekte lässt erkennen, dass derzeit in den Bereichen Patent- und Mediendokumentation die aktivsten Bestrebungen bestehen, Systeme für die automatische klassifikatorische Erschliessung elektronischer Dokumente im laufenden operativen Betrieb einzusetzen. Dabei dominieren jedoch halbautomatische Systeme, die menschliche Bearbeiter durch Klassifizierungsvorschläge unterstützen, da die gegenwärtig erreichbare Klassifizierungsgüte für eine Vollautomatisierung meist noch nicht ausreicht. Weitere interessante Anwendungen und Projekte finden sich im Bereich von Web-Portalen, Suchmaschinen und (kommerziellen) Informationsdiensten, während sich etwa im Bibliothekswesen kaum nennenswertes Interesse an einer automatischen Klassifizierung von Büchern bzw. bibliographischen Datensätzen registrieren lässt. Die Studie schliesst mit einer Diskussion der wichtigsten Projekte und Anwendungen sowie einiger im Zusammenhang mit dem automatischen Klassifizieren relevanter Fragestellungen und Themen.
  11. Bock, H.-H.: Datenanalyse zur Strukturierung und Ordnung von Information (1989) 0.01
    0.006766242 = product of:
      0.020298725 = sum of:
        0.020298725 = product of:
          0.04059745 = sum of:
            0.04059745 = weight(_text_:22 in 141) [ClassicSimilarity], result of:
              0.04059745 = score(doc=141,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.2708308 = fieldWeight in 141, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=141)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Pages
    S.1-22
  12. Dubin, D.: Dimensions and discriminability (1998) 0.01
    0.006766242 = product of:
      0.020298725 = sum of:
        0.020298725 = product of:
          0.04059745 = sum of:
            0.04059745 = weight(_text_:22 in 2338) [ClassicSimilarity], result of:
              0.04059745 = score(doc=2338,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.2708308 = fieldWeight in 2338, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2338)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 9.1997 19:16:05
  13. Automatic classification research at OCLC (2002) 0.01
    0.006766242 = product of:
      0.020298725 = sum of:
        0.020298725 = product of:
          0.04059745 = sum of:
            0.04059745 = weight(_text_:22 in 1563) [ClassicSimilarity], result of:
              0.04059745 = score(doc=1563,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.2708308 = fieldWeight in 1563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1563)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    5. 5.2003 9:22:09
  14. Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998) 0.01
    0.006766242 = product of:
      0.020298725 = sum of:
        0.020298725 = product of:
          0.04059745 = sum of:
            0.04059745 = weight(_text_:22 in 1673) [ClassicSimilarity], result of:
              0.04059745 = score(doc=1673,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.2708308 = fieldWeight in 1673, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1673)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    1. 8.1996 22:08:06
  15. Yoon, Y.; Lee, C.; Lee, G.G.: ¬An effective procedure for constructing a hierarchical text classification system (2006) 0.01
    0.006766242 = product of:
      0.020298725 = sum of:
        0.020298725 = product of:
          0.04059745 = sum of:
            0.04059745 = weight(_text_:22 in 5273) [ClassicSimilarity], result of:
              0.04059745 = score(doc=5273,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.2708308 = fieldWeight in 5273, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5273)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 7.2006 16:24:52
  16. Yi, K.: Automatic text classification using library classification schemes : trends, issues and challenges (2007) 0.01
    0.006766242 = product of:
      0.020298725 = sum of:
        0.020298725 = product of:
          0.04059745 = sum of:
            0.04059745 = weight(_text_:22 in 2560) [ClassicSimilarity], result of:
              0.04059745 = score(doc=2560,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.2708308 = fieldWeight in 2560, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2560)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 9.2008 18:31:54
  17. Oberhauser, O.: Automatisches Klassifizieren : Entwicklungsstand - Methodik - Anwendungsbereiche (2005) 0.01
    0.0064160265 = product of:
      0.01924808 = sum of:
        0.01924808 = product of:
          0.03849616 = sum of:
            0.03849616 = weight(_text_:da in 38) [ClassicSimilarity], result of:
              0.03849616 = score(doc=38,freq=4.0), product of:
                0.20539105 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0428061 = queryNorm
                0.18742861 = fieldWeight in 38, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=38)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Automatisches Klassifizieren von Textdokumenten bedeutet die maschinelle Zuordnung jeweils einer oder mehrerer Notationen eines vorgegebenen Klassifikationssystems zu natürlich-sprachlichen Texten mithilfe eines geeigneten Algorithmus. In der vorliegenden Arbeit wird in Form einer umfassenden Literaturstudie ein aktueller Kenntnisstand zu den Ein-satzmöglichkeiten des automatischen Klassifizierens für die sachliche Erschliessung von elektronischen Dokumenten, insbesondere von Web-Ressourcen, erarbeitet. Dies betrifft zum einen den methodischen Aspekt und zum anderen die in relevanten Projekten und Anwendungen gewonnenen Erfahrungen. In methodischer Hinsicht gelten heute statistische Verfahren, die auf dem maschinellen Lernen basieren und auf der Grundlage bereits klassifizierter Beispieldokumente ein Modell - einen "Klassifikator" - erstellen, das zur Klassifizierung neuer Dokumente verwendet werden kann, als "state-of-the-art". Die vier in den 1990er Jahren an den Universitäten Lund, Wolverhampton und Oldenburg sowie bei OCLC (Dublin, OH) durchgeführten "grossen" Projekte zum automatischen Klassifizieren von Web-Ressourcen, die in dieser Arbeit ausführlich analysiert werden, arbeiteten allerdings noch mit einfacheren bzw. älteren methodischen Ansätzen. Diese Projekte bedeuten insbesondere aufgrund ihrer Verwendung etablierter bibliothekarischer Klassifikationssysteme einen wichtigen Erfahrungsgewinn, selbst wenn sie bisher nicht zu permanenten und qualitativ zufriedenstellenden Diensten für die Erschliessung elektronischer Ressourcen geführt haben. Die Analyse der weiteren einschlägigen Anwendungen und Projekte lässt erkennen, dass derzeit in den Bereichen Patent- und Mediendokumentation die aktivsten Bestrebungen bestehen, Systeme für die automatische klassifikatorische Erschliessung elektronischer Dokumente im laufenden operativen Betrieb einzusetzen. Dabei dominieren jedoch halbautomatische Systeme, die menschliche Bearbeiter durch Klassifizierungsvorschläge unterstützen, da die gegenwärtig erreichbare Klassifizierungsgüte für eine Vollautomatisierung meist noch nicht ausreicht. Weitere interessante Anwendungen und Projekte finden sich im Bereich von Web-Portalen, Suchmaschinen und (kommerziellen) Informationsdiensten, während sich etwa im Bibliothekswesen kaum nennenswertes Interesse an einer automatischen Klassifizierung von Büchern bzw. bibliographischen Datensätzen registrieren lässt. Die Studie schliesst mit einer Diskussion der wichtigsten Projekte und Anwendungen sowie einiger im Zusammenhang mit dem automatischen Klassifizieren relevanter Fragestellungen und Themen.
    Footnote
    Die am Anfang des Werkes gestellte Frage, ob »die Techniken des automatischen Klassifizierens heute bereits so weit [sind], dass damit grosse Mengen elektronischer Dokumente [-] zufrieden stellend erschlossen werden können? « (S. 13), beantwortet der Verfasser mit einem eindeutigen »nein«, was Salton und McGills Aussage von 1983, »daß einfache automatische Indexierungsverfahren schnell und kostengünstig arbeiten, und daß sie Recall- und Precisionwerte erreichen, die mindestens genauso gut sind wie bei der manuellen Indexierung mit kontrolliertem Vokabular « (Gerard Salton und Michael J. McGill: Information Retrieval. Hamburg u.a. 1987, S. 64 f.) kräftig relativiert. Über die Gründe, warum drei der großen Projekte nicht weiter verfolgt werden, will Oberhauser nicht spekulieren, nennt aber mangelnden Erfolg, Verlagerung der Arbeit in den beteiligten Institutionen sowie Finanzierungsprobleme als mögliche Ursachen. Das größte Entwicklungspotenzial beim automatischen Erschließen großer Dokumentenmengen sieht der Verfasser heute in den Bereichen der Patentund Mediendokumentation. Hier solle man im bibliothekarischen Bereich die Entwicklung genau verfolgen, da diese »sicherlich mittelfristig auf eine qualitativ zufrieden stellende Vollautomatisierung« abziele (S. 146). Oberhausers Darstellung ist ein rundum gelungenes Werk, das zum Handapparat eines jeden, der sich für automatische Erschließung interessiert, gehört."
  18. Liu, R.-L.: Context recognition for hierarchical text classification (2009) 0.01
    0.005799636 = product of:
      0.017398907 = sum of:
        0.017398907 = product of:
          0.034797814 = sum of:
            0.034797814 = weight(_text_:22 in 2760) [ClassicSimilarity], result of:
              0.034797814 = score(doc=2760,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.23214069 = fieldWeight in 2760, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2760)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 3.2009 19:11:54
  19. Pfeffer, M.: Automatische Vergabe von RVK-Notationen mittels fallbasiertem Schließen (2009) 0.01
    0.005799636 = product of:
      0.017398907 = sum of:
        0.017398907 = product of:
          0.034797814 = sum of:
            0.034797814 = weight(_text_:22 in 3051) [ClassicSimilarity], result of:
              0.034797814 = score(doc=3051,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.23214069 = fieldWeight in 3051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3051)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 8.2009 19:51:28
  20. Zhu, W.Z.; Allen, R.B.: Document clustering using the LSI subspace signature model (2013) 0.01
    0.005799636 = product of:
      0.017398907 = sum of:
        0.017398907 = product of:
          0.034797814 = sum of:
            0.034797814 = weight(_text_:22 in 690) [ClassicSimilarity], result of:
              0.034797814 = score(doc=690,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.23214069 = fieldWeight in 690, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=690)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    23. 3.2013 13:22:36