Search (38 results, page 1 of 2)

  • × theme_ss:"Automatisches Klassifizieren"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.08
    0.082734674 = product of:
      0.24820401 = sum of:
        0.2120298 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
          0.2120298 = score(doc=562,freq=2.0), product of:
            0.37726513 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.04449925 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.036174204 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
          0.036174204 = score(doc=562,freq=2.0), product of:
            0.15582879 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04449925 = queryNorm
            0.23214069 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
      0.33333334 = coord(2/6)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Bock, H.-H.: Datenanalyse zur Strukturierung und Ordnung von Information (1989) 0.07
    0.06602281 = product of:
      0.19806844 = sum of:
        0.1558652 = weight(_text_:klassifikation in 141) [ClassicSimilarity], result of:
          0.1558652 = score(doc=141,freq=6.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.6849835 = fieldWeight in 141, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0546875 = fieldNorm(doc=141)
        0.042203236 = weight(_text_:22 in 141) [ClassicSimilarity], result of:
          0.042203236 = score(doc=141,freq=2.0), product of:
            0.15582879 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04449925 = queryNorm
            0.2708308 = fieldWeight in 141, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0546875 = fieldNorm(doc=141)
      0.33333334 = coord(2/6)
    
    Pages
    S.1-22
    Series
    Studien zur Klassifikation; Bd.19
    Source
    Klassifikation und Ordnung. Tagungsband 12. Jahrestagung der Gesellschaft für Klassifikation, Darmstadt 17.-19.3.1988. Hrsg.: R. Wille
  3. Pfeffer, M.: Automatische Vergabe von RVK-Notationen mittels fallbasiertem Schließen (2009) 0.06
    0.056590986 = product of:
      0.16977295 = sum of:
        0.13359874 = weight(_text_:klassifikation in 3051) [ClassicSimilarity], result of:
          0.13359874 = score(doc=3051,freq=6.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.5871287 = fieldWeight in 3051, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.046875 = fieldNorm(doc=3051)
        0.036174204 = weight(_text_:22 in 3051) [ClassicSimilarity], result of:
          0.036174204 = score(doc=3051,freq=2.0), product of:
            0.15582879 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04449925 = queryNorm
            0.23214069 = fieldWeight in 3051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.046875 = fieldNorm(doc=3051)
      0.33333334 = coord(2/6)
    
    Abstract
    Klassifikation von bibliografischen Einheiten ist für einen systematischen Zugang zu den Beständen einer Bibliothek und deren Aufstellung unumgänglich. Bislang wurde diese Aufgabe von Fachexperten manuell erledigt, sei es individuell nach einer selbst entwickelten Systematik oder kooperativ nach einer gemeinsamen Systematik. In dieser Arbeit wird ein Verfahren zur Automatisierung des Klassifikationsvorgangs vorgestellt. Dabei kommt das Verfahren des fallbasierten Schließens zum Einsatz, das im Kontext der Forschung zur künstlichen Intelligenz entwickelt wurde. Das Verfahren liefert für jedes Werk, für das bibliografische Daten vorliegen, eine oder mehrere mögliche Klassifikationen. In Experimenten werden die Ergebnisse der automatischen Klassifikation mit der durch Fachexperten verglichen. Diese Experimente belegen die hohe Qualität der automatischen Klassifikation und dass das Verfahren geeignet ist, Fachexperten bei der Klassifikationsarbeit signifikant zu entlasten. Auch die nahezu vollständige Resystematisierung eines Bibliothekskataloges ist - mit gewissen Abstrichen - möglich.
    Date
    22. 8.2009 19:51:28
  4. Fuhr, N.: Klassifikationsverfahren bei der automatischen Indexierung (1983) 0.05
    0.0484813 = product of:
      0.2908878 = sum of:
        0.2908878 = weight(_text_:klassifikation in 7697) [ClassicSimilarity], result of:
          0.2908878 = score(doc=7697,freq=16.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            1.2783695 = fieldWeight in 7697, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0625 = fieldNorm(doc=7697)
      0.16666667 = coord(1/6)
    
    Abstract
    Nach einer kurzen Einführung in die Darmstädter Projekte WAI und AIR werden die folgenden Themen behandelt: Ein Ansatz zur automatischen Klassifikation. Statistische Relationen für die Klassifikation. Indexieren von Dokumenten als Spezialfall der automatischen Klassifikation. Klassifikation von Elementen der Relevanzbeschreibung. Klassifikation zur Verbesserung der Relevanzbeschreibungen. Automatische Dokumentklassifikation und Automatische Indexierung klassifizierter Dokumente. Das Projekt AIR wird in Zusammenarbeit mit der Datenbasis INKA-PHYS des Fachinformationszentrums Energie, Physik, Mathematik in Karlsruhe durchgeführt
    Series
    Studien zur Klassifikation; Bd.13
    Source
    Automatisierung in der Klassifikation. Proc. 7. Jahrestagung der Gesellschaft für Klassifikation (Teil 1), Königswinter, 5.-8.4.1983. Hrsg.: I. Dahlberg u.a
  5. Panyr, J.: Automatische Indexierung und Klassifikation (1983) 0.04
    0.038327836 = product of:
      0.229967 = sum of:
        0.229967 = weight(_text_:klassifikation in 7692) [ClassicSimilarity], result of:
          0.229967 = score(doc=7692,freq=10.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            1.0106399 = fieldWeight in 7692, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0625 = fieldNorm(doc=7692)
      0.16666667 = coord(1/6)
    
    Abstract
    Im Beitrag wird zunächst eine terminologische Klärung und Gliederung für drei Indexierungsmethoden und weitere Begriffe, die Konsistenzprobleme bei intellektueller Indexierung betreffen, unternommen. Zur automatichen Indexierung werden Extraktionsmethoden erläutert und zur Automatischen Klassifikation (Clustering) und Indexierung zwei Anwendungen vorgestellt. Eine enge Kooperation zwischen den Befürwortern der intellektuellen und den Entwicklern von automatischen Indexierungsverfahren wird empfohlen
    Series
    Studien zur Klassifikation; Bd.13
    Source
    Automatisierung in der Klassifikation. Proc. 7. Jahrestagung der Gesellschaft für Klassifikation (Teil 1), Königswinter, 5.-8.4.1983. Hrsg.: I. Dahlberg u.a
  6. Krauth, J.: Evaluation von Verfahren der automatischen Klassifikation (1983) 0.04
    0.038327836 = product of:
      0.229967 = sum of:
        0.229967 = weight(_text_:klassifikation in 111) [ClassicSimilarity], result of:
          0.229967 = score(doc=111,freq=10.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            1.0106399 = fieldWeight in 111, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0625 = fieldNorm(doc=111)
      0.16666667 = coord(1/6)
    
    Abstract
    Ein wichtiges Problem der automatischen Klassifikation ist die Frage der Bewertung der Ergebnisse von Klassifikationsverfahren. Hierunter fallen die Aspekte der Beurteilung der Güte von Klassifikationen, des Vergleichs von Klassifikationen, der Validität von Klassifikationen und der Stabilität von Klassifikationsverfahren. Es wird ein Überblick über die verschiedenen Ansätze gegeben
    Series
    Studien zur Klassifikation; Bd.13
    Source
    Automatisierung in der Klassifikation. Proc. 7. Jahrestagung der Gesellschaft für Klassifikation (Teil 1), Königswinter, 5.-8.4.1983. Hrsg.: I. Dahlberg u.a
  7. Panyr, J.: STEINADLER: ein Verfahren zur automatischen Deskribierung und zur automatischen thematischen Klassifikation (1978) 0.03
    0.034281455 = product of:
      0.20568873 = sum of:
        0.20568873 = weight(_text_:klassifikation in 5169) [ClassicSimilarity], result of:
          0.20568873 = score(doc=5169,freq=2.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.9039438 = fieldWeight in 5169, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.125 = fieldNorm(doc=5169)
      0.16666667 = coord(1/6)
    
  8. Fangmeyer, H.; Gloden, R.: Bewertung und Vergleich von Klassifikationsergebnissen bei automatischen Verfahren (1978) 0.03
    0.034281455 = product of:
      0.20568873 = sum of:
        0.20568873 = weight(_text_:klassifikation in 81) [ClassicSimilarity], result of:
          0.20568873 = score(doc=81,freq=8.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.9039438 = fieldWeight in 81, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0625 = fieldNorm(doc=81)
      0.16666667 = coord(1/6)
    
    Imprint
    Frankfurt : Gesellschaft für Klassifikation
    Series
    Studien zur Klassifikation; Bd.2
    Source
    Kooperation in der Klassifikation I. Proc. der Sekt.1-3 der 2. Fachtagung der Gesellschaft für Klassifikation, Frankfurt-Hoechst, 6.-7.4.1978. Bearb.: W. Dahlberg
  9. Bollmann, P.; Konrad, E.; Schneider, H.-J.; Zuse, H.: Anwendung automatischer Klassifikationsverfahren mit dem System FAKYR (1978) 0.03
    0.034281455 = product of:
      0.20568873 = sum of:
        0.20568873 = weight(_text_:klassifikation in 82) [ClassicSimilarity], result of:
          0.20568873 = score(doc=82,freq=8.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.9039438 = fieldWeight in 82, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0625 = fieldNorm(doc=82)
      0.16666667 = coord(1/6)
    
    Imprint
    Frankfurt : Gesellschaft für Klassifikation
    Series
    Studien zur Klassifikation; Bd.2
    Source
    Kooperation in der Klassifikation I. Proc. der Sekt.1-3 der 2. Fachtagung der Gesellschaft für Klassifikation, Frankfurt-Hoechst, 6.-7.4.1978. Bearb.: W. Dahlberg
  10. Schulze, U.: Erfahrungen bei der Anwendung automatischer Klassifizierungsverfahren zur Inhaltsanalyse einer Dokumentenmenge (1978) 0.03
    0.034281455 = product of:
      0.20568873 = sum of:
        0.20568873 = weight(_text_:klassifikation in 83) [ClassicSimilarity], result of:
          0.20568873 = score(doc=83,freq=8.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.9039438 = fieldWeight in 83, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0625 = fieldNorm(doc=83)
      0.16666667 = coord(1/6)
    
    Imprint
    Frankfurt : Gesellschaft für Klassifikation
    Series
    Studien zur Klassifikation; Bd.2
    Source
    Kooperation in der Klassifikation I. Proc. der Sekt.1-3 der 2. Fachtagung der Gesellschaft für Klassifikation, Frankfurt-Hoechst, 6.-7.4.1978. Bearb.: W. Dahlberg
  11. Bock, H.-H.: Automatische Klassifikation : theoretische und praktische Methoden zur Gruppierung und Strukturierung von Daten (Cluster-Analyse) (1974) 0.03
    0.034281455 = product of:
      0.20568873 = sum of:
        0.20568873 = weight(_text_:klassifikation in 7693) [ClassicSimilarity], result of:
          0.20568873 = score(doc=7693,freq=2.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.9039438 = fieldWeight in 7693, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.125 = fieldNorm(doc=7693)
      0.16666667 = coord(1/6)
    
  12. Panyr, J.: Automatische thematische Textklassifikation und ihre Interpretation in der Dokumentengrobrecherche (1980) 0.03
    0.033536855 = product of:
      0.20122112 = sum of:
        0.20122112 = weight(_text_:klassifikation in 100) [ClassicSimilarity], result of:
          0.20122112 = score(doc=100,freq=10.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.8843099 = fieldWeight in 100, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0546875 = fieldNorm(doc=100)
      0.16666667 = coord(1/6)
    
    Abstract
    Für die automatische Erschließung natürlich-sprachlicher Dokumente in einem Informationssystem wurde ein Verfahren zur automatischen thematischen hierarchischen Klassifikation der Texte entwickelt. Die dabei gewonnene Ordnungsstruktur (Begriffsnetz) wird beim Retrieval als Recherchehilfe engeboten. Die Klassifikation erfolgt in vier Stufen: Textindexierung, Prioritätsklassenbildung, Verknüpfung der begriffe und Vernetzung der Prioritätsklassen miteinander. Die so entstandenen Wichtigkeitsstufen sind die Hierarchieebenen der Klassifikation. Die während des Clusteringverfahrens erzeugten Begriffs- und Dokumenten-Gruppierungen bilden die Knoten des Klassifikationsnetzes. Die Verknüpfung zwischen den Knoten benachbarter Prioritätsklassen repräsentieren die Netzwege in diesem Netz. Die Abbildung der Suchfrage auf dieses Begriffsnetz wird zur Relevanzbeurteilung der wiedergewonnenen Texte benutzt
    Series
    Studien zur Klassifikation; Bd.9
    Source
    Wissensstrukturen und Ordnungsmuster. Proc. der 4. Fachtagung der Gesellschaft für Klassifikation, Salzburg, 16.-19.4.1980. Red.: W. Dahlberg
  13. Braun, T.: Dokumentklassifikation durch Clustering (o.J.) 0.03
    0.030300811 = product of:
      0.18180487 = sum of:
        0.18180487 = weight(_text_:klassifikation in 1671) [ClassicSimilarity], result of:
          0.18180487 = score(doc=1671,freq=4.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.79898095 = fieldWeight in 1671, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.078125 = fieldNorm(doc=1671)
      0.16666667 = coord(1/6)
    
    Abstract
    Beim Clustering werden Dokumente aufgrund von Ähnlichkeiten untereinander klassifiziert, im Gegensatz z.B. zur Klassifikation anhand einer Ontologie. Bei den gebräuchlichen Clusteringverfahren wird ein Dokument als die Menge seiner Wörter angesehen. Zur Bestimmung der Ähnlichkeit zwischen Dokumenten werden verschiedene Ähnlichkeitsmaße definiert.
    Source
    http://www.cl-ki.uni-osnabrueck.de/~bikini/Vortraege/Klassifikation/classif.html
  14. Walther, R.: Möglichkeiten und Grenzen automatischer Klassifikationen von Web-Dokumenten (2001) 0.03
    0.029996272 = product of:
      0.17997763 = sum of:
        0.17997763 = weight(_text_:klassifikation in 1562) [ClassicSimilarity], result of:
          0.17997763 = score(doc=1562,freq=8.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.7909508 = fieldWeight in 1562, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1562)
      0.16666667 = coord(1/6)
    
    Abstract
    Automatische Klassifikationen von Web- und andern Textdokumenten ermöglichen es, betriebsinterne und externe Informationen geordnet zugänglich zu machen. Die Forschung zur automatischen Klassifikation hat sich in den letzten Jahren intensiviert. Das Resultat sind verschiedenen Methoden, die heute in der Praxis einzeln oder kombiniert für die Klassifikation im Einsatz sind. In der vorliegenden Lizenziatsarbeit werden neben allgemeinen Grundsätzen einige Methoden zur automatischen Klassifikation genauer betrachtet und ihre Möglichkeiten und Grenzen erörtert. Daneben erfolgt die Präsentation der Resultate aus einer Umfrage bei Anbieterrfirmen von Softwarelösungen zur automatische Klassifikation von Text-Dokumenten. Die Ausführungen dienen der myax internet AG als Basis, ein eigenes Klassifikations-Produkt zu entwickeln
  15. Panyr, J.: Automatische Klassifikation und Information Retrieval : Anwendung und Entwicklung komplexer Verfahren in Information-Retrieval-Systemen und ihre Evaluierung (1986) 0.03
    0.025711093 = product of:
      0.15426655 = sum of:
        0.15426655 = weight(_text_:klassifikation in 32) [ClassicSimilarity], result of:
          0.15426655 = score(doc=32,freq=2.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.67795783 = fieldWeight in 32, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.09375 = fieldNorm(doc=32)
      0.16666667 = coord(1/6)
    
  16. Hoffmann, R.: Entwicklung einer benutzerunterstützten automatisierten Klassifikation von Web - Dokumenten : Untersuchung gegenwärtiger Methoden zur automatisierten Dokumentklassifikation und Implementierung eines Prototyps zum verbesserten Information Retrieval für das xFIND System (2002) 0.03
    0.02571109 = product of:
      0.15426654 = sum of:
        0.15426654 = weight(_text_:klassifikation in 4197) [ClassicSimilarity], result of:
          0.15426654 = score(doc=4197,freq=18.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.6779578 = fieldWeight in 4197, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.03125 = fieldNorm(doc=4197)
      0.16666667 = coord(1/6)
    
    Abstract
    Das unüberschaubare und permanent wachsende Angebot von Informationen im Internet ermöglicht es den Menschen nicht mehr, dieses inhaltlich zu erfassen oder gezielt nach Informationen zu suchen. Einen Lösungsweg zur verbesserten Informationsauffindung stellt hierbei die Kategorisierung bzw. Klassifikation der Informationen auf Basis ihres thematischen Inhaltes dar. Diese thematische Klassifikation kann sowohl anhand manueller (intellektueller) Methoden als auch durch automatisierte Verfahren erfolgen. Doch beide Ansätze für sich konnten die an sie gestellten Erwartungen bis zum heutigen Tag nur unzureichend erfüllen. Im Rahmen dieser Arbeit soll daher der naheliegende Ansatz, die beiden Methoden sinnvoll zu verknüpfen, untersucht werden. Im ersten Teil dieser Arbeit, dem Untersuchungsbereich, wird einleitend das Problem des Informationsüberangebots in unserer Gesellschaft erläutert und gezeigt, dass die Kategorisierung bzw. Klassifikation dieser Informationen speziell im Internet sinnvoll erscheint. Die prinzipiellen Möglichkeiten der Themenzuordnung von Dokumenten zur Verbesserung der Wissensverwaltung und Wissensauffindung werden beschrieben. Dabei werden unter anderem verschiedene Klassifikationsschemata, Topic Maps und semantische Netze vorgestellt. Schwerpunkt des Untersuchungsbereiches ist die Beschreibung automatisierter Methoden zur Themenzuordnung. Neben einem Überblick über die gebräuchlichsten Klassifikations-Algorithmen werden sowohl am Markt existierende Systeme sowie Forschungsansätze und frei verfügbare Module zur automatischen Klassifikation vorgestellt. Berücksichtigt werden auch Systeme, die zumindest teilweise den erwähnten Ansatz der Kombination von manuellen und automatischen Methoden unterstützen. Auch die in Zusammenhang mit der Klassifikation von Dokumenten im Internet auftretenden Probleme werden aufgezeigt. Die im Untersuchungsbereich gewonnenen Erkenntnisse fließen in die Entwicklung eines Moduls zur benutzerunterstützten, automatischen Dokumentklassifikation im Rahmen des xFIND Systems (extended Framework for Information Discovery) ein. Dieses an der technischen Universität Graz konzipierte Framework stellt die Basis für eine Vielzahl neuer Ideen zur Verbesserung des Information Retrieval dar. Der im Gestaltungsbereich entwickelte Lösungsansatz sieht zunächst die Verwendung bereits im System vorhandener, manuell klassifizierter Dokumente, Server oder Serverbereiche als Grundlage für die automatische Klassifikation vor. Nach erfolgter automatischer Klassifikation können in einem nächsten Schritt dann Autoren und Administratoren die Ergebnisse im Rahmen einer Benutzerunterstützung anpassen. Dabei kann das kollektive Benutzerverhalten durch die Möglichkeit eines Votings - mittels Zustimmung bzw. Ablehnung der Klassifikationsergebnisse - Einfluss finden. Das Wissen von Fachexperten und Benutzern trägt somit letztendlich zur Verbesserung der automatischen Klassifikation bei. Im Gestaltungsbereich werden die grundlegenden Konzepte, der Aufbau und die Funktionsweise des entwickelten Moduls beschrieben, sowie eine Reihe von Vorschlägen und Ideen zur Weiterentwicklung der benutzerunterstützten automatischen Dokumentklassifikation präsentiert.
  17. Pfeffer, M.: Automatische Vergabe von RVK-Notationen anhand von bibliografischen Daten mittels fallbasiertem Schließen (2007) 0.02
    0.022266459 = product of:
      0.13359874 = sum of:
        0.13359874 = weight(_text_:klassifikation in 558) [ClassicSimilarity], result of:
          0.13359874 = score(doc=558,freq=6.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.5871287 = fieldWeight in 558, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.046875 = fieldNorm(doc=558)
      0.16666667 = coord(1/6)
    
    Abstract
    Klassifikation von bibliografischen Einheiten ist für einen systematischen Zugang zu den Beständen einer Bibliothek und deren Aufstellung unumgänglich. Bislang wurde diese Aufgabe von Fachexperten manuell erledigt, sei es individuell nach einer selbst entwickelten Systematik oder kooperativ nach einer gemeinsamen Systematik. In dieser Arbeit wird ein Verfahren zur Automatisierung des Klassifikationsvorgangs vorgestellt. Dabei kommt das Verfahren des fallbasierten Schließens zum Einsatz, das im Kontext der Forschung zur künstlichen Intelligenz entwickelt wurde. Das Verfahren liefert für jedes Werk, für das bibliografische Daten vorliegen, eine oder mehrere mögliche Klassifikationen. In Experimenten werden die Ergebnisse der automatischen Klassifikation mit der durch Fachexperten verglichen. Diese Experimente belegen die hohe Qualität der automatischen Klassifikation und dass das Verfahren geeignet ist, Fachexperten bei der Klassifikationsarbeit signifikant zu entlasten. Auch die nahezu vollständige Resystematisierung eines Bibliothekskataloges ist - mit gewissen Abstrichen - möglich.
  18. Classification, automation, and new media : Proceedings of the 24th Annual Conference of the Gesellschaft für Klassifikation e.V., University of Passau, March 15 - 17, 2000 (2002) 0.02
    0.02142591 = product of:
      0.12855546 = sum of:
        0.12855546 = weight(_text_:klassifikation in 5997) [ClassicSimilarity], result of:
          0.12855546 = score(doc=5997,freq=8.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.5649649 = fieldWeight in 5997, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5997)
      0.16666667 = coord(1/6)
    
    RSWK
    Automatische Klassifikation / Kongress / Passau <2000>
    Series
    Proceedings of the ... annual conference of the Gesellschaft für Klassifikation e.V. ; 24)(Studies in classification, data analysis, and knowledge organization
    Subject
    Automatische Klassifikation / Kongress / Passau <2000>
  19. Automatische Klassifikation und Extraktion in Documentum (2005) 0.02
    0.018555384 = product of:
      0.1113323 = sum of:
        0.1113323 = weight(_text_:klassifikation in 3974) [ClassicSimilarity], result of:
          0.1113323 = score(doc=3974,freq=6.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.48927394 = fieldWeight in 3974, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3974)
      0.16666667 = coord(1/6)
    
    Content
    "LCI Comprend ist ab sofort als integriertes Modul für EMCs Content Management System Documentum verfügbar. LCI (Learning Computers International GmbH) hat mit Unterstützung von neeb & partner diese Technologie zur Dokumentenautomation transparent in Documentum integriert. Dies ist die erste bekannte Lösung für automatische, lernende Klassifikation und Extraktion, die direkt auf dem Documentum Datenbestand arbeitet und ohne zusätzliche externe Steuerung auskommt. Die LCI Information Capture Services (ICS) dienen dazu, jegliche Art von Dokument zu klassifizieren und Information daraus zu extrahieren. Das Dokument kann strukturiert, halbstrukturiert oder unstrukturiert sein. Somit können beispielsweise gescannte Formulare genauso verarbeitet werden wie Rechnungen oder E-Mails. Die Extraktions- und Klassifikationsvorschriften und die zu lernenden Beispieldokumente werden einfach interaktiv zusammengestellt und als XML-Struktur gespeichert. Zur Laufzeit wird das Projekt angewendet, um unbekannte Dokumente aufgrund von Regeln und gelernten Beispielen automatisch zu indexieren. Dokumente können damit entweder innerhalb von Documentum oder während des Imports verarbeitet werden. Der neue Server erlaubt das Einlesen von Dateien aus dem Dateisystem oder direkt von POPS-Konten, die Analyse der Dokumente und die automatische Erzeugung von Indexwerten bei der Speicherung in einer Documentum Ablageumgebung. Diese Indexwerte, die durch inhaltsbasierte, auch mehrthematische Klassifikation oder durch Extraktion gewonnen wurden, werden als vordefinierte Attribute mit dem Documentum-Objekt abgelegt. Handelt es sich um ein gescanntes Dokument oder ein Fax, wird automatisch die integrierte Volltext-Texterkennung durchgeführt."
  20. Helmbrecht-Schaar, A.: Entwicklung eines Verfahrens der automatischen Klassifizierung für Textdokumente aus dem Fachbereich Informatik mithilfe eines fachspezifischen Klassifikationssystems (2007) 0.02
    0.018180488 = product of:
      0.10908292 = sum of:
        0.10908292 = weight(_text_:klassifikation in 1410) [ClassicSimilarity], result of:
          0.10908292 = score(doc=1410,freq=4.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.4793886 = fieldWeight in 1410, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.046875 = fieldNorm(doc=1410)
      0.16666667 = coord(1/6)
    
    Abstract
    In der vorliegenden Arbeit werden die Möglichkeiten für eine Automatisierung des Klassifizierens von Online Dokumenten evaluiert und ein mögliches Verfahren prototypisch implementiert. Dabei werden Verfahren der Terminologieextraktion angewandt, um die Sinnträger der Texte zu ermitteln. Klassifikationen, die im Allg. nur wenige weiterführende Informationen enthalten, sollen über einen Mapping Mechanismus auf die das Dokument beschreibenden Terme angewandt werden. Im Ansatz wird bereits sichtbar, dass es keine rein automatische Klassifikation geben kann, da es immer einen Bruch zwischen den intellektuell erstellten Klassifikationen und den aus den Texten generierten Informationen geben wird. Es wird ein semiautomatisches Verfahren vorgestellt, das durch Anwenderaktionen lernt und zu einer sukzessiven Automatisierung führen kann. Die Ergebnisse der semiautomatischen Klassifizierung werden mit denen einer manuellen verglichen. Im Anschluss wird ein Ausblick auf Möglichkeiten und Grenzen der automatischen Klassifikation gegeben.