Search (5 results, page 1 of 1)

  • × theme_ss:"Automatisches Klassifizieren"
  • × year_i:[1980 TO 1990}
  1. Bock, H.-H.: Datenanalyse zur Strukturierung und Ordnung von Information (1989) 0.03
    0.028549463 = product of:
      0.08564839 = sum of:
        0.08564839 = sum of:
          0.04293885 = weight(_text_:von in 141) [ClassicSimilarity], result of:
            0.04293885 = score(doc=141,freq=6.0), product of:
              0.12014598 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.04503309 = queryNorm
              0.357389 = fieldWeight in 141, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0546875 = fieldNorm(doc=141)
          0.042709537 = weight(_text_:22 in 141) [ClassicSimilarity], result of:
            0.042709537 = score(doc=141,freq=2.0), product of:
              0.15769821 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04503309 = queryNorm
              0.2708308 = fieldWeight in 141, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=141)
      0.33333334 = coord(1/3)
    
    Abstract
    Aufgabe der Datenanalyse ist es, Daten zu ordnen, übersichtlich darzustellen, verborgene und natürlich Strukturen zu entdecken, die diesbezüglich wesentlichen Eigenschaften herauszukristallisieren und zweckmäßige Modelle zur Beschreibung von Daten aufzustellen. Es wird ein Einblick in die Methoden und Prinzipien der Datenanalyse vermittelt. Anhand typischer Beispiele wird gezeigt, welche Daten analysiert, welche Strukturen betrachtet, welche Darstellungs- bzw. Ordnungsmethoden verwendet, welche Zielsetzungen verfolgt und welche Bewertungskriterien dabei angewendet werden können. Diskutiert wird auch die angemessene Verwendung der unterschiedlichen Methoden, wobei auf die gefahr und Art von Fehlinterpretationen hingewiesen wird
    Pages
    S.1-22
  2. Krauth, J.: Evaluation von Verfahren der automatischen Klassifikation (1983) 0.01
    0.011566611 = product of:
      0.03469983 = sum of:
        0.03469983 = product of:
          0.06939966 = sum of:
            0.06939966 = weight(_text_:von in 111) [ClassicSimilarity], result of:
              0.06939966 = score(doc=111,freq=12.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.57762784 = fieldWeight in 111, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=111)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Ein wichtiges Problem der automatischen Klassifikation ist die Frage der Bewertung der Ergebnisse von Klassifikationsverfahren. Hierunter fallen die Aspekte der Beurteilung der Güte von Klassifikationen, des Vergleichs von Klassifikationen, der Validität von Klassifikationen und der Stabilität von Klassifikationsverfahren. Es wird ein Überblick über die verschiedenen Ansätze gegeben
  3. Fuhr, N.: Klassifikationsverfahren bei der automatischen Indexierung (1983) 0.01
    0.006677986 = product of:
      0.020033957 = sum of:
        0.020033957 = product of:
          0.040067915 = sum of:
            0.040067915 = weight(_text_:von in 7697) [ClassicSimilarity], result of:
              0.040067915 = score(doc=7697,freq=4.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.3334936 = fieldWeight in 7697, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=7697)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Nach einer kurzen Einführung in die Darmstädter Projekte WAI und AIR werden die folgenden Themen behandelt: Ein Ansatz zur automatischen Klassifikation. Statistische Relationen für die Klassifikation. Indexieren von Dokumenten als Spezialfall der automatischen Klassifikation. Klassifikation von Elementen der Relevanzbeschreibung. Klassifikation zur Verbesserung der Relevanzbeschreibungen. Automatische Dokumentklassifikation und Automatische Indexierung klassifizierter Dokumente. Das Projekt AIR wird in Zusammenarbeit mit der Datenbasis INKA-PHYS des Fachinformationszentrums Energie, Physik, Mathematik in Karlsruhe durchgeführt
  4. Panyr, J.: Vektorraum-Modell und Clusteranalyse in Information-Retrieval-Systemen (1987) 0.00
    0.0047220485 = product of:
      0.014166146 = sum of:
        0.014166146 = product of:
          0.028332291 = sum of:
            0.028332291 = weight(_text_:von in 2322) [ClassicSimilarity], result of:
              0.028332291 = score(doc=2322,freq=2.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.23581557 = fieldWeight in 2322, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2322)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Ausgehend von theoretischen Indexierungsansätzen wird das klassische Vektorraum-Modell für automatische Indexierung (mit dem Trennschärfen-Modell) erläutert. Das Clustering in Information-Retrieval-Systemem wird als eine natürliche logische Folge aus diesem Modell aufgefaßt und in allen seinen Ausprägungen (d.h. als Dokumenten-, Term- oder Dokumenten- und Termklassifikation) behandelt. Anschließend werden die Suchstrategien in vorklassifizierten Dokumentenbeständen (Clustersuche) detailliert beschrieben. Zum Schluß wird noch die sinnvolle Anwendung der Clusteranalyse in Information-Retrieval-Systemen kurz diskutiert
  5. Panyr, J.: Automatische Indexierung und Klassifikation (1983) 0.00
    0.0047220485 = product of:
      0.014166146 = sum of:
        0.014166146 = product of:
          0.028332291 = sum of:
            0.028332291 = weight(_text_:von in 7692) [ClassicSimilarity], result of:
              0.028332291 = score(doc=7692,freq=2.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.23581557 = fieldWeight in 7692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=7692)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Im Beitrag wird zunächst eine terminologische Klärung und Gliederung für drei Indexierungsmethoden und weitere Begriffe, die Konsistenzprobleme bei intellektueller Indexierung betreffen, unternommen. Zur automatichen Indexierung werden Extraktionsmethoden erläutert und zur Automatischen Klassifikation (Clustering) und Indexierung zwei Anwendungen vorgestellt. Eine enge Kooperation zwischen den Befürwortern der intellektuellen und den Entwicklern von automatischen Indexierungsverfahren wird empfohlen