Search (4 results, page 1 of 1)

  • × author_ss:"Panyr, J."
  • × year_i:[1980 TO 1990}
  1. Panyr, J.: Automatische Indexierung und Klassifikation (1983) 0.01
    0.0074122213 = product of:
      0.037061106 = sum of:
        0.037061106 = weight(_text_:den in 7692) [ClassicSimilarity], result of:
          0.037061106 = score(doc=7692,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.35827476 = fieldWeight in 7692, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=7692)
      0.2 = coord(1/5)
    
    Abstract
    Im Beitrag wird zunächst eine terminologische Klärung und Gliederung für drei Indexierungsmethoden und weitere Begriffe, die Konsistenzprobleme bei intellektueller Indexierung betreffen, unternommen. Zur automatichen Indexierung werden Extraktionsmethoden erläutert und zur Automatischen Klassifikation (Clustering) und Indexierung zwei Anwendungen vorgestellt. Eine enge Kooperation zwischen den Befürwortern der intellektuellen und den Entwicklern von automatischen Indexierungsverfahren wird empfohlen
  2. Panyr, J.: Probabilistische Modelle in Information-Retrieval-Systemen (1986) 0.01
    0.005241232 = product of:
      0.02620616 = sum of:
        0.02620616 = weight(_text_:den in 1460) [ClassicSimilarity], result of:
          0.02620616 = score(doc=1460,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.25333852 = fieldWeight in 1460, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=1460)
      0.2 = coord(1/5)
    
    Abstract
    Ausgehend vom probabilistischen Relevanzbegriff werden die wichtigsten Ansätze der probabilistischen Indexierungsstrategien (einschließlich der nutztheoretischen Indexierung) aufgezeigt und mit dem statistischen Indexierungsmodell von Harter verglichen. Das probabilistische Retrievalmodell, das auf der Termunabhängigkeitsannahme basiert, wird detailliert erklärt und in Kontrast zum Termunabhängigkeitsmodell gestellt. Dabei wird auf die Probleme der Bestimmung der in den o.g. Strategien vorgeschlagenen Termgewichte hingewiesen. Zum Schluß wird noch auf die Beziehung der behandelten probabilistischen Modelle kurz eingegangen
  3. Panyr, J.: Relevanzproblematik in Information-Retrieval-Systemen (1986) 0.01
    0.005241232 = product of:
      0.02620616 = sum of:
        0.02620616 = weight(_text_:den in 5178) [ClassicSimilarity], result of:
          0.02620616 = score(doc=5178,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.25333852 = fieldWeight in 5178, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=5178)
      0.2 = coord(1/5)
    
    Abstract
    Die Relevanzproblematik gehört zu den Schlüsselthemen der Theorie und Praxis der Information-Retrieval-Systeme. Ausgehend vom probabilistischen Relevanzbegriff wird versucht, die verschiedenen Relevanzauffassungen (d.h. Relevanzgrad, Relevanzwahrscheinlichkeit bzw. Pertinenzbewertung) in ein gemeinsames Schema einzuordnen. Dabei wird auf die verschiedenen Arten der Relevanzbeurteilungen, die die Basis für die unterschiedlichen Relevanzauffassungen bilden, sowie auf die Bedeutung des Relevanzbegriffs in sog. wissensbasierten Systemen kurz eingegangen. Als die geeignete Vorgehensweise, die die verschiedenen Relevanzauffassungen zu vereinigen ermöglicht, wird eine interaktive Relevanzfeedback-Strategie betrachtet
  4. Panyr, J.: Automatische thematische Textklassifikation und ihre Interpretation in der Dokumentengrobrecherche (1980) 0.00
    0.0045860778 = product of:
      0.02293039 = sum of:
        0.02293039 = weight(_text_:den in 100) [ClassicSimilarity], result of:
          0.02293039 = score(doc=100,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.2216712 = fieldWeight in 100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=100)
      0.2 = coord(1/5)
    
    Abstract
    Für die automatische Erschließung natürlich-sprachlicher Dokumente in einem Informationssystem wurde ein Verfahren zur automatischen thematischen hierarchischen Klassifikation der Texte entwickelt. Die dabei gewonnene Ordnungsstruktur (Begriffsnetz) wird beim Retrieval als Recherchehilfe engeboten. Die Klassifikation erfolgt in vier Stufen: Textindexierung, Prioritätsklassenbildung, Verknüpfung der begriffe und Vernetzung der Prioritätsklassen miteinander. Die so entstandenen Wichtigkeitsstufen sind die Hierarchieebenen der Klassifikation. Die während des Clusteringverfahrens erzeugten Begriffs- und Dokumenten-Gruppierungen bilden die Knoten des Klassifikationsnetzes. Die Verknüpfung zwischen den Knoten benachbarter Prioritätsklassen repräsentieren die Netzwege in diesem Netz. Die Abbildung der Suchfrage auf dieses Begriffsnetz wird zur Relevanzbeurteilung der wiedergewonnenen Texte benutzt