Search (15 results, page 1 of 1)

  • × author_ss:"Panyr, J."
  1. Panyr, J.: Wissen und ein Ansatz zu seiner Taxonomie im Bereich der künstlichen Intelligenz (1986) 0.02
    0.01801833 = product of:
      0.054054987 = sum of:
        0.054054987 = weight(_text_:im in 1553) [ClassicSimilarity], result of:
          0.054054987 = score(doc=1553,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.37478244 = fieldWeight in 1553, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.09375 = fieldNorm(doc=1553)
      0.33333334 = coord(1/3)
    
  2. Panyr, J.: Thesauri, Semantische Netze, Frames, Topic Maps, Taxonomien, Ontologien - begriffliche Verwirrung oder konzeptionelle Vielfalt? (2006) 0.01
    0.01343007 = product of:
      0.04029021 = sum of:
        0.04029021 = weight(_text_:im in 6058) [ClassicSimilarity], result of:
          0.04029021 = score(doc=6058,freq=10.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.27934635 = fieldWeight in 6058, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=6058)
      0.33333334 = coord(1/3)
    
    Abstract
    Mit der Verbreitung des Internets und insbesondere mit der Einführung des Begriffes Semantic Web wurde eine Reihe von neuen Begriffen (Termini) für nicht immer neue Entwicklungen eingeführt, ohne dass die bisherige Begriffsbildung bzw. die schon angewandten Lösungen in benachbarten Fachgebieten hinreichend berücksichtigt wurden. Dabei wird manchmal der Eindruck erweckt, dass die populären Anwendungszweige der Informatik (oder auch der Informationswissenschaft) hauptsächlich durch wirksame Schlagworte gesteuert werden. Im deutschsprachigen Raum kommt auch noch die oftmals (vermeintlich) werbewirksame Verwendung der nicht übersetzten englischen Ausdrücke im Original oder als eingedeutschter Termini. Letzteres führt dabei nicht selten zur semantischen Verschiebungen der Bedeutung der ursprünglichen Begriffe. So z.B. wird das englische Wort concept (entspricht dem deutschen Wort Begriff) mit allen seinen Ableitungen (wie z.B. conceptualization - Verbegrifflichung, conceptual - begrifflich) in der eingedeutschten unübersetzten Form fälschlich verwendet, ohne dass diese Wortschöpfungen dabei näher erläutert werden. Es wird dadurch der Eindruck erweckt, dass etwas inhaltlich Neues eingeführt wird. Häufig werden diese Begriffe auch nebeneinander verwendet, wie z.B. in der Definition von Ontologie in der Internet-Enzyklopädie Wikipedia " ... System von Begriffen und/oder Konzepten und Relationen zwischen diesen Begriffen". In den zahlreichen Studien über die Ontologie wird auf die Möglichkeit ähnlicher Verwendung von Thesauri nicht eingegangen, sie existieren im Kontext der Veröffentlichung überhaupt nicht (vgl. z.B. die Studie von Smith (2003), die jedoch mit Bezug zu Philosophie gerade zu überfrachtet wird). In der folgenden Arbeit werden verwandte Repräsentationsarten, wie z.B. Thesaurus, semantisches Netz, Frames, Themenkarten (Topic Maps) und Ontologie definiert. Die Gemeinsamkeiten dieser Repräsentationsformen werden dabei im Vordergrund stehen. Die in der Literatur häufig betonten Unterschiede sind manchmal aus der Unkenntnis der theoretischen Basis dieser Ansätze abzuleiten. Eine Koexistenz jeweiliger Repräsentation ist vonnöten. Im Vordergrund des Aufsatzes steht die mögliche Wechselwirkung zwischen Ontologien und Thesauri.
  3. Panyr, J.: Automatische Indexierung und Klassifikation (1983) 0.01
    0.01201222 = product of:
      0.03603666 = sum of:
        0.03603666 = weight(_text_:im in 7692) [ClassicSimilarity], result of:
          0.03603666 = score(doc=7692,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.24985497 = fieldWeight in 7692, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=7692)
      0.33333334 = coord(1/3)
    
    Abstract
    Im Beitrag wird zunächst eine terminologische Klärung und Gliederung für drei Indexierungsmethoden und weitere Begriffe, die Konsistenzprobleme bei intellektueller Indexierung betreffen, unternommen. Zur automatichen Indexierung werden Extraktionsmethoden erläutert und zur Automatischen Klassifikation (Clustering) und Indexierung zwei Anwendungen vorgestellt. Eine enge Kooperation zwischen den Befürwortern der intellektuellen und den Entwicklern von automatischen Indexierungsverfahren wird empfohlen
  4. Panyr, J.: Technische Redaktion (2004) 0.01
    0.010617403 = product of:
      0.031852208 = sum of:
        0.031852208 = weight(_text_:im in 2941) [ClassicSimilarity], result of:
          0.031852208 = score(doc=2941,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.22084267 = fieldWeight in 2941, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2941)
      0.33333334 = coord(1/3)
    
    Abstract
    Der Bereitstellung, Verarbeitung und dem Austausch von Informationen kommt in der Informationsgesellschaft eine überragende Bedeutung zu. Dennoch wird der Effizienz und der Effektivität beim Umgang mit ihnen nur geringe Bedeutung beigemessen, besonders dann, wenn Informationen in der Dokumentform vorliegen. Es wird dabei in der Regel ein erheblicher Aufwand für die Darstellungvon Dokumenten (d.h. für Layout und Typografie), nicht aber für ihre inhaltlich logische Strukturierung geleistet. Das schlägt sich nieder in den zum Einsatz kommenden DTP-Werkzeugen (Desktop-Publishing-Werkzeuge) und -Formaten und findet im Boom der Web-basierten Informationsdistribution seine erneute Bestätigung. Besonders die Dokumentation von technischen Systemen (weiter als Technische Dokumentation bezeichnet) wurde bisher im Wertschöpfungsprozess eher als notwendiges Übel betrachtet. Die Strukturierung erfolgte mittels Layout auf der grafischen Ebene, nicht aber auf der logisch semantischen Ebene. Die entsprechenden Anwendungen setzten in der Regel weiter auf das alte gesamtdokument- bzw präsentations- und seitenorientierte Paradigma auf. Dieses Paradigma ist bei der Erstellung der Technischen Dokumentation weiter präsent, darüberhinaus setzen sich neuere Ansätze zunehmend durch, die auf der Trennung von Inhalt und Layout basieren und somit eine effizientere und konsistentere Redaktion und Produktion der Technischen Dokumentation ermöglichen. Die nächsten Betrachtungen behandeln zwar die beiden Paradigmen, jedoch priorisieren sie das zuletzt genannte. Sie stellen keinen Redaktionsleitfaden dar, sie versuchen lediglich auf wichtige methodische Aspekte der Technischen Redaktion stichwortartig hinzuweisen.
  5. Panyr, J.: Automatische Klassifikation und Information Retrieval : Anwendung und Entwicklung komplexer Verfahren in Information-Retrieval-Systemen und ihre Evaluierung (1986) 0.01
    0.009726323 = product of:
      0.02917897 = sum of:
        0.02917897 = product of:
          0.08753691 = sum of:
            0.08753691 = weight(_text_:retrieval in 32) [ClassicSimilarity], result of:
              0.08753691 = score(doc=32,freq=4.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.5671716 = fieldWeight in 32, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.09375 = fieldNorm(doc=32)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
  6. Panyr, J.: ¬Die Theorie der Fuzzy-Mengen und Information-Retrieval-Systeme (1986) 0.01
    0.009170066 = product of:
      0.027510196 = sum of:
        0.027510196 = product of:
          0.08253059 = sum of:
            0.08253059 = weight(_text_:retrieval in 788) [ClassicSimilarity], result of:
              0.08253059 = score(doc=788,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.5347345 = fieldWeight in 788, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.125 = fieldNorm(doc=788)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
  7. Panyr, J.: Information Retrieval Systeme : state of the art (1987) 0.01
    0.009170066 = product of:
      0.027510196 = sum of:
        0.027510196 = product of:
          0.08253059 = sum of:
            0.08253059 = weight(_text_:retrieval in 5145) [ClassicSimilarity], result of:
              0.08253059 = score(doc=5145,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.5347345 = fieldWeight in 5145, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.125 = fieldNorm(doc=5145)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
  8. Panyr, J.: Vektorraum-Modell und Clusteranalyse in Information-Retrieval-Systemen (1987) 0.01
    0.00794151 = product of:
      0.023824528 = sum of:
        0.023824528 = product of:
          0.07147358 = sum of:
            0.07147358 = weight(_text_:retrieval in 2322) [ClassicSimilarity], result of:
              0.07147358 = score(doc=2322,freq=6.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.46309367 = fieldWeight in 2322, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2322)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Ausgehend von theoretischen Indexierungsansätzen wird das klassische Vektorraum-Modell für automatische Indexierung (mit dem Trennschärfen-Modell) erläutert. Das Clustering in Information-Retrieval-Systemem wird als eine natürliche logische Folge aus diesem Modell aufgefaßt und in allen seinen Ausprägungen (d.h. als Dokumenten-, Term- oder Dokumenten- und Termklassifikation) behandelt. Anschließend werden die Suchstrategien in vorklassifizierten Dokumentenbeständen (Clustersuche) detailliert beschrieben. Zum Schluß wird noch die sinnvolle Anwendung der Clusteranalyse in Information-Retrieval-Systemen kurz diskutiert
  9. Panyr, J.: Information-Retrieval-Methoden in regelbasierten Expertensystemen (1990) 0.01
    0.006877549 = product of:
      0.020632647 = sum of:
        0.020632647 = product of:
          0.06189794 = sum of:
            0.06189794 = weight(_text_:retrieval in 260) [ClassicSimilarity], result of:
              0.06189794 = score(doc=260,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.40105087 = fieldWeight in 260, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.09375 = fieldNorm(doc=260)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
  10. Panyr, J.: Objektzentrierte Wissensrepräsentation und Information-Retrieval-Methoden (1992) 0.01
    0.006877549 = product of:
      0.020632647 = sum of:
        0.020632647 = product of:
          0.06189794 = sum of:
            0.06189794 = weight(_text_:retrieval in 8830) [ClassicSimilarity], result of:
              0.06189794 = score(doc=8830,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.40105087 = fieldWeight in 8830, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.09375 = fieldNorm(doc=8830)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
  11. Panyr, J.: Relevanzproblematik in Information-Retrieval-Systemen (1986) 0.01
    0.0064842156 = product of:
      0.019452646 = sum of:
        0.019452646 = product of:
          0.058357935 = sum of:
            0.058357935 = weight(_text_:retrieval in 5178) [ClassicSimilarity], result of:
              0.058357935 = score(doc=5178,freq=4.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.37811437 = fieldWeight in 5178, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5178)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Relevanzproblematik gehört zu den Schlüsselthemen der Theorie und Praxis der Information-Retrieval-Systeme. Ausgehend vom probabilistischen Relevanzbegriff wird versucht, die verschiedenen Relevanzauffassungen (d.h. Relevanzgrad, Relevanzwahrscheinlichkeit bzw. Pertinenzbewertung) in ein gemeinsames Schema einzuordnen. Dabei wird auf die verschiedenen Arten der Relevanzbeurteilungen, die die Basis für die unterschiedlichen Relevanzauffassungen bilden, sowie auf die Bedeutung des Relevanzbegriffs in sog. wissensbasierten Systemen kurz eingegangen. Als die geeignete Vorgehensweise, die die verschiedenen Relevanzauffassungen zu vereinigen ermöglicht, wird eine interaktive Relevanzfeedback-Strategie betrachtet
  12. Panyr, J.: Vom Wissen zur Information : Notwendigkeit der Kooperation der Fachleute aus dem Bereich der Informations-Retrieval-Systeme und der Systeme mit formaler Intelligenz (1988) 0.01
    0.005731291 = product of:
      0.017193872 = sum of:
        0.017193872 = product of:
          0.051581617 = sum of:
            0.051581617 = weight(_text_:retrieval in 768) [ClassicSimilarity], result of:
              0.051581617 = score(doc=768,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.33420905 = fieldWeight in 768, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.078125 = fieldNorm(doc=768)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
  13. Panyr, J.: Information retrieval techniques in rule-based expert systems (1991) 0.00
    0.0049634436 = product of:
      0.014890331 = sum of:
        0.014890331 = product of:
          0.04467099 = sum of:
            0.04467099 = weight(_text_:retrieval in 3036) [ClassicSimilarity], result of:
              0.04467099 = score(doc=3036,freq=6.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.28943354 = fieldWeight in 3036, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3036)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Abstract
    In rule-based expert systems knowledge is represented in an IF-THEN form: IF <set of conditions> THEN <decision>. A limited subset of natural language - supplemented by specified relations and operators - is used to formulate the rules. Rule syntax is simple. This makes it easy to acquire knowledge through an expert and permits plausibility checks on the knowledge base without the expert having knowledge of the implementation language or details of the system. A number of steps are used to to select suitable rules during the rule-matching process. It is noteworthy that rules are well structured documents for an information retrieval system, particularly since the number of rules in a rule-based system remains manageable. In this paper it will be shown that this permits automatic processing of the rule set by methods of information retrieval (i.e. automatic indexing and automatic classification of rules, automatic thesaurus construction to the knowledge base). A knowledge base which is processed and structured in this fashion allows use of a complex application-specific search strategy and hence an efficient and effective realization of reasoning mechanisms
  14. Panyr, J.: Probabilistische Modelle in Information-Retrieval-Systemen (1986) 0.00
    0.004585033 = product of:
      0.013755098 = sum of:
        0.013755098 = product of:
          0.041265294 = sum of:
            0.041265294 = weight(_text_:retrieval in 1460) [ClassicSimilarity], result of:
              0.041265294 = score(doc=1460,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.26736724 = fieldWeight in 1460, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1460)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
  15. Panyr, J.: Automatische thematische Textklassifikation und ihre Interpretation in der Dokumentengrobrecherche (1980) 0.00
    0.004011904 = product of:
      0.012035711 = sum of:
        0.012035711 = product of:
          0.03610713 = sum of:
            0.03610713 = weight(_text_:retrieval in 100) [ClassicSimilarity], result of:
              0.03610713 = score(doc=100,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.23394634 = fieldWeight in 100, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=100)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Für die automatische Erschließung natürlich-sprachlicher Dokumente in einem Informationssystem wurde ein Verfahren zur automatischen thematischen hierarchischen Klassifikation der Texte entwickelt. Die dabei gewonnene Ordnungsstruktur (Begriffsnetz) wird beim Retrieval als Recherchehilfe engeboten. Die Klassifikation erfolgt in vier Stufen: Textindexierung, Prioritätsklassenbildung, Verknüpfung der begriffe und Vernetzung der Prioritätsklassen miteinander. Die so entstandenen Wichtigkeitsstufen sind die Hierarchieebenen der Klassifikation. Die während des Clusteringverfahrens erzeugten Begriffs- und Dokumenten-Gruppierungen bilden die Knoten des Klassifikationsnetzes. Die Verknüpfung zwischen den Knoten benachbarter Prioritätsklassen repräsentieren die Netzwege in diesem Netz. Die Abbildung der Suchfrage auf dieses Begriffsnetz wird zur Relevanzbeurteilung der wiedergewonnenen Texte benutzt