Search (2 results, page 1 of 1)

  • × author_ss:"Czap, H."
  • × language_ss:"d"
  1. Czap, H.: Einführung in Wissensorganisation und Case-Based Reasoning (1996) 0.04
    0.037333336 = product of:
      0.07466667 = sum of:
        0.07466667 = product of:
          0.14933334 = sum of:
            0.14933334 = weight(_text_:d.h in 186) [ClassicSimilarity], result of:
              0.14933334 = score(doc=186,freq=2.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.5454829 = fieldWeight in 186, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.0625 = fieldNorm(doc=186)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    CBR ist eng gekoppelt mit Lernen, verstanden als Anreicherung von Wissen. Wissen wird unterteilt in Faktenwissen und Handhabungs-/Orientierungswissen. Letzteres verfügbar zu haben wird als primäres Ziel von Lernen und damit auch von CBR herausgearbeitet. Die Übertragbarkeitsproblematik, d.h. die Nutzung von gespeichertem Erfahrungswissen (alte Fälle und ihre Lösungen) zur Lösung neuer Problemstellungen wird an einem eingängigen Beispiel (Dunckers Bestrahlungsproblem illustriert). Abschließend wird der CBR-Zyklus kurz vorgestellt
  2. Czap, H.: Theorienbildung mittels Künstlich Neuronaler Netze vom Typ MLP (2000) 0.02
    0.023333333 = product of:
      0.046666667 = sum of:
        0.046666667 = product of:
          0.093333334 = sum of:
            0.093333334 = weight(_text_:d.h in 6661) [ClassicSimilarity], result of:
              0.093333334 = score(doc=6661,freq=2.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.3409268 = fieldWeight in 6661, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=6661)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Künstlich Neuronale Netze (KNN) vom Typ Multi-Layer-Perceptron (MILP) erlauben nach herrschender Literaturmeinung nicht, den Knoten der verborgenen Schicht eine spezifische Semantik zuzuordnen. Dieser Ansicht wurde vom Autor in [Czap 96] widersprochen. Danach kann die Clusterbildung der ersten verborgenen Schicht eines nachfolgend fehlerfreien Netzes einer spezifischen Interpretation zugänglich sein. An dem "Two-or-more-Clumps"-Problem, einem numerischen Beispiel, wird in Grundzügen ein Konstruktionsverfahren zur Bildung von KNNs angegeben, deren erste verborgene Schicht interpretiert werden kann, d.h. inhaltliche Relevanz besitzt. Im Sinne eines "Knowledge Discovery" wird an diesem Beispiel illustriert, dass KNN in der Lage sind, die in der Input-Output-Beziehung eines vorliegenden Datensamples implizit vorhandene Gesetzmäßigkeit zu erkennen und in eine dem menschlichen Verständnis zugängliche Repräsentation zu überführen. Zentraler Ansatzpunkt zur Ableitung der die Input-Output-Beziehung verursachenden Gesetzmäßigkeit ist die Bildung von Klassifizierungen im Merkmalsraum, wobei die entstehenden Cluster unmittelbar interpretierbar sind. Als eine zentrale Aufgabe von Wissensordnungen wird häufig die Unterteilung vorliegender Phänomene in geeignete Klassen verstanden. Dieser Beitrag zeigt, dass Klassenbildungen, die nach rein numerischen Gesichtspunkten mittels eines KNN erfolgen, unter gewissen Bedingungen - entscheidend sind Minimalität sowie nachfolgende Fehlerfreiheit des Netzes - durch den Menschen interpretierbar sind und somit einen wichtigen Beitrag zu einer Theorienbildung leisten können, auch wenn die Gesetzmäßigkeit, die die Input-Output-Beziehung verursacht, nicht bekannt ist. Vermutet wird, dass beliebige Verfahren zur Erstellung von KNN immer dann zu Clusterungen der Merkmalssätze im Input-Raum fuhren, die inhaltliche Aussagen gestatten, wenn die Anzahl der entstehenden Cluster minimal ist und mögliche Abbildungsfehler ausschließlich durch die Clusterbildung bedingt sind