Search (804 results, page 41 of 41)

  • × language_ss:"d"
  • × year_i:[1990 TO 2000}
  1. Wagner, K. (Bearb.); Ulrike Adamek, U. (Red.); Gerd Fenner, G. (Red.); Heike Heinzel, H. (Red.); Alexander Link, A. (Red.); Reher, U. (Red.): Systematik zur Inventarisierung kulturgeschichtlicher Bestände in Museen (1993) 0.00
    3.9698763E-4 = product of:
      0.0027789134 = sum of:
        0.0027789134 = product of:
          0.013894566 = sum of:
            0.013894566 = weight(_text_:system in 4015) [ClassicSimilarity], result of:
              0.013894566 = score(doc=4015,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.1217929 = fieldWeight in 4015, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4015)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    Zur Erfassung ihrer Bestände gehen viele Museen auch heute noch den konventionellen Weg und legen gegliederte Bestandskarteien an. Wer sich dabei nicht auf das Klassifikationssystem des Schweizer Museumswissenschaftlers Walter Trachsler stützen möchte, steht gewöhnlich vor einem Vakuum Ihm bleiben zwei Möglichkeiten: Entweder die Erarbeitung eigener, auf den Bestand bezogener Ordnungskriterien oder die Übernahme von Systematiken anderer Museen, die zunächst auf die eigene Sammlung zugeschnitten werden müssen. Der erste Weg ist sinnvoll, doch wird er in der Praxis selten beschritten. Die zweite Methode wird dagegen häufiger praktiziert. Doch mancher, der diesen Weg gegangen ist, wird in einer Sackgasse steckengeblieben sein. Denn Aufbau und Struktur bestandsbezogener Ordungssystenie lassen Änderungen, Erweiterungen und Einschübe oftmals nicht zu So kann ein undurchschaubares System von Begriffen und Zahlen entstehen, das dann doch irgendwann einer kompletten Neuordnung bedarf. Mit der Einstellung einer wissenschaftlichen Mitarbeiterin im Rahmen des "Sonderprogramms Inventarisierung" des Hessischen Museumsverbandes wurde die Erarbeitung eines Klassifikationssystems realisierbar. Es sollte eine benutzerfreundliche Inventarisierungsvorlage für eine Hauptkartei geschaffen werden, die in ihrer Struktur übersichtlich und nachvollziehbar ist. Es war ein steiniger Weg, der da beschritten wurde. Inventarverzeichnisse und Ordnungskriterien unterschiedlicher Museen wurden beschafft und durchgearbeitet, Museumsdepots nach ihren Sammlungsbeständen durchforstet, Experten befragt, Literatur zu Rate gezogen und erste Gliederungsversuche zu Papier gebracht. Daraus entwickelten sich Grundzüge, die dann zu einer dreistufigen, hierarchischen Ordnung ausgearbeitet wurden. Ein wichtiges Ziel war es, in allen hierarchischen Ebenen Ergänzungsmöglichkeiten für weitere Bestände zu schaffen. Alle Bereiche wurden in einer wissenschaftlichen Arbeitsgruppe ständig beraten, verändert, in mehreren Museen getestet und neu gefaßt. Das Ergebnis dieser mehr als zweijährigen Arbeit liegt nun vor. Wir hoffen, daß die Systematik als willkommene Hilfe zur Inventarisierung in den Museen angenommen wird und dazu beiträgt, den kulturhistorischen Fundus unseres Landes zu dokumentieren.
  2. Bexte, P.; Künzel, W.: Allwissen und Absturz : der Ursprung des Computers (1993) 0.00
    3.9698763E-4 = product of:
      0.0027789134 = sum of:
        0.0027789134 = product of:
          0.013894566 = sum of:
            0.013894566 = weight(_text_:system in 722) [ClassicSimilarity], result of:
              0.013894566 = score(doc=722,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.1217929 = fieldWeight in 722, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=722)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    Kaum eine Wissenschaft der Neuzeit dürfte so geschichtslos angetreten sein wie die Computertheorie. Die simulierte Gleichzeitigkeit alles je Geschriebenen, die der Bildschirm erzeugt, scheint die Beschäftigung mit der Historie abzuschaffen. Das System schluckt die Geschichte und läßt so vergessen, daß es seinerseits eine solche hat. Uns aber hat sie nicht mehr losgelassen, seit wir vor Jahren an an die Schriften des mittelalterlichen Theologikers Raimundus Lullus gerieten. Seine logischen Modelle haben wir in die Computersprachen Cobol sowie Assembler übertragen und sie in einen Berliner Großrechner eingegeben. So entstand aus einer bloßen Übersetzung das ablauffähige Programm "Ars Magna. Author: Raimundus Lullus, um 1300". Dieser älteste Systementwurf war uns der Tigersprung in das Vergangene, der das Kontinuum der Geschichtslosigkeit aufsprengt. Im Kurzschluß von Jetztzeit und Vergangenheit glühen Verbindungen auf, die scheinbar Bekanntes in neuem Licht erscheinen lassen. Daß die Elektronenhirne einen solch direkten Draht zu mittelalterlichen Gottesbeweisen haben, verlangt nach einer Spurensicherung neuer Art, nach einer besonderen Archäologie des Immateriellen. Die Spur führt auf ein ungesichertes Terrain, auf verschüttete Pfade durch zerbrochene Buchstäblichkeiten, die keine Kabbala mehr zusammenhält. Vertraute Oppositionsbegriffe, die den Dingen eine neuzeitliche Ordnung geben würden, wie Wissenschaft/Kunst, Subjekt/Objekt, Religion/Technik, greifen hier nicht mehr. Hier bedarf es einer anderen Lektüre. Und in solcher Überschreitung zeigen uns die alten Texte plötzlich die Spuren des Neuen. Die von Raimundus Lullus ab 1275 entwickelte Logik ist Gestalt geworden Kosmologie. Sie verkörpert Offenbarungswissen, demonstriert die Logik des Universums. In ihrem kombinatorischen Verfahren sind Gottesbeweis und Maschinenbau identisch, sie fallen zusammen, bilden keine Gegensätze. Mit ihr wird ein Feld eröffnet, das sich nicht durch Widersprüche strukturiert, sondern durch hemmungslose Kommunikation von anderweitig Getrenntem. Alles folgt hier ein und derselben Logik, einer Ars Combinatoria, die durch alle Bereiche geht. Sie durchmißt die gesamte Stufenleiter des Seins, von den Steinen, Pflanzen, Tieren, über Menschen, Himmel, Engel bis hinauf zu Gott und wieder hinab. So verbindet diese Logik Himmel und Erde, Asien und Europa, medizinischen und juristischen Körper, Musik und die Quadratur des Kreises etc. Diese Kombinatorik leistet also, was der Mythos älteren Kulturen bot: die Verknüpfung von allem mit allem. So entstehen Netzwerke, als deren ältester Programmierer sich Raimundus Lullus erweist. Seine Ars Magna liefert uns die Basis-Algorithmen, seine Tafeln geben uns den Code des Universums. Hierin berührt er sich mit einer Theorie des Universums als "big computer", wie kein Geringerer als Konrad Zuse sie in unseren Tagen vorgekegt hat. Lullus war der erste Hacker in den himmlischen Datenbanken.
  3. Neisser, U.: Kognition und Wirklichkeit : Prinzipien und Implikationen der kognitiven Psychologie (1996) 0.00
    2.8356258E-4 = product of:
      0.001984938 = sum of:
        0.001984938 = product of:
          0.00992469 = sum of:
            0.00992469 = weight(_text_:system in 5905) [ClassicSimilarity], result of:
              0.00992469 = score(doc=5905,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.08699492 = fieldWeight in 5905, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5905)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Content
    "Was hat uns Ulric NEISSER nach seinem klassischen Forschungsbericht über die Wahrnehmungs- und Kognitionsforschung von 1967 (deutsch 1974) in diesem schmalen Band noch zu sagen? Nachträge? Korrekturen? Wenig oder nichts von alledem! Der Untertitel des neuen Buches sagt es treffend: NEISSER hat über die Prinzipien und Implikationen des Wahrnehmungs- und Erkenntnisgeschehens nachgedacht. "Kognition und Wirklichkeit" ist ein philosophisches Buch. Aber es bewegt sich nicht in der dünnen Luft der Abstraktionen, fliegt nicht rasch vom Boden der Wirklichkeit in verbale Höhen auf, sondern bewegt sich nahe an den Phänomenen - und an den Experimenten. So hatte es Francis BACON im Novum Organum gewünscht! Es geht auch in diesem Buch vor allem um die Wahrnehmung. Aber es ist nicht die Wahrnehmung jener hoch sophistizierten und doch naiven Experimentalpsychologie, die in der Versuchsperson vor dem Tachistoskop nur ein optisches System, eine Netzhaut und ein Sehzentrum sieht: eine camera obscura plus Registratur sozusagen. NEISSER wird nicht müde, die Enge, die Unnatürlichkeit. die mangelnde ökologische Validität und daher die Falschheit dieses Paradigmas zu betonen. Wahrnehmung ist eine Tätigkeit. Der Mensch bemächtigt sich der Gegebenheiten der Wahrnehmung. Die Informationsverarbeitung ist der Wahrnehmung nicht nachgeordnet. Wahrnehmung ist Informationsverarbeitung. Sie hat ihre Werkzeuge. NEISSER nennt sie mit BARTLETT und PIAGET Schemata. Ohne sie sieht der Mensch nichts. Aber sie sind dem Menschen. mit Ausnahme von einigen einfachen Analysatoren und elementaren Strukturen, nicht angeboren. Er haut sie in lebenslangen Lernprozessen auf. Darum sind die Begriffe des Wahrnehmungslernens, der Wahrnehmungserfahrung und - als ihr Ergebnis - derjenige des tüchtigen (skilled) Wahrnehmers zentrale Begriffe in diesem Buch. Der tüchtige Wahrnehmer geht nicht mit leeren Händen an das Geschäft des Erkundens der Welt. Er weiß, was in einer Situation zu erwarten ist. Er antizipiert das kommende Geschehen und die Merkmale, die er noch nicht sieht. Er gleicht einem Handelnden, der einen Plan hat und sich aufgrund einer kognitiven Landkarte bewegt. Was er sieht, hat einen "Rahmen" (frank), der mehr enthält als das unmittelbar Gegebene. Das bedeutet nicht, daß er alles schon weiß. NEISSER vertritt keine Theorie der angeborenen Ideen. Das Schema ist nicht die Sache. Was schematisch ist, bedarf der Spezifikation, der Rahmen muß gefüllt werden. Erwartungen, Antizipationen können auch enttäuscht werden. Die Wahrnehmungsschemata verändern sieh zudem im Zuge des Wahrnehmens. Daher spricht NEISSER von Wahrnehmungszyklen, von einem "zyklischen Fluß zwischen Schema und Informationsaufnahme". In diesem Geschehen spielen die Bewegungen des Wahrnehmen, eine zentrale Rolle. Darum ist es so unnatürlich, ihn vor einem Tachistoskop zu fixieren. Wenn er eine Statue oder ein Motorenmodell betrachtet, geht er um den Gegenstand herum. Ein neues Schmuckstück dreht und wendet er in seinen Händen. Fr tut dies, weil er im Zusammenspiel der Sinne Information gewinnt, die das statische Netzhautbild nie liefern würde.
  4. Rieger, B.B.: Unscharfe Semantik : die empirische Analyse, quantitative Beschreibung, formale Repräsentation und prozedurale Modellierung vager Wortbedeutungen in Texten (1990) 0.00
    2.8356258E-4 = product of:
      0.001984938 = sum of:
        0.001984938 = product of:
          0.00992469 = sum of:
            0.00992469 = weight(_text_:system in 209) [ClassicSimilarity], result of:
              0.00992469 = score(doc=209,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.08699492 = fieldWeight in 209, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=209)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    Die im zweiten Teil der Arbeit vorgestellte empirische Rekonstruktion von Wortbedeutungen als semantische Dispositionen unternimmt es, das Format stereotypischer Repräsentationen und die Möglichkeiten prozeduraler Bedeutungsbeschreibung zu verbinden mit empirisch-quantitativen Verfahren der Textanalyse. Hierzu wird zunächst der Rahmen eines (re-)konstruktiven Ansatzes prozeduraler Semantik skizziert (Kapitel VI) in dem die Konzeptionen der Dispositionsstruktur, der Frame-Theorie und der prototypischen Bedeutungsrepräsentation in ihren relevanten Aspekten diskutiert werden. Sie begründen ein auf dem Gebrauch von Wörtern in Texten aufgebautes Modell assoziativ strukturierten Bedeutungs- und Welt-Wissens, dessen formale Entwicklung (Kapitel VII) auf der Theorie der unscharfen (fuzzy) Mengen sowie der daraus abgeleiteten Referenzsemantiken basiert. Im Unterschied dazu (Kapitel VIII) bietet die statistische Analyse der Verwendungsregularitäten lexikalischer Einheiten in sprachlichen Texten die Möglichkeit eines empirischen Ansatzes der quantitativen Beschreibung von Wortbedeutungen als System. Diese (metrische) Raumstruktur des semantischen Raums gestattet es, seine Bedeutungselemente so zu repräsentieren, daß deren Positionen semantische Ähnlichkeiten darstellen. Auf ihnen können die Prozeduren (Kapitel IX) operieren, welche die Bedeutung eines sprachlichen Terms algorithmisch als eine Abhängigkeitsstruktur von relevanten Bedeutungselementen generieren. Sie liefert die - je nach variierenden Wissensbasen, Kontexten und Aspekten - unterschiedlichen, dabei veränderlichen semantischen Dispositionen. Diese können als Grundlage gelten nicht nur für eine perspektivische je nach inhaltlichem Aspekt varierende Abhängigkeits- und Relevanz-Beziehung zwischen Bedeutungskomponenten, wodurch gleichen Lexemen unterschiedliche Bedeutungen und/oder Interpretationen zugewiesen werden, sondern diese dynamischen und Aspekt-abhängigen Relevanzstrukturen können darüber hinaus auch - ähnlich den Mengen- und Begriffs-hierarchischen Beziehungen bei logisch-deduktiven Schlußprozessen - als Grundlage gelten für eine durch Inhalte gesteuerte algorithmische Simulation analog-assoziativer Folgerungen. Beispiele aus der Untersuchung eines Corpus deutscher Zeitungstexte veranschaulichen abschließend die in dem hier beschriebenen und vorgestellten computerlinguistischen Analysesystem entwickelten Verfahren und Mechanismen.

Types

Themes

Subjects

Classifications