Search (2514 results, page 1 of 126)

  • × year_i:[2000 TO 2010}
  1. dpa: Speicher für eine universelle Grammatik (2003) 0.23
    0.22897038 = product of:
      0.45794076 = sum of:
        0.44548547 = weight(_text_:grammatik in 1708) [ClassicSimilarity], result of:
          0.44548547 = score(doc=1708,freq=10.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            1.3983637 = fieldWeight in 1708, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1708)
        0.01245527 = product of:
          0.03736581 = sum of:
            0.03736581 = weight(_text_:22 in 1708) [ClassicSimilarity], result of:
              0.03736581 = score(doc=1708,freq=2.0), product of:
                0.13796735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039398648 = queryNorm
                0.2708308 = fieldWeight in 1708, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1708)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Im menschlichen Gehirn könnte nach einer Studie Hamburger Forscher bereits eine universelle Grammatik verankert sein. In der Untersuchung war das Sprachzentrum der Probanden sehr aktiv, wenn sie die Grammatik einer echten Sprache wie Italienisch oder Japanisch lernten. Bei frei erfundenen Grammatikregeln war dieses so genannte Broca-Zentrum dagegen weniger einbezogen. Das berichtete das Universitätsklinikum Hamburg-Eppendorf. Die Studie sei ein Beleg für eine bereits vor 30 Jahren erstellte Theorie des Linguisten Noam Chomsky, nach der es eine angeborene sprachenübergreifende Grammatik gibt, die alle Menschen der Erde teilen. Dieses Ergebnis sei wichtig, um zu verstehen, wie das Gehirn Sprache bildet, heißt es in einem Kommentar des Fachblattes Nature Neuroscience, das die Hamburger Studie veröffentlicht hat. Es sei aber noch kein endgültiger Beweis dafür, dass die Broca-Region die neuronale Grundlage für eine universelle Grammatik sei.
    Date
    12. 2.1996 22:34:46
  2. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.20
    0.19580613 = product of:
      0.26107484 = sum of:
        0.0625755 = product of:
          0.18772648 = sum of:
            0.18772648 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
              0.18772648 = score(doc=2918,freq=2.0), product of:
                0.33402216 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.039398648 = queryNorm
                0.56201804 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.33333334 = coord(1/3)
        0.18772648 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.18772648 = score(doc=2918,freq=2.0), product of:
            0.33402216 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.039398648 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.010772854 = product of:
          0.032318562 = sum of:
            0.032318562 = weight(_text_:29 in 2918) [ClassicSimilarity], result of:
              0.032318562 = score(doc=2918,freq=2.0), product of:
                0.13859212 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039398648 = queryNorm
                0.23319192 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.33333334 = coord(1/3)
      0.75 = coord(3/4)
    
    Date
    29. 8.2009 21:15:48
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
  3. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.20
    0.19573344 = product of:
      0.26097792 = sum of:
        0.0625755 = product of:
          0.18772648 = sum of:
            0.18772648 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.18772648 = score(doc=562,freq=2.0), product of:
                0.33402216 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.039398648 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.18772648 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.18772648 = score(doc=562,freq=2.0), product of:
            0.33402216 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.039398648 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.010675946 = product of:
          0.032027837 = sum of:
            0.032027837 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.032027837 = score(doc=562,freq=2.0), product of:
                0.13796735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039398648 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
      0.75 = coord(3/4)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  4. Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008) 0.17
    0.166868 = product of:
      0.333736 = sum of:
        0.083434 = product of:
          0.250302 = sum of:
            0.250302 = weight(_text_:3a in 140) [ClassicSimilarity], result of:
              0.250302 = score(doc=140,freq=2.0), product of:
                0.33402216 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.039398648 = queryNorm
                0.7493574 = fieldWeight in 140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=140)
          0.33333334 = coord(1/3)
        0.250302 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.250302 = score(doc=140,freq=2.0), product of:
            0.33402216 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.039398648 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
      0.5 = coord(2/4)
    
    Content
    Vgl. auch: https://studylibde.com/doc/13053640/richard-schrodt. Vgl. auch: http%3A%2F%2Fwww.univie.ac.at%2FGermanistik%2Fschrodt%2Fvorlesung%2Fwissenschaftssprache.doc&usg=AOvVaw1lDLDR6NFf1W0-oC9mEUJf.
  5. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.15
    0.1460095 = product of:
      0.292019 = sum of:
        0.07300475 = product of:
          0.21901424 = sum of:
            0.21901424 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.21901424 = score(doc=306,freq=2.0), product of:
                0.33402216 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.039398648 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.21901424 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.21901424 = score(doc=306,freq=2.0), product of:
            0.33402216 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.039398648 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.5 = coord(2/4)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  6. Pinker, S.: Wörter und Regeln : Die Natur der Sprache (2000) 0.11
    0.10507321 = product of:
      0.21014643 = sum of:
        0.20124981 = weight(_text_:grammatik in 734) [ClassicSimilarity], result of:
          0.20124981 = score(doc=734,freq=4.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.6317163 = fieldWeight in 734, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.008896622 = product of:
          0.026689865 = sum of:
            0.026689865 = weight(_text_:22 in 734) [ClassicSimilarity], result of:
              0.026689865 = score(doc=734,freq=2.0), product of:
                0.13796735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039398648 = queryNorm
                0.19345059 = fieldWeight in 734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=734)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Wie lernen Kinder sprechen? Welche Hinweise geben gerade ihre Fehler beim Spracherwerb auf den Ablauf des Lernprozesses - getreu dem Motto: "Kinder sagen die töllsten Sachen«? Und wie helfen beziehungsweise warum scheitern bislang Computer bei der Simulation neuronaler Netzwerke, die am komplizierten Gewebe der menschlichen Sprache mitwirken? In seinem neuen Buch Wörter und Regeln hat der bekannte US-amerikanische Kognitionswissenschaftler Steven Pinker (Der Sprachinstinkt) wieder einmal eine ebenso informative wie kurzweifige Erkundungstour ins Reich der Sprache unternommen. Was die Sache besonders spannend und lesenswert macht: Souverän beleuchtet der Professor am Massachusetts Institute of Technology sowohl natur- als auch geisteswissenschaftliche Aspekte. So vermittelt er einerseits linguistische Grundlagen in den Fußspuren Ferdinand de Saussures, etwa die einer generativen Grammatik, liefert einen Exkurs durch die Sprachgeschichte und widmet ein eigenes Kapitel den Schrecken der deutschen Sprache". Andererseits lässt er aber auch die neuesten bildgebenden Verfahren nicht außen vor, die zeigen, was im Gehirn bei der Sprachverarbeitung abläuft. Pinkers Theorie, die sich in diesem Puzzle verschiedenster Aspekte wiederfindet: Sprache besteht im Kein aus zwei Bestandteilen - einem mentalen Lexikon aus erinnerten Wörtern und einer mentalen Grammatik aus verschiedenen kombinatorischen Regeln. Konkret heißt das: Wir prägen uns bekannte Größen und ihre abgestuften, sich kreuzenden Merkmale ein, aber wir erzeugen auch neue geistige Produkte, in dem wir Regeln anwenden. Gerade daraus, so schließt Pinker, erschließt sich der Reichtum und die ungeheure Ausdruckskraft unserer Sprache
    Date
    19. 7.2002 14:22:31
  7. Donsbach, W.: Wahrheit in den Medien : über den Sinn eines methodischen Objektivitätsbegriffes (2001) 0.10
    0.1042925 = product of:
      0.208585 = sum of:
        0.05214625 = product of:
          0.15643874 = sum of:
            0.15643874 = weight(_text_:3a in 5895) [ClassicSimilarity], result of:
              0.15643874 = score(doc=5895,freq=2.0), product of:
                0.33402216 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.039398648 = queryNorm
                0.46834838 = fieldWeight in 5895, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5895)
          0.33333334 = coord(1/3)
        0.15643874 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.15643874 = score(doc=5895,freq=2.0), product of:
            0.33402216 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.039398648 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
      0.5 = coord(2/4)
    
    Source
    Politische Meinung. 381(2001) Nr.1, S.65-74 [https%3A%2F%2Fwww.dgfe.de%2Ffileadmin%2FOrdnerRedakteure%2FSektionen%2FSek02_AEW%2FKWF%2FPublikationen_Reihe_1989-2003%2FBand_17%2FBd_17_1994_355-406_A.pdf&usg=AOvVaw2KcbRsHy5UQ9QRIUyuOLNi]
  8. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.08
    0.083434 = product of:
      0.166868 = sum of:
        0.041717 = product of:
          0.125151 = sum of:
            0.125151 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.125151 = score(doc=701,freq=2.0), product of:
                0.33402216 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.039398648 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.125151 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.125151 = score(doc=701,freq=2.0), product of:
            0.33402216 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.039398648 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.5 = coord(2/4)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  9. Wilhelm, K.: ¬Die Macht der Grammatik (2000) 0.07
    0.07115255 = product of:
      0.2846102 = sum of:
        0.2846102 = weight(_text_:grammatik in 5510) [ClassicSimilarity], result of:
          0.2846102 = score(doc=5510,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.8933818 = fieldWeight in 5510, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.078125 = fieldNorm(doc=5510)
      0.25 = coord(1/4)
    
  10. Vonhoegen, H.: Einstieg in XML (2002) 0.05
    0.052920602 = product of:
      0.105841205 = sum of:
        0.09961357 = weight(_text_:grammatik in 4002) [ClassicSimilarity], result of:
          0.09961357 = score(doc=4002,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.3126836 = fieldWeight in 4002, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4002)
        0.006227635 = product of:
          0.018682905 = sum of:
            0.018682905 = weight(_text_:22 in 4002) [ClassicSimilarity], result of:
              0.018682905 = score(doc=4002,freq=2.0), product of:
                0.13796735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039398648 = queryNorm
                0.1354154 = fieldWeight in 4002, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4002)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  11. Metzler Lexikon Sprache (2004) 0.05
    0.049806785 = product of:
      0.19922714 = sum of:
        0.19922714 = weight(_text_:grammatik in 2818) [ClassicSimilarity], result of:
          0.19922714 = score(doc=2818,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.6253672 = fieldWeight in 2818, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2818)
      0.25 = coord(1/4)
    
    Abstract
    Das als Gemeinschaftswerk von fast 80 Fachwissenschaftlern erarbeitete »Metzler Lexikon Sprache« informiert in etwa 6.000 Einträgen über das Gesamtgebiet der Linguistik und gibt einen Überblick über die Sprachfamilien, Sprachgruppen und Einzelsprachen der Welt. Den Schwerpunkt bilden Begriffe aus der verschiedenen Disziplinen der Sprachwissenschaft wie Phonetik, Phonologie, Lexikologie, Morphologie Syntax, Semantik, Rhetorik, Stilistik und Pragmatik. Das Lexikon erfasst zudem die relevante Terminologie der historischen Sprachwissenschaft, der traditionellen und der heute maßgeblichen Richtungen de Linguistik, z.B. der generativen Grammatik oder der Valenzgrammatik. In großem Umfang sind auchBegriffe aus interdisziplinären Arbeitsfeldern wie Spracherwerbsforschung, Sprachdidaktik, Spracherziehung, Dialektforschung, Soziolinguistik, Sprachphilosophie, Textlinguistik und Computerlinguist aufgenommen.
  12. Spitzer, M.: Unter Strom : Die Hirnforschung darf als Schlüssel zum Lernen nicht ignoriert werden (2003) 0.05
    0.045384742 = product of:
      0.090769485 = sum of:
        0.08538306 = weight(_text_:grammatik in 4323) [ClassicSimilarity], result of:
          0.08538306 = score(doc=4323,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.26801452 = fieldWeight in 4323, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4323)
        0.005386427 = product of:
          0.016159281 = sum of:
            0.016159281 = weight(_text_:29 in 4323) [ClassicSimilarity], result of:
              0.016159281 = score(doc=4323,freq=2.0), product of:
                0.13859212 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039398648 = queryNorm
                0.11659596 = fieldWeight in 4323, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4323)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Content
    - Alle 90 Minuten ein neues Wort - Dabei ist die Sache doch ganz einfach: Das Gehirn lernt immer. Es lernt nicht nebenbei und wenn es gelegentlich mal sein muss, sondern es kann nichts besser und tut nichts lieber! Dies zeigen alle Säuglinge; wir hatten noch keine Chance, es ihnen abzugewöhnen. Zweijährige versuchen aktiv ihre Umgebung zu begreifen, führen kleine Tests durch und prüfen - ähnlich wie Wissenschaftler - Hypothesen. Dreijährige lernen alle 90 Minuten ein neues Wort, und mit fünf Jahren beherrschen Kinder nicht nur Tausende von Wörtern, sondern vor allem auch deren Gebrauch, das heißt die komplizierte Grammatik der Muttersprache. Nach dem Spracherwerb geht es dann erst richtig los: Schule, Lehre oder Universität, und vor allem lebenslange Weiterbildung. Die Prinzipien und Mechanismen des Lernens sind vielfältig. Wer sie kennt, lernt besser. Ein Trainer, der etwas von Herz und Kreislauf, von Muskeln und Bändern versteht, wird den Sportler besser fit machen können als ein Ignorant. Gewiss, gute Ratschläge und viel Erfahrung gibt es auch ohne Wissenschaft. Nur durch Wissenschaft wird jedoch aus Meinungen und subjektiven Erfahrungen gesichertes Wissen. Lernen ist Gegenstand der Gehirnforschung; daher wird ein Lehrer, der weiß, wie das Gehirn funktioniert, besser lehren können. Richtig ist, dass die Gehirnforschung die Fachdidaktik nicht ersetzen kann - noch nicht. Wie man etwa Funktionen einführt oder das Konzept des Auftriebs, ist eine Frage, die man durch Ausprobieren an vielen Schülern klären kann. Dass jedoch die Mathematik nicht nur aus Rechenregeln bestehen sollte, zeigt bereits die Gehirnforschung -ebenso, dass es beim Auftrieb mit Neugierde und Freude zugehen sollte. Die Forschung zeigt, wie unser Gehirn Einzelnes und Regeln verarbeitet, wie lange wiederholt werden muss, wie wichtig der Schlaf nach dem Lernen ist und wie wichtig die gute Beziehung zwischen Lehrer und Schüler ist. Es ist fruchtlos, darüber zu streiten, ob ein guter Lehrer "Kinder" oder "Mathematik" unterrichten sollte, und es ist die Gehirnforschung, die solchen ideologischen Wortgefechten ein Ende bereiten kann. Die Rolle der Emotionen beim Lernen ist kaum zu überschätzen. In einer kürzlich publizierten Arbeit konnten wir zeigen, dass neutrales Material in Abhängigkeit davon, in welchem emotionalen Zustand es gelernt wird, in jeweils anderen Bereichen des Gehirns gespeichert wird. Dieses Wissen hat ganz praktische Konsequenzen, denn wenn der Lernstoff im falschen Gehirnteil landet, dann wird bei seiner erneuten Aktivierung immer auch Angst mit aktiviert, was nachweislich die Fähigkeit zum Problemlösen beeinträchtigt. Es ist also nicht egal, wo im Gehirn was gelernt wird! Die Gehirnforschung zum lebenslangen Lernen darf keinesfalls im Bereich der Theorie verbleiben. Aus diesem Grund muss es neben der Grundlagenforschung zu Lernprozessen auch anwendungsorientierte Forschung geben. Diese gelingt häufig am besten, wenn sie von denen gemacht wird, die auch die Grundlagen untersuchen. Anwendungsforschung allein reicht nicht aus: Sie ist nur beschreibend, nicht aber innovativ - wenn ich weiß, dass wir schlechter sind als die Finnen, weiß ich noch nicht, warum.
    Date
    20. 8.2013 12:29:00
  13. Wittgenstein, L.: ¬'The big typescript' : Wiener Ausgabe (2000) 0.04
    0.04269153 = product of:
      0.17076612 = sum of:
        0.17076612 = weight(_text_:grammatik in 4996) [ClassicSimilarity], result of:
          0.17076612 = score(doc=4996,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.53602904 = fieldWeight in 4996, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.046875 = fieldNorm(doc=4996)
      0.25 = coord(1/4)
    
    Abstract
    "The Big Typescript" ist seit dem "Tractatus" von 1922 und einer Unterbrechung seiner philosophischen Tätigkeit (er arbeitete als Volksschullehrer, Architekt und Klostergärtner) Wittgensteins erster Versuch, seine neueren Gedanken in einem Buch zusammenzufassen und damit die "schweren Irrtümer" (Wittgenstein) seines Frühwerks zu korrigieren. "Das Big Typescript' stellt nicht weniger als eine erste 'Summe' der philosophischen Reflexionen dar, die Wittgenstein seit 1929, also nach seiner Rückkehr nach Cambridge und der Wiederaufnahme des Philosophierens, angestellt hatte. Es enthält die Umarbeitungen und Neuordnungen des Materials, das zuvor in zehn Manuskriptbänden ... notiert worden war. Inhaltlich wird dem Leser bereits das gesamte Themenspektrum der Wittgenstein'schen 'Spätphilosophie' geboten - Bemerkungen zur Psvchologie, zu Logik und Grammatik der Sprache, zur philosophischen Methodenkritik und vor allem auch zur Mathematik. Die herausragende Bedeutung des Big Typescript' besteht aber in erster Linie darin, dass in ihm, kapitelweise geordnet, die in Wittgensteins Augen wertvollen Arbeitsergebnisse der Jahre 1929 bis 1933 in einer von ihm selbst konzipierten Gliederung vorgelegt werden." (Neue Zürcher Zeitung)
  14. Helbig, H.: Wissensverarbeitung und die Semantik der natürlichen Sprache : Wissensrepräsentation mit MultiNet (2008) 0.04
    0.035576276 = product of:
      0.1423051 = sum of:
        0.1423051 = weight(_text_:grammatik in 2731) [ClassicSimilarity], result of:
          0.1423051 = score(doc=2731,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.4466909 = fieldWeight in 2731, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
      0.25 = coord(1/4)
    
    Abstract
    Das Buch gibt eine umfassende Darstellung einer Methodik zur Interpretation und Bedeutungsrepräsentation natürlichsprachlicher Ausdrücke. Diese Methodik der "Mehrschichtigen Erweiterten Semantischen Netze", das sogenannte MultiNet-Paradigma, ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Im ersten Teil des zweiteiligen Buches werden grundlegende Probleme der semantischen Repräsentation von Wissen bzw. der semantischen Interpretation natürlichsprachlicher Phänomene behandelt. Der zweite Teil enthält eine systematische Zusammenstellung des gesamten Repertoires von Darstellungsmitteln, die jeweils nach einem einheitlichen Schema beschrieben werden. Er dient als Kompendium der im Buch verwendeten formalen Beschreibungsmittel von MultiNet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation im Rahmen der automatischen Sprachverarbeitung sichern. Hierzu gehören: eine Werkbank für den Wissensingenieur, ein Übersetzungssystem zur automatischen Gewinnung von Bedeutungsdarstellungen natürlichsprachlicher Sätze und eine Werkbank für den Computerlexikographen. Der Inhalt des Buches beruht auf jahrzehntelanger Forschung auf dem Gebiet der automatischen Sprachverarbeitung und wurde mit Vorlesungen zur Künstlichen Intelligenz und Wissensverarbeitung an der TU Dresden und der FernUniversität Hagen wiederholt in der Hochschullehre eingesetzt. Als Vorkenntnisse werden beim Leser lediglich Grundlagen der traditionellen Grammatik und elementare Kenntnisse der Prädikatenlogik vorausgesetzt.
  15. Devlin, K.: ¬Das Mathe-Gen : oder wie sich das mathematische Denken entwickelt und warum Sie Zahlen ruhig vergessen können (2001) 0.03
    0.030809963 = product of:
      0.12323985 = sum of:
        0.12323985 = weight(_text_:grammatik in 4019) [ClassicSimilarity], result of:
          0.12323985 = score(doc=4019,freq=6.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.3868457 = fieldWeight in 4019, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4019)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft 2002, H.4, S.104-105 (S. Welke): "Wenn es ein Gen für Mathematik-Begabung gäbe, würden die vielen Menschen, denen Mathematik eine Quälerei ist, das vielleicht als Trost empfinden. Dann wären sie ja nicht selbst für ihre schlechten Noten verantwortlich ... Pech gehabt, sagt der Mathematiker, Wissenschaftsjournalist und Sachbuchautor Keith Devlin. Es gibt nämlich gar kein Mathe-Gen. Die Eigenschaften, die den Menschen zum Betreiben von Mathematik befähigen, sind dieselben, die ihm auch Sprechen und abstraktes Denken ermöglichen. Ohne Sprache keine Mathematik. Zur Begründung führt er den Leser auf eine Gedankenreise durch Mathematik, Sprachwissenschaft und Evolutionstheorie. Auf der ersten Station dieser Reise fasst er zusammen, was er bereits in "Muster der Mathematik" (Spektrum Akademischer Verlag, Heidelberg 1998) ausgebreitet hat: Mathematik ist die Wissenschaft von den Mustern - realen oder vorgestellten. Es kann sich um geometrische, logische oder auch grammatische Muster handeln. In einem eigenen Kapitel erläutert Devlin das mit Beispielen aus Geometrie und Gruppentheorie. Zahlen sind nur ein Aspekt unter vielen, und Mathematik beginnt erst da, wo der Zahlensinn aufhört. Darauf bezieht sich der zweite Teil des Untertitels. Und da für Devlin das menschliche Gehirn keine Rechenmaschine ist, sondern ein Apparat zur Mustererkennung, ist es bestens für die Beschäftigung mit Mathematik geeignet. Professionelle Mathematiker denken zwar zweifellos anders als andere Menschen, aber sie haben keine anderen Gehirne. Numerische und algorithmische Kompetenz, die Fähigkeit zu abstrahieren und Bezüge herzustellen, der Sinn für Ursache und Wirkung und damit die Fähigkeit, eine längere Kausalkette zu konstruieren und zu verfolgen, logisches Denken und räumliches Vorstellungsvermögen sind nach Devlin die Fähigkeiten, die den Menschen in die Lage versetzen, Mathematik zu betreiben. Lässt man den ersten und den letzten Punkt dieser Aufzählung fort, dann wird klar, wie Devlin zu seiner Kernaussage von der gemeinsamen Wurzel von Mathematik und Sprache gelangt. - Offline-Denken - Dazu zitiert Devlin ausgiebig Fachleute auf den Gebieten der biologischen und der Sprachevolution und gibt dann seine eigene Interpretation, die von den Erkenntnissen der Fachleute nicht gerade erzwungen, aber doch plausibel gemacht wird. Sprache ist für ihn mehr als bloße Kommunikation. Im Gegensatz zu Protosprachen wie dem - durchaus Information vermittelnden - Schwänzeltanz der Bienen hat sie eine Struktur, eine Grammatik. Nach den Forschungsergebnissen des Linguisten Noam Chomsky und seiner Nachfolger ist die Grundstruktur dieser Grammatik in allen menschlichen Sprachen im Wesentlichen dieselbe. Damit ist belegt, dass allen Menschen eine Fähigkeit zur Musterbildung gemeinsam ist - und damit auch eine Fähigkeit zur Mathematik. Devlin geht noch einen Schritt weiter. Im Gegensatz zur gängigen Ansicht sei Kommunikation nicht die evolutionäre Triebkraft der Entwicklung zur grammatisch strukturierten Sprache, sondern deren Neben- oder Folgeeffekt, ein "Nebenprodukt der Fähigkeit unserer Urahnen, die Welt, in der sie lebten, mehr und mehr zu verstehen - sowohl ihre physische Umgebung als auch ihre zunehmend komplexer werdende soziale Welt". Der entscheidende Entwicklungsschritt zum Verstehen der Welt ist in seinen Augen die Fähigkeit zum "offline- Denken". Gemeint ist die Fähigkeit, äußere Reize zu simulieren, sich eine Vorstellung von - etwa - einem Mammut zu machen, ohne es leibhaftig vor Augen zu haben. In der Folge kann das Gehirn Strukturen, insbesondere eine Grammatik, in der Vorstellung selbst bilden.
  16. Tochtermann, K.; Granitzer, M.: Wissenserschließung : Pfade durch den digitalen Informationsdschungel (2005) 0.03
    0.028598402 = product of:
      0.11439361 = sum of:
        0.11439361 = product of:
          0.1715904 = sum of:
            0.08618284 = weight(_text_:29 in 4390) [ClassicSimilarity], result of:
              0.08618284 = score(doc=4390,freq=2.0), product of:
                0.13859212 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039398648 = queryNorm
                0.6218451 = fieldWeight in 4390, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=4390)
            0.08540756 = weight(_text_:22 in 4390) [ClassicSimilarity], result of:
              0.08540756 = score(doc=4390,freq=2.0), product of:
                0.13796735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039398648 = queryNorm
                0.61904186 = fieldWeight in 4390, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4390)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    5.11.2005 19:18:22
    Source
    Wissensmanagement. 7(2005) H.5, S.26-29
  17. Herrmann, C.: Partikulare Konkretion universal zugänglicher Information : Beobachtungen zur Konzeptionierung fachlicher Internet-Seiten am Beispiel der Theologie (2000) 0.03
    0.0250236 = product of:
      0.1000944 = sum of:
        0.1000944 = product of:
          0.1501416 = sum of:
            0.07540998 = weight(_text_:29 in 4364) [ClassicSimilarity], result of:
              0.07540998 = score(doc=4364,freq=2.0), product of:
                0.13859212 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039398648 = queryNorm
                0.5441145 = fieldWeight in 4364, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4364)
            0.07473162 = weight(_text_:22 in 4364) [ClassicSimilarity], result of:
              0.07473162 = score(doc=4364,freq=2.0), product of:
                0.13796735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039398648 = queryNorm
                0.5416616 = fieldWeight in 4364, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4364)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    22. 1.2000 19:29:08
  18. Weinberg, B.H.: Book indexes in France : medieval specimens and modern practices (2000) 0.03
    0.0250236 = product of:
      0.1000944 = sum of:
        0.1000944 = product of:
          0.1501416 = sum of:
            0.07540998 = weight(_text_:29 in 486) [ClassicSimilarity], result of:
              0.07540998 = score(doc=486,freq=2.0), product of:
                0.13859212 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039398648 = queryNorm
                0.5441145 = fieldWeight in 486, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=486)
            0.07473162 = weight(_text_:22 in 486) [ClassicSimilarity], result of:
              0.07473162 = score(doc=486,freq=2.0), product of:
                0.13796735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039398648 = queryNorm
                0.5416616 = fieldWeight in 486, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=486)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    20. 4.2002 19:29:54
    Source
    Indexer. 22(2000) no.1, S.2-13
  19. Mauer, P.: Embedded indexing : pros and cons for the indexer (2000) 0.03
    0.0250236 = product of:
      0.1000944 = sum of:
        0.1000944 = product of:
          0.1501416 = sum of:
            0.07540998 = weight(_text_:29 in 488) [ClassicSimilarity], result of:
              0.07540998 = score(doc=488,freq=2.0), product of:
                0.13859212 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039398648 = queryNorm
                0.5441145 = fieldWeight in 488, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=488)
            0.07473162 = weight(_text_:22 in 488) [ClassicSimilarity], result of:
              0.07473162 = score(doc=488,freq=2.0), product of:
                0.13796735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039398648 = queryNorm
                0.5416616 = fieldWeight in 488, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=488)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    21. 4.2002 9:29:38
    Source
    Indexer. 22(2000) no.1, S.27-28
  20. Foucault, M.: ¬Die Ordnung der Dinge : eine Archäologie der Humanwissenschaften (2002) 0.02
    0.024903392 = product of:
      0.09961357 = sum of:
        0.09961357 = weight(_text_:grammatik in 708) [ClassicSimilarity], result of:
          0.09961357 = score(doc=708,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.3126836 = fieldWeight in 708, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.02734375 = fieldNorm(doc=708)
      0.25 = coord(1/4)
    
    Content
    Inhalt: War das Denksystem der Renaissance vom bestimmenden Prinzip der Verwandtschaft der Dinge untereinander gekennzeichnet, so existiere laut Foucault im klassischen Zeitalter eine neue, wesentlich andere Ordnung, in der es sich »nicht mehr um die Frage der Ähnlichkeiten, sondern um die der Identitäten und der Unterschiede handelt«. Diese Änderung des Denksystems erklärt Foucault im Einzelnen durch einen Rückgriff auf die Semiotik, in dem er für das klassische Zeitalter eine neue »dualistische Theorie des Zeichens« feststellt, welche drei Elemente impliziere: »das, was markiert wurde, das, was markierend war, und das, was gestattete, im Einem die Markierung des Anderen zu sehen.« Dieses auf der Repräsentation basierende Zeichensystem sei die Grundlage einer allgemeinen Ordnungswissenschaft gewesen, deren Begriffsraster Foucault rekonstruiert. Anschließend zeichnet er dieses System in drei scheinbar unterschiedlichen Teildiskurse der Zeit, in der allgemeinen Grammatik, in der Naturgeschichte und in der Analyse der Reichtümer, nach. So leite sich beispielsweise der Wert vom Geld nicht mehr aus seinem Edelmetallbestand ab, sondern aus der auf ihm abgebildeten Repräsentation des Souveräns. Im zweiten Teil des Werks widmet sich Foucault einem erneuten Wandel des Denksystems im 18. Jahrhundert: in einer Analyse schildert er, wie aus der Betonung der Zirkulation von Geld die bestimmende Rolle der Arbeit entstanden sei, wie die Analyse der äußeren Merkmale von Pflanzen und Tieren in der Naturgeschichte der Vorstellung von Organisation und Funktion in der sich formierenden Biologie gewichen sei, und wie anstelle einer reinen Kategorisierung der Unterschiede der Sprachen durch die Entdeckung der Flexion ihre gemeinsamen Verbindungen festgestellt wurden. Wirkung: Für Foucault habe seine »Archäologie des Denkens« weit reichende Folgen für die menschliche Existenz. Indem er der Sprache eine konstituierende Rolle einräumt, relativiert er gleichzeitig die bisweilen als absolut empfundene Bedeutung der menschlichen Vernunft. Daher proklamiert er den Tod des Menschen als autonomes Wesen, was die teils sehr kritische Rezeption des Werks erklärt.

Languages

Types

  • a 2151
  • m 241
  • el 117
  • s 85
  • b 28
  • x 22
  • i 12
  • r 5
  • n 2
  • p 1
  • More… Less…

Themes

Subjects

Classifications