Search (636 results, page 1 of 32)

  • × type_ss:"m"
  1. Gödert, W.; Lepsky, K.: Informationelle Kompetenz : ein humanistischer Entwurf (2019) 0.15
    0.1460095 = product of:
      0.292019 = sum of:
        0.07300475 = product of:
          0.21901424 = sum of:
            0.21901424 = weight(_text_:3a in 5955) [ClassicSimilarity], result of:
              0.21901424 = score(doc=5955,freq=2.0), product of:
                0.33402216 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.039398648 = queryNorm
                0.65568775 = fieldWeight in 5955, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5955)
          0.33333334 = coord(1/3)
        0.21901424 = weight(_text_:2f in 5955) [ClassicSimilarity], result of:
          0.21901424 = score(doc=5955,freq=2.0), product of:
            0.33402216 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.039398648 = queryNorm
            0.65568775 = fieldWeight in 5955, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5955)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: Philosophisch-ethische Rezensionen vom 09.11.2019 (Jürgen Czogalla), Unter: https://philosophisch-ethische-rezensionen.de/rezension/Goedert1.html. In: B.I.T. online 23(2020) H.3, S.345-347 (W. Sühl-Strohmenger) [Unter: https%3A%2F%2Fwww.b-i-t-online.de%2Fheft%2F2020-03-rezensionen.pdf&usg=AOvVaw0iY3f_zNcvEjeZ6inHVnOK]. In: Open Password Nr. 805 vom 14.08.2020 (H.-C. Hobohm) [Unter: https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzE0MywiOGI3NjZkZmNkZjQ1IiwwLDAsMTMxLDFd].
  2. Chomsky, N.: Aspekte der Syntax-Theorie (1972) 0.12
    0.122001216 = product of:
      0.48800486 = sum of:
        0.48800486 = weight(_text_:grammatik in 315) [ClassicSimilarity], result of:
          0.48800486 = score(doc=315,freq=12.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            1.5318307 = fieldWeight in 315, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.0546875 = fieldNorm(doc=315)
      0.25 = coord(1/4)
    
    BK
    17.51 / Einzelne Theorien der Grammatik
    Classification
    17.51 / Einzelne Theorien der Grammatik
    RSWK
    Syntax / Grammatik (DNB)
    generative Grammatik / grammatische Transformationen / Sprachkompetenz / Semantik (ÖVK)
    Subject
    Syntax / Grammatik (DNB)
    generative Grammatik / grammatische Transformationen / Sprachkompetenz / Semantik (ÖVK)
  3. Pinker, S.: Wörter und Regeln : Die Natur der Sprache (2000) 0.11
    0.10507321 = product of:
      0.21014643 = sum of:
        0.20124981 = weight(_text_:grammatik in 734) [ClassicSimilarity], result of:
          0.20124981 = score(doc=734,freq=4.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.6317163 = fieldWeight in 734, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.008896622 = product of:
          0.026689865 = sum of:
            0.026689865 = weight(_text_:22 in 734) [ClassicSimilarity], result of:
              0.026689865 = score(doc=734,freq=2.0), product of:
                0.13796735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039398648 = queryNorm
                0.19345059 = fieldWeight in 734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=734)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Wie lernen Kinder sprechen? Welche Hinweise geben gerade ihre Fehler beim Spracherwerb auf den Ablauf des Lernprozesses - getreu dem Motto: "Kinder sagen die töllsten Sachen«? Und wie helfen beziehungsweise warum scheitern bislang Computer bei der Simulation neuronaler Netzwerke, die am komplizierten Gewebe der menschlichen Sprache mitwirken? In seinem neuen Buch Wörter und Regeln hat der bekannte US-amerikanische Kognitionswissenschaftler Steven Pinker (Der Sprachinstinkt) wieder einmal eine ebenso informative wie kurzweifige Erkundungstour ins Reich der Sprache unternommen. Was die Sache besonders spannend und lesenswert macht: Souverän beleuchtet der Professor am Massachusetts Institute of Technology sowohl natur- als auch geisteswissenschaftliche Aspekte. So vermittelt er einerseits linguistische Grundlagen in den Fußspuren Ferdinand de Saussures, etwa die einer generativen Grammatik, liefert einen Exkurs durch die Sprachgeschichte und widmet ein eigenes Kapitel den Schrecken der deutschen Sprache". Andererseits lässt er aber auch die neuesten bildgebenden Verfahren nicht außen vor, die zeigen, was im Gehirn bei der Sprachverarbeitung abläuft. Pinkers Theorie, die sich in diesem Puzzle verschiedenster Aspekte wiederfindet: Sprache besteht im Kein aus zwei Bestandteilen - einem mentalen Lexikon aus erinnerten Wörtern und einer mentalen Grammatik aus verschiedenen kombinatorischen Regeln. Konkret heißt das: Wir prägen uns bekannte Größen und ihre abgestuften, sich kreuzenden Merkmale ein, aber wir erzeugen auch neue geistige Produkte, in dem wir Regeln anwenden. Gerade daraus, so schließt Pinker, erschließt sich der Reichtum und die ungeheure Ausdruckskraft unserer Sprache
    Date
    19. 7.2002 14:22:31
  4. Drosdowski, G. (Bearb.): Duden 'Grammatik der deutschen Gegenwartssprache' (1995) 0.09
    0.08538306 = product of:
      0.34153223 = sum of:
        0.34153223 = weight(_text_:grammatik in 3645) [ClassicSimilarity], result of:
          0.34153223 = score(doc=3645,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            1.0720581 = fieldWeight in 3645, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.09375 = fieldNorm(doc=3645)
      0.25 = coord(1/4)
    
  5. Heinrichs, J.: Reflexionstheoretische Semiotik : T.1: Handlungstheorie; T.2: Sprachtheorie, Philosophische Grammatik der semiotischen Dimensionen (1980-81) 0.09
    0.08538306 = product of:
      0.34153223 = sum of:
        0.34153223 = weight(_text_:grammatik in 4473) [ClassicSimilarity], result of:
          0.34153223 = score(doc=4473,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            1.0720581 = fieldWeight in 4473, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.09375 = fieldNorm(doc=4473)
      0.25 = coord(1/4)
    
  6. Heringer, H.J.; Strecker, B.; Wimmer, R.: Syntax : Fragen, Lösungen, Alternativen (1980) 0.08
    0.080499925 = product of:
      0.3219997 = sum of:
        0.3219997 = weight(_text_:grammatik in 8102) [ClassicSimilarity], result of:
          0.3219997 = score(doc=8102,freq=4.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            1.0107461 = fieldWeight in 8102, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.0625 = fieldNorm(doc=8102)
      0.25 = coord(1/4)
    
    Abstract
    Der Band stellt verschiedene formale syntaktische Beschreibungssprachen und auf ihnen basierende Syntaxtheorien dar, die in neuerer Zeit entwickelt wurden und die Linguistik entscheidend beeinflußt haben. Behandelt werden die IC-Analyse, Phrasenstruktur- und Konstitutionsgrammatiken, generative Transformationsgrammatik, Depedenzgrammatik, funktionale und kategoriale Grammatik. Dabei zeigt sich, wie die neueren Theorien traditionelle Probleme der Grammatik aufgreifen, weiterentwickeln und zu welchen Ergebnissen sie kommen. Die Lösungsvorschläge der einzelnen Theorien werden beurteilt nach ihrer Relevanz für die thematischen Zusammenhänge, in denen sie stehen, nach ihrer Relevanz für andere Theorien und in ihrem Zusammenhang mit Nachbardisziplinen der Linguistik
  7. Weber, N.: ¬Die Semantik von Bedeutungsexplikationen (1999) 0.06
    0.060374945 = product of:
      0.24149978 = sum of:
        0.24149978 = weight(_text_:grammatik in 1399) [ClassicSimilarity], result of:
          0.24149978 = score(doc=1399,freq=4.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.7580596 = fieldWeight in 1399, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.046875 = fieldNorm(doc=1399)
      0.25 = coord(1/4)
    
    Classification
    ES 965 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Datenverarbeitung und Einzelgebiete der Grammatik
    RVK
    ES 965 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Datenverarbeitung und Einzelgebiete der Grammatik
  8. Vonhoegen, H.: Einstieg in XML (2002) 0.05
    0.052920602 = product of:
      0.105841205 = sum of:
        0.09961357 = weight(_text_:grammatik in 4002) [ClassicSimilarity], result of:
          0.09961357 = score(doc=4002,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.3126836 = fieldWeight in 4002, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4002)
        0.006227635 = product of:
          0.018682905 = sum of:
            0.018682905 = weight(_text_:22 in 4002) [ClassicSimilarity], result of:
              0.018682905 = score(doc=4002,freq=2.0), product of:
                0.13796735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039398648 = queryNorm
                0.1354154 = fieldWeight in 4002, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4002)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  9. Lobin, H: Computerlinguistik und Texttechnologie (2010) 0.04
    0.04269153 = product of:
      0.17076612 = sum of:
        0.17076612 = weight(_text_:grammatik in 564) [ClassicSimilarity], result of:
          0.17076612 = score(doc=564,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.53602904 = fieldWeight in 564, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.046875 = fieldNorm(doc=564)
      0.25 = coord(1/4)
    
    Abstract
    Computerlinguistik (die Verarbeitung von Sprache mit dem Computer) und Texttechnologie (die automatisierte Handhabung elektronischer Texte) haben im letzten Jahrzehnt unterschiedliche Richtungen eingeschlagen. Beide Disziplinen speisen sich jedoch aus der gleichen Quelle: der formalen Grammatik. Deshalb ist eine gemeinsame Darstellung sinnvoll. Der Bezug auf die gemeinsamen Grundlagen und die kontrastierende Gegenüberstellung einzelner Teilbereiche fördern das Verständnis der jeweils anderen Disziplin und eröffnen interessante Querbezüge. Erstmals wird die Verknüpfung von Computerlinguistik und Texttechnologie mit dieser Einführung in knapper Form systematisch vollzogen, was sie insbesondere für Module im Bachelor-Studium geeignet macht.
  10. Ruijter, A. de: Claude Lévi-Strauss (1991) 0.04
    0.04269153 = product of:
      0.17076612 = sum of:
        0.17076612 = weight(_text_:grammatik in 2154) [ClassicSimilarity], result of:
          0.17076612 = score(doc=2154,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.53602904 = fieldWeight in 2154, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.046875 = fieldNorm(doc=2154)
      0.25 = coord(1/4)
    
    Abstract
    Der französische Ethnologe Claude Levi-Strauss gilt allgemein als "Vater des Strukturalismus" und hat vor allem mit Traurige Tropen (1955) und Das wilde Denken (1962) Weltruhm erlangt. Daß der Strukturalismus in den 60er Jahren zur Modephilosophie in (auch deutschen) Intellektuellenkreisen avancierte und ein riesiges literarisches Echo hervorrief, hat mit Levi-Strauss' ursprünglichem Denkansatz nur noch wenig zu tun. Jenseits solch modischer Rezeptionen rekonstruiert der Autor den methodischen Strukturalismus, den Levi-Strauss innerhalb der Anthropologie entwickelt hat. Es geht um den Nachweis, daß alle menschlichen Äußerungen universell wirksamen Denkgesetzen unterworfen sind. "Kultur" ist dieser Sichtweise zufolge ein in der Natur des Menschen beschlossenes System allgemeiner Regeln, welche unter dem Einfluß spezifischer historischer und ökologischer Umstände konkrete Formen annehmen. Levi-Strauss' Bemühen gilt dem Aufweis einer verdeckten kulturellen Grammatik, die alle menschlichen Hervorbringungen, von den Verwandtschaftsbeziehungen bis zur Mythenproduktion, determiniert. Schließlich geht de Ruijter in seiner Einführung auch auf den Vorwurf des "verarmenden" Reduktionismus ein, den Levi-Strauss' Methode erfahren hat, und plädiert in diesem Zusammenhang für die Rückkehr zu einer früheren Phase seines strukturalistischen Denkens.
  11. Wittgenstein, L.: ¬'The big typescript' : Wiener Ausgabe (2000) 0.04
    0.04269153 = product of:
      0.17076612 = sum of:
        0.17076612 = weight(_text_:grammatik in 4996) [ClassicSimilarity], result of:
          0.17076612 = score(doc=4996,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.53602904 = fieldWeight in 4996, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.046875 = fieldNorm(doc=4996)
      0.25 = coord(1/4)
    
    Abstract
    "The Big Typescript" ist seit dem "Tractatus" von 1922 und einer Unterbrechung seiner philosophischen Tätigkeit (er arbeitete als Volksschullehrer, Architekt und Klostergärtner) Wittgensteins erster Versuch, seine neueren Gedanken in einem Buch zusammenzufassen und damit die "schweren Irrtümer" (Wittgenstein) seines Frühwerks zu korrigieren. "Das Big Typescript' stellt nicht weniger als eine erste 'Summe' der philosophischen Reflexionen dar, die Wittgenstein seit 1929, also nach seiner Rückkehr nach Cambridge und der Wiederaufnahme des Philosophierens, angestellt hatte. Es enthält die Umarbeitungen und Neuordnungen des Materials, das zuvor in zehn Manuskriptbänden ... notiert worden war. Inhaltlich wird dem Leser bereits das gesamte Themenspektrum der Wittgenstein'schen 'Spätphilosophie' geboten - Bemerkungen zur Psvchologie, zu Logik und Grammatik der Sprache, zur philosophischen Methodenkritik und vor allem auch zur Mathematik. Die herausragende Bedeutung des Big Typescript' besteht aber in erster Linie darin, dass in ihm, kapitelweise geordnet, die in Wittgensteins Augen wertvollen Arbeitsergebnisse der Jahre 1929 bis 1933 in einer von ihm selbst konzipierten Gliederung vorgelegt werden." (Neue Zürcher Zeitung)
  12. Frank, C.J. (Bearb.): Sudeln : das Standardwerk der Linkschreibung (1994) 0.04
    0.035576276 = product of:
      0.1423051 = sum of:
        0.1423051 = weight(_text_:grammatik in 2410) [ClassicSimilarity], result of:
          0.1423051 = score(doc=2410,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.4466909 = fieldWeight in 2410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2410)
      0.25 = coord(1/4)
    
    Content
    Vorwort: Tag für Tag benutzen wir unbekümmert und völlig selbstverständlich unsere Sprache, ohne uns bewußt zu machen, daß es sich um eine Muttersprache handelt. Liebe, Fürsorge, Toleranz und Geduld sind deshalb höher zu bewerten als Rechthaberei, Strenge und Disziplin. Schlägt man hingegen ein Grammatikbuch auf, so entsteht zwangsläufig der Eindruck, es mit einer Vatersprache, ja sogar mit einer Stiefvatersprache zu tun zu haben. Millionen Sprachbenutzer sehnen sich nach neuen Deutschlektionen. Sie fordern nichts Geringeres als die Erlernbarkeit der deutschen Sprache. Schon seit langem ist eine zunehmende Sprachverweigerung oder ein Auswandern in fremde Sprachen zu beobachten. Es besteht eindeutig Handlungsbedarf, um eine Katastrophe noch zu verhindern. In diesem Buch werden die mütterlichen Tugenden so weit wie möglich berücksichtigt, so daß nun eine biegsamere, verjüngte und verständlichere Grammatik vorliegt. Merksätze und Regeln ließen sich allerdings nicht vermeiden, weil sonst der Charakter eines solchen Buches Schaden genommen hätte bzw. die Ernsthaftigkeit des Themas nicht zur Entfaltung gekommen wäre. Die zwischen den Zeilen unlesbar verborgenen Bemerkungen lauten zusammengefaßt ungefähr so: Courage! Halte durch! Du schaffst es! Um Verständnis und Vergebung seien all jene gebeten, die von der nun unumgänglich gewordenen Umarbeitung der bisher existierenden Grammatikwerke betroffen sind.
  13. Helbig, H.: Wissensverarbeitung und die Semantik der natürlichen Sprache : Wissensrepräsentation mit MultiNet (2008) 0.04
    0.035576276 = product of:
      0.1423051 = sum of:
        0.1423051 = weight(_text_:grammatik in 2731) [ClassicSimilarity], result of:
          0.1423051 = score(doc=2731,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.4466909 = fieldWeight in 2731, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
      0.25 = coord(1/4)
    
    Abstract
    Das Buch gibt eine umfassende Darstellung einer Methodik zur Interpretation und Bedeutungsrepräsentation natürlichsprachlicher Ausdrücke. Diese Methodik der "Mehrschichtigen Erweiterten Semantischen Netze", das sogenannte MultiNet-Paradigma, ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Im ersten Teil des zweiteiligen Buches werden grundlegende Probleme der semantischen Repräsentation von Wissen bzw. der semantischen Interpretation natürlichsprachlicher Phänomene behandelt. Der zweite Teil enthält eine systematische Zusammenstellung des gesamten Repertoires von Darstellungsmitteln, die jeweils nach einem einheitlichen Schema beschrieben werden. Er dient als Kompendium der im Buch verwendeten formalen Beschreibungsmittel von MultiNet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation im Rahmen der automatischen Sprachverarbeitung sichern. Hierzu gehören: eine Werkbank für den Wissensingenieur, ein Übersetzungssystem zur automatischen Gewinnung von Bedeutungsdarstellungen natürlichsprachlicher Sätze und eine Werkbank für den Computerlexikographen. Der Inhalt des Buches beruht auf jahrzehntelanger Forschung auf dem Gebiet der automatischen Sprachverarbeitung und wurde mit Vorlesungen zur Künstlichen Intelligenz und Wissensverarbeitung an der TU Dresden und der FernUniversität Hagen wiederholt in der Hochschullehre eingesetzt. Als Vorkenntnisse werden beim Leser lediglich Grundlagen der traditionellen Grammatik und elementare Kenntnisse der Prädikatenlogik vorausgesetzt.
  14. Holenstein, E.: Menschliches Selbstverständnis : Ichbewußtsein, intersubjektive Verantwortung, interkulturelle Verständigung (1985) 0.04
    0.035576276 = product of:
      0.1423051 = sum of:
        0.1423051 = weight(_text_:grammatik in 4088) [ClassicSimilarity], result of:
          0.1423051 = score(doc=4088,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.4466909 = fieldWeight in 4088, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4088)
      0.25 = coord(1/4)
    
    Abstract
    Gegen das ego- und ratiozentrische Selbstverständnis des Menschen, wie es in der europäischen Philosophie der Neuzeit vorherrschend war und in unserem Jahrhundert noch einmal von der Husserlschen Phänomenologie bekräftigt wurde, arbeitet Holenstein in diesen Studien - auf unterschiedlichen theoretischen Ebenen - an der "Dezentrierung" des Selbstbewusstseins. Weder kann das Ich im Wahrnehmungsraum als "Nullpunkt der Orientierung" gelten, da dieser Raum vielmehr polyzentrisch organisiert ist, noch rechtfertigt die "eigentümliche Grammatik des Wortes 'ich'" die Vorstellung, die im Ichbewusstsein den sicheren Ausgangspunkt von Erkenntnis sieht; mit dem Gebrauch des Wortes 'ich' bezeugt der Sprecher vielmehr seine eigene Relativität und siedelt sich in einem komplexen Rollenspiel zwischen 'Subjekt des Sprechaktes' und 'Subjekt der Aussage' an.
  15. Fischer, W.L.: Äquivalenz- und Toleranzstrukturen in der Linguistik : zur Theorie der Synonyma (1973) 0.04
    0.03521872 = product of:
      0.14087488 = sum of:
        0.14087488 = weight(_text_:grammatik in 66) [ClassicSimilarity], result of:
          0.14087488 = score(doc=66,freq=4.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.44220144 = fieldWeight in 66, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.02734375 = fieldNorm(doc=66)
      0.25 = coord(1/4)
    
    Abstract
    In verschiedenen Bereichen der Linguistik, im Strukturalismus, in der mathematischen Text- und Literaturtheorie spielen Äquivalenzrelationen als mathematische Modelle für empirische Relationen eine zentrale Rolle. Ohne im Einzelfall um einen detaillierten Nachweis bemüht zu sein, geht man im allgemeinen davon aus, daß die Gesetze, die eine Äquivalenzrelation in abstracto charakterisieren, in dem von der Äquivalenzstruktur modellierten realen Phänomen erfüllt sind. Bei genauer Analyse der jeweiligen Situation zeigt es sich jedoch häufig, daß die betreffenden empirischen Relationen nicht allen charakteristischen Eigenschaften der Äquivalenzrelationen genügen bzw. daß es große Schwierigkeiten bereitet, die Gültigkeit z.B. der Eigenschaft der Transitivität nachzuweisen. In all diesen Fällen schlagen wir daher vor, der abstrakten Modellbildung einen schwächeren Begriff, den der "Toleranzrelation" (bzw. des "Toleranzraumes") zugrundezulegen. In den Teilen 1. und 2. stellen wir die formalen Theorien der Äquivalenzrelationen und der Toleranzrelationen einander gegenüber und zeigen, wie sich beide in die Methodologie der Wissenschaften einordnen. In Teil 3. zeigen wir am Problembereich des Synonymenbegriffs inwiefern die schwächere Struktur des Toleranzraumes in vielen Fällen die konkrete Situation angemessener darstellt als ein Äquivalenzgebilde. Wir werden in diesem Zusammenhang die Elemente der von einer Toleranzrelation induzierten Topologie entwickeln und die Grundbeziehungen einer entsprechenden Topologisierung des Wortraumes einer gegebenen Sprache vorstellen. Die letztgenannte Modellstruktur, die zu einer Topologisierung von Worträumen Anlaß gibt, läßt sich auch ausgehend von Modellvorstellungen der inhaltbezogenen Grammatik motivieren. Von zentraler Bedeutung ist dort der Begriff des Wortfeldes. Wir werden mit diesem Begriff bewußt keine physikalischen Vorstellungen verbinden. Zu "Kraft" und "Kraftlinien" im physikalischen Modell lassen sich im (indogermanischen) Sprachbereich im Sinne der inhaltbezogenen Grammatik nur sehr dürftige Entsprechungen finden, die wenigstens in einigen ihrer Eigenschaften den Bezug auf die physikalischen Begriffe "Kraft" und "Kraftlinie" rechtfertigten. Physikalische Analogien scheinen im Zusammenhang mit dem Wortfeld` nur den metaphorischen Charakter eines hermeneutischen Gefasels zu haben.
  16. Devlin, K.: ¬Das Mathe-Gen : oder wie sich das mathematische Denken entwickelt und warum Sie Zahlen ruhig vergessen können (2001) 0.03
    0.030809963 = product of:
      0.12323985 = sum of:
        0.12323985 = weight(_text_:grammatik in 4019) [ClassicSimilarity], result of:
          0.12323985 = score(doc=4019,freq=6.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.3868457 = fieldWeight in 4019, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4019)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft 2002, H.4, S.104-105 (S. Welke): "Wenn es ein Gen für Mathematik-Begabung gäbe, würden die vielen Menschen, denen Mathematik eine Quälerei ist, das vielleicht als Trost empfinden. Dann wären sie ja nicht selbst für ihre schlechten Noten verantwortlich ... Pech gehabt, sagt der Mathematiker, Wissenschaftsjournalist und Sachbuchautor Keith Devlin. Es gibt nämlich gar kein Mathe-Gen. Die Eigenschaften, die den Menschen zum Betreiben von Mathematik befähigen, sind dieselben, die ihm auch Sprechen und abstraktes Denken ermöglichen. Ohne Sprache keine Mathematik. Zur Begründung führt er den Leser auf eine Gedankenreise durch Mathematik, Sprachwissenschaft und Evolutionstheorie. Auf der ersten Station dieser Reise fasst er zusammen, was er bereits in "Muster der Mathematik" (Spektrum Akademischer Verlag, Heidelberg 1998) ausgebreitet hat: Mathematik ist die Wissenschaft von den Mustern - realen oder vorgestellten. Es kann sich um geometrische, logische oder auch grammatische Muster handeln. In einem eigenen Kapitel erläutert Devlin das mit Beispielen aus Geometrie und Gruppentheorie. Zahlen sind nur ein Aspekt unter vielen, und Mathematik beginnt erst da, wo der Zahlensinn aufhört. Darauf bezieht sich der zweite Teil des Untertitels. Und da für Devlin das menschliche Gehirn keine Rechenmaschine ist, sondern ein Apparat zur Mustererkennung, ist es bestens für die Beschäftigung mit Mathematik geeignet. Professionelle Mathematiker denken zwar zweifellos anders als andere Menschen, aber sie haben keine anderen Gehirne. Numerische und algorithmische Kompetenz, die Fähigkeit zu abstrahieren und Bezüge herzustellen, der Sinn für Ursache und Wirkung und damit die Fähigkeit, eine längere Kausalkette zu konstruieren und zu verfolgen, logisches Denken und räumliches Vorstellungsvermögen sind nach Devlin die Fähigkeiten, die den Menschen in die Lage versetzen, Mathematik zu betreiben. Lässt man den ersten und den letzten Punkt dieser Aufzählung fort, dann wird klar, wie Devlin zu seiner Kernaussage von der gemeinsamen Wurzel von Mathematik und Sprache gelangt. - Offline-Denken - Dazu zitiert Devlin ausgiebig Fachleute auf den Gebieten der biologischen und der Sprachevolution und gibt dann seine eigene Interpretation, die von den Erkenntnissen der Fachleute nicht gerade erzwungen, aber doch plausibel gemacht wird. Sprache ist für ihn mehr als bloße Kommunikation. Im Gegensatz zu Protosprachen wie dem - durchaus Information vermittelnden - Schwänzeltanz der Bienen hat sie eine Struktur, eine Grammatik. Nach den Forschungsergebnissen des Linguisten Noam Chomsky und seiner Nachfolger ist die Grundstruktur dieser Grammatik in allen menschlichen Sprachen im Wesentlichen dieselbe. Damit ist belegt, dass allen Menschen eine Fähigkeit zur Musterbildung gemeinsam ist - und damit auch eine Fähigkeit zur Mathematik. Devlin geht noch einen Schritt weiter. Im Gegensatz zur gängigen Ansicht sei Kommunikation nicht die evolutionäre Triebkraft der Entwicklung zur grammatisch strukturierten Sprache, sondern deren Neben- oder Folgeeffekt, ein "Nebenprodukt der Fähigkeit unserer Urahnen, die Welt, in der sie lebten, mehr und mehr zu verstehen - sowohl ihre physische Umgebung als auch ihre zunehmend komplexer werdende soziale Welt". Der entscheidende Entwicklungsschritt zum Verstehen der Welt ist in seinen Augen die Fähigkeit zum "offline- Denken". Gemeint ist die Fähigkeit, äußere Reize zu simulieren, sich eine Vorstellung von - etwa - einem Mammut zu machen, ohne es leibhaftig vor Augen zu haben. In der Folge kann das Gehirn Strukturen, insbesondere eine Grammatik, in der Vorstellung selbst bilden.
  17. Chomsky, N.: Aspects of the theory of syntax (1965) 0.03
    0.028598402 = product of:
      0.11439361 = sum of:
        0.11439361 = product of:
          0.1715904 = sum of:
            0.08618284 = weight(_text_:29 in 3829) [ClassicSimilarity], result of:
              0.08618284 = score(doc=3829,freq=2.0), product of:
                0.13859212 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039398648 = queryNorm
                0.6218451 = fieldWeight in 3829, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=3829)
            0.08540756 = weight(_text_:22 in 3829) [ClassicSimilarity], result of:
              0.08540756 = score(doc=3829,freq=2.0), product of:
                0.13796735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039398648 = queryNorm
                0.61904186 = fieldWeight in 3829, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=3829)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    6. 1.1999 10:29:22
  18. Patzig, G.: Sprache und Logik (1981) 0.03
    0.02846102 = product of:
      0.11384408 = sum of:
        0.11384408 = weight(_text_:grammatik in 5344) [ClassicSimilarity], result of:
          0.11384408 = score(doc=5344,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.3573527 = fieldWeight in 5344, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.03125 = fieldNorm(doc=5344)
      0.25 = coord(1/4)
    
    Abstract
    Die drei Abschnitte dieses Buches sind - um es gleich vorweg zu sagen - Teile aus einem größeren Zusammenhang, der mich schon seit einigen Jahren beschäftigt. Ein in Göttingen 1963/64 gehaltenes Kolleg mit dem Thema "Logik, Sprache, Wirklichkeit" schritt in einem ersten Durchgang den Bereich der Untersuchung ab. Dabei erschien es mir als das sinnvollste Verfahren, der Reihe nach das Verhältnis von Sprache und Logik, von Sprache und Wirklichkeit sowie schließlich das Verhältnis von Logik und Wirklichkeit zu untersuchen. Es schien die Hoffnung berechtigt, bei einem solchen Vorgehen zugleich auch größere Klarheit über die jeweils paarweise in Beziehung stehenden Grundsachgebiete selbst zu gewinnen. Die schnelle Entwicklung im Bereich der Sprachwissenschaft seit dem Auftreten der generativen Grammatik und einige schwierige technische Fragen, z.B. die des Zusammenhangs der sog. "mehrwertigen" Logiken und der Modallogik mit den Grundlagen der Physik haben die Ausführung des Programms erheblich verzögert. Das verbreitete und wohl noch zunehmende Interesse an den hier angeschnittenen Fragen kann aber, so meine ich, eine Veröffentlichung von vorläufigen Ergebnissen des Gedankenganges rechtfertigen. Ich habe mich bemüht, dafür zu sorgen, daß jeder der folgenden Abschnitte aus sich verständlich ist. Der erste Abschnitt behandelt in elementarer Darstellung das Verhältnis der Logik zur natürlichen Sprache. Der zweite Abschnitt untersucht dann auf etwas höherer Reflexionsebene das Verhältnis von wahrem Satz und Tatsache. Dabei wurde ich von der Überzeugung geleitet, daß die problemreiche Beziehung-von Sprache und Wirklichkeit ihre exemplarische Ausprägung im Verhältnis von Satz und Tatsache findet. Anstelle einer sachlich eigentlich anschließenden Erörterung der Beziehungen von Logik und Wirklichkeit (die notwendig sehr in technische Einzelheiten von Logik und Physik hätte gehen müssen) ist ein Text über "Gottlob Freges logische Analyse der Sprache" aufgenommen worden. Er soll vor allem zeigen, wieviele grundsätzliche Einsichten und wichtige Methoden der gegenwärtigen philosophischen Diskussion auf Frege zurückgehen - freilich ohne daß dies den Teilnehmern an dieser Diskussion immer bewußt wäre. "Sprache und Logik" geht auf einen Vortrag zurück, den ich außer in Göttingen auch, auf Einladung der Kongreßleitung, 1968 vor dem Germanistenkongreß in Berlin sowie in Zürich und Braunschweig gehalten habe. Den Diskussionsteilnehmern, besonders aber meinem Kollegen Felix Martinez-Bonati (Valdivia) und den Herren Dr. Bubser und Dr. Frede (Göttingen) verdanke ich wichtige Hinweise zur Verbesserung von Inhalt und Formulierung. "Satz und Tatsache" ist die überarbeitete und erweiterte Fassung meines Beitrags zur Festschrift für Josef König, Göttingen 1964. Die frühere Fassung ist in der philosophischen Literatur öfters zitiert worden; auch deshalb schien es sinnvoll, sie interessierten Lesern leichter zugänglich zu machen und den Neudruck zur Überarbeitung zu nutzen. Der Text ist u. a. an den Universitäten Erlangen, Frankfurt und Princeton (USA) vorgetragen worden; auch in diesem Fall habe ich den Diskussionen Vorschläge zur Korrektur entnommen. "Gottlob Freges logische Analyse der Sprache" schließlich, ursprünglich 1967 als Radiovortrag für den Schweizer Rundfunk geschrieben, wird im vorliegenden Band zum ersten Male gedruckt.
  19. Foucault, M.: ¬Die Ordnung der Dinge : eine Archäologie der Humanwissenschaften (2002) 0.02
    0.024903392 = product of:
      0.09961357 = sum of:
        0.09961357 = weight(_text_:grammatik in 708) [ClassicSimilarity], result of:
          0.09961357 = score(doc=708,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.3126836 = fieldWeight in 708, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.02734375 = fieldNorm(doc=708)
      0.25 = coord(1/4)
    
    Content
    Inhalt: War das Denksystem der Renaissance vom bestimmenden Prinzip der Verwandtschaft der Dinge untereinander gekennzeichnet, so existiere laut Foucault im klassischen Zeitalter eine neue, wesentlich andere Ordnung, in der es sich »nicht mehr um die Frage der Ähnlichkeiten, sondern um die der Identitäten und der Unterschiede handelt«. Diese Änderung des Denksystems erklärt Foucault im Einzelnen durch einen Rückgriff auf die Semiotik, in dem er für das klassische Zeitalter eine neue »dualistische Theorie des Zeichens« feststellt, welche drei Elemente impliziere: »das, was markiert wurde, das, was markierend war, und das, was gestattete, im Einem die Markierung des Anderen zu sehen.« Dieses auf der Repräsentation basierende Zeichensystem sei die Grundlage einer allgemeinen Ordnungswissenschaft gewesen, deren Begriffsraster Foucault rekonstruiert. Anschließend zeichnet er dieses System in drei scheinbar unterschiedlichen Teildiskurse der Zeit, in der allgemeinen Grammatik, in der Naturgeschichte und in der Analyse der Reichtümer, nach. So leite sich beispielsweise der Wert vom Geld nicht mehr aus seinem Edelmetallbestand ab, sondern aus der auf ihm abgebildeten Repräsentation des Souveräns. Im zweiten Teil des Werks widmet sich Foucault einem erneuten Wandel des Denksystems im 18. Jahrhundert: in einer Analyse schildert er, wie aus der Betonung der Zirkulation von Geld die bestimmende Rolle der Arbeit entstanden sei, wie die Analyse der äußeren Merkmale von Pflanzen und Tieren in der Naturgeschichte der Vorstellung von Organisation und Funktion in der sich formierenden Biologie gewichen sei, und wie anstelle einer reinen Kategorisierung der Unterschiede der Sprachen durch die Entdeckung der Flexion ihre gemeinsamen Verbindungen festgestellt wurden. Wirkung: Für Foucault habe seine »Archäologie des Denkens« weit reichende Folgen für die menschliche Existenz. Indem er der Sprache eine konstituierende Rolle einräumt, relativiert er gleichzeitig die bisweilen als absolut empfundene Bedeutung der menschlichen Vernunft. Daher proklamiert er den Tod des Menschen als autonomes Wesen, was die teils sehr kritische Rezeption des Werks erklärt.
  20. Simon, T.: ¬Die Positionierung einer Universitäts- und Hochschulbibliothek in der Wissensgesellschaft : eine bibliothekspolitische und strategische Betrachtung (2006) 0.02
    0.024903392 = product of:
      0.09961357 = sum of:
        0.09961357 = weight(_text_:grammatik in 2615) [ClassicSimilarity], result of:
          0.09961357 = score(doc=2615,freq=2.0), product of:
            0.31857625 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.039398648 = queryNorm
            0.3126836 = fieldWeight in 2615, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2615)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Mitt. VÖB 61(2008) H.4, S.168-171 (A. Brandtner): "Die vorliegende Veröffentlichung von Theresia Simon, Professorin für Betriebswirtschaft im Studiengang Wirtschaftsinformatik und E-Business an der Hochschule Ravensburg-Weingarten, basiert auf einer Dissertation an der Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität Potsdam, die im Dezember 2004 abgeschlossen wurde. Zentrales Anliegen der Arbeit ist es, in einer Zeit eines diagnostizierten Umbruchs die Strategiediskussionen von Universitäts- und Hochschulbibliotheken aus der Perspektive einer Einzelorganisation kritisch zu unterstützen, um deren Erfolgspositionen im Wettbewerb zu stärken. Dabei geht die Studie richtigerweise davon aus, dass die Entwicklung hin zur Wissensgesellschaft keinesfalls den Organisationstyp Bibliothek automatisch begünstigt, obwohl die bibliothekarische Gemeinschaft konform zu den Grundwerten der Wissensgesellschaft agiert. Erst durch intensive Positionierungsarbeit kann es Bibliotheken gelingen, am Informationsmarkt langfristig erfolgreich zu bleiben. Erklärte Zielgruppe der Studie ist das Bibliotheksmanagement. . . . Im abschließenden sechsten Kapitel behandelt die Studie den Einfluss ergänzender Entscheidungsfelder eines integrierten Managements auf die Bibliothekspositionierung. Dabei verbleibt sie allerdings ganz im allgemeinen Managementwissen und erarbeitet keine bibliotheksspezifischen Ansätze. Dass Lernen (im Sinn der Lernenden Organisation) ein fokussierender Metaaspekt einer zukunftsorientierten Bibliotheksentwicklung ist, dass Human Resource Management, Leistungsmessung und organisationsstrukturelle Modernisierung die Bibliotheksentwicklung unterstützen, kann aktuell als Allgemeinplatz angesehen werden. So redundant wie dieses Abschlusskapitel sind die über die Arbeit verstreuten zahlreichen Kurzreferate verwendeter - bzw. bei genauerer Betrachtung: teilweise bloß anzitierter - Theorien und Methoden (z.B. die Exkurse zu Amitai Etzionis Identitäts-Konzept, zu Thomas S. Kuhns Paradigma- Begriff oder zu Niklas Luhmanns Konstruktion der System-Umwelt-Differenz), ärgerlich die zahlreichen Grammatik-Fehler. Darüber hinaus ist vieles, worüber Simon schreibt, der Bibliothekswelt gut bekannt und sehr bewusst. Dennoch beinhaltet die Arbeit eine Reihe von Anregungen zur strategischen Positionierung von Bibliotheken und kann daher dem Bibliotheksmanagement zur selektiven Lektüre empfohlen werden."

Languages

  • d 311
  • e 299
  • m 6
  • f 4
  • de 1
  • fi 1
  • pl 1
  • More… Less…

Types

  • s 122
  • i 32
  • el 6
  • b 5
  • d 2
  • x 2
  • n 1
  • u 1
  • More… Less…

Themes

Subjects

Classifications