Search (14 results, page 1 of 1)

  • × classification_ss:"54.72 / Künstliche Intelligenz"
  1. Stuckenschmidt, H.; Harmelen, F. van: Information sharing on the semantic web (2005) 0.01
    0.0057840827 = product of:
      0.014460206 = sum of:
        0.009381617 = product of:
          0.028144851 = sum of:
            0.028144851 = weight(_text_:f in 2789) [ClassicSimilarity], result of:
              0.028144851 = score(doc=2789,freq=2.0), product of:
                0.12782328 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03206978 = queryNorm
                0.22018565 = fieldWeight in 2789, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2789)
          0.33333334 = coord(1/3)
        0.005078588 = product of:
          0.020314353 = sum of:
            0.020314353 = weight(_text_:einer in 2789) [ClassicSimilarity], result of:
              0.020314353 = score(doc=2789,freq=2.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.18706435 = fieldWeight in 2789, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2789)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Das wachsende Informationsvolumen im WWW führt paradoxerweise zu einer immer schwierigeren Nutzung, das Finden und Verknüpfen von Informationen in einem unstrukturierten Umfeld wird zur Sisyphosarbeit. Hier versprechen Semantic-Web-Ansätze Abhilfe. Die Autoren beschreiben Technologien, wie eine semantische Integration verteilter Daten durch verteilte Ontologien erreicht werden kann. Diese Techniken sind sowohl für Forscher als auch für Professionals interessant, die z.B. die Integration von Produktdaten aus verteilten Datenbanken im WWW oder von lose miteinander verbunden Anwendungen in verteilten Organisationen implementieren sollen.
  2. Bizer, C.; Heath, T.: Linked Data : evolving the web into a global data space (2011) 0.00
    0.0039053552 = product of:
      0.019526776 = sum of:
        0.019526776 = product of:
          0.058580324 = sum of:
            0.058580324 = weight(_text_:themes in 4725) [ClassicSimilarity], result of:
              0.058580324 = score(doc=4725,freq=2.0), product of:
                0.20617755 = queryWeight, product of:
                  6.429029 = idf(docFreq=193, maxDocs=44218)
                  0.03206978 = queryNorm
                0.28412563 = fieldWeight in 4725, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.429029 = idf(docFreq=193, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4725)
          0.33333334 = coord(1/3)
      0.2 = coord(1/5)
    
    Abstract
    The World Wide Web has enabled the creation of a global information space comprising linked documents. As the Web becomes ever more enmeshed with our daily lives, there is a growing desire for direct access to raw data not currently available on the Web or bound up in hypertext documents. Linked Data provides a publishing paradigm in which not only documents, but also data, can be a first class citizen of the Web, thereby enabling the extension of the Web with a global data space based on open standards - the Web of Data. In this Synthesis lecture we provide readers with a detailed technical introduction to Linked Data. We begin by outlining the basic principles of Linked Data, including coverage of relevant aspects of Web architecture. The remainder of the text is based around two main themes - the publication and consumption of Linked Data. Drawing on a practical Linked Data scenario, we provide guidance and best practices on: architectural approaches to publishing Linked Data; choosing URIs and vocabularies to identify and describe resources; deciding what data to return in a description of a resource on the Web; methods and frameworks for automated linking of data sets; and testing and debugging approaches for Linked Data deployments. We give an overview of existing Linked Data applications and then examine the architectures that are used to consume Linked Data from the Web, alongside existing tools and frameworks that enable these. Readers can expect to gain a rich technical understanding of Linked Data fundamentals, as the basis for application development, research or further study.
  3. Münkel, A. (Red.): Computer.Gehirn : was kann der Mensch? Was können die Computer? ; Begleitpublikation zur Sonderausstellung im Heinz-Nixdorf-MuseumsForum (2001) 0.00
    0.0018763235 = product of:
      0.009381617 = sum of:
        0.009381617 = product of:
          0.028144851 = sum of:
            0.028144851 = weight(_text_:f in 491) [ClassicSimilarity], result of:
              0.028144851 = score(doc=491,freq=2.0), product of:
                0.12782328 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03206978 = queryNorm
                0.22018565 = fieldWeight in 491, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=491)
          0.33333334 = coord(1/3)
      0.2 = coord(1/5)
    
    Content
    Enthält auch die Beiträge: BROOKS, R.A.: Künstliche Intelligenz und Roboterentwicklung - RITTER, H.: Die Evolution der künstlichen Intelligenz - ENGEL, A.K. u. W. SINGER: Neuronale Grundlagen des Bewußtseins - METZINGER, T.: Postbiotisches Bewußtsein: wie man ein künstliches Subjekt baut - und warum wir es nicht tun sollten - HARA, F.: Gesichtsrobotik und emotional computing
  4. Erbarth, M.: Wissensrepräsentation mit semantischen Netzen : Grundlagen mit einem Anwendungsbeispiel für das Multi-Channel-Publishing (2006) 0.00
    0.0017592745 = product of:
      0.008796372 = sum of:
        0.008796372 = product of:
          0.03518549 = sum of:
            0.03518549 = weight(_text_:einer in 714) [ClassicSimilarity], result of:
              0.03518549 = score(doc=714,freq=6.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.32400495 = fieldWeight in 714, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=714)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Abstract
    "Wir ertrinken in Informationen, aber uns dürstet nach Wissen." Trendforscher John Naisbitt drückt hiermit aus, dass es dem Menschen heute nicht mehr möglich ist die Informationsflut, die sich über ihn ergießt, effizient zu verwerten. Er lebt in einer globalisierten Welt mit einem vielfältigen Angebot an Medien, wie Presse, Radio, Fernsehen und dem Internet. Die Problematik der mangelnden Auswertbarkeit von großen Informationsmengen ist dabei vor allem im Internet akut. Die Quantität, Verbreitung, Aktualität und Verfügbarkeit sind die großen Vorteile des World Wide Web (WWW). Die Probleme liegen in der Qualität und Dichte der Informationen. Das Information Retrieval muss effizienter gestaltet werden, um den wirtschaftlichen und kulturellen Nutzen einer vernetzten Welt zu erhalten.Matthias Erbarth beleuchtet zunächst genau diesen Themenkomplex, um im Anschluss ein Format für elektronische Dokumente, insbesondere kommerzielle Publikationen, zu entwickeln. Dieses Anwendungsbeispiel stellt eine semantische Inhaltsbeschreibung mit Metadaten mittels XML vor, wobei durch Nutzung von Verweisen und Auswertung von Zusammenhängen insbesondere eine netzförmige Darstellung berücksichtigt wird.
    Footnote
    Zugl.: Pforzheim, Hochschule, Diplomarbeit, 2002 u.d.T.: Erbarth, Matthias: Abbildung einer Publikation als semantisches Netz unter Verwendung von XML-Technologien
  5. Bibel, W.; Hölldobler, S.; Schaub, T.: Wissensrepräsentation und Inferenz : eine grundlegende Einführung (1993) 0.00
    0.0017592745 = product of:
      0.008796372 = sum of:
        0.008796372 = product of:
          0.03518549 = sum of:
            0.03518549 = weight(_text_:einer in 3389) [ClassicSimilarity], result of:
              0.03518549 = score(doc=3389,freq=6.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.32400495 = fieldWeight in 3389, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3389)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Abstract
    Das Gebiet der Wissenspräsentation und Inferenz umfaßt einen zentralen Bereich der Intellektik, d.h. des Gebietes der Künstlichen Intelligenz und der Kognitionswissenschaft. Es behandelt einerseits die Fragen nach einer formalen Beschreibung von Wissen jeglicher Art, besonders unter dem Aspekt einer maschinellen Verarbeitung in modernen Computern. Andererseits versucht es, das Alltagsschließen des Menschen so zu formalisieren, daß logische Schlüsse auch von Maschinen ausgeführt werden könnten. Das Buch gibt eine ausführliche Einführung in dieses umfangreiche Gebiet. Dem Studenten dient es im Rahmen einer solchen Vorlesung oder zum Selbststudium als umfassende Unterlage, und der Praktiker zieht einen großen Gewinn aus der Lektüre dieses modernen Stoffes, der in dieser Breite bisher nicht verfügbar war. Darüber hinaus leistet das Buch einen wichtigen Beitrag zur Forschung dadurch, daß viele Ansätze auf diesem Gebiet in ihren inneren Bezügen in ihrer Bedeutung klarer erkennbar w erden und so eine solide Basis für die zukünftige Forschungsarbeit geschaffen ist. Der Leser ist nach der Lektüre dieses Werkes in der Lage, sich mit Details der Wissenspräsentation und Inferenz auseinanderzusetzen.
  6. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.00
    0.0016251482 = product of:
      0.008125741 = sum of:
        0.008125741 = product of:
          0.032502964 = sum of:
            0.032502964 = weight(_text_:einer in 642) [ClassicSimilarity], result of:
              0.032502964 = score(doc=642,freq=8.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.29930297 = fieldWeight in 642, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03125 = fieldNorm(doc=642)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
  7. Handbuch der Künstlichen Intelligenz (2003) 0.00
    0.0015207544 = product of:
      0.007603772 = sum of:
        0.007603772 = product of:
          0.030415088 = sum of:
            0.030415088 = weight(_text_:22 in 2916) [ClassicSimilarity], result of:
              0.030415088 = score(doc=2916,freq=2.0), product of:
                0.11230291 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03206978 = queryNorm
                0.2708308 = fieldWeight in 2916, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2916)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Date
    21. 3.2008 19:10:22
  8. Hüsken, P.: Informationssuche im Semantic Web : Methoden des Information Retrieval für die Wissensrepräsentation (2006) 0.00
    0.0012188613 = product of:
      0.0060943062 = sum of:
        0.0060943062 = product of:
          0.024377225 = sum of:
            0.024377225 = weight(_text_:einer in 4332) [ClassicSimilarity], result of:
              0.024377225 = score(doc=4332,freq=2.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.22447723 = fieldWeight in 4332, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4332)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
  9. Hermans, J.: Ontologiebasiertes Information Retrieval für das Wissensmanagement (2008) 0.00
    0.0011491533 = product of:
      0.0057457667 = sum of:
        0.0057457667 = product of:
          0.022983067 = sum of:
            0.022983067 = weight(_text_:einer in 506) [ClassicSimilarity], result of:
              0.022983067 = score(doc=506,freq=4.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.21163915 = fieldWeight in 506, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03125 = fieldNorm(doc=506)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Abstract
    Unternehmen sehen sich heutzutage regelmäßig der Herausforderung gegenübergestellt, aus umfangreichen Mengen an Dokumenten schnell relevante Informationen zu identifizieren. Dabei zeigt sich jedoch, dass Suchverfahren, die lediglich syntaktische Abgleiche von Informationsbedarfen mit potenziell relevanten Dokumenten durchführen, häufig nicht die an sie gestellten Erwartungen erfüllen. Viel versprechendes Potenzial bietet hier der Einsatz von Ontologien für das Information Retrieval. Beim ontologiebasierten Information Retrieval werden Ontologien eingesetzt, um Wissen in einer Form abzubilden, die durch Informationssysteme verarbeitet werden kann. Eine Berücksichtigung des so explizierten Wissens durch Suchalgorithmen führt dann zu einer optimierten Deckung von Informationsbedarfen. Jan Hermans stellt in seinem Buch ein adaptives Referenzmodell für die Entwicklung von ontologiebasierten Information Retrieval-Systemen vor. Zentrales Element seines Modells ist die einsatzkontextspezifische Adaption des Retrievalprozesses durch bewährte Techniken, die ausgewählte Aspekte des ontologiebasierten Information Retrievals bereits effektiv und effizient unterstützen. Die Anwendung des Referenzmodells wird anhand eines Fallbeispiels illustriert, bei dem ein Information Retrieval-System für die Suche nach Open Source-Komponenten entwickelt wird. Das Buch richtet sich gleichermaßen an Dozenten und Studierende der Wirtschaftsinformatik, Informatik und Betriebswirtschaftslehre sowie an Praktiker, die die Informationssuche im Unternehmen verbessern möchten. Jan Hermans, Jahrgang 1978, studierte Wirtschaftsinformatik an der Westfälischen Wilhelms-Universität in Münster. Seit 2003 war er als Wissenschaftlicher Mitarbeiter am European Research Center for Information Systems der WWU Münster tätig. Seine Forschungsschwerpunkte lagen in den Bereichen Wissensmanagement und Information Retrieval. Im Mai 2008 erfolgte seine Promotion zum Doktor der Wirtschaftswissenschaften.
  10. Beierle, C.; Kern-Isberner, G.: Methoden wissensbasierter Systeme : Grundlagen, Algorithmen, Anwendungen (2008) 0.00
    0.0011491533 = product of:
      0.0057457667 = sum of:
        0.0057457667 = product of:
          0.022983067 = sum of:
            0.022983067 = weight(_text_:einer in 4622) [ClassicSimilarity], result of:
              0.022983067 = score(doc=4622,freq=4.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.21163915 = fieldWeight in 4622, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4622)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Abstract
    Dieses Buch präsentiert ein breites Spektrum aktueller Methoden zur Repräsentation und Verarbeitung (un)sicheren Wissens in maschinellen Systemen in didaktisch aufbereiteter Form. Neben symbolischen Ansätzen des nichtmonotonen Schließens (Default-Logik, hier konstruktiv und leicht verständlich mittels sog. Default-Bäume realisiert) werden auch ausführlich quantitative Methoden wie z.B. probabilistische Markov- und Bayes-Netze vorgestellt. Weitere Abschnitte beschäftigen sich mit Wissensdynamik (Truth Maintenance-Systeme), Aktionen und Planen, maschinellem Lernen, Data Mining und fallbasiertem Schließen.In einem vertieften Querschnitt werden zentrale alternative Ansätze einer logikbasierten Wissensmodellierung ausführlich behandelt. Detailliert beschriebene Algorithmen geben dem Praktiker nützliche Hinweise zur Anwendung der vorgestellten Ansätze an die Hand, während fundiertes Hintergrundwissen ein tieferes Verständnis für die Besonderheiten der einzelnen Methoden vermittelt . Mit einer weitgehend vollständigen Darstellung des Stoffes und zahlreichen, in den Text integrierten Aufgaben ist das Buch für ein Selbststudium konzipiert, eignet sich aber gleichermaßen für eine entsprechende Vorlesung. Im Online-Service zu diesem Buch werden u.a. ausführliche Lösungshinweise zu allen Aufgaben des Buches angeboten.Zahlreiche Beispiele mit medizinischem, biologischem, wirtschaftlichem und technischem Hintergrund illustrieren konkrete Anwendungsszenarien. Von namhaften Professoren empfohlen: State-of-the-Art bietet das Buch zu diesem klassischen Bereich der Informatik. Die wesentlichen Methoden wissensbasierter Systeme werden verständlich und anschaulich dargestellt. Repräsentation und Verarbeitung sicheren und unsicheren Wissens in maschinellen Systemen stehen dabei im Mittelpunkt. In der vierten, verbesserten Auflage wurde die Anzahl der motivierenden Selbsttestaufgaben mit aktuellem Praxisbezug nochmals erweitert. Ein Online-Service mit ausführlichen Musterlösungen erleichtert das Lernen.
  11. Hofstadter, D.R.: I am a strange loop (2007) 0.00
    0.0010749346 = product of:
      0.005374673 = sum of:
        0.005374673 = product of:
          0.021498691 = sum of:
            0.021498691 = weight(_text_:einer in 666) [ClassicSimilarity], result of:
              0.021498691 = score(doc=666,freq=14.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.1979703 = fieldWeight in 666, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.015625 = fieldNorm(doc=666)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in Spektrum der Wissenschaft 2007, H.9, S.93-94 (M.Gardner): "Unser Gehirn enthält einige hundert Mil-liarden Neuronen mit zehntausendmal so vielen Verbindungen zwischen ihnen. Durch welch unglaubliche Zauberei wird dieses Gewirr von Fäden seiner selbst bewusst, fähig, Liebe und Hass zu empfinden, Romane und Sinfonien zu schreiben, Lust und Schmerz zu fühlen und sich aus freiem Willen für Gut oder Böse zu entscheiden? Der australische Philosoph David Chalmers hat die Erklärung des Bewusstseins »das schwere Problem» genannt. Das leichte Problem ist, Unbewusstes wie Atmen, Verdauen, Gehen, Wahrnehmen und tausend andere Dinge zu verstehen. An dem schweren beißen sich Philosophen, Psychologen und Neurowissenschaftler zurzeit bevorzugt die Zähne aus und produzieren tausende Bücher. Ein aktuelles stammt von Douglas R. Hofstadter, Professor für Kognitionswissenschaft an der Universität von Indiana in Bloomington, der vor allem durch sein preisgekröntes Buch »Gödel, Escher, Bach» bekannt geworden ist. Sein neues Werk, so genial und provokant wie seine Vorgänger, ist eine bunte Mischung aus Spekulationen und Geschichten aus seinem Leben. Ein ganzes Kapitel ist einer persönlichen Tragödie gewidmet, die Hofstadter bis heute zu verarbeiten versucht: Im Dezember 1993 starb seine Frau Carol im Alter von 42 Jahren plötzlich an einem Hirntumor. In der Vorstellung von einem Leben nach dem Tod kann er keinen Trost finden; so bleibt ihm nur die Gewissheit, dass Carol in den Erinnerungen derer, die sie kannten und liebten, weiterleben wird - zumindest für eine gewisse Zeit.
    Das Buch ist voll von glücklichen Erinnerungen - und weniger glücklichen. Als er als Fünfzehnjähriger aufgefordert wurde, zwei Meerschweinchen auszuwählen, die für ein Laborexperiment getötet werden sollten, erlitt er einen Schwächeanfall. Seine heftige Abneigung gegen das Töten von Tieren machte ihn zum Vegetarier und später sogar zum Veganer, der nicht nur auf alle Nahrung tierischen Ursprungs verzichtet, sondern auch auf das Tragen von Lederschuhen und -gürteln. Wie sein großes Vorbild Albert Schweitzer leidet er unter Schuldgefühlen, wenn er eine Fliege klatscht. Auf vielen Seiten kommt Hofstadters große Liebe zur Musik zum Ausdruck. Er ist ein klassischer Pianist; seine Lieblingskomponisten sind Bach, Chopin und Prokofiew, während er Bartok nicht mag. Seine Liebe zur Poesie geht so weit, dass er, neben anderen Werken, Alexander Puschkins (1799-1837) großes Versepos »Eugen Onegin« aus dem Russischen ins Englische übersetzte. Ein im Buch abgedrucktes, pfiffiges Gedicht einer begeisterten Zuhörerin besingt ein Erlebnis, dem Hofstadter symbolische Bedeutung zuweist. Als er eines Tages einen Packen Briefumschläge anfasst, staunt er über die kleine Murmel, die in der Mitte eingeklemmt zu sein scheint. Es ist aber keine Murmel, sondern nur die Stelle, an der wegen der dort zusammentreffenden Papierlagen der Stapel dicker ist. In ähnlicher Weise, sagt Hofstadter, glauben wir unser Ich eingeklemmt zwischen den Neuronen unseres Gehirns wahrzunehmen.
    Die Murmel liefert das Hauptthema des Buchs. Die Seele, das Ich, ist eine Illusion. Es ist eine »seltsame Schleife« (a strange loop), die ihrerseits von einer Unzahl von Schleifen auf einem niedrigeren Niveau erzeugt wird. So kommt es, dass der Klumpen Materie innerhalb unseres Schädels nicht nur sich selbst beobachtet, sondern sich dessen auch bewusst ist. Seltsame, genauer: selbstbezügliche Schleifen faszinieren Hofstadter seit jeher. Er sieht sie überall. Sie sind das Herzstück von Gödels berühmtem Unbeweisbarkeitssatz. Sie lauern in den »Principia Mathematica« von Russell und Whitehead, stets bereit, die Fundamente der Mathematik zu untergraben. Ihre kürzeste Form sind logische Paradoxa wie »Dieser Satz ist falsch« oder die Karte, auf deren einer Seite steht »Der Satz auf der Rückseite ist wahr« und auf der anderen »Der Satz auf der Rückseite ist falsch«. In Kapitel 21 führt er ein verstörendes Gedankenexperiment ein, das auch Thema zahlreicher Sciencefiction-Geschichten ist: Ein Mann wird, wie in »Raumschiff Enterprise«, auf einen fremden Planeten und zurück gebeamt, indem eine Maschine ihn Molekül für Molekül abscannt und die Information an den Zielort übermittelt, wo sie zur Herstellung einer exakten Kopie dieses Menschen dient. Wenn dabei das Original zerstört wird, entsteht kein philosophisches Problem. Wenn es aber erhalten bleibt - oder mit derselben Information zwei Kopien hergestellt werden -, entsteht ein Paar identischer Zwillinge mit identischen Erinnerungen. Ist der so gebeamte Mensch derselbe wie das Original oder ein anderer?
    Einige wenige Mysterianer glauben, dass die Wissenschaft eines glorreichen Tages das Rätsel des Bewusstseins lüften wird. Penrose zum Beispiel ist davon überzeugt, dass das Mysterium einem tieferen Verständnis der Quantenmechanik weichen wird. Ich selbst gehöre zu einer radikaleren Fraktion. Wir halten es für den Gipfel der Selbstüberschätzung zu glauben, unser Gehirn sei der unübertreffliche Gipfel der Denkfähigkeit. Mit Sicherheit gibt es Wahrheiten, die unsere intellektuellen Fähigkeiten ebenso weit übersteigen wie unsere Weisheiten die intellektuellen Fähigkeiten einer Kuh. Warum hat das Universum eine mathematische Struktur? Warum gibt es sich, wie Stephen Hawking es ausdrückte, überhaupt die Mühe, zu existieren? Warum gibt es etwas und nicht nichts? Wie bringen die Schmetterlinge in unserem Hirn die seltsamen Schleifen des Bewusstseins zu Stande? Vielleicht kennen höherentwickelte Lebensformen in der Andromeda-Galaxie die Antworten. Ich kenne sie sicher nicht. Hofstadter und Dennett kennen sie nicht. Und Sie, verehrter Leser, auch nicht.
  12. Hofstadter, D.R.; Fluid Analogies Group: ¬Die FARGonauten : über Analogie und Kreativität (1996) 0.00
    0.0010157176 = product of:
      0.005078588 = sum of:
        0.005078588 = product of:
          0.020314353 = sum of:
            0.020314353 = weight(_text_:einer in 1665) [ClassicSimilarity], result of:
              0.020314353 = score(doc=1665,freq=2.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.18706435 = fieldWeight in 1665, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1665)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Abstract
    Bericht über die Arbeit einer Forschungsgruppe, die sich über ca. 15 Jahre mit Kreativität und Analogiefähigkeit von KI-Systemen (Künstlicher Intelligenz) beschäftigt haben. Die entscheidende Frage für Hofstadter und seine Crew, die Fluid Analogies Research Group, lautet: Können Computer Analogien erkennen, und ist nicht gerade diese Mustererkennung ein Zeichen von höherer Intelligenz? Was ist Kreativität anderes, als starre Formen, Sequenzen zu verflüssigen, um hinter das Geheimnis ihrer Zusammenhänge zu kommen und neue Muster bilden zu können? "Der liebe Gott würfelt nicht", meinte Einstein. Wenn er es dennoch täte, dann ergäbe die Zahlenfolge sicherlich ein Muster besonderer Art.
  13. Multimedia content and the Semantic Web : methods, standards, and tools (2005) 0.00
    9.407229E-4 = product of:
      0.0047036144 = sum of:
        0.0047036144 = product of:
          0.018814458 = sum of:
            0.018814458 = weight(_text_:22 in 150) [ClassicSimilarity], result of:
              0.018814458 = score(doc=150,freq=6.0), product of:
                0.11230291 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03206978 = queryNorm
                0.16753313 = fieldWeight in 150, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=150)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Classification
    006.7 22
    Date
    7. 3.2007 19:30:22
    DDC
    006.7 22
  14. Information visualization in data mining and knowledge discovery (2002) 0.00
    4.3450124E-4 = product of:
      0.0021725062 = sum of:
        0.0021725062 = product of:
          0.008690025 = sum of:
            0.008690025 = weight(_text_:22 in 1789) [ClassicSimilarity], result of:
              0.008690025 = score(doc=1789,freq=2.0), product of:
                0.11230291 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03206978 = queryNorm
                0.07738023 = fieldWeight in 1789, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1789)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Date
    23. 3.2008 19:10:22

Languages

Types

  • m 14
  • s 4

Subjects

Classifications