Search (13 results, page 1 of 1)

  • × classification_ss:"ST 300"
  1. Stuckenschmidt, H.: Ontologien : Konzepte, Technologien und Anwendungen (2009) 0.02
    0.021457946 = product of:
      0.04291589 = sum of:
        0.04291589 = product of:
          0.08583178 = sum of:
            0.08583178 = weight(_text_:buch in 37) [ClassicSimilarity], result of:
              0.08583178 = score(doc=37,freq=2.0), product of:
                0.23869918 = queryWeight, product of:
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.05134011 = queryNorm
                0.35958138 = fieldWeight in 37, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=37)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Ontologien haben durch die aktuellen Entwicklungen des Semantic Web große Beachtung erfahren, da jetzt Technologien bereitgestellt werden, die eine Verwendung von Ontologien in Informationssystemen ermöglichen. Beginnend mit den grundlegenden Konzepten und Ideen von Ontologien, die der Philosophie und Linguistik entstammen, stellt das Buch den aktuellen Stand der Technik im Bereich unterstützender Technologien aus der Semantic Web Forschung dar und zeigt vielversprechende Anwendungsbiete auf.
  2. Schank, R.C.; Childers, P.G.: ¬Die Zukunft der künstlichen Intelligenz : Chancen und Risiken (1986) 0.02
    0.018392524 = product of:
      0.036785048 = sum of:
        0.036785048 = product of:
          0.073570095 = sum of:
            0.073570095 = weight(_text_:buch in 3708) [ClassicSimilarity], result of:
              0.073570095 = score(doc=3708,freq=2.0), product of:
                0.23869918 = queryWeight, product of:
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.05134011 = queryNorm
                0.3082126 = fieldWeight in 3708, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3708)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Dieses Buch handelt vom Wesen der menschlichen Intelligenz und davon, was es bedeuten würde, über 'Maschinen-Intelligenz' zu verfügen. Schon immer war es Ziel und Wunschtraum genialer Denker und Erfinder, die 'denkende Maschine' als Hilfsapparat für den Menschen zu konstruieren. Erst in unserer Zeit nähern wir uns mit Unterstützung des Computers der Verwirklichung der in der Tat hochfliegenden Pläne. Die Öffentlichkeit hat die Künstliche Intelligenz entdeckt, ist aber nicht ganz sicher, was das eigentlich ist. Schließlich müssen wir die Frage, was Computer können, parallel zu der Frage betrachten, WAS MENSCHEN KÖNNEN. Es fällt daher bis heute selbst den Fachleuten außerordentlich schwer, den Computer-Maschinen das Denken beizubringen.
  3. Günther, G.: ¬Das Bewußtsein der Maschinen : Sammlung ; eine Metaphysik der Kybernetik (2002) 0.02
    0.018392524 = product of:
      0.036785048 = sum of:
        0.036785048 = product of:
          0.073570095 = sum of:
            0.073570095 = weight(_text_:buch in 474) [ClassicSimilarity], result of:
              0.073570095 = score(doc=474,freq=8.0), product of:
                0.23869918 = queryWeight, product of:
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.05134011 = queryNorm
                0.3082126 = fieldWeight in 474, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=474)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Buch 'Das Bewusstsein der Maschinen' des deutsch-amerikanischen Philosophen und Logikers Gotthard Günther (1900-1984) erschien bereits 1957 und in einer erweiterten 2. Auflage im Jahr 1963. Was damals sensationell wirkte, ist heute Bestandteil unseres philosophischen Bewusstseins geworden: die Hereinnahme der Kybernetik nicht nur in unsere praktisch-technische Welt, sondern auch in die philosophische Spekulation wie in unsere soziologische Reflexion. Immer aber noch ist die Lektüre der Güntherschen Theoreme und Einsichten für Wissenschaftler wie auch für den Laien aufregend, die Revolutionierung unseres gesamten Denkens offenbar. Daß die maschinelle Intelligenz den Leistungen des menschlichen Bewusstseins überlegen sein kann - wer bestreitet das heute noch? Daß aber mit dem Maschinenbewusstsein die alten Denkgewohnheiten des Menschen aus den Angeln gehoben und alle klassischen Schemata wie auch die dialektische Spekulation auf einen mehr oder minder aufwendigen Schutthaufen geworfen sind - dagegen werden die philosophischen Lehrstühle sich noch lange wehren. - Auch diese erweiterte Auflage des Güntherschen Buches ist kein Abschluß und kein System, sondern Frage und Anregung zur Metaphysik unseres Jahrhunderts. Die jetzt nach etwa 40 Jahren erneut aufgelegte und nochmals erweiterte Ausgabe ist - betrachtet man den heutigen Stand der Diskussionen um die Themen 'Künstliche Intelligenz', 'Maschinelles Lernen' oder 'Maschinenbewusstsein' - nicht nur aus philosophischer sondern vor allem aus wissenschaftslogischer Sicht seiner Zeit immer noch weit voraus. Dies begründet sich insbesondere darin, dass Gotthard Günther nicht nur einen Entwurf geliefert, sondern im Verlauf seiner wissenschaftlichen Tätigkeiten am Biological Computer Laboratory (BCL) in Illinois (Urbana) auch die Grundlagen zu einer nichtaristotelischen Logik gelegt hat, die sich am besten unter dem Begriff 'Theorie polykontexturaler Systeme' subsumieren lassen.
    Das Buch stellt jedoch keine grundlegende (theoretische) Einführung in die Theorie der polykontexturalen Systeme dar und erfordert daher auch keine tieferen Kenntnisse über formale Logik, sondern ist - wie viele der Arbeiten Günthers - eine Sammlung mehrerer philosophischer Aufsätze zu den Themen 'Robotik', 'Künstliche Intelligenz' und 'Maschinenbewusstsein'. Allerdings diskutiert Günther diese Themen vor dem Hintergrund einer erweiterten Logik, die er zunächst als mehrwertige und später als mehrstellige und im Verlauf der weiteren Entwicklung seiner Theorie als polykontexturale Logik bezeichnet. Für die Lektüre genügen also elementare Kenntnisse einfacher logischer Verknüpfungen und/oder arithmetischer Relationen. Dieses Buch eignet sich daher vortrefflich als 'Einstiegslektüre' in die philosophischen Arbeiten Gotthard Günthers und ist auch für den fachlich interessierten Laien eine anregende und vor allen Dingen eine verständlich und logisch klar geschriebene Darstellung grundlegender philosophischer Fragen zu den Themen 'Bewusstsein' oder 'Selbstbewusstsein' und deren möglicher oder eben nicht möglicher technischer Realisierung.
    In dem Buch werden Themen wie z. B. der Gegensatz der kulturellen Vorstellung des faustischen Homunkulus auf der einen Seite und der des Robots auf der anderen Seite in geradezu spannender Art und Weise behandelt. In dem Beitrag 'Erkennen und Wollen' werden der scheinbare Gegensatz der Prozesse des Erkennens ('am Anfang war das Wort') und des Wollens ('am Anfang war die Tat') und die kulturellen Hintergründe dieser heute immer noch vorherrschenden dichotomen, d. h., zweigeteilten 'Entweder-Oder'-Vorstellung in der abendländischen Kultur diskutiert. Gerade dieser Beitrag, der in der vorliegenden Auflage neu hinzugekommen ist, bietet natürlich auch Anregungen für die Entwicklung intelligenter technischer Systeme - es handelt sich also um einen Aufsatz, der durchaus auch in einer Fachzeitschrift für künstliche Intelligenz hätte stehen können und der nicht nur für den Fachmann sondern auch für den interessierten und gebildeten Laien verständlich ist. Da Gotthard Günther neben Philosophie und Logik auch Indologie, klassisches Chinesisch, Sanskrit und vergleichende Religionswissenschaften studiert hat, kann sich der Leser über kleinere, kompetent geführte geistige Ausflüge in andere Kulturen erfreuen und sich zu weiteren Studien anregen lassen. Das ist im Zeitalter der Globalisierung sicherlich ein zusätzlicher Gewinn. Eine kurze Biographie Gotthard Günthers sowie eine kleine Einführung in seine Arbeiten sollen dem Leser nicht nur den Zugang zu diesem Autor und seinem Werk erleichtern, sondern ihm auch die Möglichkeit einer Zuordnung seiner Arbeiten - und das betrifft vor allem auch die Theorie der Polykontexturalität - vor dem Hintergrund der heutigen Gehirn- und künstlichen Intelligenz-Forschung geben. (Joachim Paul)
  4. New directions in cognitive information retrieval (2005) 0.02
    0.015327103 = product of:
      0.030654207 = sum of:
        0.030654207 = product of:
          0.061308414 = sum of:
            0.061308414 = weight(_text_:buch in 338) [ClassicSimilarity], result of:
              0.061308414 = score(doc=338,freq=8.0), product of:
                0.23869918 = queryWeight, product of:
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.05134011 = queryNorm
                0.25684384 = fieldWeight in 338, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=338)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.3, S.95-98 (O. Oberhauser): "Dieser Sammelband der Herausgeber A. Spink & C. Cole ist kurz vor ihrem im letzten Heft der Mitteilungen der VÖB besprochenen zweiten Buch erschienen. Er wendet sich an Informationswissenschaftler, Bibliothekare, Sozialwissenschaftler sowie Informatiker mit Interesse am Themenbereich Mensch-Computer-Interaktion und präsentiert einen Einblick in die aktuelle Forschung zum kognitiv orientierten Information Retrieval. Diese Richtung, die von der Analyse der Informationsprobleme der Benutzer und deren kognitivem Verhalten bei der Benutzung von Informationssystemen ausgeht, steht in einem gewissen Kontrast zum traditionell vorherrschenden IR-Paradigma, das sich auf die Optimierung der IR-Systeme und ihrer Effizienz konzentriert. "Cognitive information retrieval" oder CIR (natürlich geht es auch hier nicht ohne ein weiteres Akronym ab) ist ein interdisziplinärer Forschungsbereich, der Aktivitäten aus Informationswissenschaft, Informatik, Humanwissenschaften, Kognitionswissenschaft, Mensch-Computer-Interaktion und anderen informationsbezogenen Gebieten inkludiert.
    New Directions ist nach demselben, durchaus ansprechenden Muster "gestrickt" wie das oben erwähnte zweite Buch (tatsächlich war es ja wohl umgekehrt) Der vorliegende Band beinhaltet ebenfalls zwölf Beiträge ("Kapitel"), die in fünf Sektionen dargeboten werden, wobei es sich bei den Sektionen 1 und 5 (=Kapitel 1 und 12) um Einleitung und Zusammenschau der Herausgeber handelt. Erstere ist eine Übersicht über die Gliederung und die Beiträge des Buches, die jeweils mit Abstracts beschrieben werden. Letztere dagegen möchte ein eigenständiger Beitrag sein, der die in diesem Band angesprochenen Aspekte in einen gemeinsamen Bezugsrahmen stellt; de facto ist dies aber weniger gut gelungen als im zweiten Buch, zumal hier hauptsächlich eine Wiederholung des früher Gesagten geboten wird. Die Beiträge aus den drei verbleibenden Hauptsektionen sollen im Folgenden kurz charakterisiert werden:
    Sämtliche Beiträge sind von hohem Niveau und bieten anspruchsvolle Lektüre. Verallgemeinert formuliert, fragen sie nach der Verknüpfung zwischen dem breiteren Kontext des Warum und Wie der menschlichen Informationssuche und den technischen bzw. sonstigen Randbedingungen, die die Interaktion zwischen Benutzern und Systemen bestimmen. Natürlich liegt hier kein Hand- oder Lehrbuch vor, sodass man - fairerweise - nicht von einer systematischen Behandlung dieses Themenbereichs oder einem didaktischen Aufbau ausgehen bzw. derlei erwarten darf. Das Buch bietet jedenfalls einen guten und vielfältigen Einstieg und Einblick in dieses interessante Forschungsgebiet. Fachlich einschlägige und größere allgemeine Bibliotheken sollten es daher jedenfalls in ihren Bestand aufnehmen. Schon die Rezension des oben zitierten zweiten Buches des Herausgeber-Duos Spink-Cole enthielt einen kritischen Hinweis auf das dortige Sachregister. Der vorliegende Band erfordert noch stärkere Nerven, denn der hier als "Index" bezeichnete Seitenfüller spottet geradezu jeder Beschreibung, umso mehr, als wir uns in einem informationswissenschaftlichen Kontext befi nden. Was soll man denn tatsächlich mit Einträgen wie "information" anfangen, noch dazu, wenn dazu über 150 verschiedene Seitenzahlen angegeben werden? Ähnlich verhält es sich mit anderen allgemeinen Begriffen wie z.B. "knowledge", "model", "tasks", "use", "users" - allesamt mit einer gewaltigen Menge von Seitenzahlen versehen und damit ohne Wert! Dieses der Leserschaft wenig dienliche Register ist wohl dem Verlag anzulasten, auch wenn die Herausgeber selbst seine Urheber gewesen sein sollten. Davon abgesehen wurde wieder einmal ein solide gefertigter Band vorgelegt, der allerdings wegen seines hohen Preis eher nur institutionelle Käufer ansprechen wird."
  5. Schnetker, M.F.J.: Transhumanistische Mythologie : Rechte Utopien einer technologischen Erlösung durch künstliche Intelligenz (2019) 0.02
    0.015327103 = product of:
      0.030654207 = sum of:
        0.030654207 = product of:
          0.061308414 = sum of:
            0.061308414 = weight(_text_:buch in 5332) [ClassicSimilarity], result of:
              0.061308414 = score(doc=5332,freq=2.0), product of:
                0.23869918 = queryWeight, product of:
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.05134011 = queryNorm
                0.25684384 = fieldWeight in 5332, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5332)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Unter den neuen Machteliten, die das Silicon Valley hervorgebracht hat, macht neuerdings eine Sorge die Runde, die nichts Geringeres betrifft als die Zukunft der Menschheit: Was, wenn die Erforschung künstlicher Intelligenz am Ende eine künstliche Gottheit hervorbringt, die uns alle vernichtet? Während die einen vor dem Untergang warnen, prophezeien die anderen, dass uns die göttlichen Maschinen in ein digitales Himmelreich führen werden. Doch bei genauem Hinsehen entpuppt sich die Vision beider Seiten als Mythologie ohne Bezug zur Realität. Trotzdem werden unter dem Deckmantel des Kampfes gegen die digitale Apokalypse autoritäre Politikformen normalisiert, Ausbeutung vorangetrieben und Eugenik salonfähig gemacht. Das vorliegende Buch ist eine ideologiekritische Analyse der Mythologien um superintelligente KI. Dabei zeigt sich, dass die Grundlagen dieser Mythologien keineswegs so neu sind, wie ihr Gegenstand uns glauben machen könnte. Vielmehr wiederholen sich hier - in technologischem Gewand und scheinbar säkularisiert - alte Ideen der protestantischen Rechten. Noch drehen sie sich nur um die Zurichtung für die Erfordernisse des digitalisierten Kapitalismus und die Radikalisierung seines Glücksversprechens. Doch die Grundlagen für eine autoritäre Wende sind im Glauben an die Superintelligenz bereits angelegt. Es wird Zeit, die Ideologie des Transhumanismus genauer in den Blick zu nehmen, weil sie das Potenzial hat, sich zu einer Herrschaftsmythologie des digitalen Zeitalters zu entwickeln.
  6. Shanahan, M.: ¬ Die technologische Singularität (2021) 0.02
    0.015327103 = product of:
      0.030654207 = sum of:
        0.030654207 = product of:
          0.061308414 = sum of:
            0.061308414 = weight(_text_:buch in 196) [ClassicSimilarity], result of:
              0.061308414 = score(doc=196,freq=2.0), product of:
                0.23869918 = queryWeight, product of:
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.05134011 = queryNorm
                0.25684384 = fieldWeight in 196, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=196)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Kognitionswissenschaftler Murray Shanahan befasst sich in seinem neuen Buch mit künstlicher Intelligenz und ihrer Bewusstwerdung. >Technologische Singularität< bezeichnet den Zeitpunkt, an dem von künstlicher Intelligenz gesteuerte Maschinen sich fortlaufend selbst so zu verbessern imstande sind, dass sie sich der Beherrschung durch Menschenhand entziehen. Der Robotikspezialist Murray Shanahan beschreibt die unterschiedlichen derzeit weltweit vorangetriebenen technologischen Entwicklungen, die zu einem solchen Ereignis führen können. Er führt auf verständliche Weise in die komplexen Forschungen ein, die unsere nächste Zukunft verändern werden. Aus der Perspektive eines Praktikers beschäftigt er sich mit der Frage, ob künstliche Intelligenz über Bewusstsein verfügen kann, und entwickelt moralische Ansätze zu einem verantwortlichen Umgang mit dieser zumeist als Katastrophenszenario gezeichneten Zukunftsfantasie.
  7. Moravec, H.: Computer übernehmen die Macht : Vom Siegeszug der künstlichen Intelligenz (1999) 0.01
    0.012261683 = product of:
      0.024523366 = sum of:
        0.024523366 = product of:
          0.049046732 = sum of:
            0.049046732 = weight(_text_:buch in 1853) [ClassicSimilarity], result of:
              0.049046732 = score(doc=1853,freq=2.0), product of:
                0.23869918 = queryWeight, product of:
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.05134011 = queryNorm
                0.20547508 = fieldWeight in 1853, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1853)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Dieses Buch ist Science-fiction ohne "Fiction". Es ist irrsinniger als irgendetwas, was man jemals in Star Trek gesehen hat. Hans Moravec, Professor für Robotik an der Carnegie-Mellon University in Pittsburgh, stellt sich eine nicht allzu ferne Zukunft vor, in der Roboter mit übermenschlicher Intelligenz den evolutionären Stab ihrer menschlichen Erschaffer übernehmen und sich in den Weltraum aufmachen, um das Universum zu kolonisieren. Millionen von Science-fiction-Taschenbüchern haben diese Vision bereits zum Thema gehabt. Der Unterschied zu ihnen liegt jedoch in Moravecs praktisch durchdachtem Entwurf der technologischen, ökonomischen und sozialen Schritte, die zu dieser Vision führen könnten. Beginnend mit den bescheidenen Errungenschaften der gegenwärtigen Robotikforschung, entwirft er einen wahrscheinlichen Kurs für die nächsten vierzig Jahre der Roboterentwicklung und prophezeit den Aufstieg von superintelligenten, kreativen, emotional komplexen Computerwesen und damit das Ende der menschlichen Arbeit bis zur Mitte des nächsten Jahrhunderts. An dieser Stelle beginnen seine Visionen erst richtig kühn zu werden: Roboterverbände werden sich zusammen mit Banden von Cyborgs -- bionische Menschen -- im Weltraum ansiedeln; Roboter so groß wie Planeten werden auf der Suche nach kleineren Einheiten, die sie sich einverleiben können, durchs Sonnensystem fliegen; und letztendlich wird jedes Atom in der gesamten Galaxis zu einem Datenträger umgewandelt, mit einer Simulation der menschlichen Zivilisation in Originalgröße, die irgendwo als Unterprogramm läuft. Das letzte Kapitel, das das Neueste vom Neuesten in der avantgardistischen Physik mit Spuren von Borges' mitreißendsten metaphysischen Phantasien vermischt, ist ein atemberaubendes Stück halluzinatorische Eschatologie. Moravec schließt damit, daran zu erinnert, daß sogar die verrücktesten Langzeitprognosen über die technologische Zukunft letztendlich nie so verrückt sind, wie sie es hätten sein können.
  8. Precht, R.D.: Künstliche Intelligenz und der Sinn des Lebens (2020) 0.01
    0.012261683 = product of:
      0.024523366 = sum of:
        0.024523366 = product of:
          0.049046732 = sum of:
            0.049046732 = weight(_text_:buch in 5977) [ClassicSimilarity], result of:
              0.049046732 = score(doc=5977,freq=2.0), product of:
                0.23869918 = queryWeight, product of:
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.05134011 = queryNorm
                0.20547508 = fieldWeight in 5977, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5977)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Während die drohende Klimakatastrophe und der enorme Ressourcenverbrauch der Menschheit den Planeten zerstört, machen sich Informatiker und Ingenieure daran, die Entwicklung einer Künstlichen Intelligenz voranzutreiben, die alles das können soll, was wir Menschen auch können - nur vielfach »optimierter«. Ausgehend von völlig falschen Annahmen soll den Maschinen sogar eine menschenähnliche Moral einprogrammiert werden. Richard David Precht macht uns eindringlich klar, dass das nicht möglich ist. Denn unser Leben besteht nicht aus der Abfolge vorausberechneter Schritte. Wir sind viel mehr als das. "Der Philosoph Precht formuliert bisweilen zwar sehr salopp, aber er verfügt über eine Reihe von unbestreitbaren Vorzügen. Vor allem: Er löst, auch durch seine durchaus in einem anregenden Sinn ganz eigene Zugangsweise, Diskussionen aus und vermag denkend zu provozieren. Darum verdient dieses populärphilosophische Buch weder euphorische Zustimmung noch empörte Abweisung, sondern eine substanziell fundierte, kontroverse Diskussion - vielleicht mit Bezug auf die Frage, die Platon in der Politeia als wesentlich benannt hat: In der Philosophie gelte es nämlich darüber nachzudenken, auf welche Weise wir leben wollen." (literaturkritik.de)
  9. Zur Konstruktion künstlicher Gehirne (2009) 0.01
    0.012261683 = product of:
      0.024523366 = sum of:
        0.024523366 = product of:
          0.049046732 = sum of:
            0.049046732 = weight(_text_:buch in 77) [ClassicSimilarity], result of:
              0.049046732 = score(doc=77,freq=2.0), product of:
                0.23869918 = queryWeight, product of:
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.05134011 = queryNorm
                0.20547508 = fieldWeight in 77, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.03125 = fieldNorm(doc=77)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In diesem Buch wird eine erste Generation von künstlichen Hirnen für das Sehen vorgestellt. Auf der ausschließlichen Grundlage von Neuron- und Synapsenmodellen wird ein Objekterkennungssystem konstruiert, welches eine Merkmalspyramide mit 8 Orientierungen und 5 Auflösungsskalen für 1000 Objekte sowie die Netze für die Bindung von Merkmalen zu Objekten umfasst. Dieses Sehsystem kann unabhängig von der Beleuchtung, dem Gesichtausdruck, der Entfernung und einer Drehung, welche die Objektkomponenten sichtbar lässt, Objekte erkennen. Seine Realisierung erfordert 59 Chips - davon sind 4 verschieden - welche mittels 3D Technologie zu einem Quader von 8mm x 8mm x 1mm aufgeschichtet sind. Die Leistungsfähigkeit des neuronal-synaptischen Netzwerkes beruht auf der Einführung von schnell veränderlichen dynamischen Synapsen. Anders als Netze mit konstanten Synapsen können solche mit dynamischen Synapsen allgemeine Aufgaben der Mustererkennung übernehmen. Die raum-zeitliche Korrelationsstruktur von Mustern wird durch eine einzige synaptische Differentialgleichung in universeller Weise erfasst. Die Korrelation kann in Erscheinung treten als synchrone Pulstätigkeit einer Neurongruppe, wodurch das Vorliegen eines Merkmals in robuster Weise angezeigt wird, oder als Bindung von Merkmalen zu Objekten.
  10. Semantische Technologien : Grundlagen - Konzepte - Anwendungen (2012) 0.01
    0.010728973 = product of:
      0.021457946 = sum of:
        0.021457946 = product of:
          0.04291589 = sum of:
            0.04291589 = weight(_text_:buch in 167) [ClassicSimilarity], result of:
              0.04291589 = score(doc=167,freq=2.0), product of:
                0.23869918 = queryWeight, product of:
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.05134011 = queryNorm
                0.17979069 = fieldWeight in 167, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=167)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen, Potentiale und Anwendungen Semantischer Technologien. Es richtet sich an Studierende der Informatik und angrenzender Fächer sowie an Entwickler, die Semantische Technologien am Arbeitsplatz oder in verteilten Applikationen nutzen möchten. Mit seiner an praktischen Beispielen orientierten Darstellung gibt es aber auch Anwendern und Entscheidern in Unternehmen einen breiten Überblick über Nutzen und Möglichkeiten dieser Technologie. Semantische Technologien versetzen Computer in die Lage, Informationen nicht nur zu speichern und wieder zu finden, sondern sie ihrer Bedeutung entsprechend auszuwerten, zu verbinden, zu Neuem zu verknüpfen, und so flexibel und zielgerichtet nützliche Leistungen zu erbringen. Das vorliegende Buch stellt im ersten Teil die als Semantische Technologien bezeichneten Techniken, Sprachen und Repräsentationsformalismen vor. Diese Elemente erlauben es, das in Informationen enthaltene Wissen formal und damit für den Computer verarbeitbar zu beschreiben, Konzepte und Beziehungen darzustellen und schließlich Inhalte zu erfragen, zu erschließen und in Netzen zugänglich zu machen. Der zweite Teil beschreibt, wie mit Semantischen Technologien elementare Funktionen und umfassende Dienste der Informations- und Wissensverarbeitung realisiert werden können. Hierzu gehören etwa die Annotation und das Erschließen von Information, die Suche in den resultierenden Strukturen, das Erklären von Bedeutungszusammenhängen sowie die Integration einzelner Komponenten in komplexe Ablaufprozesse und Anwendungslösungen. Der dritte Teil beschreibt schließlich vielfältige Anwendungsbeispiele in unterschiedlichen Bereichen und illustriert so Mehrwert, Potenzial und Grenzen von Semantischen Technologien. Die dargestellten Systeme reichen von Werkzeugen für persönliches, individuelles Informationsmanagement über Unterstützungsfunktionen für Gruppen bis hin zu neuen Ansätzen im Internet der Dinge und Dienste, einschließlich der Integration verschiedener Medien und Anwendungen von Medizin bis Musik.
  11. Tegmark, M.: Leben 3.0 : Mensch sein im Zeitalter Künstlicher Intelligenz (2017) 0.01
    0.010728973 = product of:
      0.021457946 = sum of:
        0.021457946 = product of:
          0.04291589 = sum of:
            0.04291589 = weight(_text_:buch in 4558) [ClassicSimilarity], result of:
              0.04291589 = score(doc=4558,freq=2.0), product of:
                0.23869918 = queryWeight, product of:
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.05134011 = queryNorm
                0.17979069 = fieldWeight in 4558, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4558)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Was bei der Lektüre des Buchs positiv auffällt: Der Autor bewertet diese ethischen Fragen nicht, sondern stellt sie offen in den Raum. Sein Ton ist sachlich, nüchtern und frei von jedem Alarmismus. Anders als der häufig apodiktisch argumentierende Kurzweil stellt Tegmark seine Zukunftsszenarien nicht als Unabänderlichkeit dar, sondern als gestaltbaren Möglichkeitsraum. Im jetzigen Stadium der Entwicklung könne der Mensch die Weichen noch stellen - er müsse sich nur entscheiden. Darin kann man auch eine versteckte Kritik an den Programmierern lesen, die sich häufig hinter der analytischen Formel des "Problemlösens" verstecken, aber keine nachhaltigen Gesellschaftsmodelle entwickeln. Die KI wird gesellschaftliche Hierarchien verändern, vielleicht sogar neu strukturieren - daran lässt Tegmark keinen Zweifel. Sein Buch ist eine luzide, wenn auch nicht immer erbauliche Vermessung. Einzig das Schlusskapitel über Bewusstseinstheorien und einige Anspielungen auf Konferenzteilnehmer, die wohl nur Insidern ein Begriff sind, wären verzichtbar gewesen. Ansonsten ist es ein überaus gelungenes Werk, das dem Leser als Kompass durch die Irrungen und Wirrungen künstlicher Intelligenz gereicht."
  12. Lenzen, M.: Künstliche Intelligenz : was sie kann & was uns erwartet (2018) 0.01
    0.008694845 = product of:
      0.01738969 = sum of:
        0.01738969 = product of:
          0.03477938 = sum of:
            0.03477938 = weight(_text_:22 in 4295) [ClassicSimilarity], result of:
              0.03477938 = score(doc=4295,freq=2.0), product of:
                0.17978431 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05134011 = queryNorm
                0.19345059 = fieldWeight in 4295, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4295)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    18. 6.2018 19:22:02
  13. Euzenat, J.; Shvaiko, P.: Ontology matching (2010) 0.01
    0.006955876 = product of:
      0.013911752 = sum of:
        0.013911752 = product of:
          0.027823504 = sum of:
            0.027823504 = weight(_text_:22 in 168) [ClassicSimilarity], result of:
              0.027823504 = score(doc=168,freq=2.0), product of:
                0.17978431 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05134011 = queryNorm
                0.15476047 = fieldWeight in 168, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=168)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    20. 6.2012 19:08:22

Years

Languages

  • d 10
  • e 3

Types

  • m 13
  • s 3

Subjects