Search (28 results, page 1 of 2)

  • × classification_ss:"ST 300"
  1. New directions in cognitive information retrieval (2005) 0.05
    0.04593298 = product of:
      0.07874225 = sum of:
        0.011958744 = weight(_text_:information in 338) [ClassicSimilarity], result of:
          0.011958744 = score(doc=338,freq=32.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.19395474 = fieldWeight in 338, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.026102306 = weight(_text_:und in 338) [ClassicSimilarity], result of:
          0.026102306 = score(doc=338,freq=60.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.33531067 = fieldWeight in 338, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.007647147 = weight(_text_:for in 338) [ClassicSimilarity], result of:
          0.007647147 = score(doc=338,freq=10.0), product of:
            0.06594466 = queryWeight, product of:
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.035122856 = queryNorm
            0.1159631 = fieldWeight in 338, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.007636935 = weight(_text_:the in 338) [ClassicSimilarity], result of:
          0.007636935 = score(doc=338,freq=20.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.13781203 = fieldWeight in 338, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.0041089817 = weight(_text_:of in 338) [ClassicSimilarity], result of:
          0.0041089817 = score(doc=338,freq=6.0), product of:
            0.054923624 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.035122856 = queryNorm
            0.07481265 = fieldWeight in 338, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.007636935 = weight(_text_:the in 338) [ClassicSimilarity], result of:
          0.007636935 = score(doc=338,freq=20.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.13781203 = fieldWeight in 338, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.013651198 = product of:
          0.027302396 = sum of:
            0.027302396 = weight(_text_:communities in 338) [ClassicSimilarity], result of:
              0.027302396 = score(doc=338,freq=2.0), product of:
                0.18632571 = queryWeight, product of:
                  5.3049703 = idf(docFreq=596, maxDocs=44218)
                  0.035122856 = queryNorm
                0.14653048 = fieldWeight in 338, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3049703 = idf(docFreq=596, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=338)
          0.5 = coord(1/2)
      0.5833333 = coord(7/12)
    
    Classification
    ST 270 [Informatik # Monographien # Software und -entwicklung # Datenbanken, Datenbanksysteme, Data base management, Informationssysteme]
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.3, S.95-98 (O. Oberhauser): "Dieser Sammelband der Herausgeber A. Spink & C. Cole ist kurz vor ihrem im letzten Heft der Mitteilungen der VÖB besprochenen zweiten Buch erschienen. Er wendet sich an Informationswissenschaftler, Bibliothekare, Sozialwissenschaftler sowie Informatiker mit Interesse am Themenbereich Mensch-Computer-Interaktion und präsentiert einen Einblick in die aktuelle Forschung zum kognitiv orientierten Information Retrieval. Diese Richtung, die von der Analyse der Informationsprobleme der Benutzer und deren kognitivem Verhalten bei der Benutzung von Informationssystemen ausgeht, steht in einem gewissen Kontrast zum traditionell vorherrschenden IR-Paradigma, das sich auf die Optimierung der IR-Systeme und ihrer Effizienz konzentriert. "Cognitive information retrieval" oder CIR (natürlich geht es auch hier nicht ohne ein weiteres Akronym ab) ist ein interdisziplinärer Forschungsbereich, der Aktivitäten aus Informationswissenschaft, Informatik, Humanwissenschaften, Kognitionswissenschaft, Mensch-Computer-Interaktion und anderen informationsbezogenen Gebieten inkludiert.
    New Directions ist nach demselben, durchaus ansprechenden Muster "gestrickt" wie das oben erwähnte zweite Buch (tatsächlich war es ja wohl umgekehrt) Der vorliegende Band beinhaltet ebenfalls zwölf Beiträge ("Kapitel"), die in fünf Sektionen dargeboten werden, wobei es sich bei den Sektionen 1 und 5 (=Kapitel 1 und 12) um Einleitung und Zusammenschau der Herausgeber handelt. Erstere ist eine Übersicht über die Gliederung und die Beiträge des Buches, die jeweils mit Abstracts beschrieben werden. Letztere dagegen möchte ein eigenständiger Beitrag sein, der die in diesem Band angesprochenen Aspekte in einen gemeinsamen Bezugsrahmen stellt; de facto ist dies aber weniger gut gelungen als im zweiten Buch, zumal hier hauptsächlich eine Wiederholung des früher Gesagten geboten wird. Die Beiträge aus den drei verbleibenden Hauptsektionen sollen im Folgenden kurz charakterisiert werden:
    CIR Concepts - Interactive information retrieval: Bringing the user to a selection state, von Charles Cole et al. (Montréal), konzentriert sich auf den kognitiven Aspekt von Benutzern bei der Interaktion mit den bzw. der Reaktion auf die vom IR-System ausgesandten Stimuli; "selection" bezieht sich dabei auf die Auswahl, die das System den Benutzern abverlangt und die zur Veränderung ihrer Wissensstrukturen beiträgt. - Cognitive overlaps along the polyrepresentation continuum, von Birger Larsen und Peter Ingwersen (Kopenhagen), beschreibt einen auf Ingwersens Principle of Polyrepresentation beruhenden methodischen Ansatz, der dem IR-System ein breiteres Bild des Benutzers bzw. der Dokumente vermittelt als dies bei herkömmlichen, lediglich anfragebasierten Systemen möglich ist. - Integrating approaches to relevance, von Ian Ruthven (Glasgow), analysiert den Relevanzbegriff und schlägt anstelle des gegenwärtig in IR-Systemverwendeten, eindimensionalen Relevanzkonzepts eine multidimensionale Sichtweise vor. - New cognitive directions, von Nigel Ford (Sheffield), führt neue Begriffe ein: Ford schlägt anstelle von information need und information behaviour die Alternativen knowledge need und knowledge behaviour vor.
    CIR Processes - A multitasking framework for cognitive information retrieval, von Amanda Spink und Charles Cole (Australien/Kanada), sieht - im Gegensatz zu traditionellen Ansätzen - die simultane Bearbeitung verschiedener Aufgaben (Themen) während einer Informationssuche als den Normalfall an und analysiert das damit verbundene Benutzerverhalten. - Explanation in information seeking and retrieval, von Pertti Vakkari und Kalervo Järvelin (Tampere), plädiert anhand zweier empirischer Untersuchungen für die Verwendung des aufgabenorientierten Ansatzes ("task") in der IR-Forschung, gerade auch als Bindeglied zwischen nicht ausreichend mit einander kommunizierenden Disziplinen (Informationswissenschaft, Informatik, diverse Sozialwissenschaften). - Towards an alternative information retrieval system for children, von Jamshid Beheshti et al. (Montréal), berichtet über den Stand der IR-Forschung für Kinder und schlägt vor, eine Metapher aus dem Sozialkonstruktivismus (Lernen als soziales Verhandeln) als Gestaltungsprinzip für einschlägige IR-Systeme zu verwenden. CIR Techniques - Implicit feedback: using behavior to infer relevance, von Diane Kelly (North Carolina), setzt sich kritisch mit den Techniken zur Analyse des von Benutzern von IR-Systemen geäußerten Relevance-Feedbacks - explizit und implizit - auseinander. - Educational knowledge domain visualizations, von Peter Hook und Katy Börner (Indiana), beschreibt verschiedene Visualisierungstechniken zur Repräsentation von Wissensgebieten, die "Novizen" bei der Verwendung fachspezifischer IR-Systeme unterstützen sollen. - Learning and training to search, von Wendy Lucas und Heikki Topi (Massachusetts), analysiert, im breiteren Kontext der Information- Seeking-Forschung, Techniken zur Schulung von Benutzern von IRSystemen.
    Sämtliche Beiträge sind von hohem Niveau und bieten anspruchsvolle Lektüre. Verallgemeinert formuliert, fragen sie nach der Verknüpfung zwischen dem breiteren Kontext des Warum und Wie der menschlichen Informationssuche und den technischen bzw. sonstigen Randbedingungen, die die Interaktion zwischen Benutzern und Systemen bestimmen. Natürlich liegt hier kein Hand- oder Lehrbuch vor, sodass man - fairerweise - nicht von einer systematischen Behandlung dieses Themenbereichs oder einem didaktischen Aufbau ausgehen bzw. derlei erwarten darf. Das Buch bietet jedenfalls einen guten und vielfältigen Einstieg und Einblick in dieses interessante Forschungsgebiet. Fachlich einschlägige und größere allgemeine Bibliotheken sollten es daher jedenfalls in ihren Bestand aufnehmen. Schon die Rezension des oben zitierten zweiten Buches des Herausgeber-Duos Spink-Cole enthielt einen kritischen Hinweis auf das dortige Sachregister. Der vorliegende Band erfordert noch stärkere Nerven, denn der hier als "Index" bezeichnete Seitenfüller spottet geradezu jeder Beschreibung, umso mehr, als wir uns in einem informationswissenschaftlichen Kontext befi nden. Was soll man denn tatsächlich mit Einträgen wie "information" anfangen, noch dazu, wenn dazu über 150 verschiedene Seitenzahlen angegeben werden? Ähnlich verhält es sich mit anderen allgemeinen Begriffen wie z.B. "knowledge", "model", "tasks", "use", "users" - allesamt mit einer gewaltigen Menge von Seitenzahlen versehen und damit ohne Wert! Dieses der Leserschaft wenig dienliche Register ist wohl dem Verlag anzulasten, auch wenn die Herausgeber selbst seine Urheber gewesen sein sollten. Davon abgesehen wurde wieder einmal ein solide gefertigter Band vorgelegt, der allerdings wegen seines hohen Preis eher nur institutionelle Käufer ansprechen wird."
    Weitere Rez. in: JASIST 58(2007) no.5, S.758-760 (A. Gruzd): "Despite the minor drawbacks described, the book is a great source for researchers in the IR&S fields in general and in the CIR field in particular. Furthermore, different chapters of this book also might be of interest to members from other communities. For instance, librarians responsible for library instruction might find the chapter on search training by Lucas and Topi helpful in their work. Cognitive psychologists would probably be intrigued by Spink and Cole's view on multitasking. IR interface designers will likely find the chapter on KDV by Hook and Borner very beneficial. And students taking IR-related courses might find the thorough literature reviews by Ruthven and Kelly particularly useful when beginning their own research."
    LCSH
    Information retrieval ; Human / computer interaction
    RSWK
    Kognition / Informationsverarbeitung / Information Retrieval / Aufsatzsammlung
    RVK
    ST 270 [Informatik # Monographien # Software und -entwicklung # Datenbanken, Datenbanksysteme, Data base management, Informationssysteme]
    Series
    The information retrieval series, vol. 19
    Subject
    Kognition / Informationsverarbeitung / Information Retrieval / Aufsatzsammlung
    Information retrieval ; Human / computer interaction
  2. Stuart, D.: Practical ontologies for information professionals (2016) 0.03
    0.034459878 = product of:
      0.08270371 = sum of:
        0.01775783 = weight(_text_:information in 5152) [ClassicSimilarity], result of:
          0.01775783 = score(doc=5152,freq=36.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.2880081 = fieldWeight in 5152, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5152)
        0.015879571 = weight(_text_:for in 5152) [ClassicSimilarity], result of:
          0.015879571 = score(doc=5152,freq=22.0), product of:
            0.06594466 = queryWeight, product of:
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.035122856 = queryNorm
            0.2408015 = fieldWeight in 5152, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5152)
        0.01789065 = weight(_text_:the in 5152) [ClassicSimilarity], result of:
          0.01789065 = score(doc=5152,freq=56.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.3228451 = fieldWeight in 5152, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5152)
        0.013285002 = weight(_text_:of in 5152) [ClassicSimilarity], result of:
          0.013285002 = score(doc=5152,freq=32.0), product of:
            0.054923624 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.035122856 = queryNorm
            0.24188137 = fieldWeight in 5152, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5152)
        0.01789065 = weight(_text_:the in 5152) [ClassicSimilarity], result of:
          0.01789065 = score(doc=5152,freq=56.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.3228451 = fieldWeight in 5152, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5152)
      0.41666666 = coord(5/12)
    
    Abstract
    Practical Ontologies for Information Professionals provides an accessible introduction and exploration of ontologies and demonstrates their value to information professionals. More data and information is being created than ever before. Ontologies, formal representations of knowledge with rich semantic relationships, have become increasingly important in the context of today's information overload and data deluge. The publishing and sharing of explicit explanations for a wide variety of conceptualizations, in a machine readable format, has the power to both improve information retrieval and discover new knowledge. Information professionals are key contributors to the development of new, and increasingly useful, ontologies. Practical Ontologies for Information Professionals provides an accessible introduction to the following: defining the concept of ontologies and why they are increasingly important to information professionals ontologies and the semantic web existing ontologies, such as RDF, RDFS, SKOS, and OWL2 adopting and building ontologies, showing how to avoid repetition of work and how to build a simple ontology interrogating ontologies for reuse the future of ontologies and the role of the information professional in their development and use. This book will be useful reading for information professionals in libraries and other cultural heritage institutions who work with digitalization projects, cataloguing and classification and information retrieval. It will also be useful to LIS students who are new to the field.
    Content
    C H A P T E R 1 What is an ontology?; Introduction; The data deluge and information overload; Defining terms; Knowledge organization systems and ontologies; Ontologies, metadata and linked data; What can an ontology do?; Ontologies and information professionals; Alternatives to ontologies; The aims of this book; The structure of this book; C H A P T E R 2 Ontologies and the semantic web; Introduction; The semantic web and linked data; Resource Description Framework (RDF); Classes, subclasses and properties; The semantic web stack; Embedded RDF; Alternative semantic visionsLibraries and the semantic web; Other cultural heritage institutions and the semantic web; Other organizations and the semantic web; Conclusion; C H A P T E R 3 Existing ontologies; Introduction; Ontology documentation; Ontologies for representing ontologies; Ontologies for libraries; Upper ontologies; Cultural heritage data models; Ontologies for the web; Conclusion; C H A P T E R 4 Adopting ontologies; Introduction; Reusing ontologies: application profiles and data models; Identifying ontologies; The ideal ontology discovery tool; Selection criteria; Conclusion C H A P T E R 5 Building ontologiesIntroduction; Approaches to building an ontology; The twelve steps; Ontology development example: Bibliometric Metrics Ontology element set; Conclusion; C H A P T E R 6 Interrogating ontologies; Introduction; Interrogating ontologies for reuse; Interrogating a knowledge base; Understanding ontology use; Conclusion; C H A P T E R 7 The future of ontologies and the information professional; Introduction; The future of ontologies for knowledge discovery; The future role of library and information professionals; The practical development of ontologies
    LCSH
    Ontologies (Information retrieval)
    Subject
    Ontologies (Information retrieval)
  3. Euzenat, J.; Shvaiko, P.: Ontology matching (2010) 0.03
    0.032220755 = product of:
      0.06444151 = sum of:
        0.008285262 = weight(_text_:information in 168) [ClassicSimilarity], result of:
          0.008285262 = score(doc=168,freq=6.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.1343758 = fieldWeight in 168, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=168)
        0.009477528 = weight(_text_:for in 168) [ClassicSimilarity], result of:
          0.009477528 = score(doc=168,freq=6.0), product of:
            0.06594466 = queryWeight, product of:
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.035122856 = queryNorm
            0.14371942 = fieldWeight in 168, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.03125 = fieldNorm(doc=168)
        0.013931913 = weight(_text_:the in 168) [ClassicSimilarity], result of:
          0.013931913 = score(doc=168,freq=26.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.25140783 = fieldWeight in 168, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.03125 = fieldNorm(doc=168)
        0.009297564 = weight(_text_:of in 168) [ClassicSimilarity], result of:
          0.009297564 = score(doc=168,freq=12.0), product of:
            0.054923624 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.035122856 = queryNorm
            0.16928169 = fieldWeight in 168, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03125 = fieldNorm(doc=168)
        0.013931913 = weight(_text_:the in 168) [ClassicSimilarity], result of:
          0.013931913 = score(doc=168,freq=26.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.25140783 = fieldWeight in 168, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.03125 = fieldNorm(doc=168)
        0.009517324 = product of:
          0.019034648 = sum of:
            0.019034648 = weight(_text_:22 in 168) [ClassicSimilarity], result of:
              0.019034648 = score(doc=168,freq=2.0), product of:
                0.12299426 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035122856 = queryNorm
                0.15476047 = fieldWeight in 168, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=168)
          0.5 = coord(1/2)
      0.5 = coord(6/12)
    
    Abstract
    Ontologies are viewed as the silver bullet for many applications, but in open or evolving systems, different parties can adopt different ontologies. This increases heterogeneity problems rather than reducing heterogeneity. This book proposes ontology matching as a solution to the problem of semantic heterogeneity, offering researchers and practitioners a uniform framework of reference to currently available work. The techniques presented apply to database schema matching, catalog integration, XML schema matching and more. Ontologies tend to be found everywhere. They are viewed as the silver bullet for many applications, such as database integration, peer-to-peer systems, e-commerce, semantic web services, or social networks. However, in open or evolving systems, such as the semantic web, different parties would, in general, adopt different ontologies. Thus, merely using ontologies, like using XML, does not reduce heterogeneity: it just raises heterogeneity problems to a higher level. Euzenat and Shvaiko's book is devoted to ontology matching as a solution to the semantic heterogeneity problem faced by computer systems. Ontology matching aims at finding correspondences between semantically related entities of different ontologies. These correspondences may stand for equivalence as well as other relations, such as consequence, subsumption, or disjointness, between ontology entities. Many different matching solutions have been proposed so far from various viewpoints, e.g., databases, information systems, artificial intelligence. With Ontology Matching, researchers and practitioners will find a reference book which presents currently available work in a uniform framework. In particular, the work and the techniques presented in this book can equally be applied to database schema matching, catalog integration, XML schema matching and other related problems. The objectives of the book include presenting (i) the state of the art and (ii) the latest research results in ontology matching by providing a detailed account of matching techniques and matching systems in a systematic way from theoretical, practical and application perspectives.
    Date
    20. 6.2012 19:08:22
    LCSH
    Ontologies (Information retrieval)
    Subject
    Ontologies (Information retrieval)
  4. Fensel, D.: Ontologies : a silver bullet for knowledge management and electronic commerce (2001) 0.03
    0.02754505 = product of:
      0.06610812 = sum of:
        0.014646411 = weight(_text_:information in 163) [ClassicSimilarity], result of:
          0.014646411 = score(doc=163,freq=12.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.23754507 = fieldWeight in 163, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=163)
        0.015294294 = weight(_text_:for in 163) [ClassicSimilarity], result of:
          0.015294294 = score(doc=163,freq=10.0), product of:
            0.06594466 = queryWeight, product of:
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.035122856 = queryNorm
            0.2319262 = fieldWeight in 163, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.0390625 = fieldNorm(doc=163)
        0.0127790375 = weight(_text_:the in 163) [ClassicSimilarity], result of:
          0.0127790375 = score(doc=163,freq=14.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.23060365 = fieldWeight in 163, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.0390625 = fieldNorm(doc=163)
        0.010609345 = weight(_text_:of in 163) [ClassicSimilarity], result of:
          0.010609345 = score(doc=163,freq=10.0), product of:
            0.054923624 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.035122856 = queryNorm
            0.19316542 = fieldWeight in 163, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0390625 = fieldNorm(doc=163)
        0.0127790375 = weight(_text_:the in 163) [ClassicSimilarity], result of:
          0.0127790375 = score(doc=163,freq=14.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.23060365 = fieldWeight in 163, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.0390625 = fieldNorm(doc=163)
      0.41666666 = coord(5/12)
    
    Abstract
    Ontologies have been developed and investigated for quite a while now in artificial intelligente and natural language processing to facilitate knowledge sharing and reuse. More recently, the notion of ontologies has attracied attention from fields such as intelligent information integration, cooperative information systems, information retrieval, electronic commerce, and knowledge management. The author systematicaliy introduces the notion of ontologies to the non-expert reader and demonstrates in detail how to apply this conceptual framework for improved intranet retrieval of corporate information and knowledge and for enhanced Internet-based electronic commerce. In the second part of the book, the author presents a more technical view an emerging Web standards, like XML, RDF, XSL-T, or XQL, allowing for structural and semantic modeling and description of data and information.
    Theme
    Information Resources Management
  5. Handbook of metadata, semantics and ontologies (2014) 0.02
    0.023818715 = product of:
      0.057164915 = sum of:
        0.009566996 = weight(_text_:information in 5134) [ClassicSimilarity], result of:
          0.009566996 = score(doc=5134,freq=8.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.1551638 = fieldWeight in 5134, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=5134)
        0.016415557 = weight(_text_:for in 5134) [ClassicSimilarity], result of:
          0.016415557 = score(doc=5134,freq=18.0), product of:
            0.06594466 = queryWeight, product of:
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.035122856 = queryNorm
            0.2489293 = fieldWeight in 5134, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.03125 = fieldNorm(doc=5134)
        0.010223229 = weight(_text_:the in 5134) [ClassicSimilarity], result of:
          0.010223229 = score(doc=5134,freq=14.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.18448292 = fieldWeight in 5134, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.03125 = fieldNorm(doc=5134)
        0.010735902 = weight(_text_:of in 5134) [ClassicSimilarity], result of:
          0.010735902 = score(doc=5134,freq=16.0), product of:
            0.054923624 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.035122856 = queryNorm
            0.19546966 = fieldWeight in 5134, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03125 = fieldNorm(doc=5134)
        0.010223229 = weight(_text_:the in 5134) [ClassicSimilarity], result of:
          0.010223229 = score(doc=5134,freq=14.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.18448292 = fieldWeight in 5134, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.03125 = fieldNorm(doc=5134)
      0.41666666 = coord(5/12)
    
    Abstract
    Metadata research has emerged as a discipline cross-cutting many domains, focused on the provision of distributed descriptions (often called annotations) to Web resources or applications. Such associated descriptions are supposed to serve as a foundation for advanced services in many application areas, including search and location, personalization, federation of repositories and automated delivery of information. Indeed, the Semantic Web is in itself a concrete technological framework for ontology-based metadata. For example, Web-based social networking requires metadata describing people and their interrelations, and large databases with biological information use complex and detailed metadata schemas for more precise and informed search strategies. There is a wide diversity in the languages and idioms used for providing meta-descriptions, from simple structured text in metadata schemas to formal annotations using ontologies, and the technologies for storing, sharing and exploiting meta-descriptions are also diverse and evolve rapidly. In addition, there is a proliferation of schemas and standards related to metadata, resulting in a complex and moving technological landscape - hence, the need for specialized knowledge and skills in this area. The Handbook of Metadata, Semantics and Ontologies is intended as an authoritative reference for students, practitioners and researchers, serving as a roadmap for the variety of metadata schemas and ontologies available in a number of key domain areas, including culture, biology, education, healthcare, engineering and library science.
    LCSH
    Semantic networks (Information theory)
    Subject
    Semantic networks (Information theory)
  6. Moravec, H.P.: Mind children : der Wettlauf zwischen menschlicher und künstlicher Intelligenz (1990) 0.02
    0.018936988 = product of:
      0.05681096 = sum of:
        0.025574932 = weight(_text_:und in 5338) [ClassicSimilarity], result of:
          0.025574932 = score(doc=5338,freq=10.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.328536 = fieldWeight in 5338, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5338)
        0.011592053 = weight(_text_:the in 5338) [ClassicSimilarity], result of:
          0.011592053 = score(doc=5338,freq=8.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.20918396 = fieldWeight in 5338, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.046875 = fieldNorm(doc=5338)
        0.008051926 = weight(_text_:of in 5338) [ClassicSimilarity], result of:
          0.008051926 = score(doc=5338,freq=4.0), product of:
            0.054923624 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.035122856 = queryNorm
            0.14660224 = fieldWeight in 5338, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.046875 = fieldNorm(doc=5338)
        0.011592053 = weight(_text_:the in 5338) [ClassicSimilarity], result of:
          0.011592053 = score(doc=5338,freq=8.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.20918396 = fieldWeight in 5338, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.046875 = fieldNorm(doc=5338)
      0.33333334 = coord(4/12)
    
    Abstract
    Arguing that within the next fifty years machines will equal humans not only in reasoning power but also in their ability to perceive, interact with, and change their environment, the author describes the tremendous technological advances possible in thefield of robotics.
    BK
    17.03 (Theorie und Methoden der Sprach- und Literaturwissenschaft)
    Classification
    17.03 (Theorie und Methoden der Sprach- und Literaturwissenschaft)
    Content
    "A dizzying display of intellect and wild imaginings by Moravec, a world-class roboticist who has himself developed clever beasts . . . Undeniably, Moravec comes across as a highly knowledgeable and creative talent-which is just what the field needs" - Kirkus Reviews.
  7. Penrose, R.: Schatten des Geistes : Wege zu einer neuen Physik des Bewußtseins (1995) 0.02
    0.015371918 = product of:
      0.036892604 = sum of:
        0.005979372 = weight(_text_:information in 4450) [ClassicSimilarity], result of:
          0.005979372 = score(doc=4450,freq=2.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.09697737 = fieldWeight in 4450, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4450)
        0.016508548 = weight(_text_:und in 4450) [ClassicSimilarity], result of:
          0.016508548 = score(doc=4450,freq=6.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.21206908 = fieldWeight in 4450, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4450)
        0.004830022 = weight(_text_:the in 4450) [ClassicSimilarity], result of:
          0.004830022 = score(doc=4450,freq=2.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.087159984 = fieldWeight in 4450, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4450)
        0.0047446433 = weight(_text_:of in 4450) [ClassicSimilarity], result of:
          0.0047446433 = score(doc=4450,freq=2.0), product of:
            0.054923624 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.035122856 = queryNorm
            0.086386204 = fieldWeight in 4450, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4450)
        0.004830022 = weight(_text_:the in 4450) [ClassicSimilarity], result of:
          0.004830022 = score(doc=4450,freq=2.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.087159984 = fieldWeight in 4450, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4450)
      0.41666666 = coord(5/12)
    
    Abstract
    Computer haben merkwürdige Eigenschaften. Sie erledigen eine Menge komplexer Aufgaben schneller, geauer und zuverlässiger als der Mensch. Mit relativ simplen Fähigkeiten, die wir intuitiv einsetzen, haben sie jedoch zu kämpfen. Und bei Verstehen, Intelligenz und Bewußtsein versagen sie völlig. Der menschliche Geist läßt sich prinzipiell rechnerisch nicht angemessen simulieren, behauptet der Autor. Dennoch sind es physikalische Prozesse im Gehirn, die das Bewußtsein ausmachen. Er fordert in der Fortsetzung der Diskussion um 'Computerdenken' eine neue, eine nicht-rechnerische 'Physik des Bewußtseins' für die Beschreibung des Geistes, die eine Art Verallgemeinerung der Quantenmechanik sein könnte. Er entwirft schließlich ein eigenens Modell für das Gehirn, in dem die heute bekannten Vorgänge nur die Schatten eines tieferen Phänomens, des Geistes sind
    Footnote
    Originaltitel: Shadows of the mind. Rez. in: Spektrum der Wissenschaft 1996, H.8, S.118-119 (I. Diener)
    Theme
    Information
  8. McCorduck, P.: Denkmaschinen : die Geschichte der künstlichen Intelligenz (1987) 0.01
    0.0127658155 = product of:
      0.038297445 = sum of:
        0.015249942 = weight(_text_:und in 4334) [ClassicSimilarity], result of:
          0.015249942 = score(doc=4334,freq=2.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.19590102 = fieldWeight in 4334, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4334)
        0.007728035 = weight(_text_:the in 4334) [ClassicSimilarity], result of:
          0.007728035 = score(doc=4334,freq=2.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.13945597 = fieldWeight in 4334, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.0625 = fieldNorm(doc=4334)
        0.007591429 = weight(_text_:of in 4334) [ClassicSimilarity], result of:
          0.007591429 = score(doc=4334,freq=2.0), product of:
            0.054923624 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.035122856 = queryNorm
            0.13821793 = fieldWeight in 4334, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0625 = fieldNorm(doc=4334)
        0.007728035 = weight(_text_:the in 4334) [ClassicSimilarity], result of:
          0.007728035 = score(doc=4334,freq=2.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.13945597 = fieldWeight in 4334, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.0625 = fieldNorm(doc=4334)
      0.33333334 = coord(4/12)
    
    Footnote
    Originaltitel: Machines who think: a personal inquiry into the history and prospects of artificial intelligence
    Issue
    Übersetzt von Adele Enders und Doris Packulat.
  9. Dreyfus, H.L.: ¬Die Grenzen künstlicher Intelligenz : was Computer nicht können (1985) 0.01
    0.009949719 = product of:
      0.029849155 = sum of:
        0.013479172 = weight(_text_:und in 4332) [ClassicSimilarity], result of:
          0.013479172 = score(doc=4332,freq=4.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.17315367 = fieldWeight in 4332, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4332)
        0.004830022 = weight(_text_:the in 4332) [ClassicSimilarity], result of:
          0.004830022 = score(doc=4332,freq=2.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.087159984 = fieldWeight in 4332, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4332)
        0.006709939 = weight(_text_:of in 4332) [ClassicSimilarity], result of:
          0.006709939 = score(doc=4332,freq=4.0), product of:
            0.054923624 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.035122856 = queryNorm
            0.12216854 = fieldWeight in 4332, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4332)
        0.004830022 = weight(_text_:the in 4332) [ClassicSimilarity], result of:
          0.004830022 = score(doc=4332,freq=2.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.087159984 = fieldWeight in 4332, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4332)
      0.33333334 = coord(4/12)
    
    Content
    Vgl. auch die Standpunkte in: Collins, H.M.: A review of Hubert Dreyfus' What computers still can't do in: Artificial intelligence 80(1996) no.1, S.99-191.
    Footnote
    HST und ZST werden in verschiedenen Katalogen auch in vertauschter Reihenfolge angegeben (vgl. die Gestaltung des Covers und Titelblatts). Titel des Original: What computer can't do: the limits of artificial intelligence.
  10. Schank, R.C.; Childers, P.G.: ¬Die Zukunft der künstlichen Intelligenz : Chancen und Risiken (1986) 0.01
    0.009901996 = product of:
      0.039607983 = sum of:
        0.028015932 = weight(_text_:und in 3708) [ClassicSimilarity], result of:
          0.028015932 = score(doc=3708,freq=12.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.35989314 = fieldWeight in 3708, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3708)
        0.0057960264 = weight(_text_:the in 3708) [ClassicSimilarity], result of:
          0.0057960264 = score(doc=3708,freq=2.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.10459198 = fieldWeight in 3708, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.046875 = fieldNorm(doc=3708)
        0.0057960264 = weight(_text_:the in 3708) [ClassicSimilarity], result of:
          0.0057960264 = score(doc=3708,freq=2.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.10459198 = fieldWeight in 3708, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.046875 = fieldNorm(doc=3708)
      0.25 = coord(3/12)
    
    Abstract
    Dieses Buch handelt vom Wesen der menschlichen Intelligenz und davon, was es bedeuten würde, über 'Maschinen-Intelligenz' zu verfügen. Schon immer war es Ziel und Wunschtraum genialer Denker und Erfinder, die 'denkende Maschine' als Hilfsapparat für den Menschen zu konstruieren. Erst in unserer Zeit nähern wir uns mit Unterstützung des Computers der Verwirklichung der in der Tat hochfliegenden Pläne. Die Öffentlichkeit hat die Künstliche Intelligenz entdeckt, ist aber nicht ganz sicher, was das eigentlich ist. Schließlich müssen wir die Frage, was Computer können, parallel zu der Frage betrachten, WAS MENSCHEN KÖNNEN. Es fällt daher bis heute selbst den Fachleuten außerordentlich schwer, den Computer-Maschinen das Denken beizubringen.
    BK
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Footnote
    Originaltitel: The cognitive computer
  11. Penrose, R.: Computerdenken : Des Kaisers neue Kleider oder Die Debatte um Künstliche Intelligenz, Bewußtsein und die Gesetze der Physik (1991) 0.01
    0.00966863 = product of:
      0.03867452 = sum of:
        0.02528917 = weight(_text_:und in 4451) [ClassicSimilarity], result of:
          0.02528917 = score(doc=4451,freq=22.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.3248651 = fieldWeight in 4451, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4451)
        0.006692675 = weight(_text_:the in 4451) [ClassicSimilarity], result of:
          0.006692675 = score(doc=4451,freq=6.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.12077242 = fieldWeight in 4451, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.03125 = fieldNorm(doc=4451)
        0.006692675 = weight(_text_:the in 4451) [ClassicSimilarity], result of:
          0.006692675 = score(doc=4451,freq=6.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.12077242 = fieldWeight in 4451, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.03125 = fieldNorm(doc=4451)
      0.25 = coord(3/12)
    
    Abstract
    In seinem Klassiker erläutert der international führende Mathematiker und Physiker, Sir Roger Penrose, seine These, dass die geistigen Fähigkeiten des menschlichen Gehirns nicht durch Berechnungen von Elektronengehirnen erreicht werden können - und provozierte eine neue KI-Debatte. . . . des Kaisers neue Kleider - steht auf dem Buchumschlag. Der renommierte englische Physiker Penrose will damit sichtbar machen, daß die Vertreter der Künstlichen Intelligenz (KI) nackt dastehen. Mit einem 400 Seiten langen Exkurs versucht er, ihre Behauptung zu widerlegen, daß Maschinen ebenso intelligent sein können wie Menschen. bild der wissenschaft Roger Penrose ( . . . ) gelang das Kunststück, mit dem formelgespickten Wälzer "The Emperors's New Mind" (auf deutsch jetzt unter dem geistlosen Titel "Computerdenken" erschienen) auf den US-Bestsellerlisten zu landen, ungeachtet aller Quanten-Ket-Vektoren und Einsteinscher Krüümungstensoren, mit denen der Autor seine Leser plagt. DER SPIEGEL Das erklärte Ziel dieses Buches ist, den Standpunkt einiger KI-Enthusiasten zu widerlegen, daß Computer irgendwann all das können, was menschliche Gehirne können - und sogar mehr. Aber der Leser merkt bald, dass Pnerose vor allem das Ziel verfolgt, einen Wegzur großen Synthese von klassischer Physik, Quantenphysik und Neurowissenschaften aufzuzeigen. John Horgan in Scientific American Wer "Computerdenken" liest (oder durcharbeitet), sollte nicht auf Antwort hoffen, darf aber neue Sichtwiesen und überraschende Interpretationen erwarten. Ein nahrhaftes Geschenk für naturwissenschaftlich Interessierte. Die Zeit Trotz des mathematichen Themas wurde The Emperor's New Mind prompt ein Bestseller und sein Autor zum bestgehaßten Mann der KI-Szene ( . . . ).
    BK
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Footnote
    Originaltitel: The emperor's new mind
    Issue
    Mit einem Vorwort von Martin Gardner und einem Vorwort zur deutschen Ausgabe von Dieter Wandschneider; aus dem Englischen übersetzt von Michael Springer.
  12. Shanahan, M.: ¬ Die technologische Singularität (2021) 0.01
    0.008251663 = product of:
      0.033006653 = sum of:
        0.02334661 = weight(_text_:und in 196) [ClassicSimilarity], result of:
          0.02334661 = score(doc=196,freq=12.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.29991096 = fieldWeight in 196, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=196)
        0.004830022 = weight(_text_:the in 196) [ClassicSimilarity], result of:
          0.004830022 = score(doc=196,freq=2.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.087159984 = fieldWeight in 196, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.0390625 = fieldNorm(doc=196)
        0.004830022 = weight(_text_:the in 196) [ClassicSimilarity], result of:
          0.004830022 = score(doc=196,freq=2.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.087159984 = fieldWeight in 196, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.0390625 = fieldNorm(doc=196)
      0.25 = coord(3/12)
    
    Abstract
    Der Kognitionswissenschaftler Murray Shanahan befasst sich in seinem neuen Buch mit künstlicher Intelligenz und ihrer Bewusstwerdung. >Technologische Singularität< bezeichnet den Zeitpunkt, an dem von künstlicher Intelligenz gesteuerte Maschinen sich fortlaufend selbst so zu verbessern imstande sind, dass sie sich der Beherrschung durch Menschenhand entziehen. Der Robotikspezialist Murray Shanahan beschreibt die unterschiedlichen derzeit weltweit vorangetriebenen technologischen Entwicklungen, die zu einem solchen Ereignis führen können. Er führt auf verständliche Weise in die komplexen Forschungen ein, die unsere nächste Zukunft verändern werden. Aus der Perspektive eines Praktikers beschäftigt er sich mit der Frage, ob künstliche Intelligenz über Bewusstsein verfügen kann, und entwickelt moralische Ansätze zu einem verantwortlichen Umgang mit dieser zumeist als Katastrophenszenario gezeichneten Zukunftsfantasie.
    BK
    54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
    Classification
    54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
    Content
    Zusammenfassung: Intro -- Titel -- Inhaltsverzeichnis -- Vorwort -- Einleitung -- 1. Wege zur künstlichen Intelligenz -- 2. Gehirnemulation -- 3. Die technische Realisation künstlicher Intelligenz -- 4. Superintelligenz -- 5. KI und Bewusstsein -- 6. KI und ihre Folgen -- 7. Himmel oder Hölle -- Glossar -- Anmerkungen -- Literatur -- Register -- Impressum.
    Footnote
    Originaltitel: The technological singularity. Rez. in: Spektrum der Wissenschaft. 2021, H.4, S.88-90 (A. Lobe).
  13. Lenzen, M.: Künstliche Intelligenz : was sie kann & was uns erwartet (2018) 0.01
    0.0074856253 = product of:
      0.04491375 = sum of:
        0.033017095 = weight(_text_:und in 4295) [ClassicSimilarity], result of:
          0.033017095 = score(doc=4295,freq=24.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.42413816 = fieldWeight in 4295, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4295)
        0.011896656 = product of:
          0.023793312 = sum of:
            0.023793312 = weight(_text_:22 in 4295) [ClassicSimilarity], result of:
              0.023793312 = score(doc=4295,freq=2.0), product of:
                0.12299426 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035122856 = queryNorm
                0.19345059 = fieldWeight in 4295, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4295)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Abstract
    Künstliche Intelligenz (KI) steht für Maschinen, die können, was der Mensch kann: hören und sehen, sprechen, lernen, Probleme lösen. In manchem sind sie inzwischen nicht nur schneller, sondern auch besser als der Mensch. Wie funktionieren diese klugen Maschinen? Bedrohen sie uns, machen sie uns gar überflüssig? Die Journalistin und KI-Expertin Manuela Lenzen erklärt anschaulich, was Künstliche Intelligenz kann und was uns erwartet. Künstliche Intelligenz ist das neue Zauberwort des digitalen Kapitalismus. Intelligente Computersysteme stellen medizinische Diagnosen und geben Rechtsberatung. Sie managen den Aktienhandel und steuern bald unsere Autos. Sie malen, dichten, dolmetschen und komponieren. Immer klügere Roboter stehen an den Fließbändern, begrüßen uns im Hotel, führen uns durchs Museum oder braten Burger und schnipseln den Salat dazu. Doch neben die Utopie einer schönen neuen intelligenten Technikwelt sind längst Schreckbilder getreten: von künstlichen Intelligenzen, die uns auf Schritt und Tritt überwachen, die unsere Arbeitsplätze übernehmen und sich unserer Kontrolle entziehen. Manuela Lenzen zeigt, welche Hoffnungen und Befürchtungen realistisch sind und welche in die Science Fiction gehören. Sie beschreibt, wie ein gutes Leben mit der Künstlichen Intelligenz aussehen könnte - und dass wir von klugen Maschinen eine Menge über uns selbst lernen können.
    Date
    18. 6.2018 19:22:02
  14. Semantische Technologien : Grundlagen - Konzepte - Anwendungen (2012) 0.01
    0.0067280317 = product of:
      0.04036819 = sum of:
        0.008371122 = weight(_text_:information in 167) [ClassicSimilarity], result of:
          0.008371122 = score(doc=167,freq=8.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.13576832 = fieldWeight in 167, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
        0.031997066 = weight(_text_:und in 167) [ClassicSimilarity], result of:
          0.031997066 = score(doc=167,freq=46.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.41103485 = fieldWeight in 167, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
      0.16666667 = coord(2/12)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen, Potentiale und Anwendungen Semantischer Technologien. Es richtet sich an Studierende der Informatik und angrenzender Fächer sowie an Entwickler, die Semantische Technologien am Arbeitsplatz oder in verteilten Applikationen nutzen möchten. Mit seiner an praktischen Beispielen orientierten Darstellung gibt es aber auch Anwendern und Entscheidern in Unternehmen einen breiten Überblick über Nutzen und Möglichkeiten dieser Technologie. Semantische Technologien versetzen Computer in die Lage, Informationen nicht nur zu speichern und wieder zu finden, sondern sie ihrer Bedeutung entsprechend auszuwerten, zu verbinden, zu Neuem zu verknüpfen, und so flexibel und zielgerichtet nützliche Leistungen zu erbringen. Das vorliegende Buch stellt im ersten Teil die als Semantische Technologien bezeichneten Techniken, Sprachen und Repräsentationsformalismen vor. Diese Elemente erlauben es, das in Informationen enthaltene Wissen formal und damit für den Computer verarbeitbar zu beschreiben, Konzepte und Beziehungen darzustellen und schließlich Inhalte zu erfragen, zu erschließen und in Netzen zugänglich zu machen. Der zweite Teil beschreibt, wie mit Semantischen Technologien elementare Funktionen und umfassende Dienste der Informations- und Wissensverarbeitung realisiert werden können. Hierzu gehören etwa die Annotation und das Erschließen von Information, die Suche in den resultierenden Strukturen, das Erklären von Bedeutungszusammenhängen sowie die Integration einzelner Komponenten in komplexe Ablaufprozesse und Anwendungslösungen. Der dritte Teil beschreibt schließlich vielfältige Anwendungsbeispiele in unterschiedlichen Bereichen und illustriert so Mehrwert, Potenzial und Grenzen von Semantischen Technologien. Die dargestellten Systeme reichen von Werkzeugen für persönliches, individuelles Informationsmanagement über Unterstützungsfunktionen für Gruppen bis hin zu neuen Ansätzen im Internet der Dinge und Dienste, einschließlich der Integration verschiedener Medien und Anwendungen von Medizin bis Musik.
    Content
    Inhalt: 1. Einleitung (A. Dengel, A. Bernardi) 2. Wissensrepräsentation (A. Dengel, A. Bernardi, L. van Elst) 3. Semantische Netze, Thesauri und Topic Maps (O. Rostanin, G. Weber) 4. Das Ressource Description Framework (T. Roth-Berghofer) 5. Ontologien und Ontologie-Abgleich in verteilten Informationssystemen (L. van Elst) 6. Anfragesprachen und Reasoning (M. Sintek) 7. Linked Open Data, Semantic Web Datensätze (G.A. Grimnes, O. Hartig, M. Kiesel, M. Liwicki) 8. Semantik in der Informationsextraktion (B. Adrian, B. Endres-Niggemeyer) 9. Semantische Suche (K. Schumacher, B. Forcher, T. Tran) 10. Erklärungsfähigkeit semantischer Systeme (B. Forcher, T. Roth-Berghofer, S. Agne) 11. Semantische Webservices zur Steuerung von Prooduktionsprozessen (M. Loskyll, J. Schlick, S. Hodeck, L. Ollinger, C. Maxeiner) 12. Wissensarbeit am Desktop (S. Schwarz, H. Maus, M. Kiesel, L. Sauermann) 13. Semantische Suche für medizinische Bilder (MEDICO) (M. Möller, M. Sintek) 14. Semantische Musikempfehlungen (S. Baumann, A. Passant) 15. Optimierung von Instandhaltungsprozessen durch Semantische Technologien (P. Stephan, M. Loskyll, C. Stahl, J. Schlick)
    Footnote
    Auch als digitale Ausgabe verfügbar. Auf S. 5 befindet sich der Satz: "Wissen ist Information, die in Aktion umgesetzt wird".
    RSWK
    Semantic Web / Information Extraction / Suche / Wissensbasiertes System / Aufsatzsammlung
    Subject
    Semantic Web / Information Extraction / Suche / Wissensbasiertes System / Aufsatzsammlung
  15. Münkel, A. (Red.): Computer.Gehirn : was kann der Mensch? Was können die Computer? ; Begleitpublikation zur Sonderausstellung im Heinz-Nixdorf-MuseumsForum (2001) 0.01
    0.0062055173 = product of:
      0.037233103 = sum of:
        0.010274758 = product of:
          0.030824272 = sum of:
            0.030824272 = weight(_text_:f in 491) [ClassicSimilarity], result of:
              0.030824272 = score(doc=491,freq=2.0), product of:
                0.13999219 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.035122856 = queryNorm
                0.22018565 = fieldWeight in 491, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=491)
          0.33333334 = coord(1/3)
        0.026958345 = weight(_text_:und in 491) [ClassicSimilarity], result of:
          0.026958345 = score(doc=491,freq=16.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.34630734 = fieldWeight in 491, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=491)
      0.16666667 = coord(2/12)
    
    Abstract
    Was kann der Mensch? Was können die Computer? Was wissen wir über das rätselhafteste Organ des menschlichen Körpers, das Gehirn und seine Funktionen? Lässt sich das Gehirn einfach nachbauen? Kann es wirklich Elektronenhirne geben? Schon längst ist der Computer im Schachspiel kaum noch zu schlagen. Aber wie sieht es mit anderen intelligenten Leistungen aus? Vor diesem Hintergrund wird zum Beginn des neuen Jahrtausends mit der Sonderausstellung "Computer.Gehirn" im Heinz Nixdorf MuseumsForum eine Zwischenbilanz gezogen. In dieser Begleitpublikation zur Ausstellung wird einerseits ein Leistungsvergleich zwischen Computern und dem menschlichen Gehirn geboten, andererseits werden die unterschiedlichen Funktionsprinzipien und Prozesse erklärt. Internationale Experten stellen den Stand der Forschung dar, ergänzt durch einen informativen Rundgang durch die Sonderausstellung.
    BK
    54.08 / Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    54.08 / Informatik in Beziehung zu Mensch und Gesellschaft
    Content
    Enthält auch die Beiträge: BROOKS, R.A.: Künstliche Intelligenz und Roboterentwicklung - RITTER, H.: Die Evolution der künstlichen Intelligenz - ENGEL, A.K. u. W. SINGER: Neuronale Grundlagen des Bewußtseins - METZINGER, T.: Postbiotisches Bewußtsein: wie man ein künstliches Subjekt baut - und warum wir es nicht tun sollten - HARA, F.: Gesichtsrobotik und emotional computing
  16. Günther, G.: ¬Das Bewußtsein der Maschinen : Sammlung ; eine Metaphysik der Kybernetik (2002) 0.01
    0.0060660723 = product of:
      0.036396433 = sum of:
        0.0050736656 = weight(_text_:information in 474) [ClassicSimilarity], result of:
          0.0050736656 = score(doc=474,freq=4.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.08228803 = fieldWeight in 474, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=474)
        0.031322766 = weight(_text_:und in 474) [ClassicSimilarity], result of:
          0.031322766 = score(doc=474,freq=60.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.40237278 = fieldWeight in 474, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=474)
      0.16666667 = coord(2/12)
    
    Abstract
    Das Buch 'Das Bewusstsein der Maschinen' des deutsch-amerikanischen Philosophen und Logikers Gotthard Günther (1900-1984) erschien bereits 1957 und in einer erweiterten 2. Auflage im Jahr 1963. Was damals sensationell wirkte, ist heute Bestandteil unseres philosophischen Bewusstseins geworden: die Hereinnahme der Kybernetik nicht nur in unsere praktisch-technische Welt, sondern auch in die philosophische Spekulation wie in unsere soziologische Reflexion. Immer aber noch ist die Lektüre der Güntherschen Theoreme und Einsichten für Wissenschaftler wie auch für den Laien aufregend, die Revolutionierung unseres gesamten Denkens offenbar. Daß die maschinelle Intelligenz den Leistungen des menschlichen Bewusstseins überlegen sein kann - wer bestreitet das heute noch? Daß aber mit dem Maschinenbewusstsein die alten Denkgewohnheiten des Menschen aus den Angeln gehoben und alle klassischen Schemata wie auch die dialektische Spekulation auf einen mehr oder minder aufwendigen Schutthaufen geworfen sind - dagegen werden die philosophischen Lehrstühle sich noch lange wehren. - Auch diese erweiterte Auflage des Güntherschen Buches ist kein Abschluß und kein System, sondern Frage und Anregung zur Metaphysik unseres Jahrhunderts. Die jetzt nach etwa 40 Jahren erneut aufgelegte und nochmals erweiterte Ausgabe ist - betrachtet man den heutigen Stand der Diskussionen um die Themen 'Künstliche Intelligenz', 'Maschinelles Lernen' oder 'Maschinenbewusstsein' - nicht nur aus philosophischer sondern vor allem aus wissenschaftslogischer Sicht seiner Zeit immer noch weit voraus. Dies begründet sich insbesondere darin, dass Gotthard Günther nicht nur einen Entwurf geliefert, sondern im Verlauf seiner wissenschaftlichen Tätigkeiten am Biological Computer Laboratory (BCL) in Illinois (Urbana) auch die Grundlagen zu einer nichtaristotelischen Logik gelegt hat, die sich am besten unter dem Begriff 'Theorie polykontexturaler Systeme' subsumieren lassen.
    Das Buch stellt jedoch keine grundlegende (theoretische) Einführung in die Theorie der polykontexturalen Systeme dar und erfordert daher auch keine tieferen Kenntnisse über formale Logik, sondern ist - wie viele der Arbeiten Günthers - eine Sammlung mehrerer philosophischer Aufsätze zu den Themen 'Robotik', 'Künstliche Intelligenz' und 'Maschinenbewusstsein'. Allerdings diskutiert Günther diese Themen vor dem Hintergrund einer erweiterten Logik, die er zunächst als mehrwertige und später als mehrstellige und im Verlauf der weiteren Entwicklung seiner Theorie als polykontexturale Logik bezeichnet. Für die Lektüre genügen also elementare Kenntnisse einfacher logischer Verknüpfungen und/oder arithmetischer Relationen. Dieses Buch eignet sich daher vortrefflich als 'Einstiegslektüre' in die philosophischen Arbeiten Gotthard Günthers und ist auch für den fachlich interessierten Laien eine anregende und vor allen Dingen eine verständlich und logisch klar geschriebene Darstellung grundlegender philosophischer Fragen zu den Themen 'Bewusstsein' oder 'Selbstbewusstsein' und deren möglicher oder eben nicht möglicher technischer Realisierung.
    In dem Buch werden Themen wie z. B. der Gegensatz der kulturellen Vorstellung des faustischen Homunkulus auf der einen Seite und der des Robots auf der anderen Seite in geradezu spannender Art und Weise behandelt. In dem Beitrag 'Erkennen und Wollen' werden der scheinbare Gegensatz der Prozesse des Erkennens ('am Anfang war das Wort') und des Wollens ('am Anfang war die Tat') und die kulturellen Hintergründe dieser heute immer noch vorherrschenden dichotomen, d. h., zweigeteilten 'Entweder-Oder'-Vorstellung in der abendländischen Kultur diskutiert. Gerade dieser Beitrag, der in der vorliegenden Auflage neu hinzugekommen ist, bietet natürlich auch Anregungen für die Entwicklung intelligenter technischer Systeme - es handelt sich also um einen Aufsatz, der durchaus auch in einer Fachzeitschrift für künstliche Intelligenz hätte stehen können und der nicht nur für den Fachmann sondern auch für den interessierten und gebildeten Laien verständlich ist. Da Gotthard Günther neben Philosophie und Logik auch Indologie, klassisches Chinesisch, Sanskrit und vergleichende Religionswissenschaften studiert hat, kann sich der Leser über kleinere, kompetent geführte geistige Ausflüge in andere Kulturen erfreuen und sich zu weiteren Studien anregen lassen. Das ist im Zeitalter der Globalisierung sicherlich ein zusätzlicher Gewinn. Eine kurze Biographie Gotthard Günthers sowie eine kleine Einführung in seine Arbeiten sollen dem Leser nicht nur den Zugang zu diesem Autor und seinem Werk erleichtern, sondern ihm auch die Möglichkeit einer Zuordnung seiner Arbeiten - und das betrifft vor allem auch die Theorie der Polykontexturalität - vor dem Hintergrund der heutigen Gehirn- und künstlichen Intelligenz-Forschung geben. (Joachim Paul)
    Series
    Internationale Reihe Kybernetik und Information ; 3
    Theme
    Information
  17. Tegmark, M.: Leben 3.0 : Mensch sein im Zeitalter Künstlicher Intelligenz (2017) 0.00
    0.0040699155 = product of:
      0.024419492 = sum of:
        0.021098241 = weight(_text_:und in 4558) [ClassicSimilarity], result of:
          0.021098241 = score(doc=4558,freq=20.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.27102837 = fieldWeight in 4558, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4558)
        0.0033212504 = weight(_text_:of in 4558) [ClassicSimilarity], result of:
          0.0033212504 = score(doc=4558,freq=2.0), product of:
            0.054923624 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.035122856 = queryNorm
            0.060470343 = fieldWeight in 4558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4558)
      0.16666667 = coord(2/12)
    
    Abstract
    Künstliche Intelligenz ist unsere unausweichliche Zukunft. Wird sie uns ins Verderben stürzen oder zur Weiterentwicklung des Homo sapiens beitragen? Die Nobelpreis-Schmiede Massachusetts Institute of Technology ist der bedeutendste technologische Think Tank der USA. Dort arbeitet Professor Max Tegmark mit den weltweit führenden Entwicklern künstlicher Intelligenz zusammen, die ihm exklusive Einblicke in ihre Labors gewähren. Die Erkenntnisse, die er daraus zieht, sind atemberaubend und zutiefst verstörend zugleich. Neigt sich die Ära der Menschen dem Ende zu? Der Physikprofessor Max Tegmark zeigt anhand der neusten Forschung, was die Menschheit erwartet. Hier eine Auswahl möglicher Szenarien: - Eroberer: Künstliche Intelligenz übernimmt die Macht und entledigt sich der Menschheit mit Methoden, die wir noch nicht einmal verstehen. - Der versklavte Gott: Die Menschen bemächtigen sich einer superintelligenten künstlichen Intelligenz und nutzen sie, um Hochtechnologien herzustellen. - Umkehr: Der technologische Fortschritt wird radikal unterbunden und wir kehren zu einer prä-technologischen Gesellschaft im Stil der Amish zurück. - Selbstzerstörung: Superintelligenz wird nicht erreicht, weil sich die Menschheit vorher nuklear oder anders selbst vernichtet. - Egalitäres Utopia: Es gibt weder Superintelligenz noch Besitz, Menschen und kybernetische Organismen existieren friedlich nebeneinander. Max Tegmark bietet kluge und fundierte Zukunftsszenarien basierend auf seinen exklusiven Einblicken in die aktuelle Forschung zur künstlichen Intelligenz.
    Footnote
    Originaltitel: Life 3.0. Rez. unter: http://www.spektrum.de/rezension/buchkritik-zu-leben-3-0/1528679 (Lobe, Adrian: "Der versklavte Maschinengott"): "--- Der Autor wirft in seinen "KI-Nachwirkungsszenarien" zahlreiche technikphilosophische Fragen auf, etwa: Sollten Menschen oder Maschinen die Kontrolle haben? Sollten künstliche Intelligenzen bewusstseinsfähig sein oder nicht? Sollte der Mensch weiter existieren, ersetzt werden durch Cyborgs und/oder Uploads umgestaltet oder simuliert werden?
    Was bei der Lektüre des Buchs positiv auffällt: Der Autor bewertet diese ethischen Fragen nicht, sondern stellt sie offen in den Raum. Sein Ton ist sachlich, nüchtern und frei von jedem Alarmismus. Anders als der häufig apodiktisch argumentierende Kurzweil stellt Tegmark seine Zukunftsszenarien nicht als Unabänderlichkeit dar, sondern als gestaltbaren Möglichkeitsraum. Im jetzigen Stadium der Entwicklung könne der Mensch die Weichen noch stellen - er müsse sich nur entscheiden. Darin kann man auch eine versteckte Kritik an den Programmierern lesen, die sich häufig hinter der analytischen Formel des "Problemlösens" verstecken, aber keine nachhaltigen Gesellschaftsmodelle entwickeln. Die KI wird gesellschaftliche Hierarchien verändern, vielleicht sogar neu strukturieren - daran lässt Tegmark keinen Zweifel. Sein Buch ist eine luzide, wenn auch nicht immer erbauliche Vermessung. Einzig das Schlusskapitel über Bewusstseinstheorien und einige Anspielungen auf Konferenzteilnehmer, die wohl nur Insidern ein Begriff sind, wären verzichtbar gewesen. Ansonsten ist es ein überaus gelungenes Werk, das dem Leser als Kompass durch die Irrungen und Wirrungen künstlicher Intelligenz gereicht."
  18. Ramge, T.: Mensch und Maschine : wie Künstliche Intelligenz und Roboter unser Leben verändern (2018) 0.00
    0.0025217223 = product of:
      0.030260667 = sum of:
        0.030260667 = weight(_text_:und in 4294) [ClassicSimilarity], result of:
          0.030260667 = score(doc=4294,freq=14.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.38872904 = fieldWeight in 4294, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4294)
      0.083333336 = coord(1/12)
    
    Abstract
    Computerprogramme können menschliche Gesichter zuverlässiger erkennen als Menschen. Sie schlagen uns im Brettspiel Go, das strategisches Denken und Intuition erfordert, und sie bluffen besser als die besten Pokerspieler der Welt. Maschinen treffen komplexe Entscheidungen - oft besser und schneller als wir. Thomas Ramge erklärt sachkundig und verständlich, wie Maschinen dabei sind, das Lernen zu lernen und diskutiert die Frage: Was wird aus uns Menschen, wenn smarte Maschinen immer intelligenter werden?
  19. Precht, R.D.: Künstliche Intelligenz und der Sinn des Lebens (2020) 0.00
    0.0023775026 = product of:
      0.02853003 = sum of:
        0.02853003 = weight(_text_:und in 5977) [ClassicSimilarity], result of:
          0.02853003 = score(doc=5977,freq=28.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.36649725 = fieldWeight in 5977, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5977)
      0.083333336 = coord(1/12)
    
    Abstract
    Während die drohende Klimakatastrophe und der Ressourcenverbrauch die Lebensgrundlagen unseres Planeten zerstören, machen sich Informatiker und Geschäftsleute daran, die Entwicklung einer Künstlichen Intelligenz voranzutreiben. Ihr Ziel ist eine "Superintelligenz", die alles das können soll, was Menschen auch können, nur um vielfaches »optimierter«. Ausgehend von einem völlig unzureichenden Menschenbild wollen sie ihren Maschinen eine Moral einprogrammieren. Richard David Precht macht in seinem eindringlichen Essay deutlich, dass dies niemals gelingen kann - allein schon weil Moral grundsätzlich nicht programmierbar ist! Sie ist Ausdruck einer emotionalen Weltbeziehung, abhängig von irrationalen Wertungen und somit unberechenbar. Und wo die Anwälte der Künstlichen Intelligenz ihre Maschinen nach dem Kriterium des vermeintlich größten Glücks entscheiden lassen wollen, zeigt uns Precht, dass es im wirklichen Leben viel weniger um das Glück geht, als die Informatiker annehmen. Der wichtigste Wert menschlichen Lebens ist nicht Glück, sondern Sinn - und der ist weit mehr als die Summe von Glücksmomenten. Precht plädiert deshalb für ein Verbot jeder so genannten »ethischen Programmierung« von Computern und Robotern und zeigt auf, welche Beziehung zur Welt uns Menschen ein Gefühl von Sinn gibt und welche nicht. Denn genau hierin liegt der Ausgangspunkt für ein gelingendes Leben und Zusammenleben im 21. Jahrhundert; einem Jahrhundert, in dem wir uns nicht den Maschinen angleichen, sondern erkennen, dass wir unser Schicksal mit Pflanzen und Tieren teilen - als Gegenpol zur Künstlichen Intelligenz!
    Content
    "Während die drohende Klimakatastrophe und der enorme Ressourcenverbrauch der Menschheit den Planeten zerstört, machen sich Informatiker und Ingenieure daran, die Entwicklung einer Künstlichen Intelligenz voranzutreiben, die alles das können soll, was wir Menschen auch können - nur vielfach »optimierter«. Ausgehend von völlig falschen Annahmen soll den Maschinen sogar eine menschenähnliche Moral einprogrammiert werden. Richard David Precht macht uns eindringlich klar, dass das nicht möglich ist. Denn unser Leben besteht nicht aus der Abfolge vorausberechneter Schritte. Wir sind viel mehr als das. "Der Philosoph Precht formuliert bisweilen zwar sehr salopp, aber er verfügt über eine Reihe von unbestreitbaren Vorzügen. Vor allem: Er löst, auch durch seine durchaus in einem anregenden Sinn ganz eigene Zugangsweise, Diskussionen aus und vermag denkend zu provozieren. Darum verdient dieses populärphilosophische Buch weder euphorische Zustimmung noch empörte Abweisung, sondern eine substanziell fundierte, kontroverse Diskussion - vielleicht mit Bezug auf die Frage, die Platon in der Politeia als wesentlich benannt hat: In der Philosophie gelte es nämlich darüber nachzudenken, auf welche Weise wir leben wollen." (literaturkritik.de)
  20. Bostrom, N.: Superintelligenz : Szenarien einer kommenden Revolution (2016) 0.00
    0.0022465289 = product of:
      0.026958345 = sum of:
        0.026958345 = weight(_text_:und in 4318) [ClassicSimilarity], result of:
          0.026958345 = score(doc=4318,freq=16.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.34630734 = fieldWeight in 4318, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4318)
      0.083333336 = coord(1/12)
    
    Abstract
    Was geschieht, wenn es uns eines Tages gelingt, eine Maschine zu entwickeln, die die menschliche Intelligenz auf so gut wie allen Gebieten übertrifft? Klar ist: Eine solche Superintelligenz wäre enorm mächtig und würde uns vor riesige Kontroll- und Steuerungsprobleme stellen. Mehr noch: Vermutlich würde die Zukunft der menschlichen Spezies in ihren Händen liegen, so wie heute die Zukunft der Gorillas von uns abhängt. Nick Bostrom nimmt uns mit auf eine faszinierende Reise in die Welt der Orakel und Genies, der Superrechner und Gehirnsimulationen, aber vor allem in die Labore dieser Welt, in denen derzeit fieberhaft an der Entwicklung einer künstlichen Intelligenz gearbeitet wird. Er skizziert mögliche Szenarien, wie die Geburt der Superintelligenz vonstattengehen könnte, und widmet sich ausführlich den Folgen dieser Revolution. Sie werden global sein und unser wirtschaftliches, soziales und politisches Leben tief greifend verändern. Wir müssen handeln, und zwar kollektiv, bevor der Geist aus der Flasche gelassen ist - also jetzt! Das ist die eminent politische Botschaft dieses so spannenden wie wichtigen Buches.

Years

Languages

  • d 21
  • e 7

Types

  • m 28
  • s 5

Subjects

Classifications