Search (80 results, page 4 of 4)

  • × theme_ss:"Information"
  • × year_i:[2000 TO 2010}
  1. Kuhlthau, C.C.: From information to meaning : confronting challenges of the twenty-first century (2008) 0.00
    6.8055023E-4 = product of:
      0.0047638514 = sum of:
        0.0047638514 = product of:
          0.023819257 = sum of:
            0.023819257 = weight(_text_:system in 5074) [ClassicSimilarity], result of:
              0.023819257 = score(doc=5074,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.20878783 = fieldWeight in 5074, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5074)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    New challenges arise for researchers and practitioners as we move away from concentration on the technology of searching, and turn our attention to using information for problem solving and creativity in the workplace and daily living. This paper explores links between information behavior, information literacy and the impact of information, drawing on the author's research into the user's perspective of information seeking and use and the model of the Information Search Process (ISP). The ISP model describes thoughts, actions and feelings in six stages of interacting with information to construct meaning. Central to the ISP model is the finding that information commonly increases uncertainty in the early stages of the search process. Increased uncertainty creates a zone of intervention for intermediaries and system designers that support users in their quest for seeking meaning from information. Innovative approaches to interaction between people and information are needed to bridge the divide between information behavior, information literacy and impact of information in order to address issues of the twenty-first century.
  2. Karamuftuoglu, M.: Situating logic and information in information science (2009) 0.00
    6.2775286E-4 = product of:
      0.00439427 = sum of:
        0.00439427 = product of:
          0.02197135 = sum of:
            0.02197135 = weight(_text_:retrieval in 3111) [ClassicSimilarity], result of:
              0.02197135 = score(doc=3111,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.20052543 = fieldWeight in 3111, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3111)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    Information Science (IS) is commonly said to study collection, classification, storage, retrieval, and use of information. However, there is no consensus on what information is. This article examines some of the formal models of information and informational processes, namely, Situation Theory and Shannon's Information Theory, in terms of their suitability for providing a useful framework for studying information in IS. It is argued that formal models of information are concerned with mainly ontological aspects of information, whereas IS, because of its evaluative role with respect to semantic content, needs an epistemological conception of information. It is argued from this perspective that concepts of epistemological/aesthetic/ethical information are plausible, and that information science needs to rise to the challenge of studying many different conceptions of information embedded in different contexts. This goal requires exploration of a wide variety of tools from philosophy and logic.
  3. Glowalla, U.: Information und Lernen (2004) 0.00
    5.6712516E-4 = product of:
      0.003969876 = sum of:
        0.003969876 = product of:
          0.01984938 = sum of:
            0.01984938 = weight(_text_:system in 2965) [ClassicSimilarity], result of:
              0.01984938 = score(doc=2965,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.17398985 = fieldWeight in 2965, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2965)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    Menschen verfügen über ein breites Handlungsrepertoire und umfangreiches Wissen. Wir können laufen und sprechen, viele von uns sogar in verschiedenen Sprachen. Wir wissen, wie man ein Auto fährt, dass Mozart ein Komponist war, und fürchten uns, wenn uns ein aggressiver Hund begegnet. Ohne dieses vielfältige Wissen wären wir nicht in der Lage, uns in der Welt zurechtzufinden und zu behaupten. Einen großen Teil dieses Wissens haben wir durch Beobachten unserer Artgenossen gelernt (Beobachtungslernen). Anderes haben wir gelernt, weil die Umwelt auf unsere Handlungen reagiert. Reagiert die Umwelt positiv auf eine unserer Handlungen, dann zeigen wir diese Handlung in Zukunft häufiger, reagiert sie negativ, lassen wir es eher bleiben (operantes Konditionieren). Viele Kenntnisse und Fähigkeiten erwerben wir aber dadurch, dass wir extern vorliegende Informationen aufnehmen und so verarbeiten, dass dabei neues Wissen entsteht. Psychologen sprechen hier von menschlicher Informationsverarbeitung oder kognitivem Lernen, um zum Ausdruck zu bringen, dass die Informationen durch ein verstehendes, kognitives System verarbeitet werden. Das kognitive Lernen steht im Fokus dieses Beitrages. Die hohe Bedeutung des kognitiven Lernens gerade im Zeitalter der Informationsgesellschaft liegt auf der Hand: Mächtige und effiziente Formen der externen Speicherung von Wissen stellen nur dann einen Vorteil dar, wenn die Mechanismen, mit denen wir aus Information Wissen schaffen, vergleichbar mächtig und effizient sind.
  4. Bawden, D.: ¬The shifting terminology's of information (2001) 0.00
    5.6712516E-4 = product of:
      0.003969876 = sum of:
        0.003969876 = product of:
          0.01984938 = sum of:
            0.01984938 = weight(_text_:system in 706) [ClassicSimilarity], result of:
              0.01984938 = score(doc=706,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.17398985 = fieldWeight in 706, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=706)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    At the heart of any discussion of the information sciences, at least when this discussion is held in the English language, lies the problem of the variant, and shifting, set of concepts and meanings of the terms 'library' and 'information'. The term 'information', in particular, has a variety of meanings in different contexts and communities of discourse, providing an excellent example of Wittgenstein's language game. This implies that any terminology built around this central concept is in danger of being constructed on 'shifting sands'. This article outlines, for the English language only, some of these diverse meanings of information, and their consequences for the terminology of the information sciences. It focuses on the variant relationships between information and related concepts, particularly data and knowledge. It also includes an account of the view information taken in the hard and soft methodologies of system science, as well as the new discipline of 'information physics'. From this, some remarks may be made on the changing meanings of the complex terms such as 'information technology' and 'information literacy', as well as those complex terms involving 'management', information management, knowledge management, document management etc. A similar, though shorter, treatment will de given to terminology around the 'library' concept, particularly in view of the change toward viewing a library as an organised virtual information space, rather than physical environment.
  5. Andersen, J.; Christensen, F.S.: Wittgenstein and indexing theory (2001) 0.00
    5.2312744E-4 = product of:
      0.003661892 = sum of:
        0.003661892 = product of:
          0.01830946 = sum of:
            0.01830946 = weight(_text_:retrieval in 1590) [ClassicSimilarity], result of:
              0.01830946 = score(doc=1590,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.16710453 = fieldWeight in 1590, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1590)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    The paper considers indexing an activity that deals with linguistic entities. It rests an the assumption that a theory of indexing should be based an a philosophy of language, because indexing is concerned with the linguistic representation of meaning. The paper consists of four sections: It begins with some basic considerations an the nature of indexing and the requirements for a theory an this; it is followed by a short review of the use of Wittgenstein's philosophy in LIS-literature; next is an analysis of Wittgenstein's work Philosophical Investigations; finally, we deduce a theory of indexing from this philosophy. Considering an indexing theory a theory of meaning entails that, for the purpose of retrieval, indexing is a representation of meaning. Therefore, an indexing theory is concerned with how words are used in the linguistic context. Furthermore, the indexing process is a communicative process containing an interpretative element. Through the philosophy of the later Wittgenstein, it is shown that language and meaning are publicly constituted entities. Since they form the basis of indexing, a theory hereof must take into account that no single actor can define the meaning of documents. Rather this is decided by the social, historical and linguistic context in which the document is produced, distributed and exchanged. Indexing must clarify and reflect these contexts.
  6. Fattahi, R.; Afshar, E.: Added value of information and information systems : a conceptual approach (2006) 0.00
    5.2312744E-4 = product of:
      0.003661892 = sum of:
        0.003661892 = product of:
          0.01830946 = sum of:
            0.01830946 = weight(_text_:retrieval in 617) [ClassicSimilarity], result of:
              0.01830946 = score(doc=617,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.16710453 = fieldWeight in 617, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=617)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    Purpose - Information, owing to its nature, has numerous capabilities. Through utilizing these capabilities, information systems can add to the value of information. The purpose of this paper is to explain where and how added value emerges from the work processes in library and information professions. Design/methodology/approach - The paper begins with a review of the related literature and then takes a conceptual approach to discuss different values of information and IR systems; elaborates on how each of the processes such as assessment of needs, selection, description/organization, storage/processing, search/retrieval, and dissemination generate capabilities that lead to added value. Findings - The paper identifies that added value is generated through processes such as reproduction, exchange, transfer, refinement, analysis, interpretation, synthesis, and regeneration of information. Many such processes turn information into knowledge. Research limitations/implications - This paper is based on the author's reflections on the matter of added value generated by library and information practice. Further empirical studies are needed to substantiate the extent to which such values are generated through information systems and services in the real world. Practical implications - Librarians and information specialists can find through their working practice how to design systems and services which can generate added value for information. Originality/value - In the present evolving conditions, library and information professionals are able to add to the value of information by sharing their knowledge with the expertise of computer scientists and finding a variety of ways and up-to-date methods of optimizing existing systems, as well as designing new systems. These are the two strategies along which the profession should guide its educational, research and practical endeavors.
  7. Hjoerland, B.: Arguments for philosophical realism in library and information science (2004) 0.00
    5.2312744E-4 = product of:
      0.003661892 = sum of:
        0.003661892 = product of:
          0.01830946 = sum of:
            0.01830946 = weight(_text_:retrieval in 832) [ClassicSimilarity], result of:
              0.01830946 = score(doc=832,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.16710453 = fieldWeight in 832, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=832)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    The basic realist claim is that a mind-independent reality exists. It should be common sense knowledge to accept this claim, just as any theories that try to deny it soon become inconsistent because reality strikes back. In spite of this, antirealist philosophies flourish, not only in philosophy but also in the behavioral and cognitive sciences and in information science. This is highly problematic because it removes the attention from reality to subjective phenomena with no real explanatory power. Realism should not be confused with the view that all scientific claims are true or with any other kind of naiveté concerning knowledge claims. The opposite of realism may be termed antirealism, idealism, or nominalism. Although many people confuse empiricism and positivism with realism, these traditions are by nature strongly antirealist, which is why a sharp distinction should be made between empiricism and realism. Empirical research should not be founded on assumptions about "the given" of observations, but should recognize the theory-laden nature of observations. Domain analysis represents an attempt to reintroduce a realist perspective in library and information science. A realist conception of relevance, information seeking, information retrieval, and knowledge organization is outlined. Information systems of all kinds, including research libraries and public libraries, should be informed by a realist philosophy and a realist information science.
  8. Warner, J.: Analogies between linguistics and information theory (2007) 0.00
    5.2312744E-4 = product of:
      0.003661892 = sum of:
        0.003661892 = product of:
          0.01830946 = sum of:
            0.01830946 = weight(_text_:retrieval in 138) [ClassicSimilarity], result of:
              0.01830946 = score(doc=138,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.16710453 = fieldWeight in 138, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=138)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    An analogy is established between the syntagm and paradigm from Saussurean linguistics and the message and messages for selection from the information theory initiated by Claude Shannon. The analogy is pursued both as an end in itself and for its analytic value in understanding patterns of retrieval from full-text systems. The multivalency of individual words when isolated from their syntagm is contrasted with the relative stability of meaning of multiword sequences, when searching ordinary written discourse. The syntagm is understood as the linear sequence of oral and written language. Saussure's understanding of the word, as a unit that compels recognition by the mind, is endorsed, although not regarded as final. The lesser multivalency of multiword sequences is understood as the greater determination of signification by the extended syntagm. The paradigm is primarily understood as the network of associations a word acquires when considered apart from the syntagm. The restriction of information theory to expression or signals, and its focus on the combinatorial aspects of the message, is sustained. The message in the model of communication in information theory can include sequences of written language. Shannon's understanding of the written word, as a cohesive group of letters, with strong internal statistical influences, is added to the Saussurean conception. Sequences of more than one word are regarded as weakly correlated concatenations of cohesive units.
  9. Hjoerland, B.: Concept theory (2009) 0.00
    5.2312744E-4 = product of:
      0.003661892 = sum of:
        0.003661892 = product of:
          0.01830946 = sum of:
            0.01830946 = weight(_text_:retrieval in 3461) [ClassicSimilarity], result of:
              0.01830946 = score(doc=3461,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.16710453 = fieldWeight in 3461, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3461)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    Concept theory is an extremely broad, interdisciplinary and complex field of research related to many deep fields with very long historical traditions without much consensus. However, information science and knowledge organization cannot avoid relating to theories of concepts. Knowledge organizing systems (e.g., classification systems, thesauri, and ontologies) should be understood as systems basically organizing concepts and their semantic relations. The same is the case with information retrieval systems. Different theories of concepts have different implications for how to construe, evaluate, and use such systems. Based on a post-Kuhnian view of paradigms, this article put forward arguments that the best understanding and classification of theories of concepts is to view and classify them in accordance with epistemological theories (empiricism, rationalism, historicism, and pragmatism). It is also argued that the historicist and pragmatist understandings of concepts are the most fruitful views and that this understanding may be part of a broader paradigm shift that is also beginning to take place in information science. The importance of historicist and pragmatic theories of concepts for information science is outlined.
  10. Stafford, T.; Webb, M.: Mind hacks : tips & tools for using your brain (2005) 0.00
    4.8122165E-4 = product of:
      0.0033685514 = sum of:
        0.0033685514 = product of:
          0.016842756 = sum of:
            0.016842756 = weight(_text_:system in 10) [ClassicSimilarity], result of:
              0.016842756 = score(doc=10,freq=4.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.14763528 = fieldWeight in 10, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=10)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft. 2005, H.12, S.106-107 (M. Jäger): "Das Buch gehört in eine Reihe mit »eBay Hacks«, »Google Hacks« und »Mac OS X Hacks« aus demselben Verlag: Anleitungen, ein System etwas anders zu nutzen, als sein Anbieter das vorgesehen hat. Und doch fällt es aus dem Rahmen. Kein Computer oder Betriebssystem wird gehackt, sondern das Gehirn. Wie die anderen »Hack«Bücher ist es nicht als Sachbuch im herkömmlichen Sinn angelegt, sondern als Sammlung von hundert Experimenten, »Hacks«, aus zehn verschiedenen Bereichen. Gezeigt werden erstaunliche Selbstversuche, unter anderem zum visuellen System, zu Aufmerksamkeitssteuerung, Hören und Sprache, Bewegung, Erinnerung, Schlussfolgerung und Gestaltwahrnehmung. Jedes neurologische Phänomen wird zunächst allgemein erläutert; es folgen die Beschreibung eines zugehörigen Experiments und eine kurze Erklärung sowie Angaben zu weiterführenden Texten und Internetlinks. Tom Stafford, Psychologe an der Universität Sheffield (England), und Matt Webb, Ingenieur, Designer und freischaffender Autor, unter anderem für die BBC, wurden von Spezialisten auf dem jeweiligen Gebiet unterstützt. Die einst beliebte Metapher vom Gehirn als Computer ist in der ursprünglichen Form nicht mehr haltbar, wie auch die Autoren im Vorwort einräumen. Dafür haben sich in den letzten Jahrzehnten zu viele und wesentliche Differenzen offenbart, etwa was Speicherung und Verarbeitung von Informationen angeht. Dennoch gibt es hinreichend viele Parallelen, um die Verwendung des Begriffs »Hack« zu rechtfertigen.
  11. Brier, S.: Cybersemiotics and the problems of the information-processing paradigm as a candidate for a unified science of information behind library information science (2004) 0.00
    4.1850194E-4 = product of:
      0.0029295133 = sum of:
        0.0029295133 = product of:
          0.014647567 = sum of:
            0.014647567 = weight(_text_:retrieval in 838) [ClassicSimilarity], result of:
              0.014647567 = score(doc=838,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.13368362 = fieldWeight in 838, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=838)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    As an answer to the humanistic, socially oriented critique of the information-processing paradigms used as a conceptual frame for library information science, this article formulates a broader and less objective concept of communication than that of the information-processing paradigm. Knowledge can be seen as the mental phenomenon that documents (combining signs into text, depending on the state of knowledge of the recipient) can cause through interpretation. The examination of these "correct circumstances" is an important part of information science. This article represents the following developments in the concept of information: Information is understood as potential until somebody interprets it. The objective carriers of potential knowledge are signs. Signs need interpretation to release knowledge in the form of interpretants. Interpretation is based on the total semantic network, horizons, worldviews, and experience of the person, including the emotional and social aspects. The realm of meaning is rooted in social-historical as well as embodied evolutionary processes that go beyond computational algorithmically logic. The semantic network derives a decisive aspect of signification from a person's embodied cultural worldview, which, in turn, derives from, develops, and has its roots in undefined tacit knowledge. To theoretically encompass both the computational and the semantic aspects of document classification and retrieval, we need to combine the cybernetic functionalistic approach with the semiotic pragmatic understanding of meaning as social and embodied. For such a marriage, it is necessary to go into the constructivistic second-order cybernetics and autopoiesis theory of von Foerster, Maturana, and Luhmann, on the one hand, and the pragmatic triadic semiotics of Peirce in the form of the embodied Biosemiotics, on the other hand. This combination is what I call Cybersemiotics.
  12. ¬The philosophy of information (2004) 0.00
    4.1850194E-4 = product of:
      0.0029295133 = sum of:
        0.0029295133 = product of:
          0.014647567 = sum of:
            0.014647567 = weight(_text_:retrieval in 11) [ClassicSimilarity], result of:
              0.014647567 = score(doc=11,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.13368362 = fieldWeight in 11, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=11)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Content
    Enthält die Beiträge: Information and Its Philosophy (Ian Cornelius) - Documentation Redux: Prolegomenon to (Another) Philosophy of Information (Bernd Frohmann) - Community as Event (Ronald E. Day) - Information Studies Without Information (Jonathan Furner) - Relevance: Language, Semantics, Philosophy (John M. Budd) - On Verifying the Accuracy of Information: Philosophical Perspectives (Don Fallis) - Arguments for Philosophical Realism in Library and Information Science (Birger Hjørland) - Knowledge Profiling: The Basis for Knowledge Organization (Torkild Thellefsen) - Classification and Categorization: A Difference that Makes a Difference (Elin K. Jacob) - Faceted Classification and Logical Division in Information Retrieval (Jack Mills) - The Epistemological Foundations of Knowledge Representations (Elaine Svenonius) - Classification, Rhetoric, and the Classificatory Horizon (Stephen Paling) - The Ubiquitous Hierarchy: An Army to Overcome the Threat of a Mob (Hope A. Olson) - A Human Information Behavior Approach to a Philosophy of Information (Amanda Spink and Charles Cole) - Cybersemiotics and the Problems of the Information-Processing Paradigm as a Candidate for a Unified Science of Information Behind Library Information Science (Søren Brier)
  13. Pirolli, P.: Information foraging theory : adaptive interaction with information (2007) 0.00
    4.1850194E-4 = product of:
      0.0029295133 = sum of:
        0.0029295133 = product of:
          0.014647567 = sum of:
            0.014647567 = weight(_text_:retrieval in 4005) [ClassicSimilarity], result of:
              0.014647567 = score(doc=4005,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.13368362 = fieldWeight in 4005, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4005)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    Although much of the hubris and hyperbole surrounding the 1990's Internet has softened to a reasonable level, the inexorable momentum of information growth continues unabated. This wealth of information provides resources for adapting to the problems posed by our increasingly complex world, but the simple availability of more information does not guarantee its successful transformation into valuable knowledge that shapes, guides, and improves our activity. When faced with something like the analysis of sense-making behavior on the web, traditional research models tell us a lot about learning and performance with browser operations, but very little about how people will actively navigate and search through information structures, what information they will choose to consume, and what conceptual models they will induce about the landscape of cyberspace. Thus, it is fortunate that a new field of research, Adaptive Information Interaction (AII), is becoming possible. AII centers on the problems of understanding and improving human-information interaction. It is about how people will best shape themselves to their information environments, and how information environments can best be shaped to people. Its roots lie in human-computer interaction (HCI), information retrieval, and the behavioral and social sciences. This book is about Information Foraging Theory (IFT), a new theory in Adaptive Information Interaction that is one example of a recent flourish of theories in adaptationist psychology that draw upon evolutionary-ecological theory in biology. IFT assumes that people (indeed, all organisms) are ecologically rational, and that human information-seeking mechanisms and strategies adapt the structure of the information environments in which they operate. Its main aim is to create technology that is better shaped to users. Information Foraging Theory will be of interest to student and professional researchers in HCI and cognitive psychology.
  14. Fuchs, C.; Hofkirchner, W.: ¬Ein einheitlicher Informationsbegriff für eine einheitliche Informationswissenschaft (2002) 0.00
    3.9698763E-4 = product of:
      0.0027789134 = sum of:
        0.0027789134 = product of:
          0.013894566 = sum of:
            0.013894566 = weight(_text_:system in 137) [ClassicSimilarity], result of:
              0.013894566 = score(doc=137,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.1217929 = fieldWeight in 137, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=137)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    Der Informationsbegriff der heutigen Informatik ist vom Shannonschen Entropiebegriff geprägt, der Information rein syntaktisch und quantitativ faßt und daher semantische, pragmatische sowie qualitative Aspekte ausblendet. Für Norbert Wiener ist Information Negentropie, ein Maß für Ordnung. Gregory Bateson faßt Information als Differenz, die eine Differenz in einem System produziert. Carl Friedrich von Weizsäcker sieht Information als die Anzahl der Uralternativen in einer bestimmten Situation. Dabei geht er von binären/letzten Alternativen aus, bei denen in Entscheidungssituationen eine von zwei Möglichkeiten ausgewählt wird. Auch er versucht, Information zu quantifizieren, und es werden qualitative Aspekte vernachlässigt. Die Entwicklung der Selbstorganisationstheorie erlaubt einen neuen Blick auf Information. Niklas Luhmann faßt Information in seiner Theorie selbstreferentieller Systeme als Teil des Kommunikationsprozesses: Information beinhalte einen Unterschied vom bereits Bekanntem. Und dieser Unterschied löse kognitive Strukturveränderung aus, d.h. mental wird ein Unterschied zur alten Struktur hergestellt. Information gilt ihm als rein kommunikatives Element, die Existenz von Information in verschiedenen Systemarten wird negiert. Hermann Haken und Maria Krell-Haken versuchen eine Synthese von Informationskonzept und Synergetik und sehen Information so, daß ein Übertragunsvorgang verschiedene Endzustände bewirken könne. Die Existenz mehrerer Attraktoren sei dabei also anzunehmen. Das Ergebnis ist ein anthropomorphistischer Ansatz, der die Evolution von Information negiert.
  15. Tetens, H.: ¬Der neuronal gläserne Mensch : Hochkomplexes und hypersensitives System: Im Gehirn selbst könnten die Befürworter der Willensfreiheit einen unerwarteten Verbündeten finden (2004) 0.00
    3.9291586E-4 = product of:
      0.002750411 = sum of:
        0.002750411 = product of:
          0.013752054 = sum of:
            0.013752054 = weight(_text_:system in 36) [ClassicSimilarity], result of:
              0.013752054 = score(doc=36,freq=6.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.12054371 = fieldWeight in 36, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.015625 = fieldNorm(doc=36)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Content
    Viele Philosophen meinen, die experimentellen Methoden der Naturwissenschaften erzeugten nur einen systematischen blinden Fleck für einen nichtnaturwissenschaftlichen Blick auf den Menschen. Sie halten den Hirnforschern vor, die Forschungsergebnisse könnten keineswegs den Menschen als freies Vernunftwesen dementieren. Doch sieht es meiner Einschätzung nach nicht danach aus, dass die Philosophen noch erfolgreich theoretisch beweisen werden, der Mensch sei trotz aller Befunde der Hirnforschung ein freies Vernunftwesen. Es kann nur noch darum gehen, die uns bisher vertraute alltägliche Praxis, in der wir uns wechselseitig als vernünftige und selbstverantwortliche Personen respektieren und entsprechend miteinander umgehen, so gut es eben geht zu wahren. Gewahrt werden kann diese Praxis nur, wenn unser Wissen von den neuronalen Mechanismen und unser technisches Know-how für ihre Steuerung durch technische Interventionen in das Gehirn einen gewissen Schwellenwert nicht überschreiten. Würden wir uns nämlich vollkommen in unseren neuronalen Mechanismen durchschauen, würde dieser Umgang miteinander zusammenbrechen. Doch wie ließe sich verhindern, dass unser Wissen von den neuronalen Mechanismen einen bestimmten Schwellenwert überschreitet? Natürlich könnten wir der Hirnforschung ethische Grenzen setzen, doch ob das gelingt, ist fraglich. Aber womöglich gibt es einen anderen unerwarteten Verbündeten: das Gehirn selbst. Das Gehirn ist unbestreitbar ein hochkomplexes hypersensitives System. Hypersensitive Systeme reagieren bereits auf kleinste Änderungen in bestimmten Randbedingungen oder in bestimmten Anfangszuständen mit zum Teil dramatisch unterschiedlichem Verhalten. Die Anfangsbedingungen liegen oft so dicht beieinander, dass es unmöglich ist, diese Unterschiede noch zu messen. Trotzdem entwickeln sich Systeme aus diesen nur minimal verschiedenen Ausgangsbedingungen schon nach kurzer Zeit weit auseinander. Wenn wir die Randund Anfangsbedingungen nicht genau genug messen können, können wir das Systemverhalten langfristig nicht zuverlässig vorhersagen. Diese Systeme lassen sich nicht etwa deshalb nicht voraussagen, weil sie keinen deterministischen Gesetzen gehorchten. Das Gegenteil ist der Fall. Oftmals kennen die Wissenschaftler sogar die exakten mathematischen Gleichungen für die Dynamik solcher Systeme. Trotzdem ist es unmöglich, das Systemverhalten zuverlässig und gar langfristig vorherzusagen. Der Hirnforscher Wolf Singer spricht in Bezug auf die Dynamik neuronaler Wechselwirkungen selbst von einer neuen "Bescheidenheit".
    Wer zweitens wissen will, wie es ein Gehirn anstellt, Bewusstseinserlebnisse auszulösen und das Verhalten zu steuern, muss das Gehirn genau dabei untersuchen. Aber präzise und detailliert dem Gehirn bei der Arbeit zuzuschauen, verlangt mehr oder weniger stark in das Gehirn einzugreifen. Da das Gehirn ein hypersensitives System ist, wird das Gehirn durch jede genauere Beobachtung selber verändert und beeinflusst. Wenn man genau wissen will, was sich im Gehirn einer Person im Detail tut, die zum Beispiel gerade eine stark befahrene Straße überquert, wird man das nur mit Methoden können, die die Testperson nicht daran hindern, die Straße zu überqueren. Wir kennen keine Methoden, das Gehirn während der Ausführung komplexer Handlungen einer Person zu beobachten. Alle Verfahren, Gehirne zu beobachten, lassen sich nur unter Laborbedingungen anwenden. Das Gehirn ist so hypersensitiv und hochkomplex, dass es vielleicht nie gelingen wird, die Aktivitä-ten der einzelnen Neuronen und die Dyna- mik ihrer Schaltkreise unter normalen Alltagsbedingungen detailliert und präzise zu beobachten. Dann aber würden wir Bewusstseinserlebnisse und Verhalten, wie sie für Alltagssituationen typisch sind, auch niemals genau aufgrund neurophysiologischer Daten vorhersagen oder gar technisch manipulieren können. - Neue Bescheidenheit - Eine dritte Überlegung kommt hinzu. Wir Menschen kommen ziemlich unfertig auf die Welt. Die meisten Fähigkeiten, die e ir-, gendwann einmal beherrschen, müssen wir nach der Geburt lernen. Vom neuronalen Standpunkt aus betrachtet lernen wir, indem neue Verschaltungen zwischen den Neuronen aufgebaut und bestehende verstärkt oder abgeschwächt werden. Das Gehirn hat zwischen 10**11° und 10**12 Neuronen. Jedes Neuron ist mit einigen tausendanderen Neuronen verschaltet. Der vollständige Schaltplan eines Gehirns enthält also mindestens 10**15 Informationen. Und das wäre dann auch nur der Schaltplan des Gehirns für einen bestimmten Zeitpunkt. Die zeitlichen Veränderungen der neuronalen Verschalturig wären damit 'überhaupt noch nicht erfasst. Nach allem, was wir wissen, können 10**15 und mehr Informationen auf der DNA überhaupt nicht codiert werden. Deshalb können die neuronalen Verschaltungen des Gehirns und ihre Dynamik, von denen die Leistungen eines Gehirns wesentlich abhängen; nicht vollständig genetisch' festgelegt sein. Das Gehirnentwickelt sich zu dem leistungsfähigen Organ also erst durch eine längere Lerngeschichte in einer natürlichen und sozialen Umgebung. Diese Lerngeschichte kann vermutlich, und so ist zu hoffen, nicht wesentlich verkürzt oder ersetzt werden durch direkte technische Manipulationen des Gehirns. Die Botschaft der drei Argumente dürfte klar geworden sein: Vielleicht schützt uns die Komplexität unserer Gehirne vor den Gefahren, zu viel über Gehirne zu wissen. Ist das Gehirn so komplex und hypersensitiv, dass es sich von uns nicht in die Karten schauen lässt oder, um bei der wissenschaftlichen Wahrheit zu bleiben, dass sich ein Gehirn nicht von einem anderen Gehirn in die Karten schauen lässt? Natürlich, die Komplexität des Gehirns ist ein unsicherer Verbündeter. Wir können nicht mit Sicherheit wissen, was wir in Zukunft wissen werden. Aber wer kennt einen besseren Verbündeten, um die "Putschisten im Labor", wie Hans Magnus Enzensberger sie nennt, noch davon abzuhalten, den Menschen als "frei denkendes Wesen" endgültig vom Thron zu stürzen?"
  16. Kuhlthau, C.C: Seeking meaning : a process approach to library and information services (2004) 0.00
    3.6990695E-4 = product of:
      0.0025893485 = sum of:
        0.0025893485 = product of:
          0.012946742 = sum of:
            0.012946742 = weight(_text_:retrieval in 3347) [ClassicSimilarity], result of:
              0.012946742 = score(doc=3347,freq=4.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.11816074 = fieldWeight in 3347, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3347)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    LCSH
    Information retrieval
    Subject
    Information retrieval
  17. Bell, G.; Gemmell, J.: Erinnerung total (2007) 0.00
    3.4027512E-4 = product of:
      0.0023819257 = sum of:
        0.0023819257 = product of:
          0.011909628 = sum of:
            0.011909628 = weight(_text_:system in 300) [ClassicSimilarity], result of:
              0.011909628 = score(doc=300,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.104393914 = fieldWeight in 300, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=300)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    Dank neuester Technik werden die Menschen alles aufzeichnen können, was sie sehen, hören, sagen und schreiben. All diese Daten sind in einem persönlichen digitalen Archiv verfügbar. In Kürze - Weil das menschliche Gedächtnis fehlbar ist, arbeiten Forscher an einem System, das persönliche Kommunikation, Dokumente, Bilder und Videos automatisch aufzeichnet und alles in einem durchsuchbaren Archiv bereithält. - Aufzeichnen und Abspeichern werden durch den rasanten Fortschritt in Sensor- und Speichertechnologie immer einfacher und billiger. Das größere Problem ist die Entwicklung von Software, die diese Daten organisiert und auffindbar macht. - Digitale Gedächtnisse werden große Vorteile in der medizinischen Versorgung, der Arbeitsproduktivität und anderen Bereichen mit sich bringen, aber die Entwickler müssen dafür Sorge tragen, dass die Archive sicher sind.
  18. Günther, G.: ¬Das Bewußtsein der Maschinen : Sammlung ; eine Metaphysik der Kybernetik (2002) 0.00
    3.4027512E-4 = product of:
      0.0023819257 = sum of:
        0.0023819257 = product of:
          0.011909628 = sum of:
            0.011909628 = weight(_text_:system in 474) [ClassicSimilarity], result of:
              0.011909628 = score(doc=474,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.104393914 = fieldWeight in 474, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=474)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    Das Buch 'Das Bewusstsein der Maschinen' des deutsch-amerikanischen Philosophen und Logikers Gotthard Günther (1900-1984) erschien bereits 1957 und in einer erweiterten 2. Auflage im Jahr 1963. Was damals sensationell wirkte, ist heute Bestandteil unseres philosophischen Bewusstseins geworden: die Hereinnahme der Kybernetik nicht nur in unsere praktisch-technische Welt, sondern auch in die philosophische Spekulation wie in unsere soziologische Reflexion. Immer aber noch ist die Lektüre der Güntherschen Theoreme und Einsichten für Wissenschaftler wie auch für den Laien aufregend, die Revolutionierung unseres gesamten Denkens offenbar. Daß die maschinelle Intelligenz den Leistungen des menschlichen Bewusstseins überlegen sein kann - wer bestreitet das heute noch? Daß aber mit dem Maschinenbewusstsein die alten Denkgewohnheiten des Menschen aus den Angeln gehoben und alle klassischen Schemata wie auch die dialektische Spekulation auf einen mehr oder minder aufwendigen Schutthaufen geworfen sind - dagegen werden die philosophischen Lehrstühle sich noch lange wehren. - Auch diese erweiterte Auflage des Güntherschen Buches ist kein Abschluß und kein System, sondern Frage und Anregung zur Metaphysik unseres Jahrhunderts. Die jetzt nach etwa 40 Jahren erneut aufgelegte und nochmals erweiterte Ausgabe ist - betrachtet man den heutigen Stand der Diskussionen um die Themen 'Künstliche Intelligenz', 'Maschinelles Lernen' oder 'Maschinenbewusstsein' - nicht nur aus philosophischer sondern vor allem aus wissenschaftslogischer Sicht seiner Zeit immer noch weit voraus. Dies begründet sich insbesondere darin, dass Gotthard Günther nicht nur einen Entwurf geliefert, sondern im Verlauf seiner wissenschaftlichen Tätigkeiten am Biological Computer Laboratory (BCL) in Illinois (Urbana) auch die Grundlagen zu einer nichtaristotelischen Logik gelegt hat, die sich am besten unter dem Begriff 'Theorie polykontexturaler Systeme' subsumieren lassen.
  19. Was kommt nach der Informationsgesellschaft? : 11 Antworten (2002) 0.00
    2.8356258E-4 = product of:
      0.001984938 = sum of:
        0.001984938 = product of:
          0.00992469 = sum of:
            0.00992469 = weight(_text_:system in 1504) [ClassicSimilarity], result of:
              0.00992469 = score(doc=1504,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.08699492 = fieldWeight in 1504, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1504)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Footnote
    Auch die Zukunftsforscher Klaus Burmeister, Andreas Neef und Beate Schulz-Montag versprechen sich von einer »gut entwickelten Diskurskultur« (Seite 116) »kreative Verknüpfungen«, Impulse und auch mehr Verantwortungsbereitschaft in einer generell nicht voraussagbaren, weil überaus widersprüchlichen und risikobehafteten »Crossover Socitey«. Selbst Norbert Bolz kann entgegen seinen früheren gewissen Visionen, »nüchtern betrachtet [...], nichts über die Zukunft sagen, sondern allenfalls etwas über ihre Möglichkeiten- und die Grenzen ihrer Andersartigkeit«. Denn »je mehr das Wissen die Zukunft prägt, desto weniger kann man von der Zukunft wissen« (Seite 210). Gleichwohl nimmt er »nach einem halben Jahrhundert [...] wieder Abschied« von der »Informationsgesellschaft«, und irgendwie im Fortgang seines »Blindfluges ins 21. Jahrhundert« werden ihm seine schon vielfach publizierten Vokabeln wieder gewiss (wie schon jenes Zitat ahnen lässt): »Weltkommunikation« ist eine, bei der man den Raum preisgibt, »um die Zeit zu binden« (Seite 201), oder »Wissensgesellschaft«, weil jetzt Wirtschaft und Bildung konvergiere und die »Produktivität der geistigen Arbeit entdeckt« werde, oder - nun endgültig - das Ende jeder großen Theorie, weil sie der »Inbegriff aller Versuche [ist], der Praxis zu entfliehen« (Seite 216). Nun also vernimmt der Zuhörer aus eitlem wissenschaftlichem Munde: »Kehrtmarsch!«, denn angestimmt wird jetzt das forsche Lied des »Sichdurchwurstelns«, weil eine solche Politik viel erfolgreicher ist »als die Strategie der Nachhaltigkeit und Antizipation« (Seite 214). Ob sich damit auch der visionär und strategisch operierende Think Tank Bertelsmann Stiftung angesprochen fühlt? - Welt als Text - Ungeachtet solcher Bedenken und Warnungen, entwirft die andere Gruppe nach wie vor ihre Zukunftsvisionen undwohlfeilen Etiketten für die nunmehr Nach-Informationsgesellschaft: Gemein ist ihnen fast allen die Abkehr von vorwiegend technischen und ökonomisch bestimmten Formationen, wozu sie die Informationsgesellschaft fast einhellig und erstaunlicherweise zählen; dies auch den hier noch unbelehrbaren Protagonisten ins Stammbuch geschrieben! Denn die Technik integriere sich mit Gen-, Nanound sonstigen Soft-Technologies in die alltäglichen Systeme oder gar in die menschlichen Organe, was selten als problematisch erachtet wird; das »Reich der Notwendigkeiten« und Zwänge eskamotiere. In den Mittelpunkt rücke (wieder) das Individuum, das Humane schlechthin, mindestens die Fähigkeiten der Selbstorganisation, Selbstbestimmung, der Dezentralisierung und weitgehenden Freiheiten. Ideelle Kräfte und Werte werden demnach vorrangig, »Nachhaltigkeit« - so lässt sich Computer-Guru John Naisbitt im Gegensatz zu Norbert Bolz vernehmen - »ist die Zukunft« (Seite 233), aber dafür bedarf es für ihn der Informationstechnologien. Der dänische Autor Rolf Jensen wähnt wie in seinem Buch (1999) die »Dream Society« heraufziehen, weil die Menschen für ihre emotionalen Bedürfnisse gute Geschichten brauchen, selbst wenn sie nur den Waren als Marketingzusatz beigegeben sind - als Gebrauchswertversprechen, wie man das früher nannte. Das Science-Fiction- und Zukunftsforscher-Ehepaar Angela und Karlheinz Steinmüller argumentiert sich in einem sokratischen Dialog in eine eher wunderliche Epoche von Erzählungen und Mythen hinein, und Steve Talbott, Herausgeber der elektronischen Zeitschrift »NetFuture«, verwirft ebenfalls den Informationsgriff und postuliert als lebenswerte Kategorien hingegen Sinn und Bedeutung: Auch Naturwissenschaftler und Okonomen müssten »die Welt« als einen »sinnvollen Text« begreifen und nicht länger mehr als »informationelles System«.
  20. Burnett, R.: How images think (2004) 0.00
    2.0925097E-4 = product of:
      0.0014647567 = sum of:
        0.0014647567 = product of:
          0.0073237834 = sum of:
            0.0073237834 = weight(_text_:retrieval in 3884) [ClassicSimilarity], result of:
              0.0073237834 = score(doc=3884,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.06684181 = fieldWeight in 3884, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3884)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Footnote
    The sixth chapter looks at this interfacing of humans and machines and begins with a series of questions. The crucial one, to my mind, is this: "Does the distinction between humans and technology contribute to a lack of understanding of the continuous interrelationship and interdependence that exists between humans and all of their creations?" (p. 125) Burnett suggests that to use biological or mechanical views of the computer/mind (the computer as an input/output device) Limits our understanding of the ways in which we interact with machines. He thus points to the role of language, the conversations (including the one we held with machines when we were children) that seem to suggest a wholly different kind of relationship. Peer-to-peer communication (P2P), which is arguably the most widely used exchange mode of images today, is the subject of chapter seven. The issue here is whether P2P affects community building or community destruction. Burnett argues that the trope of community can be used to explore the flow of historical events that make up a continuum-from 17th-century letter writing to e-mail. In the new media-and Burnett uses the example of popular music which can be sampled, and reedited to create new compositions - the interpretive space is more flexible. Private networks can be set up, and the process of information retrieval (about which Burnett has already expended considerable space in the early chapters) involves a lot more of visualization. P2P networks, as Burnett points out, are about information management. They are about the harmony between machines and humans, and constitute a new ecology of communications. Turning to computer games, Burnett looks at the processes of interaction, experience, and reconstruction in simulated artificial life worlds, animations, and video images. For Burnett (like Andrew Darley, 2000 and Richard Doyle, 2003) the interactivity of the new media games suggests a greater degree of engagement with imageworlds. Today many facets of looking, listening, and gazing can be turned into aesthetic forms with the new media. Digital technology literally reanimates the world, as Burnett demonstrates in bis concluding chapter. Burnett concludes that images no longer simply represent the world-they shape our very interaction with it; they become the foundation for our understanding the spaces, places, and historical moments that we inhabit. Burnett concludes his book with the suggestion that intelligence is now a distributed phenomenon (here closely paralleling Katherine Hayles' argument that subjectivity is dispersed through the cybernetic circuit, 1999). There is no one center of information or knowledge. Intersections of human creativity, work, and connectivity "spread" (Burnett's term) "intelligence through the use of mediated devices and images, as well as sounds" (p. 221).

Languages

  • e 41
  • d 39

Types

  • a 66
  • m 12
  • s 4
  • el 2
  • More… Less…