Search (1819 results, page 91 of 91)

  • × type_ss:"m"
  1. Boeuf, P. le: Functional Requirements for Bibliographic Records (FRBR) : hype or cure-all (2005) 0.00
    8.4132596E-4 = product of:
      0.0033653039 = sum of:
        0.0033653039 = weight(_text_:information in 175) [ClassicSimilarity], result of:
          0.0033653039 = score(doc=175,freq=4.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.054858685 = fieldWeight in 175, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=175)
      0.25 = coord(1/4)
    
    Footnote
    What is, after all the FRBR model? The question is asked in the subtitle itself: is it a "hype or cureall?" It certainly is the talk of the day in libraries and similar institutions, a very popular topic for professional meetings, a challenging task for system vendors and food for thought for scholars both in terminology and in content. As for the solutions it offers, they enable simplified and more structured catalogues of large collections and perhaps easier ways to cataloguing resources of many different types. Once implemented in catalogues, the benefits will be both on the librarian's side and on the end user's side. According to Patrick LeBoeuf the model is a beginning and there are two directions for its development as far as the authors of the articles imply: the first, oriented to the configuration of FRANAR or FRAR, the second, oriented to what has already been established and defined as FRSAR (Functional Requirements for Subject Authority Records). The latter is meant to build a conceptual model for Group 3 entities within the FRBR framework related to the aboutness of the work and assist in an assessment of the potential for international sharing and use of subject authority data both within the library sector and beyond. A third direction, not present in the work considered, yet mentioned by the editor, is oriented towards the development of "the CIDOC CRM semantic model for cultural heritage information in museums and assimilated institutions" (p. 6). By merging the FRBR working group with the CIDOC CRM Special Interest Group a FRBR/CRM Harmonization Group has been created its scope being the "translation" of FRBR into object-oriented formalism. The work under review is the expected and welcome completion of the FRBR Final Report of 1998, addressing librarians, library science teaching staff, students, and library system vendors, a comprehensive source of information on theoretical aspects and practical application of the FRBR conceptual model. A good companion clarifying many FRBR issues the collection is remarkably well structured and offers a step-by-step insight into the model. An additional feature of the work is the very helpful index at the back of the book providing an easy access to the main topics discussed."
  2. Bertram, J.: Einführung in die inhaltliche Erschließung : Grundlagen - Methoden - Instrumente (2005) 0.00
    8.4132596E-4 = product of:
      0.0033653039 = sum of:
        0.0033653039 = weight(_text_:information in 210) [ClassicSimilarity], result of:
          0.0033653039 = score(doc=210,freq=4.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.054858685 = fieldWeight in 210, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=210)
      0.25 = coord(1/4)
    
    Abstract
    Die inhaltliche Erschließung geht von der Frage aus, wie man sich gezielt und schnell einen Zugang zu Dokumentinhalten und eine Orientierung über sie verschaffen kann. Ein Dokument kann dabei alles sein, was als Träger inhaltlicher Daten in Betracht kommt: eine Patentschrift oder ein Plakat, ein Fernsehbeitrag oder ein Musikstück, ein musealer Gegenstand oder eine Internetquelle, ein Buch, ein Zeitungsartikel und vieles mehr. Als Dozentin für inhaltliche Erschließung am Potsdamer Institut für Information und Dokumentation (IID), das wissenschaftliche Dokumentare ausbildet, habe ich mich mit obiger Frage vier Jahre lang beschäftigt. Das vorliegende Buch stellt eine Essenz meiner Unterrichtsmaterialien dar, die ich im Laufe dieser Zeit entwickelt habe. Mit der Erstellung der Materialien wollte ich zum einen dem Mangel an aktueller deutschsprachiger Literatur zum Thema 'Inhaltserschließung' begegnen und außerdem das Lehrgeschehen so vollständig wie möglich dokumentieren. Die Zusammenfassung meiner Skripte zu einer Buchpublikation ist eine Reaktion auf das häufig geäußerte Bedürfnis der Kursteilnehmer, neben all den Loseblattsammlungen auch ein "richtiges Buch" erstehen zu können. Die Publikation richtet sich aber ebenso an mein derzeitiges Klientel, die Studentinnen und Studenten des Fachhochschulstudiengangs Informationsberufe in Eisenstadt (Österreich). Darüber hinaus ist sie an jegliche Teilnehmer von Studiengängen im Bibliotheks-, Informations- und Dokumentationsbereich adressiert. Zudem verbinde ich mit ihr die Hoffnung, daß sie auch der einen oder anderen lehrenden Person als ein Hilfsmittel dienen möge. Bei der Erstellung der Lehrmaterialien ging es mir nicht darum, das Rad neu zu erfinden. Vielmehr war es meine Absicht, die bereits vorhandenen Räder zusammenzutragen und in einem einheitlichen Konzept zu vereinen. Der Literaturpool, aus dem sich die Publikation speist, besteht zunächst aus nationalen und internationalen Normen, die den Bereich der Inhaltserschließung berühren. Dazu kommen die nicht eben zahlreichen Monographien und Aufsätze im deutschen Sprachraum sowie einige englischsprachige Buchpublikationen zum Thema. Schließlich habe ich Zeitschriftenartikel aus dem Bibliotheks- und Dokumentationsbereich der letzten vier Jahre einbezogen, mehrheitlich ebenfalls aus dem deutschen Sprachraum, vereinzelt aus dem anglo-amerikanischen. Ein wesentliches Anliegen dieses Buches ist es, Licht in das terminologische Dunkel zu bringen, das sich dem interessierten Leser bei intensivem Literaturstudium darbietet. Denn der faktische Sprachgebrauch weicht häufig vom genormten ab, die Bibliothekare verwenden andere Ausdrücke als die Dokumentare und Informationswissenschaftler, unterschiedliche Autoren sprechen unterschiedliche Sprachen und auch die Normen selbst sind längst nicht immer eindeutig. Ich habe mich um terminologische Konsistenz in der Weise bemüht, daß ich alternative deutsche Ausdrucksformen zu einem Terminus in Fußnoten aufführe. Dort finden sich gegebenenfalls auch die entsprechenden englischen Bezeichnungen, wobei ich mich in dieser Hinsicht überwiegend an dem genormten englischen Vokabular orientiert habe.
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 56(2005) H.7, S.395-396 (M. Ockenfeld): "... Das Buch ist der z. Band in einer vom International Network for Terminology (TermNet), einer Gruppe von vierzehn Fachleuten der Terminologiearbeit aus acht Ländern, herausgegebenen Reihe. Ein Anliegen der Autorin, das sie in ihrem Vorwort formuliert, ist es denn auch "Licht in das terminologische Dunkel zu bringen", in das man beim intensiven Literaturstudium allzu leicht gerät, weil der faktische Sprachgebrauch häufig vom genormten abweicht und außerdem Bibliothekare, Dokumentare und Informationswissenschaftler Ausdrücke unterschiedlich gebrauchen. ... Der didaktisch gut aufbereitete Stoff wird sehr verständlich, präzise und mit spürbarer Begeisterung beschrieben. Doch das Buch ist auch wegen seiner sorgfältigen typographischen Gestaltung ein Lesevergnügen, vor allem für diejenigen, die die herkömmliche Rechtschreibung gewohnt sind. Es kann der angestrebten Zielgruppe, Teilnehmer und Lehrende von Hochschulstudiengängen im Bibliotheks-, Informations- und Dokumentationsbereich, als kompaktes Lehr- und Arbeitsbuch für die Grundlagen der Inhaltserschließung nachdrücklich empfohlen werden."
  3. Hofstadter, D.R.: I am a strange loop (2007) 0.00
    8.4132596E-4 = product of:
      0.0033653039 = sum of:
        0.0033653039 = weight(_text_:information in 666) [ClassicSimilarity], result of:
          0.0033653039 = score(doc=666,freq=4.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.054858685 = fieldWeight in 666, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=666)
      0.25 = coord(1/4)
    
    Footnote
    Die Murmel liefert das Hauptthema des Buchs. Die Seele, das Ich, ist eine Illusion. Es ist eine »seltsame Schleife« (a strange loop), die ihrerseits von einer Unzahl von Schleifen auf einem niedrigeren Niveau erzeugt wird. So kommt es, dass der Klumpen Materie innerhalb unseres Schädels nicht nur sich selbst beobachtet, sondern sich dessen auch bewusst ist. Seltsame, genauer: selbstbezügliche Schleifen faszinieren Hofstadter seit jeher. Er sieht sie überall. Sie sind das Herzstück von Gödels berühmtem Unbeweisbarkeitssatz. Sie lauern in den »Principia Mathematica« von Russell und Whitehead, stets bereit, die Fundamente der Mathematik zu untergraben. Ihre kürzeste Form sind logische Paradoxa wie »Dieser Satz ist falsch« oder die Karte, auf deren einer Seite steht »Der Satz auf der Rückseite ist wahr« und auf der anderen »Der Satz auf der Rückseite ist falsch«. In Kapitel 21 führt er ein verstörendes Gedankenexperiment ein, das auch Thema zahlreicher Sciencefiction-Geschichten ist: Ein Mann wird, wie in »Raumschiff Enterprise«, auf einen fremden Planeten und zurück gebeamt, indem eine Maschine ihn Molekül für Molekül abscannt und die Information an den Zielort übermittelt, wo sie zur Herstellung einer exakten Kopie dieses Menschen dient. Wenn dabei das Original zerstört wird, entsteht kein philosophisches Problem. Wenn es aber erhalten bleibt - oder mit derselben Information zwei Kopien hergestellt werden -, entsteht ein Paar identischer Zwillinge mit identischen Erinnerungen. Ist der so gebeamte Mensch derselbe wie das Original oder ein anderer?
  4. Koch, C.: Consciousness : confessions of a romantic reductionist (2012) 0.00
    8.4132596E-4 = product of:
      0.0033653039 = sum of:
        0.0033653039 = weight(_text_:information in 4561) [ClassicSimilarity], result of:
          0.0033653039 = score(doc=4561,freq=4.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.054858685 = fieldWeight in 4561, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=4561)
      0.25 = coord(1/4)
    
    Content
    In which I introduce the ancient mind-body problem, explain why I am on a quest to use reason and empirical inquiry to solve it, acquaint you with Francis Crick, explain how he relates to this quest, make a confession, and end on a sad note -- In which I write about the wellsprings of my inner conflict between religion and reason, why I grew up wanting to be a scientist, why I wear a lapel pin of Professor Calculus, and how I acquired a second mentor late in life -- In which I explain why consciousness challenges the scientific view of the world, how consciousness can be investigated empirically with both feet firmly planted on the ground, why animals share consciousness with humans, and why self-consciousness is not as important as many people think it is -- In which you hear tales of scientist-magicians that make you look but not see, how they track the footprints of consciousness by peering into your skull, why you don't see with your eyes, and why attention and consciousness are not the same -- In which you learn from neurologists and neurosurgeons that some neurons care a great deal about celebrities, that cutting the cerebral cortex in two does not reduce consciousness by half, that color is leached from the world by the loss of a small cortical region, and that the destruction of a sugar cube-sized chunk of brain stem or thalamic tissue leaves you undead -- In which I defend two propositions that my younger self found nonsense--you are unaware of most of the things that go on in your head, and zombie agents control much of your life, even though you confidently believe that you are in charge -- In which I throw caution to the wind, bring up free will, Der ring des Nibelungen, and what physics says about determinism, explain the impoverished ability of your mind to choose, show that your will lags behind your brain's decision, and that freedom is just another word for feeling -- In which I argue that consciousness is a fundamental property of complex things, rhapsodize about integrated information theory, how it explains many puzzling facts about consciousness and provides a blueprint for building sentient machines -- In which I outline an electromagnetic gadget to measure consciousness, describe efforts to harness the power of genetic engineering to track consciousness in mice, and find myself building cortical observatories -- In which I muse about final matters considered off-limits to polite scientific discourse: to wit, the relationship between science and religion, the existence of God, whether this God can intervene in the universe, the death of my mentor, and my recent tribulations.
    Footnote
    Now it might seem that is a fairly well-defined scientific task: just figure out how the brain does it. In the end I think that is the right attitude to have. But our peculiar history makes it difficult to have exactly that attitude-to take consciousness as a biological phenomenon like digestion or photosynthesis, and figure out how exactly it works as a biological phenomenon. Two philosophical obstacles cast a shadow over the whole subject. The first is the tradition of God, the soul, and immortality. Consciousness is not a part of the ordinary biological world of digestion and photosynthesis: it is part of a spiritual world. It is sometimes thought to be a property of the soul and the soul is definitely not a part of the physical world. The other tradition, almost as misleading, is a certain conception of Science with a capital "S." Science is said to be "reductionist" and "materialist," and so construed there is no room for consciousness in Science. If it really exists, consciousness must really be something else. It must be reducible to something else, such as neuron firings, computer programs running in the brain, or dispositions to behavior. There are also a number of purely technical difficulties to neurobiological research. The brain is an extremely complicated mechanism with about a hundred billion neurons in ... (Rest nicht frei). " [https://www.nybooks.com/articles/2013/01/10/can-information-theory-explain-consciousness/].
  5. ¬Die Zukunft des Wissens : Vorträge und Kolloquien: XVIII. Deutscher Kongress für Philosophie, Konstanz, 4. - 8. Oktober 1999 (2000) 0.00
    7.4363407E-4 = product of:
      0.0029745363 = sum of:
        0.0029745363 = weight(_text_:information in 733) [ClassicSimilarity], result of:
          0.0029745363 = score(doc=733,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.048488684 = fieldWeight in 733, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=733)
      0.25 = coord(1/4)
    
    Theme
    Information
  6. Wilke, H.: Systematisches Wissensmanagement : Mit Fallstudien von Carsten Krück u.a. (2001) 0.00
    7.4363407E-4 = product of:
      0.0029745363 = sum of:
        0.0029745363 = weight(_text_:information in 1018) [ClassicSimilarity], result of:
          0.0029745363 = score(doc=1018,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.048488684 = fieldWeight in 1018, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1018)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in B.I.T online 5(2002) H.3, S.274-276 (R. Ball): "Das handliche rote Taschenbuch über systemisches Wissensmanagement enthält fünf Kapitel mit vier theoretischen Teilen (Einleitung, Wissensarbeit, Wissensmanagement und Wissensgesellschaft) und ein Praxiskapitel mit sechs verschiedenen Fallstudien über die Anwendung von Wissensmanagement. Aufgabe des Buches, so definiert der Autor, ist es, "Wissensmanagement als Element eines Zusammenhanges gesellschaftlicher, organisationaler, technologischer und individueller Faktoren zu betrachten" (S. 6). Dabei geht es dem Autor nicht um ein weiteres Buch über Wissensmanagement, deren es schon so unzählig viele gibt', sondern um die konkrete Frage nach systemischem Wissensmanagement. Der Autor umgeht dabei die undankbare Aufgabe, die Termini "Daten", "Information", "Wissen" und "Weisheit" genau zu definieren und voneinander abgrenzen zu müssen und vermeidet es, damit eine weitere unbefriedigende Antwort auf diese zu oft gestellten Fragen zu geben. Überhaupt verzichtet Willke in seinem Buch auf allzu viel theoretisches Gedankengut. Aber es gelingt ihm in seiner Einleitung und in den theoretischen Kapiteln, die eigentlichen Fragen des systemischen Wissensmanagements aufzuzeigen, der Definition, Anwendung, Umsetzung und vor allem die Konsequenzen für die Wissensgesellschaft. Willke leistet eine gute Hinführung zum Thema, differenziert personales Wissen von organisationalem Wissen, und wer die Einführung über 18 Seiten aufmerksam gelesen hat weiß, wovon die Rede ist und wovon im weiteren Verlauf des Buches die Rede sein wird. Dass Wissensarbeit die Basis von modernen Gesellschaften sein muss und sein wird, dass sich Wissensarbeit aber dennoch von Wissenschaftlerarbeit klar unterscheidet, macht der Autor im 2. Kapitel "Wissensarbeit' deutlich. Besonders wichtig ist dem Autor das Zusammenspiel von Person und Organisation, vor dessen Hintergrund die Expertise des einzelnen einer kontinuierlichen Revision unterworfen ist. Wissensarbeit ist die veränderte Arbeit unter Bedingung von wissensbasierten Gesellschaften und Organisation, und Willke erarbeitet ein System, das personales Wissen in organisationales Wissen überleitet. Statt Geld und Macht in traditionellen Organisationen ist die Expertise das Steuerungselement wissensbasierter Gesellschaften. Die entscheidende Erkenntnis - und für Willke einer der wichtigsten Punkte - ist die Notwendigkeit, personales und organisationales Wissen zu organisieren. Eine Abkehr von der Fixierung auf die Person ist erforderlich, wenn es um das Wissen geht. Für den Umgang mit organisationalem Wissen stellt Willke drei Forderungen auf: 1. die Organisation selbst muss über geeignete Beobachtungsinstrumente verfügen, 2. die Organisation benötigt eigenständige Relevanzkriterien für die Bewertung von Daten und Informationen und 3. muss die Organisation dafür sorgen, dass ein zusammenhängender Erfahrungskontext geschaffen und lebendig gehalten wird.
  7. Was kommt nach der Informationsgesellschaft? : 11 Antworten (2002) 0.00
    7.4363407E-4 = product of:
      0.0029745363 = sum of:
        0.0029745363 = weight(_text_:information in 1504) [ClassicSimilarity], result of:
          0.0029745363 = score(doc=1504,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.048488684 = fieldWeight in 1504, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1504)
      0.25 = coord(1/4)
    
    Theme
    Information
  8. Thesaurus der exakten Wissenschaften : Unter Mitarb. von Charles Auffray u.a (2001) 0.00
    7.4363407E-4 = product of:
      0.0029745363 = sum of:
        0.0029745363 = weight(_text_:information in 2414) [ClassicSimilarity], result of:
          0.0029745363 = score(doc=2414,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.048488684 = fieldWeight in 2414, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2414)
      0.25 = coord(1/4)
    
    Abstract
    Wissen, Wissenschaft, Wissensmacht. Das Informationszeitalter blickt misstrauisch und -mutig, aber immer noch mit Respekt, mit Ehrfurcht, auf die Jahrhunderte hinter uns zurück: in denen es eine Einheit gab von Wissen, Reflexion und Handeln. Heute ist Information alles, aber was kann da Wissen noch sein? Vor drei Jahren haben Michel Serres. und Nayla Farouki mit ihren Kollegen eine praktische Antwort versucht - einen "Thesaurus der exakten Wissenschaften", der nun auf Deutsch vorliegt. Ein Thesaurus, eine Schatzkammer also. Jener Ort, in einem Heiligtum, wo ein Schatz gehütet wurde. Der Schatz des Wissens, der exakten Wissenschaften genau gesagt, umfasst Astrophysik, Biochemie, Chemie, Genetik, Geowissenschaften, Informatik, Mathematik und Physik. Was ist dieses Wissen und wie kann es sich darstellen: "Jorge Luis Borges erzählt eine wunderbare Geschichte, in der berichtet wird, hier und da seien auf der Welt noch die Reste einer im Maßstab 1:1 angefertigten Weltkarte zu besichtigen ... Im Extremfall stößt die Geometrie auf den leeren, glatten homogenen, transparenten Raum oder das Fraktal verliert sich in seien sich endlos auffächernden Singularitaten. Das sind die beiden Grenzen, die die unüberbrückbare, widersprüchliche Kluft zwischen Realem und Formalem markieren. Welt und platonische Vernunft behalten wir immer beide zugleich in den Augen. Freilich nicht ohne zu schielen." Dieser Strabismus ist der schönste Effekt des gewaltigen Buches von Serres / Farouki, gerade richtig für ein Werk, in dem sich Hypertrophie und Bescheidenheit paaren. Das Wissen der Welt noch einmal zwischen zwei Buchdeckeln zu sammeln - was könnte absurder, verführerischer, beunruhigender sein. "Wir suchen nach dem Wissen nicht mehr wie nach einer einsamen Insel im unermesslichen Meer des Nichtwissens. Unser Streben gilt vielmehr einem besonderen, ausgewählten, bestätigten Wissen im Meer der Erkenntnis, einem 'Schatz' in der unförmigen Masse des Wissens. Hier ist er beschrieben, dieser 'Schatz', dieser Thesaurus, und doch auch immer wieder in Frage gestellt von Autoren, die sich als Forscher verstehen, dem Leser aber kaum voraus sind. Kein Buch für den wissenschaftlichen Zirkel - der circulus vitiosus zwischen Lesern und Autoren hat seit vielen Jahren seine Kraft verloren. Das ThesaurusProjekt, das klingt wie ein Roman von Robert Ludlum, dem großen Spannungsautor, der vor wenigen Tagen gestorben ist. ... von einem exakten Thriller - die reine Neugier ist der Antrieb, beim Leser, bei den Schreibenden. Das Buch spannt ein Netz des Wissens auf - aber mit den nervösen Internet-Link-Geschichten, von denen heute vollmundig die Rede ist, hat es nichts zu tun. Das Buch beansprucht Dauer, auch wenn es sich im Moment seines Erscheinens bereits als überholt erweisen könnte. Es ist modern, weil. es sich den Postulaten der Moderne widersetzt, nimmt Zeitlosigkeit in Anspruch für sich, wenigstens für einen Augenblick. Serres hat sich in seiner Arbeit von Anfang an auf Borges und Jules Verne berufen - beide hätten sich für die neuen Kommunikationsmedien sicher aufgeschlossen gezeigt. Im Moment engagiert Serres selbst sich für die Möglichkeiten der Wissenschaft im E-Book-Bereich. Enzyklopädie, Wissensbilanz ... Die meisten der Artikel des Thesaurus haben keinen einzelnen Autor, sind von zwei, drei, manchmal von allen Mitarbeitern verfasst worden. Das erklärt ihre nüchterne Zurückhaltung - die immer wieder aber in einen magischen Surrealismus umschlägt. Der Roman des Jahrhunderts, auch dies ein Fazit des Thesaurus, wird also nicht von den Literaten geschrieben, sondern wahrscheinlich von den Wissenschaftlern. "Das Ganze erzählt sich anders als die Summe aller Unterschiede. Jede einzelne Wissenschaft deduziert, experimentiert und räsonniert in ihrem eigentümlichen Dialekt, die Umgangsspraehe erzählt die Wissenschaft. Die Erzählung vervollständigt die Wissensbereiche. Wie zur Entlastung Körperfunktionen oder seelische Fähigkeiten auf äußere Objekte ausgelagert werden, um für Neues gewappnet zu sein, so werden die Konzepte der Wissenschaft in dieser Erzählung oder diesem Lexikon deponiert und befreien den Forscher, entlasten uns alle, damit sie und wir uns neuen Anschauungen zuwenden können ... Einst stand die Wissenschaft in förmlichem Gegensatz zu den Erzählungen, heute übernimmt die Erkenntnis deren Form." Wissen, Wissenschaft, Wissensdurst. Das Buch ist auf merkwürdige Weise anachronistisch, und am Ende durch und durch moralisch - wie jede Moderne moralisch ist. Wissen verpflichtet, so finden wir am Ende der Einleitung eine Art hippokratischen Eid
  9. Slatin, J.M.; Rush, S.: Maximum accessibility : Making your Web site more usable for everyone (2003) 0.00
    7.4363407E-4 = product of:
      0.0029745363 = sum of:
        0.0029745363 = weight(_text_:information in 2996) [ClassicSimilarity], result of:
          0.0029745363 = score(doc=2996,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.048488684 = fieldWeight in 2996, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2996)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 55(2004) H.7, S.431-432 (W. Schweibenz): "Maximum Accessibility ist ein Buch, das die barrierefreie Zugänglichkeit (engl. accessibility) von Web-Sites für Menschen mit Behinderungen behandelt - ein Thema das im deutschsprachigen Raum noch zu wenig öffentliche Beachtung findet. Dabei gewinnt das Thema zunehmend an Aktualität. In Deutschland sind beispielsweise die Einrichtungen des Bundes bzw. der Länder betroffen, die Internet-Angebote unterhalten. Denn die Barrierefreie Informationstechnik-Verordnung - BITV für Bundesbehörden bzw. die Landesverordnungen für Landesbehörden und teilweise für Kommunen und Landkreise schreiben vor, dass bis zum 31. Dezember 2005 die Internet-Angebote der öffentlichen Hand (soweit die Verordnungen für sie gelten), barrierefrei zu gestalten sind. Weiterführende Informationen zu den juristischen Aspekten der Barrierefreiheit für die Bundesrepublik Deutschland bietet Drewes (2004a, 2004b) sowie die Web-Angebote der Initiativen Einfach für alle und WoB11. In der Schweiz regeln das Bundesgesetz über die Beseitigung von Benachteiligungen von Menschen mit Behinderungen sowie die zugehörige Behindertengleichstellungsverordnung Fragen zur Barrierefreiheit von Web-Angeboten. Dabei ist zu beachten, dass die schweizerischen Bestimmungen weiterreichend sind als die deutschen. So dürfen in der Schweiz private Anbieter, die Dienstleistungen öffentlich anbieten, Behinderte nicht diskriminieren. Daraus lässt sich jedoch kein direkter Anspruch auf Barrierefreiheit gegen private Anbieter ableiten. Für Österreich steht derzeit eine detaillierte gesetzliche Regelung der Barrierefreiheit noch aus, bisher ist im E-GovernmentGesetz lediglich eine Absichtserklärung ab dem Jahr 2008 enthalten. Eine gesetzliche Regelung ist aber zu erwarten, weil entsprechende Vorschriften der Europäischen Union barrierefreie Web-Angebote für die Verwaltungen ihrer Mitgliedsstaaten vorsehen. Umfangreiche und verständliche Informationen zum Thema Barrierefreiheit in deutscher Sprache bietet der Leitfaden des deutschen Bundesamts für Sicherheit in der Informationstechnik (2003). Einen Einstieg in die barrierefreie Web-Entwicklung bietet das Online-Tutorial von Jan Eric Hellbusch, das im Oktober 2004 als Buch erscheinen wird. Die Mailingliste Web Accessibility des Kompetenzzentrum BIKA-FIT des Fraunhofer-Instituts ist eine deutschsprachige Plattform für den Austausch zwischen Praktikern und Interessierten. Soweit die einführenden Worte, nun zum eigentlichen Thema, dem Buch Maximum Accessibility. Die Autoren, der blinde John Slatin und und die Web-Designerin Sharron Rush, legen Wert darauf festzustellen, dass es nicht darum geht, für eine kleine Gruppe von Benutzern einen zusätzlichen Aufwand bei der Erstellung von Web-Angeboten zu betreiben, sondern dass vielmehr eine sehr große Zahl von Benutzern betroffen ist, nämlich rund 54 Millionen Amerikaner und 37 Millionen Europäer. Darüber hinaus betonen die Autoren, dass Barrierefreiheit für alle Benutzer gleichermaßen wichtig ist, denn Web-Sites, die für Menschen mit Behinderungen einfach zu benutzen sind, sind es auch für alle Benutzer. Dies gilt auch für den Zugang mit mobilen Geräten, die auf textbasiertes Browsen angewiesen sind. Darüber hinaus sind barrierefreie Web-Seiten auch suchmaschinenoptimiert, weil ihre Inhalte für die Volltextindexierung optimal aufbereitet sind.
  10. Devlin, K.: ¬Das Mathe-Gen : oder wie sich das mathematische Denken entwickelt und warum Sie Zahlen ruhig vergessen können (2001) 0.00
    7.4363407E-4 = product of:
      0.0029745363 = sum of:
        0.0029745363 = weight(_text_:information in 4019) [ClassicSimilarity], result of:
          0.0029745363 = score(doc=4019,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.048488684 = fieldWeight in 4019, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4019)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft 2002, H.4, S.104-105 (S. Welke): "Wenn es ein Gen für Mathematik-Begabung gäbe, würden die vielen Menschen, denen Mathematik eine Quälerei ist, das vielleicht als Trost empfinden. Dann wären sie ja nicht selbst für ihre schlechten Noten verantwortlich ... Pech gehabt, sagt der Mathematiker, Wissenschaftsjournalist und Sachbuchautor Keith Devlin. Es gibt nämlich gar kein Mathe-Gen. Die Eigenschaften, die den Menschen zum Betreiben von Mathematik befähigen, sind dieselben, die ihm auch Sprechen und abstraktes Denken ermöglichen. Ohne Sprache keine Mathematik. Zur Begründung führt er den Leser auf eine Gedankenreise durch Mathematik, Sprachwissenschaft und Evolutionstheorie. Auf der ersten Station dieser Reise fasst er zusammen, was er bereits in "Muster der Mathematik" (Spektrum Akademischer Verlag, Heidelberg 1998) ausgebreitet hat: Mathematik ist die Wissenschaft von den Mustern - realen oder vorgestellten. Es kann sich um geometrische, logische oder auch grammatische Muster handeln. In einem eigenen Kapitel erläutert Devlin das mit Beispielen aus Geometrie und Gruppentheorie. Zahlen sind nur ein Aspekt unter vielen, und Mathematik beginnt erst da, wo der Zahlensinn aufhört. Darauf bezieht sich der zweite Teil des Untertitels. Und da für Devlin das menschliche Gehirn keine Rechenmaschine ist, sondern ein Apparat zur Mustererkennung, ist es bestens für die Beschäftigung mit Mathematik geeignet. Professionelle Mathematiker denken zwar zweifellos anders als andere Menschen, aber sie haben keine anderen Gehirne. Numerische und algorithmische Kompetenz, die Fähigkeit zu abstrahieren und Bezüge herzustellen, der Sinn für Ursache und Wirkung und damit die Fähigkeit, eine längere Kausalkette zu konstruieren und zu verfolgen, logisches Denken und räumliches Vorstellungsvermögen sind nach Devlin die Fähigkeiten, die den Menschen in die Lage versetzen, Mathematik zu betreiben. Lässt man den ersten und den letzten Punkt dieser Aufzählung fort, dann wird klar, wie Devlin zu seiner Kernaussage von der gemeinsamen Wurzel von Mathematik und Sprache gelangt. - Offline-Denken - Dazu zitiert Devlin ausgiebig Fachleute auf den Gebieten der biologischen und der Sprachevolution und gibt dann seine eigene Interpretation, die von den Erkenntnissen der Fachleute nicht gerade erzwungen, aber doch plausibel gemacht wird. Sprache ist für ihn mehr als bloße Kommunikation. Im Gegensatz zu Protosprachen wie dem - durchaus Information vermittelnden - Schwänzeltanz der Bienen hat sie eine Struktur, eine Grammatik. Nach den Forschungsergebnissen des Linguisten Noam Chomsky und seiner Nachfolger ist die Grundstruktur dieser Grammatik in allen menschlichen Sprachen im Wesentlichen dieselbe. Damit ist belegt, dass allen Menschen eine Fähigkeit zur Musterbildung gemeinsam ist - und damit auch eine Fähigkeit zur Mathematik. Devlin geht noch einen Schritt weiter. Im Gegensatz zur gängigen Ansicht sei Kommunikation nicht die evolutionäre Triebkraft der Entwicklung zur grammatisch strukturierten Sprache, sondern deren Neben- oder Folgeeffekt, ein "Nebenprodukt der Fähigkeit unserer Urahnen, die Welt, in der sie lebten, mehr und mehr zu verstehen - sowohl ihre physische Umgebung als auch ihre zunehmend komplexer werdende soziale Welt". Der entscheidende Entwicklungsschritt zum Verstehen der Welt ist in seinen Augen die Fähigkeit zum "offline- Denken". Gemeint ist die Fähigkeit, äußere Reize zu simulieren, sich eine Vorstellung von - etwa - einem Mammut zu machen, ohne es leibhaftig vor Augen zu haben. In der Folge kann das Gehirn Strukturen, insbesondere eine Grammatik, in der Vorstellung selbst bilden.
  11. Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003) 0.00
    7.4363407E-4 = product of:
      0.0029745363 = sum of:
        0.0029745363 = weight(_text_:information in 5134) [ClassicSimilarity], result of:
          0.0029745363 = score(doc=5134,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.048488684 = fieldWeight in 5134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5134)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
  12. Neisser, U.: Kognition und Wirklichkeit : Prinzipien und Implikationen der kognitiven Psychologie (1996) 0.00
    7.4363407E-4 = product of:
      0.0029745363 = sum of:
        0.0029745363 = weight(_text_:information in 5905) [ClassicSimilarity], result of:
          0.0029745363 = score(doc=5905,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.048488684 = fieldWeight in 5905, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5905)
      0.25 = coord(1/4)
    
    Content
    "Was hat uns Ulric NEISSER nach seinem klassischen Forschungsbericht über die Wahrnehmungs- und Kognitionsforschung von 1967 (deutsch 1974) in diesem schmalen Band noch zu sagen? Nachträge? Korrekturen? Wenig oder nichts von alledem! Der Untertitel des neuen Buches sagt es treffend: NEISSER hat über die Prinzipien und Implikationen des Wahrnehmungs- und Erkenntnisgeschehens nachgedacht. "Kognition und Wirklichkeit" ist ein philosophisches Buch. Aber es bewegt sich nicht in der dünnen Luft der Abstraktionen, fliegt nicht rasch vom Boden der Wirklichkeit in verbale Höhen auf, sondern bewegt sich nahe an den Phänomenen - und an den Experimenten. So hatte es Francis BACON im Novum Organum gewünscht! Es geht auch in diesem Buch vor allem um die Wahrnehmung. Aber es ist nicht die Wahrnehmung jener hoch sophistizierten und doch naiven Experimentalpsychologie, die in der Versuchsperson vor dem Tachistoskop nur ein optisches System, eine Netzhaut und ein Sehzentrum sieht: eine camera obscura plus Registratur sozusagen. NEISSER wird nicht müde, die Enge, die Unnatürlichkeit. die mangelnde ökologische Validität und daher die Falschheit dieses Paradigmas zu betonen. Wahrnehmung ist eine Tätigkeit. Der Mensch bemächtigt sich der Gegebenheiten der Wahrnehmung. Die Informationsverarbeitung ist der Wahrnehmung nicht nachgeordnet. Wahrnehmung ist Informationsverarbeitung. Sie hat ihre Werkzeuge. NEISSER nennt sie mit BARTLETT und PIAGET Schemata. Ohne sie sieht der Mensch nichts. Aber sie sind dem Menschen. mit Ausnahme von einigen einfachen Analysatoren und elementaren Strukturen, nicht angeboren. Er haut sie in lebenslangen Lernprozessen auf. Darum sind die Begriffe des Wahrnehmungslernens, der Wahrnehmungserfahrung und - als ihr Ergebnis - derjenige des tüchtigen (skilled) Wahrnehmers zentrale Begriffe in diesem Buch. Der tüchtige Wahrnehmer geht nicht mit leeren Händen an das Geschäft des Erkundens der Welt. Er weiß, was in einer Situation zu erwarten ist. Er antizipiert das kommende Geschehen und die Merkmale, die er noch nicht sieht. Er gleicht einem Handelnden, der einen Plan hat und sich aufgrund einer kognitiven Landkarte bewegt. Was er sieht, hat einen "Rahmen" (frank), der mehr enthält als das unmittelbar Gegebene. Das bedeutet nicht, daß er alles schon weiß. NEISSER vertritt keine Theorie der angeborenen Ideen. Das Schema ist nicht die Sache. Was schematisch ist, bedarf der Spezifikation, der Rahmen muß gefüllt werden. Erwartungen, Antizipationen können auch enttäuscht werden. Die Wahrnehmungsschemata verändern sieh zudem im Zuge des Wahrnehmens. Daher spricht NEISSER von Wahrnehmungszyklen, von einem "zyklischen Fluß zwischen Schema und Informationsaufnahme". In diesem Geschehen spielen die Bewegungen des Wahrnehmen, eine zentrale Rolle. Darum ist es so unnatürlich, ihn vor einem Tachistoskop zu fixieren. Wenn er eine Statue oder ein Motorenmodell betrachtet, geht er um den Gegenstand herum. Ein neues Schmuckstück dreht und wendet er in seinen Händen. Fr tut dies, weil er im Zusammenspiel der Sinne Information gewinnt, die das statische Netzhautbild nie liefern würde.
  13. Battelle, J.: ¬Die Suche : Geschäftsleben und Kultur im Banne von Google & Co. (2006) 0.00
    7.4363407E-4 = product of:
      0.0029745363 = sum of:
        0.0029745363 = weight(_text_:information in 5956) [ClassicSimilarity], result of:
          0.0029745363 = score(doc=5956,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.048488684 = fieldWeight in 5956, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5956)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.2 (M. Buzinkay): "Zum Autor: John Battelle ist freischaffender Journalist, Mitbegründer und Redakteur bei Wired sowie in weiteren Medienunternehmen der USA tätig. John Battelle betreibt seinen eigenen Fachblog, es ist unter http://battellemedia.com/ zu erreichen. Zum Inhalt: Die Geschichte der Suche ist so alt wie die der Menschheit - oder so ähnlich. Information und Wissen verschafften uns seit je her den Vorsprung, den wir zum Überleben brauchten, aber diese Ressourcen waren bis zuletzt nur begrenzt verfügbar. Im Zeitalter des Web scheint diese Grenze nicht mehr zu gelten, das Web offeriert 'alles'. John Battelle geht in seinem Buch diesem Mythos der Suche im Web-Zeitalter nach und zeichnet in einer anschaulichen und spannenden Art und Weise eine Geschichte von den Ursprüngen des Internets bis hin zu modernen Suchmaschinen. Er sieht in der Suche ein kulturelles Artefakt, und eine Schnittstelle zwischen Mensch und Maschine. Die Faszination, die Suchmaschinen auf den Autor ausüben, sind augenscheinlich: er bezeichnet ihren Index als Datenbank der Absichten, als die weltgrößte Sammlung an Ideen, Gedanken, Motiven, die die Menschheit je hervorgebracht hat. Durch die Suchbegriffe und die Handlungen, die im Web gesetzt werden, werden Interessen und Bedürfnisse offenbar und gleichzeitig dokumentiert und miteinander verbunden. Googles Zeitgeist ist nur die Spitze des Eisbergs - die Suchmaschinen haben ihre Fühler über uns ausgestreckt. Nach einer ausführlichen Einführung zum Thema Wie funktioniert eine Suchmaschine überhaupt?' erzählt uns Battelle die Geschichten von AltaVista, Yahoo, Google und vielen anderen Web-Pionieren, die es sich zur Aufgabe gemacht haben, das Wissen und die Informationen der Welt zu ordnen und damit auch ihr Geschäft zu machen. In den sehr authentischen Schilderungen gelingt es Battelle zu vermitteln, dass die Geschichte von Google & Co ganz anders hätte verlaufen können. Für europäische Leser sind das die faszinierendsten Seiten des Buches - wie können es zwei Studenten aus ihrem Studentenzimmer schaffen, das halbe Web zu durchleuchten, dann eine Firma zu gründen und innerhalb von fünf Jahren zu einem der mächtigsten Unternehmen der Welt aufzusteigen? Die unglaubliche Geschichte von Google wird an den beiden Gründern Page und Brin aufgehängt. Somit gelingt es Battelle, das einzelne Detail der Google-Story lebendig und nah darzustellen, aber auch viele Einsichten in die Psyche von Google zu präsentieren.
  14. Oberhauser, O.: Automatisches Klassifizieren : Entwicklungsstand - Methodik - Anwendungsbereiche (2005) 0.00
    7.4363407E-4 = product of:
      0.0029745363 = sum of:
        0.0029745363 = weight(_text_:information in 38) [ClassicSimilarity], result of:
          0.0029745363 = score(doc=38,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.048488684 = fieldWeight in 38, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=38)
      0.25 = coord(1/4)
    
    Footnote
    Die am Anfang des Werkes gestellte Frage, ob »die Techniken des automatischen Klassifizierens heute bereits so weit [sind], dass damit grosse Mengen elektronischer Dokumente [-] zufrieden stellend erschlossen werden können? « (S. 13), beantwortet der Verfasser mit einem eindeutigen »nein«, was Salton und McGills Aussage von 1983, »daß einfache automatische Indexierungsverfahren schnell und kostengünstig arbeiten, und daß sie Recall- und Precisionwerte erreichen, die mindestens genauso gut sind wie bei der manuellen Indexierung mit kontrolliertem Vokabular « (Gerard Salton und Michael J. McGill: Information Retrieval. Hamburg u.a. 1987, S. 64 f.) kräftig relativiert. Über die Gründe, warum drei der großen Projekte nicht weiter verfolgt werden, will Oberhauser nicht spekulieren, nennt aber mangelnden Erfolg, Verlagerung der Arbeit in den beteiligten Institutionen sowie Finanzierungsprobleme als mögliche Ursachen. Das größte Entwicklungspotenzial beim automatischen Erschließen großer Dokumentenmengen sieht der Verfasser heute in den Bereichen der Patentund Mediendokumentation. Hier solle man im bibliothekarischen Bereich die Entwicklung genau verfolgen, da diese »sicherlich mittelfristig auf eine qualitativ zufrieden stellende Vollautomatisierung« abziele (S. 146). Oberhausers Darstellung ist ein rundum gelungenes Werk, das zum Handapparat eines jeden, der sich für automatische Erschließung interessiert, gehört."
  15. Fugmann, R.: ¬Das Buchregister : Methodische Grundlagen und praktische Anwendung (2006) 0.00
    7.4363407E-4 = product of:
      0.0029745363 = sum of:
        0.0029745363 = weight(_text_:information in 665) [ClassicSimilarity], result of:
          0.0029745363 = score(doc=665,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.048488684 = fieldWeight in 665, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=665)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 58(2007) H.3, S.186 (J. Bertram): "Bei aller Kritik: Das Buch gemahnt eindrücklich daran, dass ein gutes Register sowohl den Anforderungen einer Entdeckungsrecherche als auch denen einer Erinnerungsrecherche dienlich sein sollte, um es mit Fugmanns Worten auszudrücken. Heißt: Es soll nicht nur denen zugute kommen, die das Buch gelesen haben, sondern eben gerade auch denjenigen, die es nicht gelesen haben. Nicht nur erinnerte Wortlaute sollen mit ihm wieder auffindbar sein, vielmehr soll das Register auch schnelle Antworten auf die Frage ermöglichen, ob ein Buch zum interessierenden Thema Ergiebiges enthält. Und dass für das zweite Anliegen ein Aufwand zu betreiben ist, der über ein reines Stichwortregister hinausgeht, wird von Fugmann anschaulich und überzeugend dargestellt. Auch seinem Wunsch, dass bei der Rezension vor Büchern Vorhandensein und Qualität des Registers (stärkere) Berücksichtigung finden mögen, ist uneingeschränkt zuzustimmen. Dass das vor ihm produzierte Register des Guten zu viel tut, steht auf einem anderen Blatt."
  16. Koch, C.: Bewusstsein : ein neurobiologisches Rätsel (2005) 0.00
    7.4363407E-4 = product of:
      0.0029745363 = sum of:
        0.0029745363 = weight(_text_:information in 4559) [ClassicSimilarity], result of:
          0.0029745363 = score(doc=4559,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.048488684 = fieldWeight in 4559, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4559)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft 2006, H.6, S.101-102 (M. Springer): "Wir erforschen den Kosmos, um zu erfahren, woher wir kommen, und die Welt der Elementarteilchen, weil wir erkennen wollen, woraus wir letztlich bestehen. Nun wenden wir uns mit dem in Jahrhunderten gewonnenen Wissen dem nächstliegenden Forschungsobjekt zu: dem eigenen Gehirn. Das ist ein Schwindel erregendes Unternehmen, denn dabei beugt sich gewissermaßen das Gehirn wissbegierig über sich selbst. Geht das? Kann eine ursprünglich zur Analyse der unbelebten, bewusstlosen Natur entwickelte Methode jemals erklären, wie unser Gehirn Bewusstsein produziert? Muss nicht zwischen physikalisch-chemischen Hirnvorgängen und unserem sinnlichen Erleben von Farben, Schmerzen und Emotionen die notorische »Erklärungslücke« der Bewusstseinsforschung klaffen? Es kommt auf den Versuch an. Wer wissen will, was die Naturwissenschaft - konkret die Neurobiologie - bisher über die materielle Basis unseres bewussten Erlebens herausgebracht hat, sollte dieses Buch lesen. Christof Koch sucht empirisch nach den »neuronalen Korrelaten des Bewusstseins« (neuronal correlates of consciousness, NCCs) - dem kleinsten Satz neuronaler Ereignisse, der für eine bestimmte bewusste Wahrnehmung hinreichend ist. Gewiss vermag unser Gehirn noch viel mehr, als bloß Sinneserlebnisse zu vermitteln: Wir können sprechen, Erlebnisse reflektieren, zählen, logisch denken und so weiter. Das vergleichsweise bescheidene Projekt, NCCs für bewusste visuelle Wahrnehmung zu suchen, hat Koch gemeinsam mit Francis Crick, dem Mitentdecker des genetischen Codes, bis zu dessen Tod 2004 verfolgt, weil die beiden darin den einfachsten Zugang zum Rätsel des Bewusstseins sahen. Damit wiederholte Crick eine Vorgehensweise, mit der er schon 1953 erfolgreich war: zur Erforschung des bislang Unvorstellbaren zunächst ein möglichst einfaches Beispiel zu studieren. Bevor Crick zusammen mit James Watson die Struktur der DNA aufdeckte, konnten die Biologen sich nicht vorstellen, wie ein einzelnes Molekül die Information über den Aufbau eines lebenden Organismus enthalten sollte. Analog hofften später Crick und Koch, aus der Struktur der Neuronen und ihren Wechselwirkungen auf die physische Grundlage des Bewusstseins schließen zu können.
  17. Krajewski, M.: Zettelwirtschaft : Die Geburt der Kartei aus dem Geiste der Bibliothek (2002) 0.00
    7.361602E-4 = product of:
      0.0029446408 = sum of:
        0.0029446408 = weight(_text_:information in 621) [ClassicSimilarity], result of:
          0.0029446408 = score(doc=621,freq=4.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.04800135 = fieldWeight in 621, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.013671875 = fieldNorm(doc=621)
      0.25 = coord(1/4)
    
    Content
    Der erste Hauptteil 'Um 1800' versucht daraufhin, mit einem Bruch in der Anwendungsweise des Gessnerschen Verfahrens dessen erste Diskontinuität nachzuweisen. Nicht zuletzt wegen dieses Einschnitts muß die Art der Verzeichnung bis dato das Attribut vorläufig tragen. Die Verzettelungstechnik gelangt von einem temporären Gebrauch zur dauerhaften Verwendung, was dadurch eine ebenso unbeabsichtigte wie folgenreiche Umstellung markiert. Gleichzeitig entsteht hiermit der bibliothekshistorisch erste Zettelkatalog, dessen unverhoffter Einsatz und Genese in Wien um 1780 eine detaillierte Beschreibung erfährt. Der Zettelkatalog besteht nicht nur als bibliothekarische Antwort auf einen drohenden information overflow, sondern vor allem dank seiner umsichtigen Logistik. Entscheidend dabei sind schriftlich fixierte, genaue Handlungsanweisungen, anhand derer auch unausgebildetes Personal in den arbeitsteiligen Prozeß eingebunden werden kann. Mit Hilfe eines kleinen Exkurses soll zuvor jedoch die Koinzidenz zweier Adressierungslogiken untersucht werden: In einem Jahrzehnt und derselben Stadt fällt die Entstehung des Zettelkatalogs zusammen mit der Erfindung der Hausnummer. Damit etabliert sich eine Möglichkeit zur abstrakteren Repräsentation und zu einem kontrollierenden Zugriff auf Schriften bzw. Hausbewohner. Das anschließende dritte Kapitel verbleibt in der Umbruchphase um 1800, indem es eine notwendige Differenz zieht zwischen der Bibliothekstechnologie von vielen Schreib- für viele Lese-Köpfe und einer eigenwilligen Anordnung von gelehrten Exzerptensammlungen. Die Unterscheidung trennt ein Server-Konzept von einer Workstation-Philosophie. Der erste Zettelkatalog ist nicht nur das Produkt eines kollektiven Arbeitsprozesses, sondern vor allem für eine vielköpfige Benutzung geeignet und konzipiert. Im Gegensatz zu diesem Multi-User-System verwehrt die idiosynkratische Maschine in Form eines Gelehrtenkastens gerade jede fremde Einsichtnahme. Sie besitzt keine Vermittlungsnotwendigkeit, so daß sich das interne System der Verzeichnung durchaus unverständlich für alle Einsichtnehmenden ausnehmen darf. Auch eine Form von Datenschutz, die anhand der eigentümlichen gelehrten Exzerpiertechniken in einer kleinen Genealogie von Johann Jacob Moser bis zu Jean Paul und anderen konturiert wird. Das vierte und letzte Kapitel des ersten Teils widmet sich einer ersten Übertragung alteuropäischer Bibliothekstechnik in die Neue Welt. Das Zettelkastenprinzip erreicht einerseits die amerikanische Ostküste durch Bibliothekare, die in Europa studieren, um die dort etablierte Praxis der Katalogisierung auf ihre im Laufe des 19. Jahrhunderts schnell anwachsenden Büchersammlungen anzuwenden. Andererseits jedoch besitzen die Vereinigten Staaten auch eine eigene, autochthone Genealogie der Verzettelung. 1817 gelingt William Croswell bei seinem unglücklichen Projekt, der Harvard College Library einen umfassenden Katalog zu verschaffen, die Geburt des amerikanischen Zettelkatalogs aus dem Geiste der Faulheit.
    Manches hat der Zettelkasten verschwiegen, um seine eigene Ökonomie und die des notwendigerweise beschränkten Umfangs dieser Studie nicht allzu sehr zu beanspruchen - manches schlechterdings aus Mangel an Information. Allererstes Manko ist die Verlegenheit, keine Universalgeschichten mehr schreiben zu können. So beginnt diese Geschichte nicht mit dem Anfang von Geschichte und beschreibt demzufolge keine mesopotamischen, ägyptischen, griechischen oder römischen Register als Verzeichnisse der gespeicherten Schriften. Auch die berühmte Bibliothek von Alexandria samt ihrem ebenso berühmten Bibliothekar Kallimachos, der die Inventare der Schriften auf tönernen Pinakes an den Regalen fixierte, bleibt außen vor. Statt dessen steht am Beginn der Karteigeschichte eine (vermeintliche) Urszene des 16. Jahrhunderts, die vielleicht auch anders, d.h. früher, hätte gesetzt sein können. Des weiteren vermag diese Studie nicht, einem ausgelobten Desiderat abzuhelfen, eine schlichte Fußnote bei Foucault: »Aufkommen der Karteikarte und Konstituierung der Humanwissenschaften: noch eine Erfindung, die von den Historikern wenig gefeiert wird.« Wenngleich die eine Entwicklung, die »Konstitution der Humanwissenschaften«, dieser Studie als methodisches Leitbild dient, konnte die direkte Verbindung zum Erscheinen der Karteikarte nicht eindeutig geknüpft werden. Geplant war, ein Desiderat der Fußnote zur Entfaltung zu bringen, d.h. einem Exkurs zur Evolution der Karteikarte die letztendliche Übertragungs-Leistung zwischen Bibliothekaren und Kaufleuten ab 1890 anzufügen. Der Exkurs mußte gleichwohl einer anderen, bereits erwähnten Ökonomie, der Raumnot, zum Opfer fallen. In diesem Kapitel, das im Anschluß an das zweite gefolgt wäre, hätte nicht nur die verfestigende Entwicklung einer Materialität der Karteikarte vom Papierschnipsel bis zu ihrer Aufrechtigkeit als Leit-Karton Platz gefunden. (Diese Episode zieht sich nun implizit durch die Beschreibung einer fortschreitenden Standardisierung.) Foucaults beunruhigende Bemerkung stellt des weiteren, Bonneville zitierend, bereits für das Jahr 1833 einen direkten Zusammenhang her zwischen der Karteikarte und einer kaufmännischen Verzeichnungstechnik. Die Monographie zu den technischen Medien der Kaufleute ist leider noch ungeschrieben oder dem hier ins Spiel geratenen Zettelkasten bislang zumindest unbekannt. Darüber hinaus wäre der Versuch unternommen worden, die isomorphe Logik der Repräsentation von Zetteln und Banknoten sowie ihren Zusammenfall in den Zettel/Daten/Banken zu schildern. So muß die Episode über die Zirkulation von Geld und Ideen ihrerseits auf eine Fußnote zur Bank of England beschränkt bleiben und auf diese Anmerkung.
  18. Bibliotheks- und Dokumentationswesen : Gestaltung und Erschließung von Dokumenten, Bibliotheksmanagement, Codierungs- und Nummerungssysteme, Bestandserhaltung in Archiven und Bibliotheken (2002) 0.00
    5.9490727E-4 = product of:
      0.002379629 = sum of:
        0.002379629 = weight(_text_:information in 1704) [ClassicSimilarity], result of:
          0.002379629 = score(doc=1704,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.03879095 = fieldWeight in 1704, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=1704)
      0.25 = coord(1/4)
    
    Footnote
    Das erwies sich als äußerst schwierig, da es erstens keinen allgemein anerkannten Standard fürs Zitieren gibt und zweitens zwischen Literaturverzeichnissen wissenschaftlicher Texte und Bibliotheksdaten Diskrepanzen bestehen, die nicht automatisiert bereinigt werden können. Wie sich im Laufe des Projektes gezeigt hat, gilt das auch für Literaturverzeichnisse, die nach DIN 1505 gestaltet werden, obwohl diese Norm im Zusammenarbeit mit der Deutschen Bibliothek und dokumentarischen Berufsverbänden entwickelt worden ist und eine eindeutige Nähe zu bibliothekarischen Katalogisierungsregeln aufweist Warum sich die Norm nicht durchgesetzt hat, darüber kann nur spekuliert werden. Möglich ist, dass der Text mit einem Umfang von 18 Seiten - allein für Teil 2 der Norm! - zu umfangreich ist, als dass sich jemand, der sich für Formalia des wissenschaftlichen Arbeitens nur am Rande interessiert, wirklich damit beschäftigen würde. Möglich ist ferner, dass das Zitierformat zu nah an bibliothekarische Regeln angelehnt ist und einige Gepflogenheiten wissenschaftlicher Literaturverzeichnisse, die sich bei aller Uneinheitlichkeit doch durchgesetzt haben - nicht ausreichend berücksichtigt: Die Tendenz geht zu einer recht knappen Zitierweise, außerdem steht das Erscheinungsjahr inzwischen fast immer direkt hinter der Verfasserangabe und nicht irgendwo am Ende einer langen Titelaufnahme. Wie dem auch sei: Es ist bedauerlich, dass die Regelungen der Norm so wenig bekannt sind und damit kaum als Hilfestellung bei der oft auch beklagten Unsicherheit, wie korrekt zu zitieren sei, angesehen werden können. Vielleicht wäre hier eine viel intensivere Öffentlichkeitsarbeit angesagt, der Abdruck in einem neuen DIN-Taschenbuch ist sicherlich ein Schritt in die richtige Richtung. Eine andere Maßnahme wäre eine Aktualisierung der Norm; immerhin ist sie seit Januar 1984 unverändert geblieben. Über Namensverfremdungen wie Ernst T. A. Hoffmann ist die Bibliothekswelt inzwischen hinaus; ob gerade solch eine Regelung der Abkürzung von Vornamen und die Aufführung dieses Beispiels die Akzeptanz der Norm fördern, erscheint mehr als fraglich. Es ist im Rahmen einer Rezension nicht möglich, auf jede einzelne abgedruckte Norm inhaltlich einzugehen, daher nur noch einige Bemerkungen zu besonderen Auffälligkeiten. Das Taschenbuch gibt die internationale Norm ISO 690-2 (in englischer Sprache) wieder: "Information and documentation - Bibliographic references - Part 2: Electronic documents or parts thereof". Bei solch einem Thema, bei dem noch allgemeine Unsicherheit herrscht, ist es sehr hilfreich, mit der Norm eine Richtschnur an die Hand zu bekommen, auch wenn der Text selbst realistischerweise nicht den Anspruch erhebt, das Problem abschließend zu behandeln. Auf ein ganz besonders schwieriges Gebiet haben sich die Normungsausschüsse vorgewagt, als sie die internationale Norm ISO 11620 "Leistungsindikatoren für Bibliotheken" entwickelt haben, die ins Deutsche übersetzt und unverändert als DIN-Norm übernommen worden ist. Der Zweck der Norm wird eher zurückhaltend formuliert: Es geht darum, "den Gebrauch von Leistungsindikatoren in Bibliotheken zu unterstützen und Kenntnisse über die Durchführung von Leistungsmessung zu verbreiten" (S. 171). Dabei wird ausdrücklich zugestanden, dass es auch Leistungsindikatoren geben kann, die in dieser Norm nicht aufgeführt sind. Eine sehr realistische und damit sympathische Sicht für eine Fragestellung, die eins der jüngsten Probleme der bibliothekarischen Berufspraxis berührt und vermutlich nie erschöpfend ausdiskutiert werden kann! Im Vergleich dazu wirken Abkürzungs-, Transliterations- und Ordnungsregeln geradezu trivial. Aber alle, die im Bibliotheks- und Dokumentationsbereich tätig sind, wissen, dass es ohne Sorgfalt im Kleinen nicht geht und exakte Regelungen die tägliche Arbeit eher erleichtern.
  19. Exploring artificial intelligence in the new millennium (2003) 0.00
    5.9490727E-4 = product of:
      0.002379629 = sum of:
        0.002379629 = weight(_text_:information in 2099) [ClassicSimilarity], result of:
          0.002379629 = score(doc=2099,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.03879095 = fieldWeight in 2099, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=2099)
      0.25 = coord(1/4)
    
    Footnote
    The book does achieve its aim of being a starting point for someone interested in the state of some areas of AI research at the beginning of the new millennium. The book's most irritating feature is the different writing styles of the authors. The book is organized as a collection of papers similar to a typical graduate survey course packet, and as a result the book does not possess a narrative flow. Also the book contains a number of other major weaknesses such as a lack of an introductory or concluding chapter. The book could greatly benefit from an introductory chapter that would introduce readers to the areas of AI, explain why such a book is needed, and explain why each author's research is important. The manner in which the book currently handles these issues is a preface that talks about some of the above issues in a superficial manner. Also such an introductory chapter could be used to expound an what level of AI mathematical and statistical knowledge is expected from readers in order to gain maximum benefit from this book. A concluding chapter would be useful to readers interested in the other areas of AI not covered by the book, as well as open issues common to all of the research presented. In addition, most of the contributors come exclusively from the computer science field, which heavily slants the work toward the computer science community. A great deal of the research presented is being used by a number of research communities outside of computer science, such as biotechnology and information technology. A wider audience for this book could have been achieved by including a more diverse range of authors showing the interdisciplinary nature of many of these fields. Also the book's editors state, "The reader is expected to have basic knowledge of AI at the level of an introductory course to the field" (p vii), which is not the case for this book. Readers need at least a strong familiarity with many of the core concepts within AI, because a number of the chapters are shallow and terse in their historical overviews. Overall, this book would be a useful tool for a professor putting together a survey course an AI research. Most importantly the book would be useful for eager graduate students in need of a starting point for their research for their thesis. This book is best suited as a reference guide to be used by individuals with a strong familiarity with AI."

Languages

Types

  • s 357
  • i 55
  • b 18
  • el 17
  • x 10
  • d 5
  • n 3
  • r 2
  • More… Less…

Themes

Subjects

Classifications