Search (24019 results, page 1201 of 1201)

  1. Kurzidim, M.: Expeditionen im Sessel : Weltatlanten auf DVD, CD-ROM und im Web (2005) 0.00
    2.6177437E-4 = product of:
      0.0026177436 = sum of:
        0.0026177436 = weight(_text_:information in 5010) [ClassicSimilarity], result of:
          0.0026177436 = score(doc=5010,freq=2.0), product of:
            0.05398669 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030753274 = queryNorm
            0.048488684 = fieldWeight in 5010, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5010)
      0.1 = coord(1/10)
    
    Content
    Perspektivwechsel Ein reizvoller Vorteil der Scheiben: Ohne die Karte wechseln zu müssen kann man zwischen verschiedenen Ansichten hin- und herschalten. Die klassische topografische Ortskarte zeigt andere Details als eine Satellitenkarte oder die bioklimatische Ansicht mit ihren Hinweisen auf Strauchländer, Sümpfe, Wüsten, Nadel-, Laub- und Mischwälder. Die Auflösung der Ansichten unterscheidet sich jedoch manchmal voneinander, sodass der Wechsel nicht immer problemlos vonstatten geht. Die topografische Deutschlandkarte geht dann auf Mausklick zum Beispiel in die tektonische Ansicht von Gesamteuropa über, weil eine tektonische Deutschlandansicht die Auflösung der digitalisierten Karte überfordert. Die von den Herstellern abgedruckten Optimalmaßstäbe gelten häufig nur für die topografische Landkartenansicht. Eine Entfernungsskala für jeden Zoomfaktor und eine Legende zeigen dem Anwender, wie er Farben und Symbole zu deuten hat. Über den Daumen gepeilt gilt: je umfangreicher die Legende, desto genauer die Information. Der besseren Übersicht halber sollte man Details auch ausblenden können. Auch ein wenig Routenplaner-Funktionalität haben die Hersteller den Karten spendiert. Klickt man mit der Maus auf den Entfernungsmesser und steckt eine Fahrtstrecke ab, zeigt die Software die gemessene Distanz in Kilometern an. Städte, Flüsse, Berge, Seen oder Inseln macht die integrierte Suchfunktion ausfindig. Nach dem Klick auf den gefundenen Namen erscheint der entsprechende Kartenausschnitt auf dem Bildschirm. Mit einem guten 3D-Atlanten kann man auch über die Angabe von Längenund Breitengraden suchen und eigene Orte oder Ansichten eintragen. Eine eigene Ansicht besteht dabei aus einer Kartenansicht in einer bestimmten Auflösung, etwa der tektonische Blick auf den griechischen Peloponnes. Klickt der Benutzer auf den Ansichtsnamen, etwa "Mein Griechenland", erscheint die Halbinsel auf dem Bildschirm. Auf diese Weise lässt es sich bequem und schnell um die ganze WeIt reisen. Auch Vor- und ZurückSchaltflächen wie beim Browser erleichtern die Bedienung. Zum Test traten Meyers Großer Weltatlas (Foliant plus CDROM), National Geographic: Der Grosse 3D-Globus als CD-ROM und höher auflösende DVD, P.M. Der 3D-Weltatlas und Microsofts Encarta Pro 2005 an. Als Testrechner diente uns ein mit 2,13 Gigahertz getakteter Athlon-PC mit 480 MByte Hauptspeicher unter Windows XP Pro (SP2).
  2. Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003) 0.00
    2.6177437E-4 = product of:
      0.0026177436 = sum of:
        0.0026177436 = weight(_text_:information in 5134) [ClassicSimilarity], result of:
          0.0026177436 = score(doc=5134,freq=2.0), product of:
            0.05398669 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030753274 = queryNorm
            0.048488684 = fieldWeight in 5134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5134)
      0.1 = coord(1/10)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
  3. Neisser, U.: Kognition und Wirklichkeit : Prinzipien und Implikationen der kognitiven Psychologie (1996) 0.00
    2.6177437E-4 = product of:
      0.0026177436 = sum of:
        0.0026177436 = weight(_text_:information in 5905) [ClassicSimilarity], result of:
          0.0026177436 = score(doc=5905,freq=2.0), product of:
            0.05398669 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030753274 = queryNorm
            0.048488684 = fieldWeight in 5905, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5905)
      0.1 = coord(1/10)
    
    Content
    "Was hat uns Ulric NEISSER nach seinem klassischen Forschungsbericht über die Wahrnehmungs- und Kognitionsforschung von 1967 (deutsch 1974) in diesem schmalen Band noch zu sagen? Nachträge? Korrekturen? Wenig oder nichts von alledem! Der Untertitel des neuen Buches sagt es treffend: NEISSER hat über die Prinzipien und Implikationen des Wahrnehmungs- und Erkenntnisgeschehens nachgedacht. "Kognition und Wirklichkeit" ist ein philosophisches Buch. Aber es bewegt sich nicht in der dünnen Luft der Abstraktionen, fliegt nicht rasch vom Boden der Wirklichkeit in verbale Höhen auf, sondern bewegt sich nahe an den Phänomenen - und an den Experimenten. So hatte es Francis BACON im Novum Organum gewünscht! Es geht auch in diesem Buch vor allem um die Wahrnehmung. Aber es ist nicht die Wahrnehmung jener hoch sophistizierten und doch naiven Experimentalpsychologie, die in der Versuchsperson vor dem Tachistoskop nur ein optisches System, eine Netzhaut und ein Sehzentrum sieht: eine camera obscura plus Registratur sozusagen. NEISSER wird nicht müde, die Enge, die Unnatürlichkeit. die mangelnde ökologische Validität und daher die Falschheit dieses Paradigmas zu betonen. Wahrnehmung ist eine Tätigkeit. Der Mensch bemächtigt sich der Gegebenheiten der Wahrnehmung. Die Informationsverarbeitung ist der Wahrnehmung nicht nachgeordnet. Wahrnehmung ist Informationsverarbeitung. Sie hat ihre Werkzeuge. NEISSER nennt sie mit BARTLETT und PIAGET Schemata. Ohne sie sieht der Mensch nichts. Aber sie sind dem Menschen. mit Ausnahme von einigen einfachen Analysatoren und elementaren Strukturen, nicht angeboren. Er haut sie in lebenslangen Lernprozessen auf. Darum sind die Begriffe des Wahrnehmungslernens, der Wahrnehmungserfahrung und - als ihr Ergebnis - derjenige des tüchtigen (skilled) Wahrnehmers zentrale Begriffe in diesem Buch. Der tüchtige Wahrnehmer geht nicht mit leeren Händen an das Geschäft des Erkundens der Welt. Er weiß, was in einer Situation zu erwarten ist. Er antizipiert das kommende Geschehen und die Merkmale, die er noch nicht sieht. Er gleicht einem Handelnden, der einen Plan hat und sich aufgrund einer kognitiven Landkarte bewegt. Was er sieht, hat einen "Rahmen" (frank), der mehr enthält als das unmittelbar Gegebene. Das bedeutet nicht, daß er alles schon weiß. NEISSER vertritt keine Theorie der angeborenen Ideen. Das Schema ist nicht die Sache. Was schematisch ist, bedarf der Spezifikation, der Rahmen muß gefüllt werden. Erwartungen, Antizipationen können auch enttäuscht werden. Die Wahrnehmungsschemata verändern sieh zudem im Zuge des Wahrnehmens. Daher spricht NEISSER von Wahrnehmungszyklen, von einem "zyklischen Fluß zwischen Schema und Informationsaufnahme". In diesem Geschehen spielen die Bewegungen des Wahrnehmen, eine zentrale Rolle. Darum ist es so unnatürlich, ihn vor einem Tachistoskop zu fixieren. Wenn er eine Statue oder ein Motorenmodell betrachtet, geht er um den Gegenstand herum. Ein neues Schmuckstück dreht und wendet er in seinen Händen. Fr tut dies, weil er im Zusammenspiel der Sinne Information gewinnt, die das statische Netzhautbild nie liefern würde.
  4. Battelle, J.: ¬Die Suche : Geschäftsleben und Kultur im Banne von Google & Co. (2006) 0.00
    2.6177437E-4 = product of:
      0.0026177436 = sum of:
        0.0026177436 = weight(_text_:information in 5956) [ClassicSimilarity], result of:
          0.0026177436 = score(doc=5956,freq=2.0), product of:
            0.05398669 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030753274 = queryNorm
            0.048488684 = fieldWeight in 5956, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5956)
      0.1 = coord(1/10)
    
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.2 (M. Buzinkay): "Zum Autor: John Battelle ist freischaffender Journalist, Mitbegründer und Redakteur bei Wired sowie in weiteren Medienunternehmen der USA tätig. John Battelle betreibt seinen eigenen Fachblog, es ist unter http://battellemedia.com/ zu erreichen. Zum Inhalt: Die Geschichte der Suche ist so alt wie die der Menschheit - oder so ähnlich. Information und Wissen verschafften uns seit je her den Vorsprung, den wir zum Überleben brauchten, aber diese Ressourcen waren bis zuletzt nur begrenzt verfügbar. Im Zeitalter des Web scheint diese Grenze nicht mehr zu gelten, das Web offeriert 'alles'. John Battelle geht in seinem Buch diesem Mythos der Suche im Web-Zeitalter nach und zeichnet in einer anschaulichen und spannenden Art und Weise eine Geschichte von den Ursprüngen des Internets bis hin zu modernen Suchmaschinen. Er sieht in der Suche ein kulturelles Artefakt, und eine Schnittstelle zwischen Mensch und Maschine. Die Faszination, die Suchmaschinen auf den Autor ausüben, sind augenscheinlich: er bezeichnet ihren Index als Datenbank der Absichten, als die weltgrößte Sammlung an Ideen, Gedanken, Motiven, die die Menschheit je hervorgebracht hat. Durch die Suchbegriffe und die Handlungen, die im Web gesetzt werden, werden Interessen und Bedürfnisse offenbar und gleichzeitig dokumentiert und miteinander verbunden. Googles Zeitgeist ist nur die Spitze des Eisbergs - die Suchmaschinen haben ihre Fühler über uns ausgestreckt. Nach einer ausführlichen Einführung zum Thema Wie funktioniert eine Suchmaschine überhaupt?' erzählt uns Battelle die Geschichten von AltaVista, Yahoo, Google und vielen anderen Web-Pionieren, die es sich zur Aufgabe gemacht haben, das Wissen und die Informationen der Welt zu ordnen und damit auch ihr Geschäft zu machen. In den sehr authentischen Schilderungen gelingt es Battelle zu vermitteln, dass die Geschichte von Google & Co ganz anders hätte verlaufen können. Für europäische Leser sind das die faszinierendsten Seiten des Buches - wie können es zwei Studenten aus ihrem Studentenzimmer schaffen, das halbe Web zu durchleuchten, dann eine Firma zu gründen und innerhalb von fünf Jahren zu einem der mächtigsten Unternehmen der Welt aufzusteigen? Die unglaubliche Geschichte von Google wird an den beiden Gründern Page und Brin aufgehängt. Somit gelingt es Battelle, das einzelne Detail der Google-Story lebendig und nah darzustellen, aber auch viele Einsichten in die Psyche von Google zu präsentieren.
  5. Hähle, S.: Verborgenes Entdecken (2005) 0.00
    2.6177437E-4 = product of:
      0.0026177436 = sum of:
        0.0026177436 = weight(_text_:information in 34) [ClassicSimilarity], result of:
          0.0026177436 = score(doc=34,freq=2.0), product of:
            0.05398669 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030753274 = queryNorm
            0.048488684 = fieldWeight in 34, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=34)
      0.1 = coord(1/10)
    
    Content
    "Oft hört man: "Suchen im Web - das kann doch jeder." Doch immer wieder erreichen uns Zuschriften, in denen uns Leser ihr Leid darüber klagen, dass sie im Datendschungel des Internets nicht die Informationen erhielten, die sie eigentlich interessieren würden. Wenn es Ihnen auch so geht, helfen ihnen hoffentlich die folgenden Tipps und Tricks. Wie Suchmaschinen denken Die meisten Suchmaschinen bestehen aus drei Teilen. Der erste ist der Informationssammler, Robot, Spider oder auch Crawler genannt. Er surft automatisch auf Webseiten und schickt die gesammelten Daten an den Index. Dieser ist das Verzeichnis aller Webseiten, die die Suchmaschine kennt. Der zweite Teil ist die Indizierungs-Software, die die Daten strukturiert und durchsuchbar macht. Eine dritte Software wertet die Suchanfrage aus. Sie schickt die Anfrage an den Index-Rechner, der die Ergebnisse präsentiert. Hierbei berücksichtigt sie meist auch, an welcher Stelle der Suchbegriff im Dokument steht. Wenn das Suchwort in der Beschreibung der Webseite vorkommt, wird es höher gewichtet, als wenn es im Text der Seite steht. Eine Besonderheit ist das PageRank-System von Google. Je mehr Links auf eine Seite verweisen, umso wichtiger ist sie. Je wichtiger wiederum die verweisenden Seiten sind, umso größer der positive Effekt für ein Suchergebnis. Suchanfragen richtig stellen Es macht wenig Sinn, nach einem häufigen Begriff wie "Musik" zu suchen. Sie müssen schon genauer angeben, nach was Sie suchen, etwa "achtziger Jahre" oder "MP3 Download". Überlegen Sie außerdem, welche Begriffe Sie von der Suche explizit ausschließen können. Eine Suche sollte dennoch nicht mit zu vielen verknüpften Begriffen beginnen. Ein schrittweises Eingrenzen bietet sich an. Oft ist es auch hilfreich, die Wörter leicht zu variieren. Spezielle Suchdienste Wenn Sie wissen, in welchem Fachgebiet Sie Information suchen, sollten Sie eine Spezial-Suchmaschine probieren. Die Portalseite Klug Suchen (www.klug-suchende) und das Suchlexikon (www.suchlexikon.de) verzeichnen eine große Menge besonderer Suchdienste für das deutschsprachige Internet. Weitere Spezialisten, vor allem im amerikanischen Raum, listet The Big Hub (www.thebighub.com) auf. Metasuchmaschinen Metasuchmaschinen suchen in mehreren Suchmaschinen auf einmal, um mehr oder gezieltere Ergebnisse zu erhalten. Ob sich der Einsatz lohnt, müssen Sie von Fall zu Fall entscheiden. Die bekanntesten Metasuchmaschinen für das deutschsprachige Netz sind Metacrawler (www.metacrawler.de) sowie MetaGer (www.metager.de).
  6. Helmkamp, K.; Oehlschläger, S.: Standardisierung : Ein Meilenstein auf dem Weg zur Internationalisierung; Im Jahr 2007 erfolgt der Umstieg auf MARC 21 (2006) 0.00
    2.6177437E-4 = product of:
      0.0026177436 = sum of:
        0.0026177436 = weight(_text_:information in 65) [ClassicSimilarity], result of:
          0.0026177436 = score(doc=65,freq=2.0), product of:
            0.05398669 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030753274 = queryNorm
            0.048488684 = fieldWeight in 65, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
      0.1 = coord(1/10)
    
    Content
    Aufbau und Pflege von Kontakten zu internationalen Gremien und Experten Der Arbeitsschwerpunkt Aufbau und Pflege von Kontakten zu internationalen Gremien und Experten bezieht sich in erster Linie auf die Teilnahme an den Sitzungen des Machine Readable Bibliographic Information Committee (MARBI), zu dessen wichtigsten Aufgaben die Pflege und Weiterentwicklung des MARC-Formats und somit auch die Entscheidung über Änderungsanträge gehören. Kern von MARBI sind drei Ex-Officio-Vertreter der Library of Congress (LC), von Library and Archives Canada (LAC) und der British Library. Dazu kommen neun Mitglieder mit Stimmrecht aus verschiedenen Untergliederungen der ALA und von anderen großen Institutionen, Die Sitzungen von MARBI finden jeweils im Januar und Juni in Verbindung mit den Tagungen der American Library Association (ALA) statt und sind offen für interessierte Gäste und Zuhörer. Im Jahr 2006 nahmen Vertreter der Deutschen Nationalbibliothek und der Expertengruppe Datenformate an Sitzungen in San Antonio sowie New Orleans teil und nutzten dabei auch die Gelegenheit, im Rahmen von Arbeitstreffen mit MARC-21-Experten wichtige Details des geplanten Umstiegs intensiv und eingehend zu erörtern. Die Vorbereitungen für den Formatumstieg liegen im Wesentlichen im Zeitplan. Die Zusammenarbeit mit internationalen Gremien und Experten, insbesondere mit MARBI, wird im Jahr 2007 fortgeführt und intensiviert werden, weitere Workshops befinden sich bereits in der Planung. Im Herbst wird eine Arbeitsgruppe aus Vertretern der Verbünde eingesetzt, die den Umstieg auf der operativen Ebene konkret planen soll. Die Deutsche Nationalbibliothek als Träger des Projekts ist zuversichtlich, dass der Umstieg auf MARC 21 im Jahre 2007 als gut vorbereiteter, konzertierter und flächendeckender Schritt in allen Verbünden durchgeführt werden kann."
  7. Kuhlen, R.: Ins Steinzeitalter der Informationsversorgung : Scharfe Kritik an der gemeinsamen Stellungnahme von DBV und Börsenverein in Sachen Urheberrecht (2007) 0.00
    2.6177437E-4 = product of:
      0.0026177436 = sum of:
        0.0026177436 = weight(_text_:information in 202) [ClassicSimilarity], result of:
          0.0026177436 = score(doc=202,freq=2.0), product of:
            0.05398669 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030753274 = queryNorm
            0.048488684 = fieldWeight in 202, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=202)
      0.1 = coord(1/10)
    
    Abstract
    Der Konstanzer Informationswissenschaftler Rainer Kuhlen schaltet sich aus Los Angeles in die Debatte um das Urheberrecht ein. Kuhlen lehrt dort derzeit als Gastprofessor an der School of Information Studies der University of California. Er meldet sich zu Wort, nach eigenen Worten »durchaus kritisch (aber nicht als Schelte gemeint) gegenüber der gemeinsamen Stellungnahme', auf die sich der Börsenverein und der Deutsche Bibliotheksverband geeinigt haben und die dem Bundesministerium für Bildung und Forschung Mitte Januar zugestellt wurde«. Kuhlen weist ausdrücklich darauf hin, dass sein Text zwar Argumente des Aktionsbündnisses »Urheberrecht für Bildung und Wissenschaft« verwendet, aber er nicht offiziell abgestimmt, sondern von ihm persönlich zu vertreten ist.
  8. Oehlschläger, S.: Aus der 52. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 24. und 25. April 2007 in Berlin (2007) 0.00
    2.6177437E-4 = product of:
      0.0026177436 = sum of:
        0.0026177436 = weight(_text_:information in 465) [ClassicSimilarity], result of:
          0.0026177436 = score(doc=465,freq=2.0), product of:
            0.05398669 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030753274 = queryNorm
            0.048488684 = fieldWeight in 465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
      0.1 = coord(1/10)
    
    Content
    DDC-vascoda Für den Sucheinstieg bei vascoda wird bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungsjahr) kombiniert werden kann, angeboten. Die Suche kann zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Da in vascoda die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument eingeführt ist und bereits nennenswerte Bestände mit der DDC erschlossen sind, bietet sich die Möglichkeit, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Im Berichtszeitraum wurde in der vascoda AG Betrieb und mit dem hbz als Portalbetreiber die konzeptionelle und technische Einbindung des DDC-Browsings im vascoda-Portal diskutiert und beschlossen. Die Navigation mit DDC wird ähnlich wie die Navigation über die Fachcluster auf der linken Seite der Trefferliste integriert, beim Navigieren im Baum werden synchron die passenden Ressourcen aus der Suchmaschine in der mittleren Spalte eingeblendet. Wegen hoher Arbeitsbelastung im hbz wird dieses Feature wahrscheinlich nicht Teil des vascoda-Relaunches im Juni 2007 sein, sondern erst im 2. Halbjahr 2007 integriert werden. Weiter wurde ein Angebot implementiert für Fachportale und andere Institutionen, die mit DDC erschließen, aber nicht die technischen Möglichkeiten haben, ein eigenes Browsing zu entwickeln. Das Verfahren sieht vor, dass die DNB einen Dienst anbietet, der ein HTML-Snippet mit der gewünschten Browsing-Struktur generiert (ähnlich wie MelvilSearch), die in die Oberfläche des Fachportals integriert werden kann. Der Dienst wird voraussichtlich im 2. Quartal 2007 in Betrieb genommen werden können. In Zusammenarbeit mit der SUB Göttingen wurde ein Workshop zum Thema Lizenzfragen für DDC in Bezug auf Fachportale und andere Online-Angebote abgehalten. Die Ergebnisse wurden im vascoda-Newsletter veröffentlicht.
  9. Fugmann, R.: ¬Das Buchregister : Methodische Grundlagen und praktische Anwendung (2006) 0.00
    2.6177437E-4 = product of:
      0.0026177436 = sum of:
        0.0026177436 = weight(_text_:information in 665) [ClassicSimilarity], result of:
          0.0026177436 = score(doc=665,freq=2.0), product of:
            0.05398669 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030753274 = queryNorm
            0.048488684 = fieldWeight in 665, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=665)
      0.1 = coord(1/10)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 58(2007) H.3, S.186 (J. Bertram): "Bei aller Kritik: Das Buch gemahnt eindrücklich daran, dass ein gutes Register sowohl den Anforderungen einer Entdeckungsrecherche als auch denen einer Erinnerungsrecherche dienlich sein sollte, um es mit Fugmanns Worten auszudrücken. Heißt: Es soll nicht nur denen zugute kommen, die das Buch gelesen haben, sondern eben gerade auch denjenigen, die es nicht gelesen haben. Nicht nur erinnerte Wortlaute sollen mit ihm wieder auffindbar sein, vielmehr soll das Register auch schnelle Antworten auf die Frage ermöglichen, ob ein Buch zum interessierenden Thema Ergiebiges enthält. Und dass für das zweite Anliegen ein Aufwand zu betreiben ist, der über ein reines Stichwortregister hinausgeht, wird von Fugmann anschaulich und überzeugend dargestellt. Auch seinem Wunsch, dass bei der Rezension vor Büchern Vorhandensein und Qualität des Registers (stärkere) Berücksichtigung finden mögen, ist uneingeschränkt zuzustimmen. Dass das vor ihm produzierte Register des Guten zu viel tut, steht auf einem anderen Blatt."
  10. Schmeh, K.: ¬Die WeIt der geheimen Zeichen : die faszinierende Geschichte der Verschlüsselung (2004) 0.00
    2.6177437E-4 = product of:
      0.0026177436 = sum of:
        0.0026177436 = weight(_text_:information in 1445) [ClassicSimilarity], result of:
          0.0026177436 = score(doc=1445,freq=2.0), product of:
            0.05398669 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030753274 = queryNorm
            0.048488684 = fieldWeight in 1445, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1445)
      0.1 = coord(1/10)
    
    Footnote
    Das Buch beeindruckt durch eine große Vielfalt von Themen. So wird auch das Problem angesprochen, dass ein eigentlich sicheres Verfahren dadurch gefährdet sein kann, dass dem Angreifer Seitenkanäle der Information, wie etwa der Stromverbrauch einer Chipkarte, zur Verfügung stehen. Potenzielle Bedrohungen gegenwärtiger Verschlüsselungsverfahren sind der DNA-Computer und der Quantencomputer. Aber man hat die Aussicht, den Teufel mit dem Beelzebub auszutreiben, nämlich den Quantencomputer mit der Quantenkryptografie. Nicht ausdrücklich in dem Buch angesprochen ist das Problem der Authentifikation von Nachrichten. Der Empfänger einer Nachricht muss sich vergewissern, dass ihr Sender der ist, der er zu sein vorgibt. Sonst könnte sich ein Obeltäter bereits beim Schlüsselaustausch unbemerkt zwischen die beiden Parteien drängen und von da an jede Kommunikation unter ihnen unentdeckt verfälschen. Dagegen hilft auch das einzige nachweislich unknackbare Verschlüsselungsverfahren, der One-Time-Pad, nicht, da ein Angreifer gezielt »Bits kippen« und so die Nachricht, ohne sie zu entschlüsseln, verfälschen kann. Da selbst Fachbücher kaum auf dieses Problem hinweisen, wurde der One-Time-Pad bereits - nutzlos - in kommerzielle quantenkryptografische Programme eingebaut. Die in dem Buch besprochenen digitalen Signaturen können solche Probleme lösen, solange man nicht auf nachweislicher Unknackbarkeit besteht. Schmeh widmet sich auch den so genannten Hash-Funktionen, die aus einer großen Datei eine kurze Kennnummer errechnen und damit etwa Signaturverfahren beschleunigen können, da es genügt, diese Kennnummer zu signieren.
  11. Schneider, M.: Ende einer Epoche : Jetzt geht also auch der Brockhaus online. Bedeutet das das Ende der Gutenberg-Galaxis? Oder ist es doch nur das Ende des Bücherschrankwissens? (2008) 0.00
    2.6177437E-4 = product of:
      0.0026177436 = sum of:
        0.0026177436 = weight(_text_:information in 1799) [ClassicSimilarity], result of:
          0.0026177436 = score(doc=1799,freq=2.0), product of:
            0.05398669 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030753274 = queryNorm
            0.048488684 = fieldWeight in 1799, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1799)
      0.1 = coord(1/10)
    
    Content
    Mit dem Bürger verschwinden auch seine Embleme. Wenn nun ab April das Wissen der Brockhaus-Enzyklopädie kostenfrei über werbungfinanzierte Internetseiten abgerufen werden kann, dann setzt sich über diesen Einschnitt hinweg eine Tradition fort, die der Untertitel des ersten Werks zum Programm machte, das dem Publikum "mit vorzüglicher Rücksicht auf die gegenwärtige Zeit" angeboten worden war. Bereits die ersten Bände der prächtigen aktuellen Printausgabe des Brockhaus sind um zwei DVD's ergänzt, die Dialekte, Tierstimmen, Beispiele aus Musik, Literatur, Theater und Film, Augenzeugenberichte, Reden und Dokumente der Zeitgeschichte bietet. Um den Zeitnachteil der Buchredaktion auszugleichen, erhielten die Subskribenten der neusten Ausgabe sogleich Zugang zur Online-Version der gesamten Enzyklopädie. Der Rückblick in die Historie des Brockhaus zwingt dem Büchermenschen unserer Tage die melancholische Einsicht ab, dass hier nicht nur ein verlegerischer Strategiewechsel erfolgt, sondern dass sich eine Epoche schließt. Das Buch als Leitmedium der Aufklärung, des politischen Fortschritts und als Institution eines Wissens, das aus den dicken, mit Leder eingeschlagenen Bänden sowohl Solidität als auch Zeitresistenz sprechen lässt, tritt in den Schatten der neuen Götter, die Schnelligkeit, Aktualität und Mulimedia heißen. Es ist nicht, wie mancher Kommentator vermutet, der Erfolg solcher Online-Unternehmen wie der Wikipedia-Enzyklopädie, die die Verleger zum Handeln zwingt. Die Notwendigkeit geht vielmehr von den beiden dynamischen Kräften aus, denen das Wissen heute unterliegt. Das Internet-Medium allein vermag dem Tempo, der ständigen Erweiterung, Verwandlung und vor allem dem überaus dauernden Obsoletwerden des Wissens eine Form zu geben. Was 1809 "vorzügliche Rücksicht auf die Zeit" hieß, das liest sich erst in unseren Tagen so überaus doppelsinnig. Die Rücksicht auf die Zeit lässt auch den Wissenschaftler oder die Redakteurin am Bildschirm den schnellsten Weg zur benötigten Information wählen. Den raschesten Weg zu den Daten, den die Erzeuger, Verwalter und Verbreiter des Wissens einschlagen, erschließt der Tastenhieb. Damit nicht genug: Die erste Quelle, die die Google-Anfrage anbietet, eröffnet für das maßlos hybrid werdende Wissen eigentlich auch nur die Plattform, um auf den berühmten Hypertextpfaden weitere Informationen abzurufen: Bilder, Tondokumente, Filme und zusätzliche historische oder wissenschaftliche Literatur. Auf eine schwer vorstellbare Weise nimmt das Wissen, das sich einst in der Tiefe der Lederbände zur Ruhe und zur dauerhaften Gültigkeit niedergelegt hatte, heute über die online-Abrufbarkeit die Qualität einer dauernden virtuellen Präsenz ein.
  12. Teutsch, K.: ¬Die Welt ist doch eine Scheibe : Google-Herausforderer eyePlorer (2009) 0.00
    2.6177437E-4 = product of:
      0.0026177436 = sum of:
        0.0026177436 = weight(_text_:information in 2678) [ClassicSimilarity], result of:
          0.0026177436 = score(doc=2678,freq=2.0), product of:
            0.05398669 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030753274 = queryNorm
            0.048488684 = fieldWeight in 2678, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2678)
      0.1 = coord(1/10)
    
    Content
    Eine neue visuelle Ordnung Martin Hirsch ist der Enkel des Nobelpreisträgers Werner Heisenberg. Außerdem ist er Hirnforscher und beschäftigt sich seit Jahren mit der Frage: Was tut mein Kopf eigentlich, während ich hirnforsche? Ralf von Grafenstein ist Marketingexperte und spezialisiert auf Dienstleistungen im Internet. Zusammen haben sie also am 1. Dezember 2008 eine Firma in Berlin gegründet, deren Heiliger Gral besagte Scheibe ist, auf der - das ist die Idee - bald die ganze Welt, die Internetwelt zumindest, Platz finden soll. Die Scheibe heißt eyePlorer, was sich als Aufforderung an ihre Nutzer versteht. Die sollen auf einer neuartigen, eben scheibenförmigen Plattform die unermesslichen Datensätze des Internets in eine neue visuelle Ordnung bringen. Der Schlüssel dafür, da waren sich Hirsch und von Grafenstein sicher, liegt in der Hirnforschung, denn warum nicht die assoziativen Fähigkeiten des Menschen auf Suchmaschinen übertragen? Anbieter wie Google lassen von solchen Ansätzen bislang die Finger. Hier setzt man dafür auf Volltextprogramme, also sprachbegabte Systeme, die letztlich aber, genau wie die Schlagwortsuche, nur zu opak gerankten Linksammlungen führen. Weiter als auf Seite zwei des Suchergebnisses wagt sich der träge Nutzer meistens nicht vor. Weil sie niemals wahrgenommen wird, fällt eine Menge möglicherweise kostbare Information unter den Tisch.
  13. Dahlberg, I.: How to improve ISKO's standing : ten desiderata for knowledge organization (2011) 0.00
    2.6177437E-4 = product of:
      0.0026177436 = sum of:
        0.0026177436 = weight(_text_:information in 4300) [ClassicSimilarity], result of:
          0.0026177436 = score(doc=4300,freq=2.0), product of:
            0.05398669 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030753274 = queryNorm
            0.048488684 = fieldWeight in 4300, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4300)
      0.1 = coord(1/10)
    
    Content
    6. Establishment of national Knowledge Organization Institutes should be scheduled by national chapters, planned energetically and submitted to corresponding administrative authorities for support. They could be attached to research institutions, e.g., the Max-Planck or Fraunhofer Institutes in Germany or to universities. Their scope and research areas relate to the elaboration of knowledge systems of subject related concepts, according to Desideratum 1, and may be connected to training activities and KOsubject-related research work. 7. ISKO experts should not accept to be impressed by Internet and Computer Science, but should demonstrate their expertise more actively on the public plane. They should tend to take a leading part in the ISKO Secretariats and the KO Institutes, and act as consultants and informants, as well as editors of statistics and other publications. 8. All colleagues trained in the field of classification/indexing and thesauri construction and active in different countries should be identified and approached for membership in ISKO. This would have to be accomplished by the General Secretariat with the collaboration of the experts in the different secretariats of the countries, as soon as they start to work. The more members ISKO will have, the greater will be its reputation and influence. But it will also prove its professionalism by the quality of its products, especially its innovating conceptual order systems to come. 9. ISKO should-especially in view of global expansion-intensify the promotion of knowledge about its own subject area through the publications mentioned here and in further publications as deemed necessary. It should be made clear that, especially in ISKO's own publications, professional subject indexes are a sine qua non. 10. 1) Knowledge Organization, having arisen from librarianship and documentation, the contents of which has many points of contact with numerous application fields, should-although still linked up with its areas of descent-be recognized in the long run as an independent autonomous discipline to be located under the science of science, since only thereby can it fully play its role as an equal partner in all application fields; and, 2) An "at-a-first-glance knowledge order" could be implemented through the Information Coding Classification (ICC), as this system is based on an entirely new approach, namely based on general object areas, thus deviating from discipline-oriented main classes of the current main universal classification systems. It can therefore recoup by simple display on screen the hitherto lost overview of all knowledge areas and fields. On "one look", one perceives 9 object areas subdivided into 9 aspects which break down into 81 subject areas with their 729 subject fields, including further special fields. The synthesis and place of order of all knowledge becomes thus evident at a glance to everybody. Nobody would any longer be irritated by the abundance of singular apparently unrelated knowledge fields or become hesitant in his/her understanding of the world.
  14. Koch, C.: Bewusstsein : ein neurobiologisches Rätsel (2005) 0.00
    2.6177437E-4 = product of:
      0.0026177436 = sum of:
        0.0026177436 = weight(_text_:information in 4559) [ClassicSimilarity], result of:
          0.0026177436 = score(doc=4559,freq=2.0), product of:
            0.05398669 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030753274 = queryNorm
            0.048488684 = fieldWeight in 4559, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4559)
      0.1 = coord(1/10)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft 2006, H.6, S.101-102 (M. Springer): "Wir erforschen den Kosmos, um zu erfahren, woher wir kommen, und die Welt der Elementarteilchen, weil wir erkennen wollen, woraus wir letztlich bestehen. Nun wenden wir uns mit dem in Jahrhunderten gewonnenen Wissen dem nächstliegenden Forschungsobjekt zu: dem eigenen Gehirn. Das ist ein Schwindel erregendes Unternehmen, denn dabei beugt sich gewissermaßen das Gehirn wissbegierig über sich selbst. Geht das? Kann eine ursprünglich zur Analyse der unbelebten, bewusstlosen Natur entwickelte Methode jemals erklären, wie unser Gehirn Bewusstsein produziert? Muss nicht zwischen physikalisch-chemischen Hirnvorgängen und unserem sinnlichen Erleben von Farben, Schmerzen und Emotionen die notorische »Erklärungslücke« der Bewusstseinsforschung klaffen? Es kommt auf den Versuch an. Wer wissen will, was die Naturwissenschaft - konkret die Neurobiologie - bisher über die materielle Basis unseres bewussten Erlebens herausgebracht hat, sollte dieses Buch lesen. Christof Koch sucht empirisch nach den »neuronalen Korrelaten des Bewusstseins« (neuronal correlates of consciousness, NCCs) - dem kleinsten Satz neuronaler Ereignisse, der für eine bestimmte bewusste Wahrnehmung hinreichend ist. Gewiss vermag unser Gehirn noch viel mehr, als bloß Sinneserlebnisse zu vermitteln: Wir können sprechen, Erlebnisse reflektieren, zählen, logisch denken und so weiter. Das vergleichsweise bescheidene Projekt, NCCs für bewusste visuelle Wahrnehmung zu suchen, hat Koch gemeinsam mit Francis Crick, dem Mitentdecker des genetischen Codes, bis zu dessen Tod 2004 verfolgt, weil die beiden darin den einfachsten Zugang zum Rätsel des Bewusstseins sahen. Damit wiederholte Crick eine Vorgehensweise, mit der er schon 1953 erfolgreich war: zur Erforschung des bislang Unvorstellbaren zunächst ein möglichst einfaches Beispiel zu studieren. Bevor Crick zusammen mit James Watson die Struktur der DNA aufdeckte, konnten die Biologen sich nicht vorstellen, wie ein einzelnes Molekül die Information über den Aufbau eines lebenden Organismus enthalten sollte. Analog hofften später Crick und Koch, aus der Struktur der Neuronen und ihren Wechselwirkungen auf die physische Grundlage des Bewusstseins schließen zu können.
  15. Krajewski, M.: Zettelwirtschaft : Die Geburt der Kartei aus dem Geiste der Bibliothek (2002) 0.00
    2.591434E-4 = product of:
      0.002591434 = sum of:
        0.002591434 = weight(_text_:information in 621) [ClassicSimilarity], result of:
          0.002591434 = score(doc=621,freq=4.0), product of:
            0.05398669 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030753274 = queryNorm
            0.04800135 = fieldWeight in 621, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.013671875 = fieldNorm(doc=621)
      0.1 = coord(1/10)
    
    Content
    Der erste Hauptteil 'Um 1800' versucht daraufhin, mit einem Bruch in der Anwendungsweise des Gessnerschen Verfahrens dessen erste Diskontinuität nachzuweisen. Nicht zuletzt wegen dieses Einschnitts muß die Art der Verzeichnung bis dato das Attribut vorläufig tragen. Die Verzettelungstechnik gelangt von einem temporären Gebrauch zur dauerhaften Verwendung, was dadurch eine ebenso unbeabsichtigte wie folgenreiche Umstellung markiert. Gleichzeitig entsteht hiermit der bibliothekshistorisch erste Zettelkatalog, dessen unverhoffter Einsatz und Genese in Wien um 1780 eine detaillierte Beschreibung erfährt. Der Zettelkatalog besteht nicht nur als bibliothekarische Antwort auf einen drohenden information overflow, sondern vor allem dank seiner umsichtigen Logistik. Entscheidend dabei sind schriftlich fixierte, genaue Handlungsanweisungen, anhand derer auch unausgebildetes Personal in den arbeitsteiligen Prozeß eingebunden werden kann. Mit Hilfe eines kleinen Exkurses soll zuvor jedoch die Koinzidenz zweier Adressierungslogiken untersucht werden: In einem Jahrzehnt und derselben Stadt fällt die Entstehung des Zettelkatalogs zusammen mit der Erfindung der Hausnummer. Damit etabliert sich eine Möglichkeit zur abstrakteren Repräsentation und zu einem kontrollierenden Zugriff auf Schriften bzw. Hausbewohner. Das anschließende dritte Kapitel verbleibt in der Umbruchphase um 1800, indem es eine notwendige Differenz zieht zwischen der Bibliothekstechnologie von vielen Schreib- für viele Lese-Köpfe und einer eigenwilligen Anordnung von gelehrten Exzerptensammlungen. Die Unterscheidung trennt ein Server-Konzept von einer Workstation-Philosophie. Der erste Zettelkatalog ist nicht nur das Produkt eines kollektiven Arbeitsprozesses, sondern vor allem für eine vielköpfige Benutzung geeignet und konzipiert. Im Gegensatz zu diesem Multi-User-System verwehrt die idiosynkratische Maschine in Form eines Gelehrtenkastens gerade jede fremde Einsichtnahme. Sie besitzt keine Vermittlungsnotwendigkeit, so daß sich das interne System der Verzeichnung durchaus unverständlich für alle Einsichtnehmenden ausnehmen darf. Auch eine Form von Datenschutz, die anhand der eigentümlichen gelehrten Exzerpiertechniken in einer kleinen Genealogie von Johann Jacob Moser bis zu Jean Paul und anderen konturiert wird. Das vierte und letzte Kapitel des ersten Teils widmet sich einer ersten Übertragung alteuropäischer Bibliothekstechnik in die Neue Welt. Das Zettelkastenprinzip erreicht einerseits die amerikanische Ostküste durch Bibliothekare, die in Europa studieren, um die dort etablierte Praxis der Katalogisierung auf ihre im Laufe des 19. Jahrhunderts schnell anwachsenden Büchersammlungen anzuwenden. Andererseits jedoch besitzen die Vereinigten Staaten auch eine eigene, autochthone Genealogie der Verzettelung. 1817 gelingt William Croswell bei seinem unglücklichen Projekt, der Harvard College Library einen umfassenden Katalog zu verschaffen, die Geburt des amerikanischen Zettelkatalogs aus dem Geiste der Faulheit.
    Manches hat der Zettelkasten verschwiegen, um seine eigene Ökonomie und die des notwendigerweise beschränkten Umfangs dieser Studie nicht allzu sehr zu beanspruchen - manches schlechterdings aus Mangel an Information. Allererstes Manko ist die Verlegenheit, keine Universalgeschichten mehr schreiben zu können. So beginnt diese Geschichte nicht mit dem Anfang von Geschichte und beschreibt demzufolge keine mesopotamischen, ägyptischen, griechischen oder römischen Register als Verzeichnisse der gespeicherten Schriften. Auch die berühmte Bibliothek von Alexandria samt ihrem ebenso berühmten Bibliothekar Kallimachos, der die Inventare der Schriften auf tönernen Pinakes an den Regalen fixierte, bleibt außen vor. Statt dessen steht am Beginn der Karteigeschichte eine (vermeintliche) Urszene des 16. Jahrhunderts, die vielleicht auch anders, d.h. früher, hätte gesetzt sein können. Des weiteren vermag diese Studie nicht, einem ausgelobten Desiderat abzuhelfen, eine schlichte Fußnote bei Foucault: »Aufkommen der Karteikarte und Konstituierung der Humanwissenschaften: noch eine Erfindung, die von den Historikern wenig gefeiert wird.« Wenngleich die eine Entwicklung, die »Konstitution der Humanwissenschaften«, dieser Studie als methodisches Leitbild dient, konnte die direkte Verbindung zum Erscheinen der Karteikarte nicht eindeutig geknüpft werden. Geplant war, ein Desiderat der Fußnote zur Entfaltung zu bringen, d.h. einem Exkurs zur Evolution der Karteikarte die letztendliche Übertragungs-Leistung zwischen Bibliothekaren und Kaufleuten ab 1890 anzufügen. Der Exkurs mußte gleichwohl einer anderen, bereits erwähnten Ökonomie, der Raumnot, zum Opfer fallen. In diesem Kapitel, das im Anschluß an das zweite gefolgt wäre, hätte nicht nur die verfestigende Entwicklung einer Materialität der Karteikarte vom Papierschnipsel bis zu ihrer Aufrechtigkeit als Leit-Karton Platz gefunden. (Diese Episode zieht sich nun implizit durch die Beschreibung einer fortschreitenden Standardisierung.) Foucaults beunruhigende Bemerkung stellt des weiteren, Bonneville zitierend, bereits für das Jahr 1833 einen direkten Zusammenhang her zwischen der Karteikarte und einer kaufmännischen Verzeichnungstechnik. Die Monographie zu den technischen Medien der Kaufleute ist leider noch ungeschrieben oder dem hier ins Spiel geratenen Zettelkasten bislang zumindest unbekannt. Darüber hinaus wäre der Versuch unternommen worden, die isomorphe Logik der Repräsentation von Zetteln und Banknoten sowie ihren Zusammenfall in den Zettel/Daten/Banken zu schildern. So muß die Episode über die Zirkulation von Geld und Ideen ihrerseits auf eine Fußnote zur Bank of England beschränkt bleiben und auf diese Anmerkung.
  16. Gonzalez, L.: What is FRBR? (2005) 0.00
    2.0941951E-4 = product of:
      0.002094195 = sum of:
        0.002094195 = weight(_text_:information in 3401) [ClassicSimilarity], result of:
          0.002094195 = score(doc=3401,freq=2.0), product of:
            0.05398669 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030753274 = queryNorm
            0.03879095 = fieldWeight in 3401, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=3401)
      0.1 = coord(1/10)
    
    Content
    National FRBR experiments The larger the bibliographic database, the greater the effect of "FRBR-like" design in reducing the appearance of duplicate records. LC, RLG, and OCLC, all influenced by FRBR, are experimenting with the redesign of their databases. LC's Network Development and MARC Standards Office has posted at its web site the results of some of its investigations into FRBR and MARC, including possible display options for bibliographic information. The design of RLG's public catalog, RedLightGreen, has been described as "FRBR-ish" by Merrilee Proffitt, RLG's program officer. If you try a search for a prolific author or much-published title in RedLightGreen, you'll probably find that the display of search results is much different than what you would expect. OCLC Research has developed a prototype "frbrized" database for fiction, OCLC FictionFinder. Try a title search for a classic title like Romeo and Juliet and observe that OCLC includes, in the initial display of results (described as "works"), a graphic indicator (stars, ranging from one to five). These show in rough terms how many libraries own the work-Romeo and Juliet clearly gets a five. Indicators like this are something resource sharing staff can consider an "ILL quality rating." If you're intrigued by FRBR's possibilities and what they could mean to resource sharing workflow, start talking. Now is the time to connect with colleagues, your local and/or consortial system vendor, RLG, OCLC, and your professional organizations. Have input into how systems develop in the FRBR world."
  17. Schult, T.J.: Lernen vom Schinken in Scheiben : Was taugen die aktuellen Enzyklopädien auf CD-ROM und DVD? Ein Test (2004) 0.00
    2.0941951E-4 = product of:
      0.002094195 = sum of:
        0.002094195 = weight(_text_:information in 799) [ClassicSimilarity], result of:
          0.002094195 = score(doc=799,freq=2.0), product of:
            0.05398669 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030753274 = queryNorm
            0.03879095 = fieldWeight in 799, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=799)
      0.1 = coord(1/10)
    
    Content
    "Gute Multimedia-Enzyklopädien versammeln den Inhalt von 15 bis 20 dicken Wälzern auf CD-ROM oder DVD. Die zumeist deutlich billigeren Enzyklopädien für den Computer ermöglichen eine vielfältige Vernetzung von Information: Gliederungen, Begriffserklärungen, thematisch verwandte Artikel, Landkarten und Zeitleisten sind nur einen Mausklick entfernt. Auch Multimedia-Beigaben öffnen sich im Nu: Grafiken, Tabellen, Fotos, Animationen, Film- und Tondokumente illustrieren die Artikel. Der »gläserne Mensch« von Brockhaus entledigt sich auf Kommando der Haut, Muskeln, Gefäße oder Organe. Die Suche nach Artikeln beginnt, wenn man den Begriff auf dem Bildschirm ins Eingabefeld tippt. In einer guten elektronischen Enzyklopädie startet dann ein zweistufiger Prozess aus Stichwort- und Volltextsuche, der mit der Ausgabe einer Trefferliste endet. Oben in der Liste sind Artikel genannt, die den Suchbegriff im Titel haben (also etwa »Wittgenstein, Ludwig« bei Eingabe von »Wittgenstein«), darunter die Artikel, die den Suchbegriff irgendwo außerhalb des Titels enthalten (in diesem Fall etwa »Analytische Philosophie«). Wer mehrere Begriffe eintippt, kann sie unterschiedlich verknüpfen. Reicht es, wenn die Artikel einen der Suchbegriffe enthalten? Sollen alle drin sein? Gar alle direkt hintereinander (Wortfolgensuche)? Wer seiner Enzyklopädie durch Kommentare, Lesezeichen, Web-Links oder eigene Artikel eine persönliche Note geben möchte, kann dies am Computer beliebig oft tun, ohne das Missfallen von Mitlesern zu erregen. Steht etwa ein Referat an, mutieren bessere Werke zudem zum Recherche-Assistenten, der das Sammeln, Sortieren und Nutzen von Textstellen durch eine Art virtuellen Karteikasten plus Textverarbeitung unterstützt.
  18. Nübel, R.: ¬Der Spatz als Lernhilfe (2011) 0.00
    2.0941951E-4 = product of:
      0.002094195 = sum of:
        0.002094195 = weight(_text_:information in 4436) [ClassicSimilarity], result of:
          0.002094195 = score(doc=4436,freq=2.0), product of:
            0.05398669 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030753274 = queryNorm
            0.03879095 = fieldWeight in 4436, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=4436)
      0.1 = coord(1/10)
    
    Theme
    Information
  19. Tetens, H.: ¬Der neuronal gläserne Mensch : Hochkomplexes und hypersensitives System: Im Gehirn selbst könnten die Befürworter der Willensfreiheit einen unerwarteten Verbündeten finden (2004) 0.00
    2.0941951E-4 = product of:
      0.002094195 = sum of:
        0.002094195 = weight(_text_:information in 36) [ClassicSimilarity], result of:
          0.002094195 = score(doc=36,freq=2.0), product of:
            0.05398669 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030753274 = queryNorm
            0.03879095 = fieldWeight in 36, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=36)
      0.1 = coord(1/10)
    
    Theme
    Information

Authors

Languages

Types

Themes

Subjects

Classifications