Search (24345 results, page 1217 of 1218)

  1. Slatin, J.M.; Rush, S.: Maximum accessibility : Making your Web site more usable for everyone (2003) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 2996) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=2996,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 2996, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2996)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 55(2004) H.7, S.431-432 (W. Schweibenz): "Maximum Accessibility ist ein Buch, das die barrierefreie Zugänglichkeit (engl. accessibility) von Web-Sites für Menschen mit Behinderungen behandelt - ein Thema das im deutschsprachigen Raum noch zu wenig öffentliche Beachtung findet. Dabei gewinnt das Thema zunehmend an Aktualität. In Deutschland sind beispielsweise die Einrichtungen des Bundes bzw. der Länder betroffen, die Internet-Angebote unterhalten. Denn die Barrierefreie Informationstechnik-Verordnung - BITV für Bundesbehörden bzw. die Landesverordnungen für Landesbehörden und teilweise für Kommunen und Landkreise schreiben vor, dass bis zum 31. Dezember 2005 die Internet-Angebote der öffentlichen Hand (soweit die Verordnungen für sie gelten), barrierefrei zu gestalten sind. Weiterführende Informationen zu den juristischen Aspekten der Barrierefreiheit für die Bundesrepublik Deutschland bietet Drewes (2004a, 2004b) sowie die Web-Angebote der Initiativen Einfach für alle und WoB11. In der Schweiz regeln das Bundesgesetz über die Beseitigung von Benachteiligungen von Menschen mit Behinderungen sowie die zugehörige Behindertengleichstellungsverordnung Fragen zur Barrierefreiheit von Web-Angeboten. Dabei ist zu beachten, dass die schweizerischen Bestimmungen weiterreichend sind als die deutschen. So dürfen in der Schweiz private Anbieter, die Dienstleistungen öffentlich anbieten, Behinderte nicht diskriminieren. Daraus lässt sich jedoch kein direkter Anspruch auf Barrierefreiheit gegen private Anbieter ableiten. Für Österreich steht derzeit eine detaillierte gesetzliche Regelung der Barrierefreiheit noch aus, bisher ist im E-GovernmentGesetz lediglich eine Absichtserklärung ab dem Jahr 2008 enthalten. Eine gesetzliche Regelung ist aber zu erwarten, weil entsprechende Vorschriften der Europäischen Union barrierefreie Web-Angebote für die Verwaltungen ihrer Mitgliedsstaaten vorsehen. Umfangreiche und verständliche Informationen zum Thema Barrierefreiheit in deutscher Sprache bietet der Leitfaden des deutschen Bundesamts für Sicherheit in der Informationstechnik (2003). Einen Einstieg in die barrierefreie Web-Entwicklung bietet das Online-Tutorial von Jan Eric Hellbusch, das im Oktober 2004 als Buch erscheinen wird. Die Mailingliste Web Accessibility des Kompetenzzentrum BIKA-FIT des Fraunhofer-Instituts ist eine deutschsprachige Plattform für den Austausch zwischen Praktikern und Interessierten. Soweit die einführenden Worte, nun zum eigentlichen Thema, dem Buch Maximum Accessibility. Die Autoren, der blinde John Slatin und und die Web-Designerin Sharron Rush, legen Wert darauf festzustellen, dass es nicht darum geht, für eine kleine Gruppe von Benutzern einen zusätzlichen Aufwand bei der Erstellung von Web-Angeboten zu betreiben, sondern dass vielmehr eine sehr große Zahl von Benutzern betroffen ist, nämlich rund 54 Millionen Amerikaner und 37 Millionen Europäer. Darüber hinaus betonen die Autoren, dass Barrierefreiheit für alle Benutzer gleichermaßen wichtig ist, denn Web-Sites, die für Menschen mit Behinderungen einfach zu benutzen sind, sind es auch für alle Benutzer. Dies gilt auch für den Zugang mit mobilen Geräten, die auf textbasiertes Browsen angewiesen sind. Darüber hinaus sind barrierefreie Web-Seiten auch suchmaschinenoptimiert, weil ihre Inhalte für die Volltextindexierung optimal aufbereitet sind.
  2. Brown, L.: Google auf zwei Beinen (2005) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 3367) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=3367,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 3367, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3367)
      0.25 = coord(1/4)
    
    Content
    Drei Mitarbeiterinnen helfen mit dem Kopieren und Verschicken von Artikeln; doch nur Tasiemka entscheidet über Ordnung und Aufteilung ihres papierenen Königreichs. Da kann es schon passieren, dass über Bush senior nur ein Ordner zu sehen ist, über Bill Clinton dafür fünf, bei Tasiemka ist in den überfüllten Schränken nicht immer Platz für Objektivität. Ihr eigenwilliges Ordnungssystem aber scheint aufzugehem: In den 80er Jahren, als viele britische Zeitungsarchive durch Protestbewegungen der Gewerkschaften geradezu gelähmt waren, sei das Archiv unentbehrlich gewesen, erinnert sich Lynn Barber vom Observer: Nirgendwo könne man sonst so schnell und' effizient Informationen bekommen. Längst gilt sie unter Journalisten als Geheimtipp, immer hat sie eine Extra-Information pa-. rat. Tasiemka, so der Königshausexperte Robert Lacey, sei eine Suchmaschine lange bevor Google erfunden wurde: ein Kompliment, dass ihr nichts sagen wird, da sie das Internet noch nie benutzt hat. Wenn sie läuft,' wippt Edda Tasiemka, leicht auf den Zehenspitzen, die geliebten' schwarzen Strumpfhosen hat sie an diesem Tag gegen dunkelblaue eingetauscht. Beine einer Balletttänzerin, Augen, die alles sehen, weiß-graue Haare im einfallenden Sonnenlicht fast transparent. "Hinter den Hogarths sind die Gurkhas": Unter ihren Hän den werden Wände zu verschiebbaren Schranktüren, MahagoniKommoden zu Museumsvitrinen, in denen Originalartikel über den Tod Abraham Lincolns berichten oder über die Hochzeit Queen Viktorias. Nichts ist im Haus wie es zu sein scheint, am wenigsten aber seine Besitzerin. Neben der Archivpflege hat sie selbst viele Jahre als Journalistin gearbeitet, für die Bravo hat sie die Beatles und Jimi Hendrix interviewt. Unter dem Dach stehen die neuen "Abteilungen": Internet, Straßenkriminalität. Derartiges gab es damals nicht, sagt Tasiemka über ihre Jugend, dafür einen richtigen Krieg. Tasiemkas Eltern waren unverheiratet, ihr Vater war Kommunist. Ihre Mutter wurde 1938 verhaftet, da war sie gerade 15: Eine vernünftige Schulausbildung gab es nicht, sagt sie, ihre Eltern "waren zu links". 1949 lernte sie ihren Mann in Hamburg kennen, ein jüdischer Journalist, der nach Jahren auf der Flucht als Übersetzer beim Kriegsverbrechertribunal arbeitete: "Schon als ich ihn zum ersten Mal traf, waren seine Hosentaschen voller Zeitungsausschnitte". Zusammen zogen sie nach London, in ihrer Einzimmerwohnung lag eine erste Kiste mit Artikeln unter dem Bett. Sie ließ sich von seiner Faszination für Geschichten anstecken: Viele Wochenenden verbrachten die Tasiemkas auf Flohmärkten mit der Suche nach alten Zeitschriften. Zu ihren Schätzen gehört eine Sammlung der Belle Epoque Zeitschrift Le Rire mit Illustrationen Toulouse-Lautrecs.
  3. Lewandowski, D.: Wikipedia in großen Suchmaschinen (2005) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 3576) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=3576,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 3576, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3576)
      0.25 = coord(1/4)
    
    Content
    Mit der sehr umfangreichen Wikipedia bietet sich für die Suchmaschinenbetreiber eine Möglichkeit, durch die manuelle Einbindung einer einzigen Quelle vermeintlich alle Fragen kompetent abzudecken. Der bisher zumindest bei Yahoo betriebene technische Aufwand, verschiedene Quellen (für die man als Suchmaschinenbetreiber vielleicht sogar bezahlen muss!) einzubinden und trotzdem nicht auf jede Frage eine schnelle Antwort liefern zu können, kann gespart werden. Letztlich stellt sich allerdings die Frage nach der Qualität der Treffer aus Wikipedia. Die Wikipedia wird von Freiwilligen erstellt, wobei es sich nicht um eine geschlossene Gruppe handelt. Vielmehr wird jeder Internet-Nutzer dazu eingeladen, sich an der Erstellung der Enzyklopädie zu beteiligen. Artikel werden gemeinschaftlich erarbeitet und sollen so dem Ideal nach mit der Zeit immer besser werden. Gibt es aktuelle Entwicklungen, so können diese direkt in die Artikel eingebunden werden. Es ist aber zu fragen, ob die Artikel durchweg die von einem Nachschlagewerk zu erwartende Qualität liefern können. Sicherlich gibt es in der Wikipedia sehr gute Artikel. Allerdings gibt es auch einen großen Anteil von schlechten, unsystematischen und fragwürdigen Eintragungen. Ein Blick auf das "Portal Bibliothek, Information, Dokumentation" zeigt exemplarisch einige Schwachstellen: Zunächst ist das Portal unvollständig. Das ist verständlich und wäre nicht besonders schlimm, wenn dies für den Nutzer immer ersichtlich wäre. Zwar ist dies klar, wenn zu einem Begriff kein Artikel angezeigt wird. Artikel, die sich noch in einem "frühen Stadium" befinden (und deshalb noch nicht oder nur marginal überarbeitet wurden), sind jedoch nicht als solche gekennzeichnet. Sie können deshalb, insbesondere wenn Suchmaschinen an prominenter Stelle auf sie verweisen, in ihrer Qualität leicht mit Einträgen aus echten Enzyklopädien verwechselt werden. Viele Nutzer werden ihnen damit eine vergleichbare Autorität zumessen. Ein weiterer Kritikpunkt betrifft den unsystematische Aufbau der Wikipedia. Wieder ein Beispiel aus dem Portal BID: Ein Artikel zum Booleschen Retrieval ist nicht vorhanden, wohl aber zum Erweiterten Booleschen Retrieval. Dieser besteht hauptsächlich aus einer Ansammlung von Formeln und hat damit wenig mit einem enzyklopädischen Artikel zu tun.
  4. Devlin, K.: ¬Das Mathe-Gen : oder wie sich das mathematische Denken entwickelt und warum Sie Zahlen ruhig vergessen können (2001) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 4019) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=4019,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 4019, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4019)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft 2002, H.4, S.104-105 (S. Welke): "Wenn es ein Gen für Mathematik-Begabung gäbe, würden die vielen Menschen, denen Mathematik eine Quälerei ist, das vielleicht als Trost empfinden. Dann wären sie ja nicht selbst für ihre schlechten Noten verantwortlich ... Pech gehabt, sagt der Mathematiker, Wissenschaftsjournalist und Sachbuchautor Keith Devlin. Es gibt nämlich gar kein Mathe-Gen. Die Eigenschaften, die den Menschen zum Betreiben von Mathematik befähigen, sind dieselben, die ihm auch Sprechen und abstraktes Denken ermöglichen. Ohne Sprache keine Mathematik. Zur Begründung führt er den Leser auf eine Gedankenreise durch Mathematik, Sprachwissenschaft und Evolutionstheorie. Auf der ersten Station dieser Reise fasst er zusammen, was er bereits in "Muster der Mathematik" (Spektrum Akademischer Verlag, Heidelberg 1998) ausgebreitet hat: Mathematik ist die Wissenschaft von den Mustern - realen oder vorgestellten. Es kann sich um geometrische, logische oder auch grammatische Muster handeln. In einem eigenen Kapitel erläutert Devlin das mit Beispielen aus Geometrie und Gruppentheorie. Zahlen sind nur ein Aspekt unter vielen, und Mathematik beginnt erst da, wo der Zahlensinn aufhört. Darauf bezieht sich der zweite Teil des Untertitels. Und da für Devlin das menschliche Gehirn keine Rechenmaschine ist, sondern ein Apparat zur Mustererkennung, ist es bestens für die Beschäftigung mit Mathematik geeignet. Professionelle Mathematiker denken zwar zweifellos anders als andere Menschen, aber sie haben keine anderen Gehirne. Numerische und algorithmische Kompetenz, die Fähigkeit zu abstrahieren und Bezüge herzustellen, der Sinn für Ursache und Wirkung und damit die Fähigkeit, eine längere Kausalkette zu konstruieren und zu verfolgen, logisches Denken und räumliches Vorstellungsvermögen sind nach Devlin die Fähigkeiten, die den Menschen in die Lage versetzen, Mathematik zu betreiben. Lässt man den ersten und den letzten Punkt dieser Aufzählung fort, dann wird klar, wie Devlin zu seiner Kernaussage von der gemeinsamen Wurzel von Mathematik und Sprache gelangt. - Offline-Denken - Dazu zitiert Devlin ausgiebig Fachleute auf den Gebieten der biologischen und der Sprachevolution und gibt dann seine eigene Interpretation, die von den Erkenntnissen der Fachleute nicht gerade erzwungen, aber doch plausibel gemacht wird. Sprache ist für ihn mehr als bloße Kommunikation. Im Gegensatz zu Protosprachen wie dem - durchaus Information vermittelnden - Schwänzeltanz der Bienen hat sie eine Struktur, eine Grammatik. Nach den Forschungsergebnissen des Linguisten Noam Chomsky und seiner Nachfolger ist die Grundstruktur dieser Grammatik in allen menschlichen Sprachen im Wesentlichen dieselbe. Damit ist belegt, dass allen Menschen eine Fähigkeit zur Musterbildung gemeinsam ist - und damit auch eine Fähigkeit zur Mathematik. Devlin geht noch einen Schritt weiter. Im Gegensatz zur gängigen Ansicht sei Kommunikation nicht die evolutionäre Triebkraft der Entwicklung zur grammatisch strukturierten Sprache, sondern deren Neben- oder Folgeeffekt, ein "Nebenprodukt der Fähigkeit unserer Urahnen, die Welt, in der sie lebten, mehr und mehr zu verstehen - sowohl ihre physische Umgebung als auch ihre zunehmend komplexer werdende soziale Welt". Der entscheidende Entwicklungsschritt zum Verstehen der Welt ist in seinen Augen die Fähigkeit zum "offline- Denken". Gemeint ist die Fähigkeit, äußere Reize zu simulieren, sich eine Vorstellung von - etwa - einem Mammut zu machen, ohne es leibhaftig vor Augen zu haben. In der Folge kann das Gehirn Strukturen, insbesondere eine Grammatik, in der Vorstellung selbst bilden.
  5. Brennscheidt, A.: AskA-Services : Nicht-bibliothekarische Informationsdienstleister im Internet (2003) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 4615) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=4615,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 4615, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4615)
      0.25 = coord(1/4)
    
    Abstract
    "Librarians [...] are not the only ones attempting to assist users with their information needs in the electronic environment", schrieb Ann Marie Parsons im Januar 2001. "There are also 'Aska' services."' Doch was sind diese AskA-Services, diese nichtbibliothekarischen Informationsdienstleister im Internet?2 Wer betreibt sie und zu welchem Zweck? Welche Dienstleistungen bieten sie ihren Kunden? Nimmt ihre Zahl zu? Werden sie Bestand haben oder wieder aus dem WWW verschwinden? All diese Fragen versucht die vorliegende Arbeit zu beantworten. Sie richtet sich an interessierte Studierende und Lehrende des Bibliothekswesen sowie Bibliothekare in der Praxis. Da sich die bibliothekarische Fachwelt dieser Diskussion erst vor kurzem angenommen hat, besteht über die Bedeutung wichtiger Fachbegriffe bisher kein genereller Konsens. Deshalb werden der Begriff 'AskA-Service' und weitere Bezeichnungen aus seinem thematischen Umfeld im zweiten Kapitel definiert. Das dritte Kapitel versucht, die Entwicklung der nicht-bibliothekarischen Informationsdienste in den USA und in Deutschland nachzuzeichnen. Hierzu existieren nur wenige Quellen, sodass die Entwicklungslinien nur grob zu erkennen sind. Welche verschiedenen Arten von AskA-Services sich herausgebildet haben, versucht das vierte Kapitel darzustellen. Ihre Betreiber und die sie bewegenden Motive unterscheiden sich ebenso voneinander wie die eingesetzten Verfahren der Antworterteilung und die daran beteiligten Personen. Dies wurde bei der Durchsicht der spärlichen Literatur zu diesem Thema sowie bei eigenen Recherchen deutlich. Im fünften Kapitel werden mehrere AskA-Services als praktische Beispiele beschrieben. Dabei wurde darauf Wert gelegt, etablierte Services auszuwählen, die die verschiedenen Typen der nicht-bibliothekarischen Informationsdienste repräsentieren. Eine Ausnahme bildet der Dienst Google Answers, der wegen seines Bekanntheitsgrades aufgenommen wurde. Das Fazit greift die Leitfragen dieser Arbeit noch einmal auf. Außerdem werden zukünftig zu bearbeitende Problemstellungen aufgezeigt. Die vorliegende Arbeit ist in hohem Maße von der schwierigen Quellenlage zum Thema und der Unbeständigkeit des Internets geprägt. Gerade deswegen erscheint es wichtig, einen Zeitpunkt festzusetzen, der ihren Berichtsstand angibt. Entwicklungen und erscheinende Fachliteratur konnten über dieses Datum hinaus nicht mehr berücksichtigt werden. Der Großteil der Arbeit gibt den aktuellen Stand im Juli 2002 wieder. Das fünfte Kapitel baut dagegen auf Anfang August (Abschnitte 5.1 bis 5.4) bzw. Ende November 2002 (Abschnitt 5.5) erhobenen Daten auf. Bei dieser Arbeit handelt es sich um die überarbeitete Version einer im August 2002 an der Fachhochschule Köln vorgelegten Diplomarbeit im Fach Bibliothekswesen. Die Überarbeitung bestand vorwiegend darin, dass die Abschnitte 5.1.6 und 5.5 hinzugefügt wurden. Damit wurde der praktische Teil der Arbeit um eine Untersuchung des Services AskJeeves.com und die Beschreibung von Google Answers reicher. Der letztgenannte Dienst hat seit seinem Start im April 2002 für viel Wirbel gesorgt, weshalb es geboten schien, ihn in die Ausführungen aufzunehmen.
  6. Ziegler, G.M.: Kleine Fehler, große Fehler (2005) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 4842) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=4842,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 4842, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4842)
      0.25 = coord(1/4)
    
    Content
    Pi auf 120 Stellen im Radio? Wunderbar! So schön klang Mathematik vielleicht noch nie. Trotzdem gibt's Kritik in den Feuilletons. So vermisste der Kritiker der Berliner Zeitung das Innovative. Das kann ich nicht verstehen. Hier ist Kritik von der anderen Seite: Wenn schon Pi, dann wenigstens richtig! Und Frau Bush macht den ersten Fehler in der vierundfünfzigsten Nachkommastelle (sie singt "three one" statt einer Null), dann gehts richtig weiter, bis sie plötzlich zweiundzwanzig Stellen auslässt ... Ist das egal? Ich glaube nein, das darf bei einer "complete infatuation with the calculation of Pi" nicht passieren. Wird sie den Fehler korrigieren? Vermutlich nicht. Sie wird das Album nicht zurückziehen und auch kein Erratum publizieren ... ... aber eine Kollegin von ihr zeigt sich einsichtiger: Ein britisches Popsternchen namens Katie Melua singt in "Nine Million Bicycles": We are 12 billion light years from the edge, that's a guess, no one can ever say it's true, but I'll always be with you. Das hat Simon Singh wütend gemacht. Ihn ärgert dabei nicht nur die falsche Zahl - das Universum ist ca. 13,7 Milliarden Jahre alt - sondern die Behauptung, das Alter sei nur geraten. Katie Melua ist dann wirklich ins Studio gegangen, und hat eine neue Version aufgenommen, We are 13.7 billion light years from the edge of the observable universe, that's a good estimate, with well defined error bars, and with the available information I predict that 1 will always be with you. Das ist natürlich genauer, aber hat einfach zu viele Silben. Simon Singh war trotzdem zufrieden, da wollen wir's auch sein ... ärgern uns nur noch kurz über Spiegel online, die eine super-rechthaberische Meldung dazu brachten, mit dem Titel Kuschelpopperin liegt um Lichtjahre daneben und sich ereiferten, die 21-Jährige habe das Alter des Universums auf zwölf Milliarden Lichtjahre "geschätzt".
  7. Kurzidim, M.: Expeditionen im Sessel : Weltatlanten auf DVD, CD-ROM und im Web (2005) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 5010) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=5010,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 5010, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5010)
      0.25 = coord(1/4)
    
    Content
    Perspektivwechsel Ein reizvoller Vorteil der Scheiben: Ohne die Karte wechseln zu müssen kann man zwischen verschiedenen Ansichten hin- und herschalten. Die klassische topografische Ortskarte zeigt andere Details als eine Satellitenkarte oder die bioklimatische Ansicht mit ihren Hinweisen auf Strauchländer, Sümpfe, Wüsten, Nadel-, Laub- und Mischwälder. Die Auflösung der Ansichten unterscheidet sich jedoch manchmal voneinander, sodass der Wechsel nicht immer problemlos vonstatten geht. Die topografische Deutschlandkarte geht dann auf Mausklick zum Beispiel in die tektonische Ansicht von Gesamteuropa über, weil eine tektonische Deutschlandansicht die Auflösung der digitalisierten Karte überfordert. Die von den Herstellern abgedruckten Optimalmaßstäbe gelten häufig nur für die topografische Landkartenansicht. Eine Entfernungsskala für jeden Zoomfaktor und eine Legende zeigen dem Anwender, wie er Farben und Symbole zu deuten hat. Über den Daumen gepeilt gilt: je umfangreicher die Legende, desto genauer die Information. Der besseren Übersicht halber sollte man Details auch ausblenden können. Auch ein wenig Routenplaner-Funktionalität haben die Hersteller den Karten spendiert. Klickt man mit der Maus auf den Entfernungsmesser und steckt eine Fahrtstrecke ab, zeigt die Software die gemessene Distanz in Kilometern an. Städte, Flüsse, Berge, Seen oder Inseln macht die integrierte Suchfunktion ausfindig. Nach dem Klick auf den gefundenen Namen erscheint der entsprechende Kartenausschnitt auf dem Bildschirm. Mit einem guten 3D-Atlanten kann man auch über die Angabe von Längenund Breitengraden suchen und eigene Orte oder Ansichten eintragen. Eine eigene Ansicht besteht dabei aus einer Kartenansicht in einer bestimmten Auflösung, etwa der tektonische Blick auf den griechischen Peloponnes. Klickt der Benutzer auf den Ansichtsnamen, etwa "Mein Griechenland", erscheint die Halbinsel auf dem Bildschirm. Auf diese Weise lässt es sich bequem und schnell um die ganze WeIt reisen. Auch Vor- und ZurückSchaltflächen wie beim Browser erleichtern die Bedienung. Zum Test traten Meyers Großer Weltatlas (Foliant plus CDROM), National Geographic: Der Grosse 3D-Globus als CD-ROM und höher auflösende DVD, P.M. Der 3D-Weltatlas und Microsofts Encarta Pro 2005 an. Als Testrechner diente uns ein mit 2,13 Gigahertz getakteter Athlon-PC mit 480 MByte Hauptspeicher unter Windows XP Pro (SP2).
  8. Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 5134) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=5134,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 5134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5134)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
  9. Neisser, U.: Kognition und Wirklichkeit : Prinzipien und Implikationen der kognitiven Psychologie (1996) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 5905) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=5905,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 5905, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5905)
      0.25 = coord(1/4)
    
    Content
    "Was hat uns Ulric NEISSER nach seinem klassischen Forschungsbericht über die Wahrnehmungs- und Kognitionsforschung von 1967 (deutsch 1974) in diesem schmalen Band noch zu sagen? Nachträge? Korrekturen? Wenig oder nichts von alledem! Der Untertitel des neuen Buches sagt es treffend: NEISSER hat über die Prinzipien und Implikationen des Wahrnehmungs- und Erkenntnisgeschehens nachgedacht. "Kognition und Wirklichkeit" ist ein philosophisches Buch. Aber es bewegt sich nicht in der dünnen Luft der Abstraktionen, fliegt nicht rasch vom Boden der Wirklichkeit in verbale Höhen auf, sondern bewegt sich nahe an den Phänomenen - und an den Experimenten. So hatte es Francis BACON im Novum Organum gewünscht! Es geht auch in diesem Buch vor allem um die Wahrnehmung. Aber es ist nicht die Wahrnehmung jener hoch sophistizierten und doch naiven Experimentalpsychologie, die in der Versuchsperson vor dem Tachistoskop nur ein optisches System, eine Netzhaut und ein Sehzentrum sieht: eine camera obscura plus Registratur sozusagen. NEISSER wird nicht müde, die Enge, die Unnatürlichkeit. die mangelnde ökologische Validität und daher die Falschheit dieses Paradigmas zu betonen. Wahrnehmung ist eine Tätigkeit. Der Mensch bemächtigt sich der Gegebenheiten der Wahrnehmung. Die Informationsverarbeitung ist der Wahrnehmung nicht nachgeordnet. Wahrnehmung ist Informationsverarbeitung. Sie hat ihre Werkzeuge. NEISSER nennt sie mit BARTLETT und PIAGET Schemata. Ohne sie sieht der Mensch nichts. Aber sie sind dem Menschen. mit Ausnahme von einigen einfachen Analysatoren und elementaren Strukturen, nicht angeboren. Er haut sie in lebenslangen Lernprozessen auf. Darum sind die Begriffe des Wahrnehmungslernens, der Wahrnehmungserfahrung und - als ihr Ergebnis - derjenige des tüchtigen (skilled) Wahrnehmers zentrale Begriffe in diesem Buch. Der tüchtige Wahrnehmer geht nicht mit leeren Händen an das Geschäft des Erkundens der Welt. Er weiß, was in einer Situation zu erwarten ist. Er antizipiert das kommende Geschehen und die Merkmale, die er noch nicht sieht. Er gleicht einem Handelnden, der einen Plan hat und sich aufgrund einer kognitiven Landkarte bewegt. Was er sieht, hat einen "Rahmen" (frank), der mehr enthält als das unmittelbar Gegebene. Das bedeutet nicht, daß er alles schon weiß. NEISSER vertritt keine Theorie der angeborenen Ideen. Das Schema ist nicht die Sache. Was schematisch ist, bedarf der Spezifikation, der Rahmen muß gefüllt werden. Erwartungen, Antizipationen können auch enttäuscht werden. Die Wahrnehmungsschemata verändern sieh zudem im Zuge des Wahrnehmens. Daher spricht NEISSER von Wahrnehmungszyklen, von einem "zyklischen Fluß zwischen Schema und Informationsaufnahme". In diesem Geschehen spielen die Bewegungen des Wahrnehmen, eine zentrale Rolle. Darum ist es so unnatürlich, ihn vor einem Tachistoskop zu fixieren. Wenn er eine Statue oder ein Motorenmodell betrachtet, geht er um den Gegenstand herum. Ein neues Schmuckstück dreht und wendet er in seinen Händen. Fr tut dies, weil er im Zusammenspiel der Sinne Information gewinnt, die das statische Netzhautbild nie liefern würde.
  10. Battelle, J.: ¬Die Suche : Geschäftsleben und Kultur im Banne von Google & Co. (2006) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 5956) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=5956,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 5956, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5956)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.2 (M. Buzinkay): "Zum Autor: John Battelle ist freischaffender Journalist, Mitbegründer und Redakteur bei Wired sowie in weiteren Medienunternehmen der USA tätig. John Battelle betreibt seinen eigenen Fachblog, es ist unter http://battellemedia.com/ zu erreichen. Zum Inhalt: Die Geschichte der Suche ist so alt wie die der Menschheit - oder so ähnlich. Information und Wissen verschafften uns seit je her den Vorsprung, den wir zum Überleben brauchten, aber diese Ressourcen waren bis zuletzt nur begrenzt verfügbar. Im Zeitalter des Web scheint diese Grenze nicht mehr zu gelten, das Web offeriert 'alles'. John Battelle geht in seinem Buch diesem Mythos der Suche im Web-Zeitalter nach und zeichnet in einer anschaulichen und spannenden Art und Weise eine Geschichte von den Ursprüngen des Internets bis hin zu modernen Suchmaschinen. Er sieht in der Suche ein kulturelles Artefakt, und eine Schnittstelle zwischen Mensch und Maschine. Die Faszination, die Suchmaschinen auf den Autor ausüben, sind augenscheinlich: er bezeichnet ihren Index als Datenbank der Absichten, als die weltgrößte Sammlung an Ideen, Gedanken, Motiven, die die Menschheit je hervorgebracht hat. Durch die Suchbegriffe und die Handlungen, die im Web gesetzt werden, werden Interessen und Bedürfnisse offenbar und gleichzeitig dokumentiert und miteinander verbunden. Googles Zeitgeist ist nur die Spitze des Eisbergs - die Suchmaschinen haben ihre Fühler über uns ausgestreckt. Nach einer ausführlichen Einführung zum Thema Wie funktioniert eine Suchmaschine überhaupt?' erzählt uns Battelle die Geschichten von AltaVista, Yahoo, Google und vielen anderen Web-Pionieren, die es sich zur Aufgabe gemacht haben, das Wissen und die Informationen der Welt zu ordnen und damit auch ihr Geschäft zu machen. In den sehr authentischen Schilderungen gelingt es Battelle zu vermitteln, dass die Geschichte von Google & Co ganz anders hätte verlaufen können. Für europäische Leser sind das die faszinierendsten Seiten des Buches - wie können es zwei Studenten aus ihrem Studentenzimmer schaffen, das halbe Web zu durchleuchten, dann eine Firma zu gründen und innerhalb von fünf Jahren zu einem der mächtigsten Unternehmen der Welt aufzusteigen? Die unglaubliche Geschichte von Google wird an den beiden Gründern Page und Brin aufgehängt. Somit gelingt es Battelle, das einzelne Detail der Google-Story lebendig und nah darzustellen, aber auch viele Einsichten in die Psyche von Google zu präsentieren.
  11. Hähle, S.: Verborgenes Entdecken (2005) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 34) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=34,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 34, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=34)
      0.25 = coord(1/4)
    
    Content
    "Oft hört man: "Suchen im Web - das kann doch jeder." Doch immer wieder erreichen uns Zuschriften, in denen uns Leser ihr Leid darüber klagen, dass sie im Datendschungel des Internets nicht die Informationen erhielten, die sie eigentlich interessieren würden. Wenn es Ihnen auch so geht, helfen ihnen hoffentlich die folgenden Tipps und Tricks. Wie Suchmaschinen denken Die meisten Suchmaschinen bestehen aus drei Teilen. Der erste ist der Informationssammler, Robot, Spider oder auch Crawler genannt. Er surft automatisch auf Webseiten und schickt die gesammelten Daten an den Index. Dieser ist das Verzeichnis aller Webseiten, die die Suchmaschine kennt. Der zweite Teil ist die Indizierungs-Software, die die Daten strukturiert und durchsuchbar macht. Eine dritte Software wertet die Suchanfrage aus. Sie schickt die Anfrage an den Index-Rechner, der die Ergebnisse präsentiert. Hierbei berücksichtigt sie meist auch, an welcher Stelle der Suchbegriff im Dokument steht. Wenn das Suchwort in der Beschreibung der Webseite vorkommt, wird es höher gewichtet, als wenn es im Text der Seite steht. Eine Besonderheit ist das PageRank-System von Google. Je mehr Links auf eine Seite verweisen, umso wichtiger ist sie. Je wichtiger wiederum die verweisenden Seiten sind, umso größer der positive Effekt für ein Suchergebnis. Suchanfragen richtig stellen Es macht wenig Sinn, nach einem häufigen Begriff wie "Musik" zu suchen. Sie müssen schon genauer angeben, nach was Sie suchen, etwa "achtziger Jahre" oder "MP3 Download". Überlegen Sie außerdem, welche Begriffe Sie von der Suche explizit ausschließen können. Eine Suche sollte dennoch nicht mit zu vielen verknüpften Begriffen beginnen. Ein schrittweises Eingrenzen bietet sich an. Oft ist es auch hilfreich, die Wörter leicht zu variieren. Spezielle Suchdienste Wenn Sie wissen, in welchem Fachgebiet Sie Information suchen, sollten Sie eine Spezial-Suchmaschine probieren. Die Portalseite Klug Suchen (www.klug-suchende) und das Suchlexikon (www.suchlexikon.de) verzeichnen eine große Menge besonderer Suchdienste für das deutschsprachige Internet. Weitere Spezialisten, vor allem im amerikanischen Raum, listet The Big Hub (www.thebighub.com) auf. Metasuchmaschinen Metasuchmaschinen suchen in mehreren Suchmaschinen auf einmal, um mehr oder gezieltere Ergebnisse zu erhalten. Ob sich der Einsatz lohnt, müssen Sie von Fall zu Fall entscheiden. Die bekanntesten Metasuchmaschinen für das deutschsprachige Netz sind Metacrawler (www.metacrawler.de) sowie MetaGer (www.metager.de).
  12. Oberhauser, O.: Automatisches Klassifizieren : Entwicklungsstand - Methodik - Anwendungsbereiche (2005) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 38) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=38,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 38, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=38)
      0.25 = coord(1/4)
    
    Footnote
    Die am Anfang des Werkes gestellte Frage, ob »die Techniken des automatischen Klassifizierens heute bereits so weit [sind], dass damit grosse Mengen elektronischer Dokumente [-] zufrieden stellend erschlossen werden können? « (S. 13), beantwortet der Verfasser mit einem eindeutigen »nein«, was Salton und McGills Aussage von 1983, »daß einfache automatische Indexierungsverfahren schnell und kostengünstig arbeiten, und daß sie Recall- und Precisionwerte erreichen, die mindestens genauso gut sind wie bei der manuellen Indexierung mit kontrolliertem Vokabular « (Gerard Salton und Michael J. McGill: Information Retrieval. Hamburg u.a. 1987, S. 64 f.) kräftig relativiert. Über die Gründe, warum drei der großen Projekte nicht weiter verfolgt werden, will Oberhauser nicht spekulieren, nennt aber mangelnden Erfolg, Verlagerung der Arbeit in den beteiligten Institutionen sowie Finanzierungsprobleme als mögliche Ursachen. Das größte Entwicklungspotenzial beim automatischen Erschließen großer Dokumentenmengen sieht der Verfasser heute in den Bereichen der Patentund Mediendokumentation. Hier solle man im bibliothekarischen Bereich die Entwicklung genau verfolgen, da diese »sicherlich mittelfristig auf eine qualitativ zufrieden stellende Vollautomatisierung« abziele (S. 146). Oberhausers Darstellung ist ein rundum gelungenes Werk, das zum Handapparat eines jeden, der sich für automatische Erschließung interessiert, gehört."
  13. Kuhlen, R.: Ins Steinzeitalter der Informationsversorgung : Scharfe Kritik an der gemeinsamen Stellungnahme von DBV und Börsenverein in Sachen Urheberrecht (2007) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 202) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=202,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 202, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=202)
      0.25 = coord(1/4)
    
    Abstract
    Der Konstanzer Informationswissenschaftler Rainer Kuhlen schaltet sich aus Los Angeles in die Debatte um das Urheberrecht ein. Kuhlen lehrt dort derzeit als Gastprofessor an der School of Information Studies der University of California. Er meldet sich zu Wort, nach eigenen Worten »durchaus kritisch (aber nicht als Schelte gemeint) gegenüber der gemeinsamen Stellungnahme', auf die sich der Börsenverein und der Deutsche Bibliotheksverband geeinigt haben und die dem Bundesministerium für Bildung und Forschung Mitte Januar zugestellt wurde«. Kuhlen weist ausdrücklich darauf hin, dass sein Text zwar Argumente des Aktionsbündnisses »Urheberrecht für Bildung und Wissenschaft« verwendet, aber er nicht offiziell abgestimmt, sondern von ihm persönlich zu vertreten ist.
  14. Oehlschläger, S.: Aus der 52. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 24. und 25. April 2007 in Berlin (2007) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 465) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=465,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
      0.25 = coord(1/4)
    
    Content
    DDC-vascoda Für den Sucheinstieg bei vascoda wird bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungsjahr) kombiniert werden kann, angeboten. Die Suche kann zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Da in vascoda die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument eingeführt ist und bereits nennenswerte Bestände mit der DDC erschlossen sind, bietet sich die Möglichkeit, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Im Berichtszeitraum wurde in der vascoda AG Betrieb und mit dem hbz als Portalbetreiber die konzeptionelle und technische Einbindung des DDC-Browsings im vascoda-Portal diskutiert und beschlossen. Die Navigation mit DDC wird ähnlich wie die Navigation über die Fachcluster auf der linken Seite der Trefferliste integriert, beim Navigieren im Baum werden synchron die passenden Ressourcen aus der Suchmaschine in der mittleren Spalte eingeblendet. Wegen hoher Arbeitsbelastung im hbz wird dieses Feature wahrscheinlich nicht Teil des vascoda-Relaunches im Juni 2007 sein, sondern erst im 2. Halbjahr 2007 integriert werden. Weiter wurde ein Angebot implementiert für Fachportale und andere Institutionen, die mit DDC erschließen, aber nicht die technischen Möglichkeiten haben, ein eigenes Browsing zu entwickeln. Das Verfahren sieht vor, dass die DNB einen Dienst anbietet, der ein HTML-Snippet mit der gewünschten Browsing-Struktur generiert (ähnlich wie MelvilSearch), die in die Oberfläche des Fachportals integriert werden kann. Der Dienst wird voraussichtlich im 2. Quartal 2007 in Betrieb genommen werden können. In Zusammenarbeit mit der SUB Göttingen wurde ein Workshop zum Thema Lizenzfragen für DDC in Bezug auf Fachportale und andere Online-Angebote abgehalten. Die Ergebnisse wurden im vascoda-Newsletter veröffentlicht.
  15. Schmeh, K.: ¬Die WeIt der geheimen Zeichen : die faszinierende Geschichte der Verschlüsselung (2004) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 1445) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=1445,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 1445, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1445)
      0.25 = coord(1/4)
    
    Footnote
    Das Buch beeindruckt durch eine große Vielfalt von Themen. So wird auch das Problem angesprochen, dass ein eigentlich sicheres Verfahren dadurch gefährdet sein kann, dass dem Angreifer Seitenkanäle der Information, wie etwa der Stromverbrauch einer Chipkarte, zur Verfügung stehen. Potenzielle Bedrohungen gegenwärtiger Verschlüsselungsverfahren sind der DNA-Computer und der Quantencomputer. Aber man hat die Aussicht, den Teufel mit dem Beelzebub auszutreiben, nämlich den Quantencomputer mit der Quantenkryptografie. Nicht ausdrücklich in dem Buch angesprochen ist das Problem der Authentifikation von Nachrichten. Der Empfänger einer Nachricht muss sich vergewissern, dass ihr Sender der ist, der er zu sein vorgibt. Sonst könnte sich ein Obeltäter bereits beim Schlüsselaustausch unbemerkt zwischen die beiden Parteien drängen und von da an jede Kommunikation unter ihnen unentdeckt verfälschen. Dagegen hilft auch das einzige nachweislich unknackbare Verschlüsselungsverfahren, der One-Time-Pad, nicht, da ein Angreifer gezielt »Bits kippen« und so die Nachricht, ohne sie zu entschlüsseln, verfälschen kann. Da selbst Fachbücher kaum auf dieses Problem hinweisen, wurde der One-Time-Pad bereits - nutzlos - in kommerzielle quantenkryptografische Programme eingebaut. Die in dem Buch besprochenen digitalen Signaturen können solche Probleme lösen, solange man nicht auf nachweislicher Unknackbarkeit besteht. Schmeh widmet sich auch den so genannten Hash-Funktionen, die aus einer großen Datei eine kurze Kennnummer errechnen und damit etwa Signaturverfahren beschleunigen können, da es genügt, diese Kennnummer zu signieren.
  16. Schneider, M.: Ende einer Epoche : Jetzt geht also auch der Brockhaus online. Bedeutet das das Ende der Gutenberg-Galaxis? Oder ist es doch nur das Ende des Bücherschrankwissens? (2008) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 1799) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=1799,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 1799, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1799)
      0.25 = coord(1/4)
    
    Content
    Mit dem Bürger verschwinden auch seine Embleme. Wenn nun ab April das Wissen der Brockhaus-Enzyklopädie kostenfrei über werbungfinanzierte Internetseiten abgerufen werden kann, dann setzt sich über diesen Einschnitt hinweg eine Tradition fort, die der Untertitel des ersten Werks zum Programm machte, das dem Publikum "mit vorzüglicher Rücksicht auf die gegenwärtige Zeit" angeboten worden war. Bereits die ersten Bände der prächtigen aktuellen Printausgabe des Brockhaus sind um zwei DVD's ergänzt, die Dialekte, Tierstimmen, Beispiele aus Musik, Literatur, Theater und Film, Augenzeugenberichte, Reden und Dokumente der Zeitgeschichte bietet. Um den Zeitnachteil der Buchredaktion auszugleichen, erhielten die Subskribenten der neusten Ausgabe sogleich Zugang zur Online-Version der gesamten Enzyklopädie. Der Rückblick in die Historie des Brockhaus zwingt dem Büchermenschen unserer Tage die melancholische Einsicht ab, dass hier nicht nur ein verlegerischer Strategiewechsel erfolgt, sondern dass sich eine Epoche schließt. Das Buch als Leitmedium der Aufklärung, des politischen Fortschritts und als Institution eines Wissens, das aus den dicken, mit Leder eingeschlagenen Bänden sowohl Solidität als auch Zeitresistenz sprechen lässt, tritt in den Schatten der neuen Götter, die Schnelligkeit, Aktualität und Mulimedia heißen. Es ist nicht, wie mancher Kommentator vermutet, der Erfolg solcher Online-Unternehmen wie der Wikipedia-Enzyklopädie, die die Verleger zum Handeln zwingt. Die Notwendigkeit geht vielmehr von den beiden dynamischen Kräften aus, denen das Wissen heute unterliegt. Das Internet-Medium allein vermag dem Tempo, der ständigen Erweiterung, Verwandlung und vor allem dem überaus dauernden Obsoletwerden des Wissens eine Form zu geben. Was 1809 "vorzügliche Rücksicht auf die Zeit" hieß, das liest sich erst in unseren Tagen so überaus doppelsinnig. Die Rücksicht auf die Zeit lässt auch den Wissenschaftler oder die Redakteurin am Bildschirm den schnellsten Weg zur benötigten Information wählen. Den raschesten Weg zu den Daten, den die Erzeuger, Verwalter und Verbreiter des Wissens einschlagen, erschließt der Tastenhieb. Damit nicht genug: Die erste Quelle, die die Google-Anfrage anbietet, eröffnet für das maßlos hybrid werdende Wissen eigentlich auch nur die Plattform, um auf den berühmten Hypertextpfaden weitere Informationen abzurufen: Bilder, Tondokumente, Filme und zusätzliche historische oder wissenschaftliche Literatur. Auf eine schwer vorstellbare Weise nimmt das Wissen, das sich einst in der Tiefe der Lederbände zur Ruhe und zur dauerhaften Gültigkeit niedergelegt hatte, heute über die online-Abrufbarkeit die Qualität einer dauernden virtuellen Präsenz ein.
  17. Teutsch, K.: ¬Die Welt ist doch eine Scheibe : Google-Herausforderer eyePlorer (2009) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 2678) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=2678,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 2678, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2678)
      0.25 = coord(1/4)
    
    Content
    Eine neue visuelle Ordnung Martin Hirsch ist der Enkel des Nobelpreisträgers Werner Heisenberg. Außerdem ist er Hirnforscher und beschäftigt sich seit Jahren mit der Frage: Was tut mein Kopf eigentlich, während ich hirnforsche? Ralf von Grafenstein ist Marketingexperte und spezialisiert auf Dienstleistungen im Internet. Zusammen haben sie also am 1. Dezember 2008 eine Firma in Berlin gegründet, deren Heiliger Gral besagte Scheibe ist, auf der - das ist die Idee - bald die ganze Welt, die Internetwelt zumindest, Platz finden soll. Die Scheibe heißt eyePlorer, was sich als Aufforderung an ihre Nutzer versteht. Die sollen auf einer neuartigen, eben scheibenförmigen Plattform die unermesslichen Datensätze des Internets in eine neue visuelle Ordnung bringen. Der Schlüssel dafür, da waren sich Hirsch und von Grafenstein sicher, liegt in der Hirnforschung, denn warum nicht die assoziativen Fähigkeiten des Menschen auf Suchmaschinen übertragen? Anbieter wie Google lassen von solchen Ansätzen bislang die Finger. Hier setzt man dafür auf Volltextprogramme, also sprachbegabte Systeme, die letztlich aber, genau wie die Schlagwortsuche, nur zu opak gerankten Linksammlungen führen. Weiter als auf Seite zwei des Suchergebnisses wagt sich der träge Nutzer meistens nicht vor. Weil sie niemals wahrgenommen wird, fällt eine Menge möglicherweise kostbare Information unter den Tisch.
  18. Hänger, C.; Krätzsch, C.; Niemann, C.: Was vom Tagging übrig blieb : Erkenntnisse und Einsichten aus zwei Jahren Projektarbeit (2011) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 4519) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=4519,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 4519, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4519)
      0.25 = coord(1/4)
    
    Abstract
    Das DFG-Projekt "Collaborative Tagging als neue Form der Sacherschließung" Im Oktober 2008 startete an der Universitätsbibliothek Mannheim das DFG-Projekt "Collaborative Tagging als neue Form der Sacherschließung". Über zwei Jahre hinweg wurde untersucht, welchen Beitrag das Web-2.0-Phänomen Tagging für die inhaltliche Erschließung von bisher nicht erschlossenen und somit der Nutzung kaum zugänglichen Dokumenten leisten kann. Die freie Vergabe von Schlagwörtern in Datenbanken durch die Nutzer selbst hatte sich bereits auf vielen Plattformen als äußerst effizient herausgestellt, insbesondere bei Inhalten, die einer automatischen Erschließung nicht zugänglich sind. So wurden riesige Mengen von Bildern (FlickR), Filmen (YouTube) oder Musik (LastFM) durch das Tagging recherchierbar und identifizierbar gemacht. Die Fragestellung des Projektes war entsprechend, ob und in welcher Qualität sich durch das gleiche Verfahren beispielsweise Dokumente auf Volltextservern oder in elektronischen Zeitschriften erschließen lassen. Für die Beantwortung dieser Frage, die ggf. weitreichende Konsequenzen für die Sacherschließung durch Fachreferenten haben konnte, wurde ein ganzer Komplex von Teilfragen und Teilschritten ermittelt bzw. konzipiert. Im Kern ging es aber in allen Untersuchungsschritten immer um zwei zentrale Dimensionen, nämlich um die "Akzeptanz" und um die "Qualität" des Taggings. Die Akzeptanz des Taggings wurde zunächst bei den Studierenden und Wissenschaftlern der Universität Mannheim evaluiert. Für bestimmte Zeiträume wurden Tagging-Systeme in unterschiedlichen Ausprägungen an die Recherchedienste der Universitätsbibliothek angebunden. Die Akzeptanz der einzelnen Systemausprägungen konnte dann durch die Analyse von Logfiles und durch Datenbankabfragen ausgewertet werden. Für die Qualität der Erschließung wurde auf einen Methodenmix zurückgegriffen, der im Verlauf des Projektes immer wieder an aktuelle Entwicklungen und an die Ergebnisse aus den vorangegangenen Analysen angepaßt wurde. Die Tags wurden hinsichtlich ihres Beitrags zum Information Retrieval mit Verfahren der automatischen Indexierung von Volltexten sowie mit der Erschließung durch Fachreferenten verglichen. Am Schluss sollte eine gut begründete Empfehlung stehen, wie bisher nicht erschlossene Dokumente am besten indexiert werden können: automatisch, mit Tags oder durch eine Kombination von beiden Verfahren.
  19. Koch, C.: Bewusstsein : ein neurobiologisches Rätsel (2005) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 4559) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=4559,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 4559, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4559)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft 2006, H.6, S.101-102 (M. Springer): "Wir erforschen den Kosmos, um zu erfahren, woher wir kommen, und die Welt der Elementarteilchen, weil wir erkennen wollen, woraus wir letztlich bestehen. Nun wenden wir uns mit dem in Jahrhunderten gewonnenen Wissen dem nächstliegenden Forschungsobjekt zu: dem eigenen Gehirn. Das ist ein Schwindel erregendes Unternehmen, denn dabei beugt sich gewissermaßen das Gehirn wissbegierig über sich selbst. Geht das? Kann eine ursprünglich zur Analyse der unbelebten, bewusstlosen Natur entwickelte Methode jemals erklären, wie unser Gehirn Bewusstsein produziert? Muss nicht zwischen physikalisch-chemischen Hirnvorgängen und unserem sinnlichen Erleben von Farben, Schmerzen und Emotionen die notorische »Erklärungslücke« der Bewusstseinsforschung klaffen? Es kommt auf den Versuch an. Wer wissen will, was die Naturwissenschaft - konkret die Neurobiologie - bisher über die materielle Basis unseres bewussten Erlebens herausgebracht hat, sollte dieses Buch lesen. Christof Koch sucht empirisch nach den »neuronalen Korrelaten des Bewusstseins« (neuronal correlates of consciousness, NCCs) - dem kleinsten Satz neuronaler Ereignisse, der für eine bestimmte bewusste Wahrnehmung hinreichend ist. Gewiss vermag unser Gehirn noch viel mehr, als bloß Sinneserlebnisse zu vermitteln: Wir können sprechen, Erlebnisse reflektieren, zählen, logisch denken und so weiter. Das vergleichsweise bescheidene Projekt, NCCs für bewusste visuelle Wahrnehmung zu suchen, hat Koch gemeinsam mit Francis Crick, dem Mitentdecker des genetischen Codes, bis zu dessen Tod 2004 verfolgt, weil die beiden darin den einfachsten Zugang zum Rätsel des Bewusstseins sahen. Damit wiederholte Crick eine Vorgehensweise, mit der er schon 1953 erfolgreich war: zur Erforschung des bislang Unvorstellbaren zunächst ein möglichst einfaches Beispiel zu studieren. Bevor Crick zusammen mit James Watson die Struktur der DNA aufdeckte, konnten die Biologen sich nicht vorstellen, wie ein einzelnes Molekül die Information über den Aufbau eines lebenden Organismus enthalten sollte. Analog hofften später Crick und Koch, aus der Struktur der Neuronen und ihren Wechselwirkungen auf die physische Grundlage des Bewusstseins schließen zu können.
  20. Krajewski, M.: Zettelwirtschaft : Die Geburt der Kartei aus dem Geiste der Bibliothek (2002) 0.00
    0.0010620725 = product of:
      0.00424829 = sum of:
        0.00424829 = weight(_text_:information in 621) [ClassicSimilarity], result of:
          0.00424829 = score(doc=621,freq=4.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.04800135 = fieldWeight in 621, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.013671875 = fieldNorm(doc=621)
      0.25 = coord(1/4)
    
    Content
    Der erste Hauptteil 'Um 1800' versucht daraufhin, mit einem Bruch in der Anwendungsweise des Gessnerschen Verfahrens dessen erste Diskontinuität nachzuweisen. Nicht zuletzt wegen dieses Einschnitts muß die Art der Verzeichnung bis dato das Attribut vorläufig tragen. Die Verzettelungstechnik gelangt von einem temporären Gebrauch zur dauerhaften Verwendung, was dadurch eine ebenso unbeabsichtigte wie folgenreiche Umstellung markiert. Gleichzeitig entsteht hiermit der bibliothekshistorisch erste Zettelkatalog, dessen unverhoffter Einsatz und Genese in Wien um 1780 eine detaillierte Beschreibung erfährt. Der Zettelkatalog besteht nicht nur als bibliothekarische Antwort auf einen drohenden information overflow, sondern vor allem dank seiner umsichtigen Logistik. Entscheidend dabei sind schriftlich fixierte, genaue Handlungsanweisungen, anhand derer auch unausgebildetes Personal in den arbeitsteiligen Prozeß eingebunden werden kann. Mit Hilfe eines kleinen Exkurses soll zuvor jedoch die Koinzidenz zweier Adressierungslogiken untersucht werden: In einem Jahrzehnt und derselben Stadt fällt die Entstehung des Zettelkatalogs zusammen mit der Erfindung der Hausnummer. Damit etabliert sich eine Möglichkeit zur abstrakteren Repräsentation und zu einem kontrollierenden Zugriff auf Schriften bzw. Hausbewohner. Das anschließende dritte Kapitel verbleibt in der Umbruchphase um 1800, indem es eine notwendige Differenz zieht zwischen der Bibliothekstechnologie von vielen Schreib- für viele Lese-Köpfe und einer eigenwilligen Anordnung von gelehrten Exzerptensammlungen. Die Unterscheidung trennt ein Server-Konzept von einer Workstation-Philosophie. Der erste Zettelkatalog ist nicht nur das Produkt eines kollektiven Arbeitsprozesses, sondern vor allem für eine vielköpfige Benutzung geeignet und konzipiert. Im Gegensatz zu diesem Multi-User-System verwehrt die idiosynkratische Maschine in Form eines Gelehrtenkastens gerade jede fremde Einsichtnahme. Sie besitzt keine Vermittlungsnotwendigkeit, so daß sich das interne System der Verzeichnung durchaus unverständlich für alle Einsichtnehmenden ausnehmen darf. Auch eine Form von Datenschutz, die anhand der eigentümlichen gelehrten Exzerpiertechniken in einer kleinen Genealogie von Johann Jacob Moser bis zu Jean Paul und anderen konturiert wird. Das vierte und letzte Kapitel des ersten Teils widmet sich einer ersten Übertragung alteuropäischer Bibliothekstechnik in die Neue Welt. Das Zettelkastenprinzip erreicht einerseits die amerikanische Ostküste durch Bibliothekare, die in Europa studieren, um die dort etablierte Praxis der Katalogisierung auf ihre im Laufe des 19. Jahrhunderts schnell anwachsenden Büchersammlungen anzuwenden. Andererseits jedoch besitzen die Vereinigten Staaten auch eine eigene, autochthone Genealogie der Verzettelung. 1817 gelingt William Croswell bei seinem unglücklichen Projekt, der Harvard College Library einen umfassenden Katalog zu verschaffen, die Geburt des amerikanischen Zettelkatalogs aus dem Geiste der Faulheit.
    Manches hat der Zettelkasten verschwiegen, um seine eigene Ökonomie und die des notwendigerweise beschränkten Umfangs dieser Studie nicht allzu sehr zu beanspruchen - manches schlechterdings aus Mangel an Information. Allererstes Manko ist die Verlegenheit, keine Universalgeschichten mehr schreiben zu können. So beginnt diese Geschichte nicht mit dem Anfang von Geschichte und beschreibt demzufolge keine mesopotamischen, ägyptischen, griechischen oder römischen Register als Verzeichnisse der gespeicherten Schriften. Auch die berühmte Bibliothek von Alexandria samt ihrem ebenso berühmten Bibliothekar Kallimachos, der die Inventare der Schriften auf tönernen Pinakes an den Regalen fixierte, bleibt außen vor. Statt dessen steht am Beginn der Karteigeschichte eine (vermeintliche) Urszene des 16. Jahrhunderts, die vielleicht auch anders, d.h. früher, hätte gesetzt sein können. Des weiteren vermag diese Studie nicht, einem ausgelobten Desiderat abzuhelfen, eine schlichte Fußnote bei Foucault: »Aufkommen der Karteikarte und Konstituierung der Humanwissenschaften: noch eine Erfindung, die von den Historikern wenig gefeiert wird.« Wenngleich die eine Entwicklung, die »Konstitution der Humanwissenschaften«, dieser Studie als methodisches Leitbild dient, konnte die direkte Verbindung zum Erscheinen der Karteikarte nicht eindeutig geknüpft werden. Geplant war, ein Desiderat der Fußnote zur Entfaltung zu bringen, d.h. einem Exkurs zur Evolution der Karteikarte die letztendliche Übertragungs-Leistung zwischen Bibliothekaren und Kaufleuten ab 1890 anzufügen. Der Exkurs mußte gleichwohl einer anderen, bereits erwähnten Ökonomie, der Raumnot, zum Opfer fallen. In diesem Kapitel, das im Anschluß an das zweite gefolgt wäre, hätte nicht nur die verfestigende Entwicklung einer Materialität der Karteikarte vom Papierschnipsel bis zu ihrer Aufrechtigkeit als Leit-Karton Platz gefunden. (Diese Episode zieht sich nun implizit durch die Beschreibung einer fortschreitenden Standardisierung.) Foucaults beunruhigende Bemerkung stellt des weiteren, Bonneville zitierend, bereits für das Jahr 1833 einen direkten Zusammenhang her zwischen der Karteikarte und einer kaufmännischen Verzeichnungstechnik. Die Monographie zu den technischen Medien der Kaufleute ist leider noch ungeschrieben oder dem hier ins Spiel geratenen Zettelkasten bislang zumindest unbekannt. Darüber hinaus wäre der Versuch unternommen worden, die isomorphe Logik der Repräsentation von Zetteln und Banknoten sowie ihren Zusammenfall in den Zettel/Daten/Banken zu schildern. So muß die Episode über die Zirkulation von Geld und Ideen ihrerseits auf eine Fußnote zur Bank of England beschränkt bleiben und auf diese Anmerkung.

Authors

Languages

Types

Themes

Subjects

Classifications