Search (23015 results, page 1151 of 1151)

  1. Schneider, M.: Ende einer Epoche : Jetzt geht also auch der Brockhaus online. Bedeutet das das Ende der Gutenberg-Galaxis? Oder ist es doch nur das Ende des Bücherschrankwissens? (2008) 0.00
    6.2399526E-4 = product of:
      0.0037439715 = sum of:
        0.0037439715 = weight(_text_:information in 1799) [ClassicSimilarity], result of:
          0.0037439715 = score(doc=1799,freq=2.0), product of:
            0.0772133 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.043984205 = queryNorm
            0.048488684 = fieldWeight in 1799, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1799)
      0.16666667 = coord(1/6)
    
    Content
    Mit dem Bürger verschwinden auch seine Embleme. Wenn nun ab April das Wissen der Brockhaus-Enzyklopädie kostenfrei über werbungfinanzierte Internetseiten abgerufen werden kann, dann setzt sich über diesen Einschnitt hinweg eine Tradition fort, die der Untertitel des ersten Werks zum Programm machte, das dem Publikum "mit vorzüglicher Rücksicht auf die gegenwärtige Zeit" angeboten worden war. Bereits die ersten Bände der prächtigen aktuellen Printausgabe des Brockhaus sind um zwei DVD's ergänzt, die Dialekte, Tierstimmen, Beispiele aus Musik, Literatur, Theater und Film, Augenzeugenberichte, Reden und Dokumente der Zeitgeschichte bietet. Um den Zeitnachteil der Buchredaktion auszugleichen, erhielten die Subskribenten der neusten Ausgabe sogleich Zugang zur Online-Version der gesamten Enzyklopädie. Der Rückblick in die Historie des Brockhaus zwingt dem Büchermenschen unserer Tage die melancholische Einsicht ab, dass hier nicht nur ein verlegerischer Strategiewechsel erfolgt, sondern dass sich eine Epoche schließt. Das Buch als Leitmedium der Aufklärung, des politischen Fortschritts und als Institution eines Wissens, das aus den dicken, mit Leder eingeschlagenen Bänden sowohl Solidität als auch Zeitresistenz sprechen lässt, tritt in den Schatten der neuen Götter, die Schnelligkeit, Aktualität und Mulimedia heißen. Es ist nicht, wie mancher Kommentator vermutet, der Erfolg solcher Online-Unternehmen wie der Wikipedia-Enzyklopädie, die die Verleger zum Handeln zwingt. Die Notwendigkeit geht vielmehr von den beiden dynamischen Kräften aus, denen das Wissen heute unterliegt. Das Internet-Medium allein vermag dem Tempo, der ständigen Erweiterung, Verwandlung und vor allem dem überaus dauernden Obsoletwerden des Wissens eine Form zu geben. Was 1809 "vorzügliche Rücksicht auf die Zeit" hieß, das liest sich erst in unseren Tagen so überaus doppelsinnig. Die Rücksicht auf die Zeit lässt auch den Wissenschaftler oder die Redakteurin am Bildschirm den schnellsten Weg zur benötigten Information wählen. Den raschesten Weg zu den Daten, den die Erzeuger, Verwalter und Verbreiter des Wissens einschlagen, erschließt der Tastenhieb. Damit nicht genug: Die erste Quelle, die die Google-Anfrage anbietet, eröffnet für das maßlos hybrid werdende Wissen eigentlich auch nur die Plattform, um auf den berühmten Hypertextpfaden weitere Informationen abzurufen: Bilder, Tondokumente, Filme und zusätzliche historische oder wissenschaftliche Literatur. Auf eine schwer vorstellbare Weise nimmt das Wissen, das sich einst in der Tiefe der Lederbände zur Ruhe und zur dauerhaften Gültigkeit niedergelegt hatte, heute über die online-Abrufbarkeit die Qualität einer dauernden virtuellen Präsenz ein.
  2. Teutsch, K.: ¬Die Welt ist doch eine Scheibe : Google-Herausforderer eyePlorer (2009) 0.00
    6.2399526E-4 = product of:
      0.0037439715 = sum of:
        0.0037439715 = weight(_text_:information in 2678) [ClassicSimilarity], result of:
          0.0037439715 = score(doc=2678,freq=2.0), product of:
            0.0772133 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.043984205 = queryNorm
            0.048488684 = fieldWeight in 2678, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2678)
      0.16666667 = coord(1/6)
    
    Content
    Eine neue visuelle Ordnung Martin Hirsch ist der Enkel des Nobelpreisträgers Werner Heisenberg. Außerdem ist er Hirnforscher und beschäftigt sich seit Jahren mit der Frage: Was tut mein Kopf eigentlich, während ich hirnforsche? Ralf von Grafenstein ist Marketingexperte und spezialisiert auf Dienstleistungen im Internet. Zusammen haben sie also am 1. Dezember 2008 eine Firma in Berlin gegründet, deren Heiliger Gral besagte Scheibe ist, auf der - das ist die Idee - bald die ganze Welt, die Internetwelt zumindest, Platz finden soll. Die Scheibe heißt eyePlorer, was sich als Aufforderung an ihre Nutzer versteht. Die sollen auf einer neuartigen, eben scheibenförmigen Plattform die unermesslichen Datensätze des Internets in eine neue visuelle Ordnung bringen. Der Schlüssel dafür, da waren sich Hirsch und von Grafenstein sicher, liegt in der Hirnforschung, denn warum nicht die assoziativen Fähigkeiten des Menschen auf Suchmaschinen übertragen? Anbieter wie Google lassen von solchen Ansätzen bislang die Finger. Hier setzt man dafür auf Volltextprogramme, also sprachbegabte Systeme, die letztlich aber, genau wie die Schlagwortsuche, nur zu opak gerankten Linksammlungen führen. Weiter als auf Seite zwei des Suchergebnisses wagt sich der träge Nutzer meistens nicht vor. Weil sie niemals wahrgenommen wird, fällt eine Menge möglicherweise kostbare Information unter den Tisch.
  3. Altenhöner, R.; Gömpel, R.; Jahns, Y.; Junger, U.; Mahnke, C.; Meyer, A.; Oehlschläger, S.: Weltkongress Bibliothek und Information 75. IFLA-Generalkonferenz in Mailand, Italien : Aus den Veranstaltungen der Division IV Bibliographic Control und ihren Sektionen und der Arbeitsgruppe für die Informationsgesellschaft (2009) 0.00
    6.2399526E-4 = product of:
      0.0037439715 = sum of:
        0.0037439715 = weight(_text_:information in 3147) [ClassicSimilarity], result of:
          0.0037439715 = score(doc=3147,freq=2.0), product of:
            0.0772133 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.043984205 = queryNorm
            0.048488684 = fieldWeight in 3147, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3147)
      0.16666667 = coord(1/6)
    
  4. Slavic, A.: Mapping intricacies : UDC to DDC (2010) 0.00
    6.2399526E-4 = product of:
      0.0037439715 = sum of:
        0.0037439715 = weight(_text_:information in 3370) [ClassicSimilarity], result of:
          0.0037439715 = score(doc=3370,freq=2.0), product of:
            0.0772133 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.043984205 = queryNorm
            0.048488684 = fieldWeight in 3370, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3370)
      0.16666667 = coord(1/6)
    
    Content
    Another challenge appears when, e.g., mapping Dewey class 890 Literatures of other specific languages and language families, which does not make sense in UDC in which all languages and literatures have equal status. Standard UDC schedules do not have a selection of preferred literatures and other literatures. In principle, UDC does not allow classes entitled 'others' which do not have defined semantic content. If entities are subdivided and there is no provision for an item outside the listed subclasses then this item is subsumed to a top class or a broader class where all unspecifiied or general members of that class may be expected. If specification is needed this can be divised by adding an alphabetical extension to the broader class. Here we have to find and list in the UDC Summary all literatures that are 'unpreferred' i.e. lumped in the 890 classes and map them again as many-to-one specific-to-broader match. The example below illustrates another interesting case. Classes Dewey 061 and UDC 06 cover roughy the same semantic field but in the subdivision the Dewey Summaries lists a combination of subject and place and as an enumerative classification, provides ready made numbers for combinations of place that are most common in an average (American?) library. This is a frequent approach in the schemes created with the physical book arrangement, i.e. library schelves, in mind. UDC, designed as an indexing language for information retrieval, keeps subject and place in separate tables and allows for any concept of place such as, e.g. (7) North America to be used in combination with any subject as these may coincide in documents. Thus combinations such as Newspapers in North America, or Organizations in North America would not be offered as ready made combinations. There is no selection of 'preferred' or 'most needed countries' or languages or cultures in the standard UDC edition: <Tabelle>
  5. Dahlberg, I.: How to improve ISKO's standing : ten desiderata for knowledge organization (2011) 0.00
    6.2399526E-4 = product of:
      0.0037439715 = sum of:
        0.0037439715 = weight(_text_:information in 4300) [ClassicSimilarity], result of:
          0.0037439715 = score(doc=4300,freq=2.0), product of:
            0.0772133 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.043984205 = queryNorm
            0.048488684 = fieldWeight in 4300, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4300)
      0.16666667 = coord(1/6)
    
    Content
    6. Establishment of national Knowledge Organization Institutes should be scheduled by national chapters, planned energetically and submitted to corresponding administrative authorities for support. They could be attached to research institutions, e.g., the Max-Planck or Fraunhofer Institutes in Germany or to universities. Their scope and research areas relate to the elaboration of knowledge systems of subject related concepts, according to Desideratum 1, and may be connected to training activities and KOsubject-related research work. 7. ISKO experts should not accept to be impressed by Internet and Computer Science, but should demonstrate their expertise more actively on the public plane. They should tend to take a leading part in the ISKO Secretariats and the KO Institutes, and act as consultants and informants, as well as editors of statistics and other publications. 8. All colleagues trained in the field of classification/indexing and thesauri construction and active in different countries should be identified and approached for membership in ISKO. This would have to be accomplished by the General Secretariat with the collaboration of the experts in the different secretariats of the countries, as soon as they start to work. The more members ISKO will have, the greater will be its reputation and influence. But it will also prove its professionalism by the quality of its products, especially its innovating conceptual order systems to come. 9. ISKO should-especially in view of global expansion-intensify the promotion of knowledge about its own subject area through the publications mentioned here and in further publications as deemed necessary. It should be made clear that, especially in ISKO's own publications, professional subject indexes are a sine qua non. 10. 1) Knowledge Organization, having arisen from librarianship and documentation, the contents of which has many points of contact with numerous application fields, should-although still linked up with its areas of descent-be recognized in the long run as an independent autonomous discipline to be located under the science of science, since only thereby can it fully play its role as an equal partner in all application fields; and, 2) An "at-a-first-glance knowledge order" could be implemented through the Information Coding Classification (ICC), as this system is based on an entirely new approach, namely based on general object areas, thus deviating from discipline-oriented main classes of the current main universal classification systems. It can therefore recoup by simple display on screen the hitherto lost overview of all knowledge areas and fields. On "one look", one perceives 9 object areas subdivided into 9 aspects which break down into 81 subject areas with their 729 subject fields, including further special fields. The synthesis and place of order of all knowledge becomes thus evident at a glance to everybody. Nobody would any longer be irritated by the abundance of singular apparently unrelated knowledge fields or become hesitant in his/her understanding of the world.
  6. Hänger, C.; Krätzsch, C.; Niemann, C.: Was vom Tagging übrig blieb : Erkenntnisse und Einsichten aus zwei Jahren Projektarbeit (2011) 0.00
    6.2399526E-4 = product of:
      0.0037439715 = sum of:
        0.0037439715 = weight(_text_:information in 4519) [ClassicSimilarity], result of:
          0.0037439715 = score(doc=4519,freq=2.0), product of:
            0.0772133 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.043984205 = queryNorm
            0.048488684 = fieldWeight in 4519, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4519)
      0.16666667 = coord(1/6)
    
    Abstract
    Das DFG-Projekt "Collaborative Tagging als neue Form der Sacherschließung" Im Oktober 2008 startete an der Universitätsbibliothek Mannheim das DFG-Projekt "Collaborative Tagging als neue Form der Sacherschließung". Über zwei Jahre hinweg wurde untersucht, welchen Beitrag das Web-2.0-Phänomen Tagging für die inhaltliche Erschließung von bisher nicht erschlossenen und somit der Nutzung kaum zugänglichen Dokumenten leisten kann. Die freie Vergabe von Schlagwörtern in Datenbanken durch die Nutzer selbst hatte sich bereits auf vielen Plattformen als äußerst effizient herausgestellt, insbesondere bei Inhalten, die einer automatischen Erschließung nicht zugänglich sind. So wurden riesige Mengen von Bildern (FlickR), Filmen (YouTube) oder Musik (LastFM) durch das Tagging recherchierbar und identifizierbar gemacht. Die Fragestellung des Projektes war entsprechend, ob und in welcher Qualität sich durch das gleiche Verfahren beispielsweise Dokumente auf Volltextservern oder in elektronischen Zeitschriften erschließen lassen. Für die Beantwortung dieser Frage, die ggf. weitreichende Konsequenzen für die Sacherschließung durch Fachreferenten haben konnte, wurde ein ganzer Komplex von Teilfragen und Teilschritten ermittelt bzw. konzipiert. Im Kern ging es aber in allen Untersuchungsschritten immer um zwei zentrale Dimensionen, nämlich um die "Akzeptanz" und um die "Qualität" des Taggings. Die Akzeptanz des Taggings wurde zunächst bei den Studierenden und Wissenschaftlern der Universität Mannheim evaluiert. Für bestimmte Zeiträume wurden Tagging-Systeme in unterschiedlichen Ausprägungen an die Recherchedienste der Universitätsbibliothek angebunden. Die Akzeptanz der einzelnen Systemausprägungen konnte dann durch die Analyse von Logfiles und durch Datenbankabfragen ausgewertet werden. Für die Qualität der Erschließung wurde auf einen Methodenmix zurückgegriffen, der im Verlauf des Projektes immer wieder an aktuelle Entwicklungen und an die Ergebnisse aus den vorangegangenen Analysen angepaßt wurde. Die Tags wurden hinsichtlich ihres Beitrags zum Information Retrieval mit Verfahren der automatischen Indexierung von Volltexten sowie mit der Erschließung durch Fachreferenten verglichen. Am Schluss sollte eine gut begründete Empfehlung stehen, wie bisher nicht erschlossene Dokumente am besten indexiert werden können: automatisch, mit Tags oder durch eine Kombination von beiden Verfahren.
  7. Koch, C.: Bewusstsein : ein neurobiologisches Rätsel (2005) 0.00
    6.2399526E-4 = product of:
      0.0037439715 = sum of:
        0.0037439715 = weight(_text_:information in 4559) [ClassicSimilarity], result of:
          0.0037439715 = score(doc=4559,freq=2.0), product of:
            0.0772133 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.043984205 = queryNorm
            0.048488684 = fieldWeight in 4559, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4559)
      0.16666667 = coord(1/6)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft 2006, H.6, S.101-102 (M. Springer): "Wir erforschen den Kosmos, um zu erfahren, woher wir kommen, und die Welt der Elementarteilchen, weil wir erkennen wollen, woraus wir letztlich bestehen. Nun wenden wir uns mit dem in Jahrhunderten gewonnenen Wissen dem nächstliegenden Forschungsobjekt zu: dem eigenen Gehirn. Das ist ein Schwindel erregendes Unternehmen, denn dabei beugt sich gewissermaßen das Gehirn wissbegierig über sich selbst. Geht das? Kann eine ursprünglich zur Analyse der unbelebten, bewusstlosen Natur entwickelte Methode jemals erklären, wie unser Gehirn Bewusstsein produziert? Muss nicht zwischen physikalisch-chemischen Hirnvorgängen und unserem sinnlichen Erleben von Farben, Schmerzen und Emotionen die notorische »Erklärungslücke« der Bewusstseinsforschung klaffen? Es kommt auf den Versuch an. Wer wissen will, was die Naturwissenschaft - konkret die Neurobiologie - bisher über die materielle Basis unseres bewussten Erlebens herausgebracht hat, sollte dieses Buch lesen. Christof Koch sucht empirisch nach den »neuronalen Korrelaten des Bewusstseins« (neuronal correlates of consciousness, NCCs) - dem kleinsten Satz neuronaler Ereignisse, der für eine bestimmte bewusste Wahrnehmung hinreichend ist. Gewiss vermag unser Gehirn noch viel mehr, als bloß Sinneserlebnisse zu vermitteln: Wir können sprechen, Erlebnisse reflektieren, zählen, logisch denken und so weiter. Das vergleichsweise bescheidene Projekt, NCCs für bewusste visuelle Wahrnehmung zu suchen, hat Koch gemeinsam mit Francis Crick, dem Mitentdecker des genetischen Codes, bis zu dessen Tod 2004 verfolgt, weil die beiden darin den einfachsten Zugang zum Rätsel des Bewusstseins sahen. Damit wiederholte Crick eine Vorgehensweise, mit der er schon 1953 erfolgreich war: zur Erforschung des bislang Unvorstellbaren zunächst ein möglichst einfaches Beispiel zu studieren. Bevor Crick zusammen mit James Watson die Struktur der DNA aufdeckte, konnten die Biologen sich nicht vorstellen, wie ein einzelnes Molekül die Information über den Aufbau eines lebenden Organismus enthalten sollte. Analog hofften später Crick und Koch, aus der Struktur der Neuronen und ihren Wechselwirkungen auf die physische Grundlage des Bewusstseins schließen zu können.
  8. Krajewski, M.: Zettelwirtschaft : Die Geburt der Kartei aus dem Geiste der Bibliothek (2002) 0.00
    6.177238E-4 = product of:
      0.0037063428 = sum of:
        0.0037063428 = weight(_text_:information in 621) [ClassicSimilarity], result of:
          0.0037063428 = score(doc=621,freq=4.0), product of:
            0.0772133 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.043984205 = queryNorm
            0.04800135 = fieldWeight in 621, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.013671875 = fieldNorm(doc=621)
      0.16666667 = coord(1/6)
    
    Content
    Der erste Hauptteil 'Um 1800' versucht daraufhin, mit einem Bruch in der Anwendungsweise des Gessnerschen Verfahrens dessen erste Diskontinuität nachzuweisen. Nicht zuletzt wegen dieses Einschnitts muß die Art der Verzeichnung bis dato das Attribut vorläufig tragen. Die Verzettelungstechnik gelangt von einem temporären Gebrauch zur dauerhaften Verwendung, was dadurch eine ebenso unbeabsichtigte wie folgenreiche Umstellung markiert. Gleichzeitig entsteht hiermit der bibliothekshistorisch erste Zettelkatalog, dessen unverhoffter Einsatz und Genese in Wien um 1780 eine detaillierte Beschreibung erfährt. Der Zettelkatalog besteht nicht nur als bibliothekarische Antwort auf einen drohenden information overflow, sondern vor allem dank seiner umsichtigen Logistik. Entscheidend dabei sind schriftlich fixierte, genaue Handlungsanweisungen, anhand derer auch unausgebildetes Personal in den arbeitsteiligen Prozeß eingebunden werden kann. Mit Hilfe eines kleinen Exkurses soll zuvor jedoch die Koinzidenz zweier Adressierungslogiken untersucht werden: In einem Jahrzehnt und derselben Stadt fällt die Entstehung des Zettelkatalogs zusammen mit der Erfindung der Hausnummer. Damit etabliert sich eine Möglichkeit zur abstrakteren Repräsentation und zu einem kontrollierenden Zugriff auf Schriften bzw. Hausbewohner. Das anschließende dritte Kapitel verbleibt in der Umbruchphase um 1800, indem es eine notwendige Differenz zieht zwischen der Bibliothekstechnologie von vielen Schreib- für viele Lese-Köpfe und einer eigenwilligen Anordnung von gelehrten Exzerptensammlungen. Die Unterscheidung trennt ein Server-Konzept von einer Workstation-Philosophie. Der erste Zettelkatalog ist nicht nur das Produkt eines kollektiven Arbeitsprozesses, sondern vor allem für eine vielköpfige Benutzung geeignet und konzipiert. Im Gegensatz zu diesem Multi-User-System verwehrt die idiosynkratische Maschine in Form eines Gelehrtenkastens gerade jede fremde Einsichtnahme. Sie besitzt keine Vermittlungsnotwendigkeit, so daß sich das interne System der Verzeichnung durchaus unverständlich für alle Einsichtnehmenden ausnehmen darf. Auch eine Form von Datenschutz, die anhand der eigentümlichen gelehrten Exzerpiertechniken in einer kleinen Genealogie von Johann Jacob Moser bis zu Jean Paul und anderen konturiert wird. Das vierte und letzte Kapitel des ersten Teils widmet sich einer ersten Übertragung alteuropäischer Bibliothekstechnik in die Neue Welt. Das Zettelkastenprinzip erreicht einerseits die amerikanische Ostküste durch Bibliothekare, die in Europa studieren, um die dort etablierte Praxis der Katalogisierung auf ihre im Laufe des 19. Jahrhunderts schnell anwachsenden Büchersammlungen anzuwenden. Andererseits jedoch besitzen die Vereinigten Staaten auch eine eigene, autochthone Genealogie der Verzettelung. 1817 gelingt William Croswell bei seinem unglücklichen Projekt, der Harvard College Library einen umfassenden Katalog zu verschaffen, die Geburt des amerikanischen Zettelkatalogs aus dem Geiste der Faulheit.
    Manches hat der Zettelkasten verschwiegen, um seine eigene Ökonomie und die des notwendigerweise beschränkten Umfangs dieser Studie nicht allzu sehr zu beanspruchen - manches schlechterdings aus Mangel an Information. Allererstes Manko ist die Verlegenheit, keine Universalgeschichten mehr schreiben zu können. So beginnt diese Geschichte nicht mit dem Anfang von Geschichte und beschreibt demzufolge keine mesopotamischen, ägyptischen, griechischen oder römischen Register als Verzeichnisse der gespeicherten Schriften. Auch die berühmte Bibliothek von Alexandria samt ihrem ebenso berühmten Bibliothekar Kallimachos, der die Inventare der Schriften auf tönernen Pinakes an den Regalen fixierte, bleibt außen vor. Statt dessen steht am Beginn der Karteigeschichte eine (vermeintliche) Urszene des 16. Jahrhunderts, die vielleicht auch anders, d.h. früher, hätte gesetzt sein können. Des weiteren vermag diese Studie nicht, einem ausgelobten Desiderat abzuhelfen, eine schlichte Fußnote bei Foucault: »Aufkommen der Karteikarte und Konstituierung der Humanwissenschaften: noch eine Erfindung, die von den Historikern wenig gefeiert wird.« Wenngleich die eine Entwicklung, die »Konstitution der Humanwissenschaften«, dieser Studie als methodisches Leitbild dient, konnte die direkte Verbindung zum Erscheinen der Karteikarte nicht eindeutig geknüpft werden. Geplant war, ein Desiderat der Fußnote zur Entfaltung zu bringen, d.h. einem Exkurs zur Evolution der Karteikarte die letztendliche Übertragungs-Leistung zwischen Bibliothekaren und Kaufleuten ab 1890 anzufügen. Der Exkurs mußte gleichwohl einer anderen, bereits erwähnten Ökonomie, der Raumnot, zum Opfer fallen. In diesem Kapitel, das im Anschluß an das zweite gefolgt wäre, hätte nicht nur die verfestigende Entwicklung einer Materialität der Karteikarte vom Papierschnipsel bis zu ihrer Aufrechtigkeit als Leit-Karton Platz gefunden. (Diese Episode zieht sich nun implizit durch die Beschreibung einer fortschreitenden Standardisierung.) Foucaults beunruhigende Bemerkung stellt des weiteren, Bonneville zitierend, bereits für das Jahr 1833 einen direkten Zusammenhang her zwischen der Karteikarte und einer kaufmännischen Verzeichnungstechnik. Die Monographie zu den technischen Medien der Kaufleute ist leider noch ungeschrieben oder dem hier ins Spiel geratenen Zettelkasten bislang zumindest unbekannt. Darüber hinaus wäre der Versuch unternommen worden, die isomorphe Logik der Repräsentation von Zetteln und Banknoten sowie ihren Zusammenfall in den Zettel/Daten/Banken zu schildern. So muß die Episode über die Zirkulation von Geld und Ideen ihrerseits auf eine Fußnote zur Bank of England beschränkt bleiben und auf diese Anmerkung.
  9. Exploring artificial intelligence in the new millennium (2003) 0.00
    4.9919623E-4 = product of:
      0.0029951772 = sum of:
        0.0029951772 = weight(_text_:information in 2099) [ClassicSimilarity], result of:
          0.0029951772 = score(doc=2099,freq=2.0), product of:
            0.0772133 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.043984205 = queryNorm
            0.03879095 = fieldWeight in 2099, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=2099)
      0.16666667 = coord(1/6)
    
    Footnote
    The book does achieve its aim of being a starting point for someone interested in the state of some areas of AI research at the beginning of the new millennium. The book's most irritating feature is the different writing styles of the authors. The book is organized as a collection of papers similar to a typical graduate survey course packet, and as a result the book does not possess a narrative flow. Also the book contains a number of other major weaknesses such as a lack of an introductory or concluding chapter. The book could greatly benefit from an introductory chapter that would introduce readers to the areas of AI, explain why such a book is needed, and explain why each author's research is important. The manner in which the book currently handles these issues is a preface that talks about some of the above issues in a superficial manner. Also such an introductory chapter could be used to expound an what level of AI mathematical and statistical knowledge is expected from readers in order to gain maximum benefit from this book. A concluding chapter would be useful to readers interested in the other areas of AI not covered by the book, as well as open issues common to all of the research presented. In addition, most of the contributors come exclusively from the computer science field, which heavily slants the work toward the computer science community. A great deal of the research presented is being used by a number of research communities outside of computer science, such as biotechnology and information technology. A wider audience for this book could have been achieved by including a more diverse range of authors showing the interdisciplinary nature of many of these fields. Also the book's editors state, "The reader is expected to have basic knowledge of AI at the level of an introductory course to the field" (p vii), which is not the case for this book. Readers need at least a strong familiarity with many of the core concepts within AI, because a number of the chapters are shallow and terse in their historical overviews. Overall, this book would be a useful tool for a professor putting together a survey course an AI research. Most importantly the book would be useful for eager graduate students in need of a starting point for their research for their thesis. This book is best suited as a reference guide to be used by individuals with a strong familiarity with AI."
  10. Jahns, Y.; Trummer, M.: Sacherschließung - Informationsdienstleistung nach Maß : Kann Heterogenität beherrscht werden? (2004) 0.00
    4.9919623E-4 = product of:
      0.0029951772 = sum of:
        0.0029951772 = weight(_text_:information in 2789) [ClassicSimilarity], result of:
          0.0029951772 = score(doc=2789,freq=2.0), product of:
            0.0772133 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.043984205 = queryNorm
            0.03879095 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
      0.16666667 = coord(1/6)
    
    Content
    "... unter diesem Motto hat die Deutsche Bücherei Leipzig am 23. März 2004 auf dem Leipziger Kongress für Bibliothek und Information eine Vortragsreihe initiiert. Vorgestellt wurden Projekte, die sich im Spannungsfeld von Standardisierung und Heterogenität der Sacherschließung bewegen. Die Benutzer unserer Bibliotheken und Informationseinrichtungen stehen heute einer Fülle von Informationen gegenüber, die sie aus zahlreichen Katalogen und Fachdatenbanken abfragen können. Diese Recherche kann schnell zeitraubend werden, wenn der Benutzer mit verschiedenen Suchbegriffen und -logiken arbeiten muss, um zur gewünschten Ressource zu gelangen. Ein Schlagwort A kann in jedem der durchsuchten Systeme eine andere Bedeutung annehmen. Homogenität erreicht man klassisch zunächst durch Normierung und Standardisierung. Für die zwei traditionellen Verfahren der inhaltlichen Erschließung - der klassifikatorischen und der verbalen - haben sich in Deutschland verschiedene Standards durchgesetzt. Klassifikatorische Erschließung wird mit ganz unterschiedlichen Systemen betrieben. Verbreitet sind etwa die Regensburger Verbundklassifikation (RVK) oder die Basisklassifikation (BK). Von Spezial- und Facheinrichtungen werden entsprechende Fachklassifikationen eingesetzt. Weltweit am häufigsten angewandt ist die Dewey Decimal Classification (DDC), die seit 2003 ins Deutsche übertragen wird. Im Bereich der verbalen Sacherschließung haben sich, vor allem bei den wissenschaftlichen Universalbibliotheken, die Regeln für den Schlagwortkatalog (RSWK) durchgesetzt, durch die zugleich die Schlagwortnormdatei (SWD) kooperativ aufgebaut wurde. Daneben erschließen wiederum viele Spezial- und Facheinrichtungen mit selbst entwickelten Fachthesauri.
  11. Gonzalez, L.: What is FRBR? (2005) 0.00
    4.9919623E-4 = product of:
      0.0029951772 = sum of:
        0.0029951772 = weight(_text_:information in 3401) [ClassicSimilarity], result of:
          0.0029951772 = score(doc=3401,freq=2.0), product of:
            0.0772133 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.043984205 = queryNorm
            0.03879095 = fieldWeight in 3401, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=3401)
      0.16666667 = coord(1/6)
    
    Content
    National FRBR experiments The larger the bibliographic database, the greater the effect of "FRBR-like" design in reducing the appearance of duplicate records. LC, RLG, and OCLC, all influenced by FRBR, are experimenting with the redesign of their databases. LC's Network Development and MARC Standards Office has posted at its web site the results of some of its investigations into FRBR and MARC, including possible display options for bibliographic information. The design of RLG's public catalog, RedLightGreen, has been described as "FRBR-ish" by Merrilee Proffitt, RLG's program officer. If you try a search for a prolific author or much-published title in RedLightGreen, you'll probably find that the display of search results is much different than what you would expect. OCLC Research has developed a prototype "frbrized" database for fiction, OCLC FictionFinder. Try a title search for a classic title like Romeo and Juliet and observe that OCLC includes, in the initial display of results (described as "works"), a graphic indicator (stars, ranging from one to five). These show in rough terms how many libraries own the work-Romeo and Juliet clearly gets a five. Indicators like this are something resource sharing staff can consider an "ILL quality rating." If you're intrigued by FRBR's possibilities and what they could mean to resource sharing workflow, start talking. Now is the time to connect with colleagues, your local and/or consortial system vendor, RLG, OCLC, and your professional organizations. Have input into how systems develop in the FRBR world."
  12. Schult, T.J.: Lernen vom Schinken in Scheiben : Was taugen die aktuellen Enzyklopädien auf CD-ROM und DVD? Ein Test (2004) 0.00
    4.9919623E-4 = product of:
      0.0029951772 = sum of:
        0.0029951772 = weight(_text_:information in 799) [ClassicSimilarity], result of:
          0.0029951772 = score(doc=799,freq=2.0), product of:
            0.0772133 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.043984205 = queryNorm
            0.03879095 = fieldWeight in 799, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=799)
      0.16666667 = coord(1/6)
    
    Content
    "Gute Multimedia-Enzyklopädien versammeln den Inhalt von 15 bis 20 dicken Wälzern auf CD-ROM oder DVD. Die zumeist deutlich billigeren Enzyklopädien für den Computer ermöglichen eine vielfältige Vernetzung von Information: Gliederungen, Begriffserklärungen, thematisch verwandte Artikel, Landkarten und Zeitleisten sind nur einen Mausklick entfernt. Auch Multimedia-Beigaben öffnen sich im Nu: Grafiken, Tabellen, Fotos, Animationen, Film- und Tondokumente illustrieren die Artikel. Der »gläserne Mensch« von Brockhaus entledigt sich auf Kommando der Haut, Muskeln, Gefäße oder Organe. Die Suche nach Artikeln beginnt, wenn man den Begriff auf dem Bildschirm ins Eingabefeld tippt. In einer guten elektronischen Enzyklopädie startet dann ein zweistufiger Prozess aus Stichwort- und Volltextsuche, der mit der Ausgabe einer Trefferliste endet. Oben in der Liste sind Artikel genannt, die den Suchbegriff im Titel haben (also etwa »Wittgenstein, Ludwig« bei Eingabe von »Wittgenstein«), darunter die Artikel, die den Suchbegriff irgendwo außerhalb des Titels enthalten (in diesem Fall etwa »Analytische Philosophie«). Wer mehrere Begriffe eintippt, kann sie unterschiedlich verknüpfen. Reicht es, wenn die Artikel einen der Suchbegriffe enthalten? Sollen alle drin sein? Gar alle direkt hintereinander (Wortfolgensuche)? Wer seiner Enzyklopädie durch Kommentare, Lesezeichen, Web-Links oder eigene Artikel eine persönliche Note geben möchte, kann dies am Computer beliebig oft tun, ohne das Missfallen von Mitlesern zu erregen. Steht etwa ein Referat an, mutieren bessere Werke zudem zum Recherche-Assistenten, der das Sammeln, Sortieren und Nutzen von Textstellen durch eine Art virtuellen Karteikasten plus Textverarbeitung unterstützt.
  13. Nübel, R.: ¬Der Spatz als Lernhilfe (2011) 0.00
    4.9919623E-4 = product of:
      0.0029951772 = sum of:
        0.0029951772 = weight(_text_:information in 4436) [ClassicSimilarity], result of:
          0.0029951772 = score(doc=4436,freq=2.0), product of:
            0.0772133 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.043984205 = queryNorm
            0.03879095 = fieldWeight in 4436, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=4436)
      0.16666667 = coord(1/6)
    
    Theme
    Information
  14. Tetens, H.: ¬Der neuronal gläserne Mensch : Hochkomplexes und hypersensitives System: Im Gehirn selbst könnten die Befürworter der Willensfreiheit einen unerwarteten Verbündeten finden (2004) 0.00
    4.9919623E-4 = product of:
      0.0029951772 = sum of:
        0.0029951772 = weight(_text_:information in 36) [ClassicSimilarity], result of:
          0.0029951772 = score(doc=36,freq=2.0), product of:
            0.0772133 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.043984205 = queryNorm
            0.03879095 = fieldWeight in 36, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=36)
      0.16666667 = coord(1/6)
    
    Theme
    Information
  15. Andelfinger, U.: Zur Aktualität des kritischen Diskurses über Wissens- und Informationssysteme : Versuch einer Bestandsaufnahme zum 50. Ernst-Schröder-Kolloquium im Mai 2006 (2006) 0.00
    4.9919623E-4 = product of:
      0.0029951772 = sum of:
        0.0029951772 = weight(_text_:information in 353) [ClassicSimilarity], result of:
          0.0029951772 = score(doc=353,freq=2.0), product of:
            0.0772133 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.043984205 = queryNorm
            0.03879095 = fieldWeight in 353, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=353)
      0.16666667 = coord(1/6)
    
    Content
    - Zunehmende Verfügbarkeit von Breitband-Internetzugängen auch in privaten Haushalten als infrastrukturelle Voraussetzung - Zunehmend einheitliche Nutzung des Browsers als universeller Einstiegspunkt in vielfältige Wissens- und Informationssysteme - Fortschritte in der softwareergonomischen Gestaltung von Benutzungsoberflächen und Dominanz graphischer Benutzungsoberflächen Diese Entwicklungen haben sich beispielsweise auch viele Menschenrechts- und Umweltschutzinitiativen positiv zu Nutze gemacht: Mit weit weniger materiellem Aufwand als früher kann eine ungleich größere globale Öffentlichkeit z.B. für politische Gefangene, für Demokratisierungsbewegungen und für Umweltskandale geschaffen werden. Gerade das Verschwinden der anfänglich oft noch klar erkennbaren eingesetzten grundlegenden Methoden, Verfahren und Programme der Wissens- und Informationsverarbeitung hinter einer oft vorrangig auf graphische Effekte abstellenden Oberfläche ist jedoch ein Phänomen, das nur umso deutlicher die Aktualität der kritischen Diskurse des Ernst-Schröder-Zentrums hervortreten läßt. Der durch den Schein einer intuitiv attraktiv wirkenden Benutzungsoberfläche hervorgerufene Eindruck einer ebensolchen Einfachheit' der dahinter liegenden Datenverarbeitungsprozesse trügt zunehmend. Dies hat sicher aus Sicht des barrierefreien Zugangs zunächst Vorteile. Allerdings kann dies auch rasch zu einem (oft nicht einmal unmittelbar wahrnehmbaren) Abbau kognitiver Autonomie führen: Wer weiß beispielsweise angesichts der Komplexität heutiger internetbasierter e-Business Systeme noch im Sinne des Grundrechts der Informationellen Selbstbestimmung, wer welche Daten über ihn hat? Außerdem verschwimmen dabei zunehmend verschiedene Weltsichten. Zunehmend wird beispielsweise für wahr und für Welt' gehalten, was zu einem gewissen Sachverhalt über Suchmaschinen wie Google und Nachschlagewerke wie Wikipedia in Erfahrung zu bringen ist, statt sich selbst diskursiv über Welt zu verständigen: Wem ist beispielsweise die Vergabe der Ranking-Plätze bei den Suchmaschinen im täglichen Umgang mit Google etc. wirklich jedes Mal präsent, wenn er die Suchfunktionalitäten nutzt? Wer kann begründen im Sinne anspruchsvollen Wissens, wie die Rangfolge zustande kommt? Wer entscheidet wie, welche Inhalte in Wikipedia dargestellt werden und wer ist redaktionell für die Qualität verantwortlich? Es wird also immer schwieriger, unter der Bedingung zunehmend medial vermittelter Realitäten jeweils diskursiv - im Sinne anspruchsvollen Wissens - begründen zu wollen oder zu können, wie man zu dieser oder jener Information und Überzeugung gelangt ist. Stattdessen ist nach jahrelanger Aufklärungsarbeit über die gesellschaftlichen Bedingungen und Wirkungen von Wissens- und Informationssystemen derzeit eher eine Art gesellschaftlicher Wiederverzauberung dieser Systeme zu beobachten, die in der Gefahr steht, der suggestiv-ästhetischen Wirkung graphischer Benutzungsoberflächen zu erliegen und die durch sie vermittelten Weltsichten für Welt' selbst zu halten. Verstärkt wird dieser Effekt durch die zunehmende gesellschaftliche Nutzung des Internets als zentrales Portal zum Erwerb und zur Verteilung von Wissen über 'Welt', das deren Wiederverzauberung noch sehr viel versteckter und subtiler werden und zugleich effektiver wirken läßt:

Authors

Languages

Types

Themes

Subjects

Classifications