Search (12 results, page 1 of 1)

  • × theme_ss:"Hypertext"
  • × year_i:[2000 TO 2010}
  1. Tredinnick, L.: Post-structuralism, hypertext, and the World Wide Web (2007) 0.02
    0.015043489 = product of:
      0.045130465 = sum of:
        0.045130465 = weight(_text_:management in 650) [ClassicSimilarity], result of:
          0.045130465 = score(doc=650,freq=2.0), product of:
            0.17312427 = queryWeight, product of:
              3.3706124 = idf(docFreq=4130, maxDocs=44218)
              0.051362853 = queryNorm
            0.2606825 = fieldWeight in 650, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3706124 = idf(docFreq=4130, maxDocs=44218)
              0.0546875 = fieldNorm(doc=650)
      0.33333334 = coord(1/3)
    
    Abstract
    Purpose - The purpose of this paper is to explore the application of post-structuralist theory to understanding hypertext and the World Wide Web, and the challenge posed by digital information technology to the practices of the information profession. Design/methodology/approach - The method adopted is that of a critical study. Findings - The paper argues for the importance of post-structuralism for an understanding of the implications of digital information for the information management profession. Originality/value - Focuses on an epistemological gap between the traditional practices of the information profession, and the structure of the World Wide Web.
  2. Groenbaek, K.; Oerbaek, P.; Kristensen, J.F.; Eriksen, M.A.: Physical hypermedia : augmenting physical material with hypermedia structures (2003) 0.01
    0.007960987 = product of:
      0.02388296 = sum of:
        0.02388296 = product of:
          0.04776592 = sum of:
            0.04776592 = weight(_text_:system in 5932) [ClassicSimilarity], result of:
              0.04776592 = score(doc=5932,freq=4.0), product of:
                0.16177002 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.051362853 = queryNorm
                0.29527056 = fieldWeight in 5932, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5932)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    This paper introduces the notion of physical hypermedia, addressing the problem of organizing material in mixed digital and physical environments. Based on empirical studies, we propose concepts for collectional actions and meta-data actions, and present prototypes combining principles from augmented reality and hypermedia to support organization of mixtures of digital and physical materials. Our prototype of a physical hypermedia system is running on an augmented architect's desk and digital walls utilizing Radio Frequency Identifier (RFID) tags as well as visual tags tracked by cameras. It allows users to tag physical materials, and have these tracked by readers (antennas) that may become pervasive in our work environments. In the physical hypermedia system, we work with three categories of RFID tags: simple object tags, collectional tags, and tooltags invoking operations such as grouping and linking of physical material. In addition, we utilize visual ARToolKit tags for linking and navigating 3D models on a physical desk. Our primary application domain is architecture and design, and so we discuss the use of augmented collectional artifacts primarily for this domain.
  3. Güven, S.; Feiner, S.: ¬A hypermedia authoring tool for augmented and virtual reality (2003) 0.01
    0.007960987 = product of:
      0.02388296 = sum of:
        0.02388296 = product of:
          0.04776592 = sum of:
            0.04776592 = weight(_text_:system in 5935) [ClassicSimilarity], result of:
              0.04776592 = score(doc=5935,freq=4.0), product of:
                0.16177002 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.051362853 = queryNorm
                0.29527056 = fieldWeight in 5935, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5935)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Most existing hypermedia authoring systems are intended for use on desktop computers. These systems are typically designed for the creation of 2D documents and therefore employ 2D authoring mechanisms. In contrast, authoring systems for nontraditional multimedia/hypermedia experiences for 3D virtual or augmented worlds focus mainly on creating separate media objects and embedding them within the user's surroundings. As a result, linking these media objects to create 3D hypermedia is a tedious manual task. To address this issue, we present an authoring tool for creating and editing linked 3D hypermedia narratives that are interwoven with a wearable computer user's surrounding environment. Our system is designed for use by authors who are not programmers, and allows them to preview their results on a desktop workstation, as well as with an augmented or virtual reality system.
  4. Kuhlen, R.; Bekavac, B.; Griesbaum, J.; Schütz, T.; Semar, W.: ENFORUM, ein Instrument des Wissensmanagements in Forschung und Ausbildung im Informationswesen (2002) 0.01
    0.0065674796 = product of:
      0.019702438 = sum of:
        0.019702438 = product of:
          0.039404877 = sum of:
            0.039404877 = weight(_text_:system in 928) [ClassicSimilarity], result of:
              0.039404877 = score(doc=928,freq=2.0), product of:
                0.16177002 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.051362853 = queryNorm
                0.2435858 = fieldWeight in 928, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=928)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Konzeption von ENFORUM beruht auf einer verteilten Organisation der informationswissenschaftlichen Kompetenzzentren im deutschsprachigen Bereich und der kooperativen Erarbeitung von ENFORUM-Einträgen über elektronische Kommunikationsforen. ENFORUM wird zum einen in den wissenschaftlichen Kontext elektronischer Wörterbücher und Enzyklopädien eingeordnet, zum anderen werden Vor- und Nachteile asynchroner elektronischer Kommunikation diskutiert, mit dem Ergebnis, dass die Kompensationsleistung von Moderatoren in Kommunikationsforen für den Erfolg der Diskurse unabdingbar ist. Der aktuelle Stand von ENFORUM (März 2002) wird vorgestellt. ENFORUM ist ein voll operatives System mit adaptiver Benutzerverwaltung, flexiblen Such- und Navigationsformen und ersten Funktionen in Richtung Wissensplattform. Überlegungen zur funktionalen Weiterentwicklung von ENFORUM und zum Einsatz in der Ausbildung schließen den Artikel ab.
  5. Henze, N.; Nejdl, W.: ¬A logical characterization of adaptive educational hypermedia (2004) 0.01
    0.0065674796 = product of:
      0.019702438 = sum of:
        0.019702438 = product of:
          0.039404877 = sum of:
            0.039404877 = weight(_text_:system in 5711) [ClassicSimilarity], result of:
              0.039404877 = score(doc=5711,freq=2.0), product of:
                0.16177002 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.051362853 = queryNorm
                0.2435858 = fieldWeight in 5711, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5711)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Currently, adaptive educational hypermedia systems (AEHSs) are described using nonuniform methods, depending on the specific view of the system, the application, or other parameters. There is no common language for expressing the functionality of AEHSs, hence these systems are difficult to compare and analyze. In this paper we investigate how a logical description can be employed to characterize adaptive educational hypermedia. We propose a definition of AEHSs based on first-order logic, characterize some AEHSs resulting from this formalism, and discuss the applicability of this approach.
  6. Jünger, G.: ¬Ein neues Universum (2003) 0.01
    0.0065001193 = product of:
      0.019500358 = sum of:
        0.019500358 = product of:
          0.039000716 = sum of:
            0.039000716 = weight(_text_:system in 1553) [ClassicSimilarity], result of:
              0.039000716 = score(doc=1553,freq=24.0), product of:
                0.16177002 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.051362853 = queryNorm
                0.24108742 = fieldWeight in 1553, product of:
                  4.8989797 = tf(freq=24.0), with freq of:
                    24.0 = termFreq=24.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1553)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Autorenrechte statt Geschäften der Medienkonzerne: Das Wolrd Wide Web von heute bleibt weit hinter den Möglichkeiten zurück, die das System 'Xanadu' schon vor 40 Jahren entworfen hatte
    Content
    Eine stetige Erfahrung der Techniksoziologie und -geschichte besagt, dass sich wirklich neue Konzepte, die ihrer Zeit vorauseilen, am Ende nicht durchsetzen können. Erfolg haben stattdessen mittelmäßige Nachbildungen der ersten Idee, die dann, um periphere Funktionen und Dekorationen erweitert, als große Innovationen auftreten. Beispiele für zweitbeste Lösungen, von denen jeder weiß, dass sie nur Krücken sind, liefert gerade die Informatik in großer Zahl. Das Gespann der Programmiersprachen Smalltalk und C++ gehört dazu, aber auch das World Wide Web, das wir heute kennen, bleibt weit hinter Konzepten eines universalen, globalen Informationssystems zurück, die lange vor der Definition des Hypertext-Protokolls durch Tim Berners-Lee entwickelt worden sind. Die Frage nach der technischen Vorgeschichte und ihren verpassten Chancen ist keineswegs nur von akademischem Interesse. Das "Xanadu" genannte System, das zum ersten Mal das weltweit vorhandene Wissen in digitaler Form radikal demokratisieren wollte, kann sehr gut als Folie dienen für die Diskussion über die zukünftige Entwicklung des WWW. Zweifellos ist der Wunsch, möglichst viel Wissen anzuhäufen, uralt. Er hat die Errichter der Bibliothek von Alexandria angetrieben, die kopierenden und kommentierenden Mönche des Mittelalters oder die Enzyklopädisten des 18. Jahrhunderts in Frankreich. Spätestens seit dem 20. Jahrhundert war die pure Menge des nun Wissbaren so nicht mehr zu bewältigen. Über die materielle Ablage der Dokumente hinaus mussten neue Organisationsprinzipien gefunden werden, um den Berg zu erschließen und seine Bestandteile untereinander in nutzbarer Weise zu verbinden. Nur dann konnte eine Wissenschaftlerin oder ein Wissenschaftler jetzt noch in vertretbarer Zeit zum aktuellen Wissensstand auf einem Gebiet aufschließen. Im Epochenjahr 1945 entwarf Vannevar Bush, ein wissenschaftlicher Berater von Roosevelt während des Zweiten Weltkriegs, eine erste Antwort auf die Frage nach einem solchen Organisationsprinzip. Er nannte sein System "Memex" (Memory Extender), also "Gedächtniserweiterer". Wissen sollte in der Form von Mikrofilmen archiviert und die dabei erzeugten Einzelbestandteile sollten so mit einander verknüpft werden, dass das sofortige Aufsuchen von Verweisen möglich würde. Technisch misslang das System, mit Hilfe von Mikrofilmen ließ es sich wohl kaum realisieren. Aber der Gedanke war formuliert, dass große Wissensbestände nicht unbedingt in separaten Dokumenten und überwiegend linear (Seite 2 folgt auf Seite 1) angeordnet zu werden brauchten. Sie können durch interne Verknüpfungen zwischen Einzelseiten zu etwas Neuem zusammengefügt werden. Der Flugzeugingenieur Douglas Engelbart las schon in den Vierzigerjahren von Bushs Idee. Ihm gebührt das Verdienst, sie auf die neue Technik der digitalen Computer übertragen zu haben. Eine Sitzung der "Fall Joint Computer Conference" im Jahr 1968 demonstrierte seine "NLS" (oN Line System) genannte Verwirklichung des Memex-Konzepts in der Praxis und war für viele Teilnehmer die Initialzündung zu eigenen Versuchen auf diesem Gebiet. NLS war ein riesiges Journal von einzelnen Memos und Berichten eines Vorgängerprojekts, das es den beteiligten Wissenschaftlern erlaubte, über adressierte Verweise unmittelbar zu einem benachbarten Dokument zu springen - ein Netz aus Knoten und `Kanten, dem nur noch ein geeigneter Name für seine neue Eigenschaft fehlte:
    - Hypertext - Nicht nur den Namen "Hypertext" für ein solches Netz, sondern auch entscheidende Impulse zu einer konkreten Ausgestaltung eines durch Links verknüpften Netzes steuerte ab 1965 Ted Nelson bei. Sein mit dem Namen "Xanadu" verbundenes Wissenschaftsnetz gibt noch heute die Messlatte ab, an der sich das WWW behaupten muss. Nelson versuchte, sein Konzept auch kommerziell zum Erfolg zu bringen. Zeitweise konnte er auf ein starkes finanzielles Engagement der CAD-Firma Autodesk rechnen, die sich jedoch nach ausbleibenden Erfolgen aus diesem Engagement zurückzog. Heute ist der Quellcode der Software frei zugänglich, und die Website xanadu.net informiert über die Aktivitäten der kleinen Xanadu-Gemeinde von heute. Nelson selbst stellt sein Projekt als ein geschlossenes System von Dokumenten dar, dessen Zugang man ähnlich erwirbt wie den zu einem Provider oder zum Zahlfernsehen. Dokumente werden in diesem aus vernetzten Computern bestehenden System binär gespeichert, unabhängig davon, ob im einzelnen Dokument Bilder, Müsik, Text oder sonst etwas vorliegen. Sie zerfallen in winzige, aber identifizierbare Bestandteile, so dass jeder Dokumententeil mit einer eindeutigen ID versehen ist und einem bestimmten Autor zugeordnet werden kann. Liest ein Leser ein Dokumententeil in Xanadu, wird dadurch automatisch eine Gutschrift für das Konto des Urhebers des Dokuments erzeugt. Wie im existierenden Web sind einzelne Wörter, Bilder oder andere Medieninhalte Anker zu Verweisen auf andere Dokumentenbestandteile, die sich per Mausklick aufrufen lassen. Im Unterschied zum Web aber führt der Weg nicht nur in eine Richtung. Stichwort A verweist nicht nur auf X, sondern X macht auch alle Dokumente kenntlich, von denen aus auf X gezeigt wird. Es ist also jederzeit nachvollziehbar, wo überall von einem Dokument Gebrauch gemacht wird. Dadurch lässt sich überprüfen, ob ein als Beleg verwendeter Verweis zu Recht oder zu Unrecht angegeben wird.
    - Gutschriften für Autoren - Es geht aber noch weiter: Prinzipiell wird allen Xanadu-Teilnehmern garantiert, vorhandene Dokumentebestandteile durch so genannte Transclusions zitieren zu können. Ein Rechtemanagement für Lesezugriffe ist ja bereits integriert. Es ist also jederzeit möglich, dass jemand für ein Thema, das interessant erscheint, eine neue Anthologie erzeugt, ohne dass vorher Genehmigungen eingeholt werden müssen. Und anders als das WWW ist Xanadu ein Instrument für Autoren: An jede vorhandenen Seite können Kommentare angefügt werden. Um den Überblick zu behalten, werden sie anders dargestellt als ein Quellennachweis ("getypte Links"). Änderungen, die an einem Knoten vorgenommen werden, indem etwa ein Kommentar hinzukommt, können anderen Lesern vom System angezeigt werden, so dass man auf diese Weise lebendige Debatten und permanente Onlinekonferenzen führen kann. Ohne dass Administratoren regelnd eingreifen müssen, spiegelt das Xanadu-Netz damit die Interdependenz der realen Welt wider. Im Zeitalter der Fachidioten wird Wissen in einer Form repräsentiert, die die Verflechtung der Dinge untereinander hervorhebt und Kontroversen sichtbar macht. Das System schreibt dabei seine Geschichte selbst, da eine Versionskontrolle, verbunden mit direktem Dokumentenvergleich, die unterschiedlichen redaktionellen Bearbeitungsstufen eines Dokumentknotens nachvollziehbar macht.
    - Forschungsdebatten - Die Vorteile dieses Systems vor dem Web liegen auf der Hand: Alle Urheberrechte sind grundsätzlich und zugunsten der tatsächlichen Autoren geregelt, auch im Falle der Belletristik, die in der Regel nur konsumiert wird. Darüber hinaus profitierte die wissenschaftliche Arbeit von der Möglichkeit, Texte zu kommentieren oder vorhandene Argumentationen zitierend in die eigene Darstellung aufzunehmen. Forschungsdebatten sind jederzeit an jeder Stelle möglich - und zugänglich werden sie durch die Funktion, Änderungsanzeigen für bestimmte Knoten abonnieren, zu können. Damit wird es einem Autor möglich, auf eine Entgegnung zügig zu antworten. So können nicht nur einzelne Knoten, sondern ganze Knotennetze bearbeitet werden. Man kann also eine vorhandene Darstellung zustimmend übernehmen, aber die zwei, drei Zusatzpunkte hinzufügen, in denen die eigene Meinung vom Knotenstandard abweicht. Schließlich schafft ein System wie Xanadu mit Versionskontrolle und garantiertem Speicherplatz ein Dauerproblem des vorhandenen Webs mit seinen toten Links aus der Welt und erzeugt mit dem eingebauten Dokumentenvergleich ein Maximum an Übersicht.
    - Technische Hürden - Bleibt die Frage, weshalb Xanadu mit seiner Vision, das Weltwissen one mouse-click away erreichbar zu machen - Nelson spricht gar von einem docuverse -, bislang so erfolglos blieb. Ernst zu nehmen sind zunächst die technischen Anforderungen, die Xanadu stellt. Sie beginnen bei einer Editorensoftware, die die Autorenkennungen- vorhandener und zitierter Dokumentknoten bewahrt. Dass diese Software am Ende weniger techniklastig ist als die heutigen HTML-Editoren, wie Nelson annimmt, darf bezweifelt werden. Hinzu kommen Anforderungen an Rechnersysteme und Verwaltungsaufgaben: Da Xanadu ein konsistentes Dokumentmanagement garantieren und Dokumente für den Notfall auch redundant auf mehreren Rechnern gleichzeitig vorhalten muss, wären die technischen und Managementherausforderungen für ein aus zig Milliarden Dokumenten bestehendes System beachtlich. Andere Gründe sind prinzipieller Art: Die Bereitschaft, für Inhalte auch nur mit kleinen Beiträgen zu zahlen, ist bei den meisten. Internetnutzern als recht gering anzusetzen. Anders ließe sich das Scheitern vieler Anbieter für Bezahlinhalte im bestehenden Web kaum interpretieren. Möglicherweise gibt es auch einen latenten Widerwillen, einer zentralen und weltweit auftretenden Organisation- und trete sie mit noch so ehrenhaften Zielen an - die Aufgabe anzuvertrauen, das Weltwissen abzulegen. Hier hat offenbar - Ironie der Geschichte - das Computernetz des Militärs die Nase vorn, das aus Gründen eines auch in der Katastrophe funktionierenden Systems auf stets austauschbare Rechner setzt und das Chaos ins Kalkül aufgenommen hat. Es ist daher absehbar, dass sich Xanadu in der skizzierten Form nicht mehr durchsetzen wird. Damit ist wahrscheinlich auch eine Chance für eine neue Internetarchitektur vertan. Was als Wunsch aber für die Weiterentwicklung des bestehenden Webs nicht laut genug vorgebracht werden kann, ist, dass die Visionen und konkreten Möglichkeiten von Xanadu stärker berücksichtigt werden sollten. Vielleicht sind die Aversionen gegen zentral geregelte Systeme aber immerhin dazu gut, dass das ".Net"; das Lieblingsprojekt des Softwaregiganten Microsoft, zu einem offenen System umgewandelt wird.
  7. Yang, C.C.; Liu, N.: Web site topic-hierarchy generation based on link structure (2009) 0.01
    0.0057991315 = product of:
      0.017397394 = sum of:
        0.017397394 = product of:
          0.03479479 = sum of:
            0.03479479 = weight(_text_:22 in 2738) [ClassicSimilarity], result of:
              0.03479479 = score(doc=2738,freq=2.0), product of:
                0.17986396 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051362853 = queryNorm
                0.19345059 = fieldWeight in 2738, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2738)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 3.2009 12:51:47
  8. Ihadjadene, M.; Bouché, R.; Zâafrani, R.: ¬The dynamic nature of searching and browsing on Web-OPACs : the CATHIE experience (2000) 0.00
    0.004691057 = product of:
      0.01407317 = sum of:
        0.01407317 = product of:
          0.02814634 = sum of:
            0.02814634 = weight(_text_:system in 118) [ClassicSimilarity], result of:
              0.02814634 = score(doc=118,freq=2.0), product of:
                0.16177002 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.051362853 = queryNorm
                0.17398985 = fieldWeight in 118, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=118)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    The paradigm shift from the old system centered view to a user centered approach involves new tools needed for accessing library resources under the condition that the user's needs are taken into account. An end-user, who has only a little knowledge of classification systems or thesauri, understands little of the mode of the representation of contents and the use of authority lists. In addition, he will have difficulty in formulating his question in a precise manner. He needs to know better what the library proposes in order to define of what use it would be for him. Many studies have been carried out on the use of controlled vocabularies (classification, authority lists, thesauri) as searching devices. It is surprising to find that relatively little attention has been given to the role of these tools in filtering and browsing processes. We have developed a prototype named CATHIE (CATalog Hypertextuel Interactif et Enrichi) that supports such filtering and interactive reformulation features
  9. Maislin, S.: Ripping out the pages (2000) 0.00
    0.004691057 = product of:
      0.01407317 = sum of:
        0.01407317 = product of:
          0.02814634 = sum of:
            0.02814634 = weight(_text_:system in 220) [ClassicSimilarity], result of:
              0.02814634 = score(doc=220,freq=2.0), product of:
                0.16177002 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.051362853 = queryNorm
                0.17398985 = fieldWeight in 220, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=220)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    When the Web was invented, it was touted as a novel nonlinear medium for the written word. No longer would we be constrained by linear presentations! Hyperlinks would allow us to jump haphazardly from page to page, chapter to chapter, idea to idea! Texts would no longer need to run from beginning to end! This is misleading. A printed book is also multidimensional and potentially nonlinear. We can open it to any page, from any other page, for any reason. We can open several books at once. In fact, what makes a book special is its combination of linear structure (the order of the words) and nonlinear physicality (the bound papers). This linear/nonlinear duality is enhanced further by the index, which maps linearly sequenced pages in a nonlinear, informationally ordered structure (architecture). In truth, the online environment is crippled by an absence of linear structure. Imagine selecting a hard cover book, tearing off the covers, ripping pages into small pieces, and throwing them in a box. That box is like a computer file system, and the paper scraps are Web documents. Only one scrap can be retrieved from the box at a time, and it must be replaced before another can be accessed. Page numbers are meaningless. Global context is destroyed. And without page numbers or context, what happens to the index?
  10. E-Text : Strategien und Kompetenzen. Elektronische Kommunikation in Wissenschaft, Bildung und Beruf (2001) 0.00
    0.004639305 = product of:
      0.013917915 = sum of:
        0.013917915 = product of:
          0.02783583 = sum of:
            0.02783583 = weight(_text_:22 in 622) [ClassicSimilarity], result of:
              0.02783583 = score(doc=622,freq=2.0), product of:
                0.17986396 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051362853 = queryNorm
                0.15476047 = fieldWeight in 622, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=622)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    12. 8.2012 18:05:22
  11. Meier, P.: Visualisierung von Kommunikationsstrukturen für kollaboratives Wissensmanagement in der Lehre (2006) 0.00
    0.0037528453 = product of:
      0.011258536 = sum of:
        0.011258536 = product of:
          0.022517072 = sum of:
            0.022517072 = weight(_text_:system in 3402) [ClassicSimilarity], result of:
              0.022517072 = score(doc=3402,freq=2.0), product of:
                0.16177002 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.051362853 = queryNorm
                0.13919188 = fieldWeight in 3402, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3402)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Imprint
    Konstanz : Konstanzer Online-Publikations-System (KOPS)
  12. Krajewski, M.: Zettelwirtschaft : Die Geburt der Kartei aus dem Geiste der Bibliothek (2002) 0.00
    0.0028438023 = product of:
      0.0085314065 = sum of:
        0.0085314065 = product of:
          0.017062813 = sum of:
            0.017062813 = weight(_text_:system in 621) [ClassicSimilarity], result of:
              0.017062813 = score(doc=621,freq=6.0), product of:
                0.16177002 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.051362853 = queryNorm
                0.105475746 = fieldWeight in 621, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.013671875 = fieldNorm(doc=621)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    Dieses Diktum markiert den vorläufigen Endpunkt einer Entwicklung, an deren Gipfel für kurze Zeit (von ca. 1920 bis in die 60er Jahre; »Einen Staat lang«) die bürokratische Papiermaschine namens Kartei residiert. Ihren weiten Herrschaftskreis dokumentieren die zahlreichen, neu entstandenen Zeitschriften für Bürobedarf und -organisation. Die vorliegende Studie will versuchen nachzuzeichnen, wie sich die Kartei auf jedem Schreibtisch um 1930 zu etablieren, wie sie ins Zentrum der organisatorischen Aufmerksamkeit zu rücken versteht. Zwar nimmt sich die Kartei rein äußerlich eher unscheinbar aus neben der filigranen Imposanz einer Schreibmaschine, jedoch behauptet sie ebenso beharrlich ihren Platz durch das mitgegebene Versprechen der Universalität. Auf welchen Errungenschaften gründet sich dieser Anspruch? Vor welcher Schablone vermag sich die Papiermaschine abzuheben? Aus welchen Wurzeln entwickelt sich dieses System der Verzeichnung? Die Behauptung einer universalen Papiermaschine und eine erste Suche nach ihrem Grund und Ursprung legt den Verdacht nahe, daß diese papierene Anordnung Vorbild und Vorgänger in einem ebenfalls aus Kasten und Zetteln bestehenden Dispositiv findet, die hinlänglich vertraute, heute bald schon verschwundene Suchmaschine einer Bibliothek namens Zettelkatalog. Die Genealogie der Kartei als eine Speichertechnologie gehorcht, so die Grundthese, einer vielfachen Übertragung. Als chronologisch erste und weitreichendste Instanz ereignet sich ein Technologie-Transfer zwischen zwei Diskursen. Der erste von beiden formiert folgerichtig die Bibliothek, wenngleich die diskursive Praxis der Verzeichnung ihre Katalogisierungstechnik zumeist nur verschwiegen und randständig behandelt. Der zweite Diskurs folgt einer Tendenz, die unter Begriffen wie Effizienz, Rationalisierung oder Psychotechnik die Abläufe und Verwaltungsmaßnahmen der Büroarbeit organisiert. Die allgegenwärtige Präsenz der Kartei auf den Schreibtischen der Zwischenkriegszeit verdankt sich der seltenen Übertragung einer Wissenstechnologie zwischen zwei Institutionen, deren Wechselwirkung üblicherweise in umgekehrter, archivalischer Richtung erfolgt, sich hier jedoch aus der Bibliothek in das Büro vollzieht. Wenn von Transfers die Rede ist, reicht es kaum aus, Anfangs- und Endpunkt, Sender und Empfänger zu markieren. Statt dessen muß gekennzeichnet werden, wie dieser Transfer inklusive all seiner Störungen, Wandlungen, Stockungen, Irritationen und Umlenkungen überträgt. Und für einmal muß noch das beschrieben werden, was übertragen wird. Denn weitergereicht wird eine Verfahrensweise, die ihrerseits darauf abzielt, den Grundoperationen einer Universalen Diskreten Maschine zu genügen: Daten zu speichern, zu prozessieren und (selbst) zu übertragen. Das von üblichen Datenspeichern wie etwa dem Buch abweichende Verfahren setzt dabei auf ein ebenso einfaches wie naheliegendes Prinzip: Die Informationen stehen auf gesonderten, gleichgerichteten und frei beweglichen Trägern bereit, um nachstrengen Ordnungsschemata arrangiert weiter verarbeitet und abgerufen zu werden. Die Übertragung beginnt mit einer Urszene, wenngleich sich das Feld ihrer Reichweite zunächst nur auf den bibliothekarischen und den damit zumeist eng verbundenen gelehrten Diskurs beschränkt. Dem Polyhistor Konrad Gessner fällt es zu, am Anfang dieser einen Geschichte der Kartei zu stehen. Sicherlich ist er kaum der Erfinder einer Technik, auf Papier verteilte Informationen zu zerschneiden und so einfacher arrangieren zu können. Jedoch liegt mit dem von ihm 1548 vielleicht erstmals explizit beschriebenen Verfahren die früheste bisher bekannte Überlieferung vor, wie auf komfortable Weise alphabetisch geordnete, umfangreiche Listen herzustellen sind. Das erste Kapitel widmet sich demnach einer detaillierten Beschreibung der Gessnerschen Verzettelung, um im Anschluß daran die Tradierung dieser vorbildlichen Empfehlung in der Frühen Neuzeit und dem Barock besonders bei der Kunst des Exzerpierens in Umrissen zu verfolgen.
    Der erste Hauptteil 'Um 1800' versucht daraufhin, mit einem Bruch in der Anwendungsweise des Gessnerschen Verfahrens dessen erste Diskontinuität nachzuweisen. Nicht zuletzt wegen dieses Einschnitts muß die Art der Verzeichnung bis dato das Attribut vorläufig tragen. Die Verzettelungstechnik gelangt von einem temporären Gebrauch zur dauerhaften Verwendung, was dadurch eine ebenso unbeabsichtigte wie folgenreiche Umstellung markiert. Gleichzeitig entsteht hiermit der bibliothekshistorisch erste Zettelkatalog, dessen unverhoffter Einsatz und Genese in Wien um 1780 eine detaillierte Beschreibung erfährt. Der Zettelkatalog besteht nicht nur als bibliothekarische Antwort auf einen drohenden information overflow, sondern vor allem dank seiner umsichtigen Logistik. Entscheidend dabei sind schriftlich fixierte, genaue Handlungsanweisungen, anhand derer auch unausgebildetes Personal in den arbeitsteiligen Prozeß eingebunden werden kann. Mit Hilfe eines kleinen Exkurses soll zuvor jedoch die Koinzidenz zweier Adressierungslogiken untersucht werden: In einem Jahrzehnt und derselben Stadt fällt die Entstehung des Zettelkatalogs zusammen mit der Erfindung der Hausnummer. Damit etabliert sich eine Möglichkeit zur abstrakteren Repräsentation und zu einem kontrollierenden Zugriff auf Schriften bzw. Hausbewohner. Das anschließende dritte Kapitel verbleibt in der Umbruchphase um 1800, indem es eine notwendige Differenz zieht zwischen der Bibliothekstechnologie von vielen Schreib- für viele Lese-Köpfe und einer eigenwilligen Anordnung von gelehrten Exzerptensammlungen. Die Unterscheidung trennt ein Server-Konzept von einer Workstation-Philosophie. Der erste Zettelkatalog ist nicht nur das Produkt eines kollektiven Arbeitsprozesses, sondern vor allem für eine vielköpfige Benutzung geeignet und konzipiert. Im Gegensatz zu diesem Multi-User-System verwehrt die idiosynkratische Maschine in Form eines Gelehrtenkastens gerade jede fremde Einsichtnahme. Sie besitzt keine Vermittlungsnotwendigkeit, so daß sich das interne System der Verzeichnung durchaus unverständlich für alle Einsichtnehmenden ausnehmen darf. Auch eine Form von Datenschutz, die anhand der eigentümlichen gelehrten Exzerpiertechniken in einer kleinen Genealogie von Johann Jacob Moser bis zu Jean Paul und anderen konturiert wird. Das vierte und letzte Kapitel des ersten Teils widmet sich einer ersten Übertragung alteuropäischer Bibliothekstechnik in die Neue Welt. Das Zettelkastenprinzip erreicht einerseits die amerikanische Ostküste durch Bibliothekare, die in Europa studieren, um die dort etablierte Praxis der Katalogisierung auf ihre im Laufe des 19. Jahrhunderts schnell anwachsenden Büchersammlungen anzuwenden. Andererseits jedoch besitzen die Vereinigten Staaten auch eine eigene, autochthone Genealogie der Verzettelung. 1817 gelingt William Croswell bei seinem unglücklichen Projekt, der Harvard College Library einen umfassenden Katalog zu verschaffen, die Geburt des amerikanischen Zettelkatalogs aus dem Geiste der Faulheit.