Search (24 results, page 1 of 2)

  • × theme_ss:"Hypertext"
  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Kuhlen, R.; Bekavac, B.; Griesbaum, J.; Schütz, T.; Semar, W.: ENFORUM, ein Instrument des Wissensmanagements in Forschung und Ausbildung im Informationswesen (2002) 0.04
    0.0382447 = product of:
      0.14341761 = sum of:
        0.031138714 = weight(_text_:und in 928) [ClassicSimilarity], result of:
          0.031138714 = score(doc=928,freq=16.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.4848303 = fieldWeight in 928, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=928)
        0.022266837 = product of:
          0.044533674 = sum of:
            0.044533674 = weight(_text_:bibliothekswesen in 928) [ClassicSimilarity], result of:
              0.044533674 = score(doc=928,freq=2.0), product of:
                0.12917466 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.028978055 = queryNorm
                0.34475547 = fieldWeight in 928, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=928)
          0.5 = coord(1/2)
        0.04547838 = weight(_text_:informationswissenschaft in 928) [ClassicSimilarity], result of:
          0.04547838 = score(doc=928,freq=2.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.348393 = fieldWeight in 928, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=928)
        0.044533674 = weight(_text_:bibliothekswesen in 928) [ClassicSimilarity], result of:
          0.044533674 = score(doc=928,freq=2.0), product of:
            0.12917466 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.028978055 = queryNorm
            0.34475547 = fieldWeight in 928, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0546875 = fieldNorm(doc=928)
      0.26666668 = coord(4/15)
    
    Abstract
    Die Konzeption von ENFORUM beruht auf einer verteilten Organisation der informationswissenschaftlichen Kompetenzzentren im deutschsprachigen Bereich und der kooperativen Erarbeitung von ENFORUM-Einträgen über elektronische Kommunikationsforen. ENFORUM wird zum einen in den wissenschaftlichen Kontext elektronischer Wörterbücher und Enzyklopädien eingeordnet, zum anderen werden Vor- und Nachteile asynchroner elektronischer Kommunikation diskutiert, mit dem Ergebnis, dass die Kompensationsleistung von Moderatoren in Kommunikationsforen für den Erfolg der Diskurse unabdingbar ist. Der aktuelle Stand von ENFORUM (März 2002) wird vorgestellt. ENFORUM ist ein voll operatives System mit adaptiver Benutzerverwaltung, flexiblen Such- und Navigationsformen und ersten Funktionen in Richtung Wissensplattform. Überlegungen zur funktionalen Weiterentwicklung von ENFORUM und zum Einsatz in der Ausbildung schließen den Artikel ab.
    Field
    Informationswissenschaft
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 49(2002) H.4, S.195-206
  2. Hammwöhner, R.: Hypertext (2004) 0.01
    0.009570951 = product of:
      0.04785475 = sum of:
        0.019893795 = weight(_text_:und in 2937) [ClassicSimilarity], result of:
          0.019893795 = score(doc=2937,freq=20.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.3097467 = fieldWeight in 2937, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2937)
        0.025987646 = weight(_text_:informationswissenschaft in 2937) [ClassicSimilarity], result of:
          0.025987646 = score(doc=2937,freq=2.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.1990817 = fieldWeight in 2937, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=2937)
        0.0019733086 = product of:
          0.0039466172 = sum of:
            0.0039466172 = weight(_text_:information in 2937) [ClassicSimilarity], result of:
              0.0039466172 = score(doc=2937,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.0775819 = fieldWeight in 2937, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2937)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Seit dem ersten internationalen Workshop über Hypertextsysteme 1987 in Chapel Hill hat das Hypertext-Gebiet eine außerordentlich dynamische Entwicklung erfahren. Hypertext-Komponenten sind in eine Vielzahl von Informationssystemen und Benutzungsoberflächen integriert, ohne dass sie - wie z.B. bei Dateisystemen - noch als solche wahrgenommen würden. Das World Wide Web (WWW) hat sich als weltumspannendes Medium etabliert, dessen konsistente Weiterentwicklung durch stets erweiterte Standards von einer eigenen Organisation, dem WWW-Consortium gesteuert wird. Elektronische Bücher kann man auf CD-ROM in fast jeder mittelgroßen Buchhandlung kaufen. Große Firmen setzen auf die Weiterbildung ihrer Mitarbeiter durch virtuelle, oft hypertext-basierte Lehre, für die wiederum eigene Standards-z.B. das Shareable Content Object Reference Model (Storm) - entwickelt werden. Dieser weite Einsatzbereich bringt allerdings auch ein erhebliches methodisches Problem mit sich. Hinter den disparaten Anforderungen der jeweiligen Einsatzgebiete droht eine zusammenhängende Theorie von Hypertext zu verschwinden. Ob eine solche überhaupt zu formulieren ist, ist ohnehin fraglich. Schon eine umfassende Theorie von Text konnte bisher nicht oder nur auf sehr abstraktem Niveau formuliert werden. Die im Zusammenhang mit dem Aufbau und der Nutzung von Hypertexten und Hypertextsystemen auftretenden Fragestellungen sind vielfach interdisziplinärer Natur, die z.T. auch einzelwissenschaftlich mit etwas verengter Perspektive untersucht werden. Die Informatik sieht in Hypertext eine Spezialform multimedialer Systeme, die besonders unter dem Gesichtspunkt der Datenverwaltung, bestehender Kommunikationsstandards und Software-Architekturen zu untersuchen sind. Lerntheorien aus Pädagogik und Psychologie sind die Grundlage für den Aufbau und die Nutzung von Lehrhypertexten. Hyperfiction - hypermediale Belletristik- profitiert von und speist sich aus den Strömungen der gegenwärtigen Literaturtheorie. Hier soll Hypertext vor allem unter informationswissenschaftlichen Fragestellungen behandelt werden. Einer kurzen definitorischen Eingrenzung des Gegenstands folgen texttheoretische Überlegungen zum Hypertext. Sodann wird auf die Informationssuche in Hypertexten und die Gestaltung von Hypertexten eingegangen.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  3. Kerckhove, D. de: Medien des Wissens : Wissensherstellung auf Papier, auf dem Bildschirm und Online (2000) 0.00
    0.004348034 = product of:
      0.032610252 = sum of:
        0.026690327 = weight(_text_:und in 5030) [ClassicSimilarity], result of:
          0.026690327 = score(doc=5030,freq=4.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.41556883 = fieldWeight in 5030, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5030)
        0.005919926 = product of:
          0.011839852 = sum of:
            0.011839852 = weight(_text_:information in 5030) [ClassicSimilarity], result of:
              0.011839852 = score(doc=5030,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.23274569 = fieldWeight in 5030, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5030)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Source
    Weltwissen - Wissenswelt: Das globale Netz von Text und Bild. Hrsg.: Christa Maar, u.a
    Theme
    Information
  4. Wingert, B.: Hypertext Conference 2000 in San Antonio (2000) 0.00
    0.0038566636 = product of:
      0.028924976 = sum of:
        0.022018395 = weight(_text_:und in 2250) [ClassicSimilarity], result of:
          0.022018395 = score(doc=2250,freq=2.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.34282678 = fieldWeight in 2250, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=2250)
        0.00690658 = product of:
          0.01381316 = sum of:
            0.01381316 = weight(_text_:information in 2250) [ClassicSimilarity], result of:
              0.01381316 = score(doc=2250,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.27153665 = fieldWeight in 2250, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2250)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.6, S.379-386
  5. Yang, C.C.; Liu, N.: Web site topic-hierarchy generation based on link structure (2009) 0.00
    0.0017738222 = product of:
      0.026607333 = sum of:
        0.026607333 = sum of:
          0.0069766995 = weight(_text_:information in 2738) [ClassicSimilarity], result of:
            0.0069766995 = score(doc=2738,freq=4.0), product of:
              0.050870337 = queryWeight, product of:
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.028978055 = queryNorm
              0.13714671 = fieldWeight in 2738, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2738)
          0.019630633 = weight(_text_:22 in 2738) [ClassicSimilarity], result of:
            0.019630633 = score(doc=2738,freq=2.0), product of:
              0.101476215 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.028978055 = queryNorm
              0.19345059 = fieldWeight in 2738, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2738)
      0.06666667 = coord(1/15)
    
    Abstract
    Navigating through hyperlinks within a Web site to look for information from one of its Web pages without the support of a site map can be inefficient and ineffective. Although the content of a Web site is usually organized with an inherent structure like a topic hierarchy, which is a directed tree rooted at a Web site's homepage whose vertices and edges correspond to Web pages and hyperlinks, such a topic hierarchy is not always available to the user. In this work, we studied the problem of automatic generation of Web sites' topic hierarchies. We modeled a Web site's link structure as a weighted directed graph and proposed methods for estimating edge weights based on eight types of features and three learning algorithms, namely decision trees, naïve Bayes classifiers, and logistic regression. Three graph algorithms, namely breadth-first search, shortest-path search, and directed minimum-spanning tree, were adapted to generate the topic hierarchy based on the graph model. We have tested the model and algorithms on real Web sites. It is found that the directed minimum-spanning tree algorithm with the decision tree as the weight learning algorithm achieves the highest performance with an average accuracy of 91.9%.
    Date
    22. 3.2009 12:51:47
    Source
    Journal of the American Society for Information Science and Technology. 60(2009) no.3, S.495-508
  6. Theyßen, H.; Vierschilling, N.: Entwicklung einer hypermedialen Lernumgebung für die naturwissenschaftliche Nebenfachausbildung : Ein gemeinsames DFG-Projekt der Physikalischen Grundpraktika der Heinrich-Heine Universität und der Universitäts- und Landesbibliothek Düsseldorf (2001) 0.00
    0.0014678931 = product of:
      0.022018395 = sum of:
        0.022018395 = weight(_text_:und in 5778) [ClassicSimilarity], result of:
          0.022018395 = score(doc=5778,freq=8.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.34282678 = fieldWeight in 5778, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5778)
      0.06666667 = coord(1/15)
    
    Abstract
    Multimediale Lernumgebungen werden bislang von wissenschaftlichen Bibliotheken in Form von CD-ROMs zur Verfügung gestellt oder über Hyperlinks zu Angeboten von Fachbereichen, die von diesen selbst verwaltet und gepflegt werden. Ober diese Angebote hat Monika Cremer in ihrem Artikel "Multimedia in deutschen Bibliotheken" einen breiten Oberblick gegeben. An dieser Stelle soll ein seit dem 1.10.2000 laufendes Projekt vorgestellt werden, bei dem die Bibliothek schon in die Entwicklung der Lernumgebung einbezogen ist und die Verwaltung sowie die Distribution vollständig übernimmt. Dadurch wird das Dienstleistungsspektrum der Bibliothek sowohl gegenüber den Fachbereichen als auch gegenüber den Studierenden signifikant erweitert
  7. Jünger, G.: ¬Ein neues Universum (2003) 0.00
    0.0011096229 = product of:
      0.016644342 = sum of:
        0.016644342 = weight(_text_:und in 1553) [ClassicSimilarity], result of:
          0.016644342 = score(doc=1553,freq=56.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.25915268 = fieldWeight in 1553, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1553)
      0.06666667 = coord(1/15)
    
    Content
    Eine stetige Erfahrung der Techniksoziologie und -geschichte besagt, dass sich wirklich neue Konzepte, die ihrer Zeit vorauseilen, am Ende nicht durchsetzen können. Erfolg haben stattdessen mittelmäßige Nachbildungen der ersten Idee, die dann, um periphere Funktionen und Dekorationen erweitert, als große Innovationen auftreten. Beispiele für zweitbeste Lösungen, von denen jeder weiß, dass sie nur Krücken sind, liefert gerade die Informatik in großer Zahl. Das Gespann der Programmiersprachen Smalltalk und C++ gehört dazu, aber auch das World Wide Web, das wir heute kennen, bleibt weit hinter Konzepten eines universalen, globalen Informationssystems zurück, die lange vor der Definition des Hypertext-Protokolls durch Tim Berners-Lee entwickelt worden sind. Die Frage nach der technischen Vorgeschichte und ihren verpassten Chancen ist keineswegs nur von akademischem Interesse. Das "Xanadu" genannte System, das zum ersten Mal das weltweit vorhandene Wissen in digitaler Form radikal demokratisieren wollte, kann sehr gut als Folie dienen für die Diskussion über die zukünftige Entwicklung des WWW. Zweifellos ist der Wunsch, möglichst viel Wissen anzuhäufen, uralt. Er hat die Errichter der Bibliothek von Alexandria angetrieben, die kopierenden und kommentierenden Mönche des Mittelalters oder die Enzyklopädisten des 18. Jahrhunderts in Frankreich. Spätestens seit dem 20. Jahrhundert war die pure Menge des nun Wissbaren so nicht mehr zu bewältigen. Über die materielle Ablage der Dokumente hinaus mussten neue Organisationsprinzipien gefunden werden, um den Berg zu erschließen und seine Bestandteile untereinander in nutzbarer Weise zu verbinden. Nur dann konnte eine Wissenschaftlerin oder ein Wissenschaftler jetzt noch in vertretbarer Zeit zum aktuellen Wissensstand auf einem Gebiet aufschließen. Im Epochenjahr 1945 entwarf Vannevar Bush, ein wissenschaftlicher Berater von Roosevelt während des Zweiten Weltkriegs, eine erste Antwort auf die Frage nach einem solchen Organisationsprinzip. Er nannte sein System "Memex" (Memory Extender), also "Gedächtniserweiterer". Wissen sollte in der Form von Mikrofilmen archiviert und die dabei erzeugten Einzelbestandteile sollten so mit einander verknüpft werden, dass das sofortige Aufsuchen von Verweisen möglich würde. Technisch misslang das System, mit Hilfe von Mikrofilmen ließ es sich wohl kaum realisieren. Aber der Gedanke war formuliert, dass große Wissensbestände nicht unbedingt in separaten Dokumenten und überwiegend linear (Seite 2 folgt auf Seite 1) angeordnet zu werden brauchten. Sie können durch interne Verknüpfungen zwischen Einzelseiten zu etwas Neuem zusammengefügt werden. Der Flugzeugingenieur Douglas Engelbart las schon in den Vierzigerjahren von Bushs Idee. Ihm gebührt das Verdienst, sie auf die neue Technik der digitalen Computer übertragen zu haben. Eine Sitzung der "Fall Joint Computer Conference" im Jahr 1968 demonstrierte seine "NLS" (oN Line System) genannte Verwirklichung des Memex-Konzepts in der Praxis und war für viele Teilnehmer die Initialzündung zu eigenen Versuchen auf diesem Gebiet. NLS war ein riesiges Journal von einzelnen Memos und Berichten eines Vorgängerprojekts, das es den beteiligten Wissenschaftlern erlaubte, über adressierte Verweise unmittelbar zu einem benachbarten Dokument zu springen - ein Netz aus Knoten und `Kanten, dem nur noch ein geeigneter Name für seine neue Eigenschaft fehlte:
    - Hypertext - Nicht nur den Namen "Hypertext" für ein solches Netz, sondern auch entscheidende Impulse zu einer konkreten Ausgestaltung eines durch Links verknüpften Netzes steuerte ab 1965 Ted Nelson bei. Sein mit dem Namen "Xanadu" verbundenes Wissenschaftsnetz gibt noch heute die Messlatte ab, an der sich das WWW behaupten muss. Nelson versuchte, sein Konzept auch kommerziell zum Erfolg zu bringen. Zeitweise konnte er auf ein starkes finanzielles Engagement der CAD-Firma Autodesk rechnen, die sich jedoch nach ausbleibenden Erfolgen aus diesem Engagement zurückzog. Heute ist der Quellcode der Software frei zugänglich, und die Website xanadu.net informiert über die Aktivitäten der kleinen Xanadu-Gemeinde von heute. Nelson selbst stellt sein Projekt als ein geschlossenes System von Dokumenten dar, dessen Zugang man ähnlich erwirbt wie den zu einem Provider oder zum Zahlfernsehen. Dokumente werden in diesem aus vernetzten Computern bestehenden System binär gespeichert, unabhängig davon, ob im einzelnen Dokument Bilder, Müsik, Text oder sonst etwas vorliegen. Sie zerfallen in winzige, aber identifizierbare Bestandteile, so dass jeder Dokumententeil mit einer eindeutigen ID versehen ist und einem bestimmten Autor zugeordnet werden kann. Liest ein Leser ein Dokumententeil in Xanadu, wird dadurch automatisch eine Gutschrift für das Konto des Urhebers des Dokuments erzeugt. Wie im existierenden Web sind einzelne Wörter, Bilder oder andere Medieninhalte Anker zu Verweisen auf andere Dokumentenbestandteile, die sich per Mausklick aufrufen lassen. Im Unterschied zum Web aber führt der Weg nicht nur in eine Richtung. Stichwort A verweist nicht nur auf X, sondern X macht auch alle Dokumente kenntlich, von denen aus auf X gezeigt wird. Es ist also jederzeit nachvollziehbar, wo überall von einem Dokument Gebrauch gemacht wird. Dadurch lässt sich überprüfen, ob ein als Beleg verwendeter Verweis zu Recht oder zu Unrecht angegeben wird.
    - Gutschriften für Autoren - Es geht aber noch weiter: Prinzipiell wird allen Xanadu-Teilnehmern garantiert, vorhandene Dokumentebestandteile durch so genannte Transclusions zitieren zu können. Ein Rechtemanagement für Lesezugriffe ist ja bereits integriert. Es ist also jederzeit möglich, dass jemand für ein Thema, das interessant erscheint, eine neue Anthologie erzeugt, ohne dass vorher Genehmigungen eingeholt werden müssen. Und anders als das WWW ist Xanadu ein Instrument für Autoren: An jede vorhandenen Seite können Kommentare angefügt werden. Um den Überblick zu behalten, werden sie anders dargestellt als ein Quellennachweis ("getypte Links"). Änderungen, die an einem Knoten vorgenommen werden, indem etwa ein Kommentar hinzukommt, können anderen Lesern vom System angezeigt werden, so dass man auf diese Weise lebendige Debatten und permanente Onlinekonferenzen führen kann. Ohne dass Administratoren regelnd eingreifen müssen, spiegelt das Xanadu-Netz damit die Interdependenz der realen Welt wider. Im Zeitalter der Fachidioten wird Wissen in einer Form repräsentiert, die die Verflechtung der Dinge untereinander hervorhebt und Kontroversen sichtbar macht. Das System schreibt dabei seine Geschichte selbst, da eine Versionskontrolle, verbunden mit direktem Dokumentenvergleich, die unterschiedlichen redaktionellen Bearbeitungsstufen eines Dokumentknotens nachvollziehbar macht.
    - Forschungsdebatten - Die Vorteile dieses Systems vor dem Web liegen auf der Hand: Alle Urheberrechte sind grundsätzlich und zugunsten der tatsächlichen Autoren geregelt, auch im Falle der Belletristik, die in der Regel nur konsumiert wird. Darüber hinaus profitierte die wissenschaftliche Arbeit von der Möglichkeit, Texte zu kommentieren oder vorhandene Argumentationen zitierend in die eigene Darstellung aufzunehmen. Forschungsdebatten sind jederzeit an jeder Stelle möglich - und zugänglich werden sie durch die Funktion, Änderungsanzeigen für bestimmte Knoten abonnieren, zu können. Damit wird es einem Autor möglich, auf eine Entgegnung zügig zu antworten. So können nicht nur einzelne Knoten, sondern ganze Knotennetze bearbeitet werden. Man kann also eine vorhandene Darstellung zustimmend übernehmen, aber die zwei, drei Zusatzpunkte hinzufügen, in denen die eigene Meinung vom Knotenstandard abweicht. Schließlich schafft ein System wie Xanadu mit Versionskontrolle und garantiertem Speicherplatz ein Dauerproblem des vorhandenen Webs mit seinen toten Links aus der Welt und erzeugt mit dem eingebauten Dokumentenvergleich ein Maximum an Übersicht.
    - Technische Hürden - Bleibt die Frage, weshalb Xanadu mit seiner Vision, das Weltwissen one mouse-click away erreichbar zu machen - Nelson spricht gar von einem docuverse -, bislang so erfolglos blieb. Ernst zu nehmen sind zunächst die technischen Anforderungen, die Xanadu stellt. Sie beginnen bei einer Editorensoftware, die die Autorenkennungen- vorhandener und zitierter Dokumentknoten bewahrt. Dass diese Software am Ende weniger techniklastig ist als die heutigen HTML-Editoren, wie Nelson annimmt, darf bezweifelt werden. Hinzu kommen Anforderungen an Rechnersysteme und Verwaltungsaufgaben: Da Xanadu ein konsistentes Dokumentmanagement garantieren und Dokumente für den Notfall auch redundant auf mehreren Rechnern gleichzeitig vorhalten muss, wären die technischen und Managementherausforderungen für ein aus zig Milliarden Dokumenten bestehendes System beachtlich. Andere Gründe sind prinzipieller Art: Die Bereitschaft, für Inhalte auch nur mit kleinen Beiträgen zu zahlen, ist bei den meisten. Internetnutzern als recht gering anzusetzen. Anders ließe sich das Scheitern vieler Anbieter für Bezahlinhalte im bestehenden Web kaum interpretieren. Möglicherweise gibt es auch einen latenten Widerwillen, einer zentralen und weltweit auftretenden Organisation- und trete sie mit noch so ehrenhaften Zielen an - die Aufgabe anzuvertrauen, das Weltwissen abzulegen. Hier hat offenbar - Ironie der Geschichte - das Computernetz des Militärs die Nase vorn, das aus Gründen eines auch in der Katastrophe funktionierenden Systems auf stets austauschbare Rechner setzt und das Chaos ins Kalkül aufgenommen hat. Es ist daher absehbar, dass sich Xanadu in der skizzierten Form nicht mehr durchsetzen wird. Damit ist wahrscheinlich auch eine Chance für eine neue Internetarchitektur vertan. Was als Wunsch aber für die Weiterentwicklung des bestehenden Webs nicht laut genug vorgebracht werden kann, ist, dass die Visionen und konkreten Möglichkeiten von Xanadu stärker berücksichtigt werden sollten. Vielleicht sind die Aversionen gegen zentral geregelte Systeme aber immerhin dazu gut, dass das ".Net"; das Lieblingsprojekt des Softwaregiganten Microsoft, zu einem offenen System umgewandelt wird.
  8. Agosti, M.; Melucci, M.: Information retrieval techniques for the automatic construction of hypertext (2000) 0.00
    6.511586E-4 = product of:
      0.009767379 = sum of:
        0.009767379 = product of:
          0.019534757 = sum of:
            0.019534757 = weight(_text_:information in 4671) [ClassicSimilarity], result of:
              0.019534757 = score(doc=4671,freq=4.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.3840108 = fieldWeight in 4671, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4671)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Source
    Encyclopedia of library and information science. Vol.66, [=Suppl.29]
  9. Tredinnick, L.: Post-structuralism, hypertext, and the World Wide Web (2007) 0.00
    5.147861E-4 = product of:
      0.0077217915 = sum of:
        0.0077217915 = product of:
          0.015443583 = sum of:
            0.015443583 = weight(_text_:information in 650) [ClassicSimilarity], result of:
              0.015443583 = score(doc=650,freq=10.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.3035872 = fieldWeight in 650, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=650)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Purpose - The purpose of this paper is to explore the application of post-structuralist theory to understanding hypertext and the World Wide Web, and the challenge posed by digital information technology to the practices of the information profession. Design/methodology/approach - The method adopted is that of a critical study. Findings - The paper argues for the importance of post-structuralism for an understanding of the implications of digital information for the information management profession. Originality/value - Focuses on an epistemological gap between the traditional practices of the information profession, and the structure of the World Wide Web.
  10. Amitay, E.: Trends, fashions, patterns, norms, conventions and hypertext too (2001) 0.00
    4.5571616E-4 = product of:
      0.006835742 = sum of:
        0.006835742 = product of:
          0.013671484 = sum of:
            0.013671484 = weight(_text_:information in 5192) [ClassicSimilarity], result of:
              0.013671484 = score(doc=5192,freq=6.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.2687516 = fieldWeight in 5192, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5192)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    At a finer level, Amitay speculates about the use of language on the Web. The Web may be one large corpus of text, but she suggests that communities will express themselves by the conventions used for writing hypertext. It may be that new information technologies will spawn new communities.
    Footnote
    Beitrag eines Themenheftes: Still the Frontier: Information Science at the Millenium
    Source
    Journal of the American Society for Information Science and technology. 52(2001) no.1, S.36-43
  11. Weal, M.J.; Michaelides, D.T.; Thompson, M.K.; Roure, D.C. de: Hypermedia in the ambient wood (2003) 0.00
    4.5571616E-4 = product of:
      0.006835742 = sum of:
        0.006835742 = product of:
          0.013671484 = sum of:
            0.013671484 = weight(_text_:information in 5928) [ClassicSimilarity], result of:
              0.013671484 = score(doc=5928,freq=6.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.2687516 = fieldWeight in 5928, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5928)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    The Ambient Wood project, carried out as part of the Equator project, set out to provide an augmented learning experience for children in an outdoor environment. Using a variety of devices, the children gathered information about the woodland habitats performing basic scientific enquiry and hypothesis testing. In this paper, we describe the supporting information infrastructure used in the project, focusing on how hypermedia tools and techniques were used to structure and deliver the information to the children, helping to orchestrate the learning activities.
  12. Luzón, M.J.: Scholarly hyperwriting : the function of links in academic weblogs (2009) 0.00
    3.4178712E-4 = product of:
      0.0051268064 = sum of:
        0.0051268064 = product of:
          0.010253613 = sum of:
            0.010253613 = weight(_text_:information in 3307) [ClassicSimilarity], result of:
              0.010253613 = score(doc=3307,freq=6.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.20156369 = fieldWeight in 3307, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3307)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Weblogs are gaining momentum as one of most versatile tools for online scholarly communication. Since academic weblogs tend to be used by scholars to position themselves in a disciplinary blogging community, links are essential to their construction. The aim of this article is to analyze the reasons for linking in academic weblogs and to determine how links are used for distribution of information, collaborative construction of knowledge, and construction of the blog's and the blogger's identity. For this purpose I analyzed types of links in 15 academic blogs, considering both sidebar links and in-post links. The results show that links are strategically used by academic bloggers for several purposes, among others to seek their place in a disciplinary community, to engage in hypertext conversations for collaborative construction of knowledge, to organize information in the blog, to publicize their research, to enhance the blog's visibility, and to optimize blog entries and the blog itself.
    Source
    Journal of the American Society for Information Science and Technology. 60(2009) no.1, S.75-89
  13. Sinclair, P.A.S.; Martinez, K.; Millard, D.E.; Weal, M.J.: Augmented reality as an interface to adaptive hypermedia systems (2003) 0.00
    3.255793E-4 = product of:
      0.0048836893 = sum of:
        0.0048836893 = product of:
          0.009767379 = sum of:
            0.009767379 = weight(_text_:information in 5923) [ClassicSimilarity], result of:
              0.009767379 = score(doc=5923,freq=4.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.1920054 = fieldWeight in 5923, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5923)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Adaptive Hypermedia has sought to tackle the problems of dealing with complex, heavily structured information and the presentation of views of that structure to users. Increasingly, adaptive content is achieved through different forms of context. Using two case-study applications, we will reflect on how Augmented Reality may present solutions to a number of Adaptive Hypermedia presentation problems. Each case study describes a different physical interaction metaphor for exposing the complex adaptation of hypermedia content in an intuitive way. The preliminary findings of our early evaluations are discussed. Finally, conclusions are drawn as to how Augmented Reality applications could use the modelling techniques of the Adaptive Hypermedia community to deal more easily with complex information.
  14. Kinnell, S.K.; Franklin, C.: Hypertext and hypercard : early development (2009) 0.00
    3.255793E-4 = product of:
      0.0048836893 = sum of:
        0.0048836893 = product of:
          0.009767379 = sum of:
            0.009767379 = weight(_text_:information in 3788) [ClassicSimilarity], result of:
              0.009767379 = score(doc=3788,freq=4.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.1920054 = fieldWeight in 3788, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3788)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    The ease of linking and hopping from one text to another that we associate today with the World Wide Web was implemented in a different context prior to the Web. The creation of "hypertext" has a long and interesting history prior to the Web, as this article demonstrates. At the time it was issued, the HyperCard software application was expected to be the foundation of a widely-used new means of information organization. We can see now that the key ideas of hypertext were present in HyperCard, without the ease of use of subsequent World Wide Web features.
    Source
    Encyclopedia of library and information sciences. 3rd ed. Ed.: M.J. Bates
  15. Picard, J.; Savoy, J.: Enhancing retrieval with hyperlinks : a general model based on propositional argumentation systems (2003) 0.00
    2.848226E-4 = product of:
      0.004272339 = sum of:
        0.004272339 = product of:
          0.008544678 = sum of:
            0.008544678 = weight(_text_:information in 1427) [ClassicSimilarity], result of:
              0.008544678 = score(doc=1427,freq=6.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.16796975 = fieldWeight in 1427, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1427)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Fast, effective, and adaptable techniques are needed to automatically organize and retrieve information an the ever-increasing World Wide Web. In that respect, different strategies have been suggested to take hypertext links into account. For example, hyperlinks have been used to (1) enhance document representation, (2) improve document ranking by propagating document score, (3) provide an indicator of popularity, and (4) find hubs and authorities for a given topic. Although the TREC experiments have not demonstrated the usefulness of hyperlinks for retrieval, the hypertext structure is nevertheless an essential aspect of the Web, and as such, should not be ignored. The development of abstract models of the IR task was a key factor to the improvement of search engines. However, at this time conceptual tools for modeling the hypertext retrieval task are lacking, making it difficult to compare, improve, and reason an the existing techniques. This article proposes a general model for using hyperlinks based an Probabilistic Argumentation Systems, in which each of the above-mentioned techniques can be stated. This model will allow to discover some inconsistencies in the mentioned techniques, and to take a higher level and systematic approach for using hyperlinks for retrieval.
    Footnote
    Beitrag eines Themenheftes: Mathematical, logical, and formal methods in information retrieval
    Source
    Journal of the American Society for Information Science and technology. 54(2003) no.4, S.347-355
  16. Melucci, M.: Making digital libraries effective : automatic generation of links for similarity search across hyper-textbooks (2004) 0.00
    2.79068E-4 = product of:
      0.0041860198 = sum of:
        0.0041860198 = product of:
          0.0083720395 = sum of:
            0.0083720395 = weight(_text_:information in 2226) [ClassicSimilarity], result of:
              0.0083720395 = score(doc=2226,freq=4.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.16457605 = fieldWeight in 2226, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2226)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Textbooks are more available in electronic format now than in the past. Because textbooks are typically large, the end user needs effective tools to rapidly access information encapsulated in textbooks stored in digital libraries. Statistical similarity-based links among hypertextbooks are a means to provide those tools. In this paper, the design and the implementation of a tool that generates networks of links within and across hypertextbooks through a completely automatic and unsupervised procedure is described. The design is based an statistical techniques. The overall methodology is presented together with the results of a case study reached through a working prototype that shows that connecting hyper-textbooks is an efficient way to provide an effective retrieval capability.
    Source
    Journal of the American Society for Information Science and technology. 55(2004) no.5, S.414-430
  17. Decurtins, C.; Norrie, M.C.; Signer, B.: Putting the gloss on paper : a framework for cross-media annotation (2003) 0.00
    2.79068E-4 = product of:
      0.0041860198 = sum of:
        0.0041860198 = product of:
          0.0083720395 = sum of:
            0.0083720395 = weight(_text_:information in 5933) [ClassicSimilarity], result of:
              0.0083720395 = score(doc=5933,freq=4.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.16457605 = fieldWeight in 5933, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5933)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    We present a general framework for cross-media annotation that can be used to support the many different forms and uses of annotation. Specifically, we discuss the need for digital annotation of printed materials and describe how various technologies for digitally augmented paper can be used in support of work practices. The state of the art in terms of both commercial and research solutions is described in some detail, with an analysis of the extent to which they can support both the writing and reading activities associated with annotation. Our framework is based on an extension of the information server that was developed within the Paper++ project to support enhanced reading. It is capable of handling both formal and informal annotation across printed and digital media, exploiting a range of technologies for information capture and display. A prototype demonstrator application for mammography is presented to illustrate both the functionality of the framework and the status of existing technologies.
  18. Fraser, L.; Locatis, C.: Effects of link annotations on search performance in layered and unlayered hierarchically organized information spaces (2001) 0.00
    2.3255666E-4 = product of:
      0.0034883497 = sum of:
        0.0034883497 = product of:
          0.0069766995 = sum of:
            0.0069766995 = weight(_text_:information in 6937) [ClassicSimilarity], result of:
              0.0069766995 = score(doc=6937,freq=4.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.13714671 = fieldWeight in 6937, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=6937)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Source
    Journal of the American Society for Information Science and technology. 52(2001) no.14, S.1255-1261
  19. Kim, H.J.: Motivations for hyperlinking in scholarly electronic articles : a qualitative study (2000) 0.00
    2.3021935E-4 = product of:
      0.00345329 = sum of:
        0.00345329 = product of:
          0.00690658 = sum of:
            0.00690658 = weight(_text_:information in 4989) [ClassicSimilarity], result of:
              0.00690658 = score(doc=4989,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.13576832 = fieldWeight in 4989, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4989)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Source
    Journal of the American Society for Information Science. 51(2000) no.10, S.887-899
  20. Heo, M.; Hirtle, S.C.: ¬An empirical comparison of visualization tools to assist information retrieval on the Web (2001) 0.00
    2.2785808E-4 = product of:
      0.003417871 = sum of:
        0.003417871 = product of:
          0.006835742 = sum of:
            0.006835742 = weight(_text_:information in 5215) [ClassicSimilarity], result of:
              0.006835742 = score(doc=5215,freq=6.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.1343758 = fieldWeight in 5215, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5215)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    The reader of a hypertext document in a web environment, if maximum use of the document is to be obtained, must visualize the overall structure of the paths through the document as well as the document space. Graphic visualization displays of this space, produced to assist in navigation, are classified into four groups, and Heo and Hirtle compare three of these classes as to their effectiveness. Distortion displays expand regions of interest while relatively diminishing the detail of the remaining regions. This technique will show both local detail and global structure. Zoom techniques use a series of increasingly focused displays of smaller and smaller areas, and can reduce cogitative overload, but do not provide an easy movement to other parts of the total space. Expanding outline displays use a tree structure to allow movement through a hierarchy of documents, but if the organization has a wide horizontal structure, or is not particularly hierarchical in nature such display can break down. Three dimensional layouts, which are not evaluated here, place objects by location in three space, providing more information and freedom. However, the space must be represented in two dimensions resulting in difficulty in visually judging depth, size and positioning. Ten students were assigned to each of eight groups composed of viewers of the three techniques and an unassisted control group using either a large (583 selected pages) or a small (50 selected pages) web space. Sets of 10 questions, which were designed to elicit the use of a visualization tool, were provided for each space. Accuracy and time spent were extracted from a log file. Users views were also surveyed after completion. ANOVA shows significant differences in accuracy and time based upon the visualization tool in use. A Tukey test shows zoom accuracy to be significantly less than expanding outline and zoom time to be significantly greater than both the outline and control groups. Size significantly affected accuracy and time, but had no interaction with tool type. While the expanding tool class out performed zoom and distortion, its performance was not significantly different from the control group.
    Source
    Journal of the American Society for Information Science and technology. 52(2001) no.8, S.666-675