Search (11 results, page 1 of 1)

  • × theme_ss:"Hypertext"
  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Kuhlen, R.; Bekavac, B.; Griesbaum, J.; Schütz, T.; Semar, W.: ENFORUM, ein Instrument des Wissensmanagements in Forschung und Ausbildung im Informationswesen (2002) 0.01
    0.014864365 = product of:
      0.044593092 = sum of:
        0.044593092 = weight(_text_:im in 928) [ClassicSimilarity], result of:
          0.044593092 = score(doc=928,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.30917975 = fieldWeight in 928, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=928)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Konzeption von ENFORUM beruht auf einer verteilten Organisation der informationswissenschaftlichen Kompetenzzentren im deutschsprachigen Bereich und der kooperativen Erarbeitung von ENFORUM-Einträgen über elektronische Kommunikationsforen. ENFORUM wird zum einen in den wissenschaftlichen Kontext elektronischer Wörterbücher und Enzyklopädien eingeordnet, zum anderen werden Vor- und Nachteile asynchroner elektronischer Kommunikation diskutiert, mit dem Ergebnis, dass die Kompensationsleistung von Moderatoren in Kommunikationsforen für den Erfolg der Diskurse unabdingbar ist. Der aktuelle Stand von ENFORUM (März 2002) wird vorgestellt. ENFORUM ist ein voll operatives System mit adaptiver Benutzerverwaltung, flexiblen Such- und Navigationsformen und ersten Funktionen in Richtung Wissensplattform. Überlegungen zur funktionalen Weiterentwicklung von ENFORUM und zum Einsatz in der Ausbildung schließen den Artikel ab.
  2. Jünger, G.: ¬Ein neues Universum (2003) 0.01
    0.008493923 = product of:
      0.025481766 = sum of:
        0.025481766 = weight(_text_:im in 1553) [ClassicSimilarity], result of:
          0.025481766 = score(doc=1553,freq=16.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.17667414 = fieldWeight in 1553, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.015625 = fieldNorm(doc=1553)
      0.33333334 = coord(1/3)
    
    Content
    Eine stetige Erfahrung der Techniksoziologie und -geschichte besagt, dass sich wirklich neue Konzepte, die ihrer Zeit vorauseilen, am Ende nicht durchsetzen können. Erfolg haben stattdessen mittelmäßige Nachbildungen der ersten Idee, die dann, um periphere Funktionen und Dekorationen erweitert, als große Innovationen auftreten. Beispiele für zweitbeste Lösungen, von denen jeder weiß, dass sie nur Krücken sind, liefert gerade die Informatik in großer Zahl. Das Gespann der Programmiersprachen Smalltalk und C++ gehört dazu, aber auch das World Wide Web, das wir heute kennen, bleibt weit hinter Konzepten eines universalen, globalen Informationssystems zurück, die lange vor der Definition des Hypertext-Protokolls durch Tim Berners-Lee entwickelt worden sind. Die Frage nach der technischen Vorgeschichte und ihren verpassten Chancen ist keineswegs nur von akademischem Interesse. Das "Xanadu" genannte System, das zum ersten Mal das weltweit vorhandene Wissen in digitaler Form radikal demokratisieren wollte, kann sehr gut als Folie dienen für die Diskussion über die zukünftige Entwicklung des WWW. Zweifellos ist der Wunsch, möglichst viel Wissen anzuhäufen, uralt. Er hat die Errichter der Bibliothek von Alexandria angetrieben, die kopierenden und kommentierenden Mönche des Mittelalters oder die Enzyklopädisten des 18. Jahrhunderts in Frankreich. Spätestens seit dem 20. Jahrhundert war die pure Menge des nun Wissbaren so nicht mehr zu bewältigen. Über die materielle Ablage der Dokumente hinaus mussten neue Organisationsprinzipien gefunden werden, um den Berg zu erschließen und seine Bestandteile untereinander in nutzbarer Weise zu verbinden. Nur dann konnte eine Wissenschaftlerin oder ein Wissenschaftler jetzt noch in vertretbarer Zeit zum aktuellen Wissensstand auf einem Gebiet aufschließen. Im Epochenjahr 1945 entwarf Vannevar Bush, ein wissenschaftlicher Berater von Roosevelt während des Zweiten Weltkriegs, eine erste Antwort auf die Frage nach einem solchen Organisationsprinzip. Er nannte sein System "Memex" (Memory Extender), also "Gedächtniserweiterer". Wissen sollte in der Form von Mikrofilmen archiviert und die dabei erzeugten Einzelbestandteile sollten so mit einander verknüpft werden, dass das sofortige Aufsuchen von Verweisen möglich würde. Technisch misslang das System, mit Hilfe von Mikrofilmen ließ es sich wohl kaum realisieren. Aber der Gedanke war formuliert, dass große Wissensbestände nicht unbedingt in separaten Dokumenten und überwiegend linear (Seite 2 folgt auf Seite 1) angeordnet zu werden brauchten. Sie können durch interne Verknüpfungen zwischen Einzelseiten zu etwas Neuem zusammengefügt werden. Der Flugzeugingenieur Douglas Engelbart las schon in den Vierzigerjahren von Bushs Idee. Ihm gebührt das Verdienst, sie auf die neue Technik der digitalen Computer übertragen zu haben. Eine Sitzung der "Fall Joint Computer Conference" im Jahr 1968 demonstrierte seine "NLS" (oN Line System) genannte Verwirklichung des Memex-Konzepts in der Praxis und war für viele Teilnehmer die Initialzündung zu eigenen Versuchen auf diesem Gebiet. NLS war ein riesiges Journal von einzelnen Memos und Berichten eines Vorgängerprojekts, das es den beteiligten Wissenschaftlern erlaubte, über adressierte Verweise unmittelbar zu einem benachbarten Dokument zu springen - ein Netz aus Knoten und `Kanten, dem nur noch ein geeigneter Name für seine neue Eigenschaft fehlte:
    - Hypertext - Nicht nur den Namen "Hypertext" für ein solches Netz, sondern auch entscheidende Impulse zu einer konkreten Ausgestaltung eines durch Links verknüpften Netzes steuerte ab 1965 Ted Nelson bei. Sein mit dem Namen "Xanadu" verbundenes Wissenschaftsnetz gibt noch heute die Messlatte ab, an der sich das WWW behaupten muss. Nelson versuchte, sein Konzept auch kommerziell zum Erfolg zu bringen. Zeitweise konnte er auf ein starkes finanzielles Engagement der CAD-Firma Autodesk rechnen, die sich jedoch nach ausbleibenden Erfolgen aus diesem Engagement zurückzog. Heute ist der Quellcode der Software frei zugänglich, und die Website xanadu.net informiert über die Aktivitäten der kleinen Xanadu-Gemeinde von heute. Nelson selbst stellt sein Projekt als ein geschlossenes System von Dokumenten dar, dessen Zugang man ähnlich erwirbt wie den zu einem Provider oder zum Zahlfernsehen. Dokumente werden in diesem aus vernetzten Computern bestehenden System binär gespeichert, unabhängig davon, ob im einzelnen Dokument Bilder, Müsik, Text oder sonst etwas vorliegen. Sie zerfallen in winzige, aber identifizierbare Bestandteile, so dass jeder Dokumententeil mit einer eindeutigen ID versehen ist und einem bestimmten Autor zugeordnet werden kann. Liest ein Leser ein Dokumententeil in Xanadu, wird dadurch automatisch eine Gutschrift für das Konto des Urhebers des Dokuments erzeugt. Wie im existierenden Web sind einzelne Wörter, Bilder oder andere Medieninhalte Anker zu Verweisen auf andere Dokumentenbestandteile, die sich per Mausklick aufrufen lassen. Im Unterschied zum Web aber führt der Weg nicht nur in eine Richtung. Stichwort A verweist nicht nur auf X, sondern X macht auch alle Dokumente kenntlich, von denen aus auf X gezeigt wird. Es ist also jederzeit nachvollziehbar, wo überall von einem Dokument Gebrauch gemacht wird. Dadurch lässt sich überprüfen, ob ein als Beleg verwendeter Verweis zu Recht oder zu Unrecht angegeben wird.
    - Gutschriften für Autoren - Es geht aber noch weiter: Prinzipiell wird allen Xanadu-Teilnehmern garantiert, vorhandene Dokumentebestandteile durch so genannte Transclusions zitieren zu können. Ein Rechtemanagement für Lesezugriffe ist ja bereits integriert. Es ist also jederzeit möglich, dass jemand für ein Thema, das interessant erscheint, eine neue Anthologie erzeugt, ohne dass vorher Genehmigungen eingeholt werden müssen. Und anders als das WWW ist Xanadu ein Instrument für Autoren: An jede vorhandenen Seite können Kommentare angefügt werden. Um den Überblick zu behalten, werden sie anders dargestellt als ein Quellennachweis ("getypte Links"). Änderungen, die an einem Knoten vorgenommen werden, indem etwa ein Kommentar hinzukommt, können anderen Lesern vom System angezeigt werden, so dass man auf diese Weise lebendige Debatten und permanente Onlinekonferenzen führen kann. Ohne dass Administratoren regelnd eingreifen müssen, spiegelt das Xanadu-Netz damit die Interdependenz der realen Welt wider. Im Zeitalter der Fachidioten wird Wissen in einer Form repräsentiert, die die Verflechtung der Dinge untereinander hervorhebt und Kontroversen sichtbar macht. Das System schreibt dabei seine Geschichte selbst, da eine Versionskontrolle, verbunden mit direktem Dokumentenvergleich, die unterschiedlichen redaktionellen Bearbeitungsstufen eines Dokumentknotens nachvollziehbar macht.
    - Forschungsdebatten - Die Vorteile dieses Systems vor dem Web liegen auf der Hand: Alle Urheberrechte sind grundsätzlich und zugunsten der tatsächlichen Autoren geregelt, auch im Falle der Belletristik, die in der Regel nur konsumiert wird. Darüber hinaus profitierte die wissenschaftliche Arbeit von der Möglichkeit, Texte zu kommentieren oder vorhandene Argumentationen zitierend in die eigene Darstellung aufzunehmen. Forschungsdebatten sind jederzeit an jeder Stelle möglich - und zugänglich werden sie durch die Funktion, Änderungsanzeigen für bestimmte Knoten abonnieren, zu können. Damit wird es einem Autor möglich, auf eine Entgegnung zügig zu antworten. So können nicht nur einzelne Knoten, sondern ganze Knotennetze bearbeitet werden. Man kann also eine vorhandene Darstellung zustimmend übernehmen, aber die zwei, drei Zusatzpunkte hinzufügen, in denen die eigene Meinung vom Knotenstandard abweicht. Schließlich schafft ein System wie Xanadu mit Versionskontrolle und garantiertem Speicherplatz ein Dauerproblem des vorhandenen Webs mit seinen toten Links aus der Welt und erzeugt mit dem eingebauten Dokumentenvergleich ein Maximum an Übersicht.
    - Technische Hürden - Bleibt die Frage, weshalb Xanadu mit seiner Vision, das Weltwissen one mouse-click away erreichbar zu machen - Nelson spricht gar von einem docuverse -, bislang so erfolglos blieb. Ernst zu nehmen sind zunächst die technischen Anforderungen, die Xanadu stellt. Sie beginnen bei einer Editorensoftware, die die Autorenkennungen- vorhandener und zitierter Dokumentknoten bewahrt. Dass diese Software am Ende weniger techniklastig ist als die heutigen HTML-Editoren, wie Nelson annimmt, darf bezweifelt werden. Hinzu kommen Anforderungen an Rechnersysteme und Verwaltungsaufgaben: Da Xanadu ein konsistentes Dokumentmanagement garantieren und Dokumente für den Notfall auch redundant auf mehreren Rechnern gleichzeitig vorhalten muss, wären die technischen und Managementherausforderungen für ein aus zig Milliarden Dokumenten bestehendes System beachtlich. Andere Gründe sind prinzipieller Art: Die Bereitschaft, für Inhalte auch nur mit kleinen Beiträgen zu zahlen, ist bei den meisten. Internetnutzern als recht gering anzusetzen. Anders ließe sich das Scheitern vieler Anbieter für Bezahlinhalte im bestehenden Web kaum interpretieren. Möglicherweise gibt es auch einen latenten Widerwillen, einer zentralen und weltweit auftretenden Organisation- und trete sie mit noch so ehrenhaften Zielen an - die Aufgabe anzuvertrauen, das Weltwissen abzulegen. Hier hat offenbar - Ironie der Geschichte - das Computernetz des Militärs die Nase vorn, das aus Gründen eines auch in der Katastrophe funktionierenden Systems auf stets austauschbare Rechner setzt und das Chaos ins Kalkül aufgenommen hat. Es ist daher absehbar, dass sich Xanadu in der skizzierten Form nicht mehr durchsetzen wird. Damit ist wahrscheinlich auch eine Chance für eine neue Internetarchitektur vertan. Was als Wunsch aber für die Weiterentwicklung des bestehenden Webs nicht laut genug vorgebracht werden kann, ist, dass die Visionen und konkreten Möglichkeiten von Xanadu stärker berücksichtigt werden sollten. Vielleicht sind die Aversionen gegen zentral geregelte Systeme aber immerhin dazu gut, dass das ".Net"; das Lieblingsprojekt des Softwaregiganten Microsoft, zu einem offenen System umgewandelt wird.
  3. Agosti, M.; Melucci, M.: Information retrieval techniques for the automatic construction of hypertext (2000) 0.01
    0.008023808 = product of:
      0.024071421 = sum of:
        0.024071421 = product of:
          0.07221426 = sum of:
            0.07221426 = weight(_text_:retrieval in 4671) [ClassicSimilarity], result of:
              0.07221426 = score(doc=4671,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.46789268 = fieldWeight in 4671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4671)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
  4. Kerckhove, D. de: Medien des Wissens : Wissensherstellung auf Papier, auf dem Bildschirm und Online (2000) 0.01
    0.0069230343 = product of:
      0.020769102 = sum of:
        0.020769102 = product of:
          0.062307306 = sum of:
            0.062307306 = weight(_text_:online in 5030) [ClassicSimilarity], result of:
              0.062307306 = score(doc=5030,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.40237486 = fieldWeight in 5030, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5030)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
  5. Picard, J.; Savoy, J.: Enhancing retrieval with hyperlinks : a general model based on propositional argumentation systems (2003) 0.01
    0.0064077782 = product of:
      0.019223334 = sum of:
        0.019223334 = product of:
          0.05767 = sum of:
            0.05767 = weight(_text_:retrieval in 1427) [ClassicSimilarity], result of:
              0.05767 = score(doc=1427,freq=10.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.37365708 = fieldWeight in 1427, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1427)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Fast, effective, and adaptable techniques are needed to automatically organize and retrieve information an the ever-increasing World Wide Web. In that respect, different strategies have been suggested to take hypertext links into account. For example, hyperlinks have been used to (1) enhance document representation, (2) improve document ranking by propagating document score, (3) provide an indicator of popularity, and (4) find hubs and authorities for a given topic. Although the TREC experiments have not demonstrated the usefulness of hyperlinks for retrieval, the hypertext structure is nevertheless an essential aspect of the Web, and as such, should not be ignored. The development of abstract models of the IR task was a key factor to the improvement of search engines. However, at this time conceptual tools for modeling the hypertext retrieval task are lacking, making it difficult to compare, improve, and reason an the existing techniques. This article proposes a general model for using hyperlinks based an Probabilistic Argumentation Systems, in which each of the above-mentioned techniques can be stated. This model will allow to discover some inconsistencies in the mentioned techniques, and to take a higher level and systematic approach for using hyperlinks for retrieval.
    Footnote
    Beitrag eines Themenheftes: Mathematical, logical, and formal methods in information retrieval
  6. Hammwöhner, R.: Hypertext (2004) 0.01
    0.00600611 = product of:
      0.01801833 = sum of:
        0.01801833 = weight(_text_:im in 2937) [ClassicSimilarity], result of:
          0.01801833 = score(doc=2937,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.12492748 = fieldWeight in 2937, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=2937)
      0.33333334 = coord(1/3)
    
    Abstract
    Seit dem ersten internationalen Workshop über Hypertextsysteme 1987 in Chapel Hill hat das Hypertext-Gebiet eine außerordentlich dynamische Entwicklung erfahren. Hypertext-Komponenten sind in eine Vielzahl von Informationssystemen und Benutzungsoberflächen integriert, ohne dass sie - wie z.B. bei Dateisystemen - noch als solche wahrgenommen würden. Das World Wide Web (WWW) hat sich als weltumspannendes Medium etabliert, dessen konsistente Weiterentwicklung durch stets erweiterte Standards von einer eigenen Organisation, dem WWW-Consortium gesteuert wird. Elektronische Bücher kann man auf CD-ROM in fast jeder mittelgroßen Buchhandlung kaufen. Große Firmen setzen auf die Weiterbildung ihrer Mitarbeiter durch virtuelle, oft hypertext-basierte Lehre, für die wiederum eigene Standards-z.B. das Shareable Content Object Reference Model (Storm) - entwickelt werden. Dieser weite Einsatzbereich bringt allerdings auch ein erhebliches methodisches Problem mit sich. Hinter den disparaten Anforderungen der jeweiligen Einsatzgebiete droht eine zusammenhängende Theorie von Hypertext zu verschwinden. Ob eine solche überhaupt zu formulieren ist, ist ohnehin fraglich. Schon eine umfassende Theorie von Text konnte bisher nicht oder nur auf sehr abstraktem Niveau formuliert werden. Die im Zusammenhang mit dem Aufbau und der Nutzung von Hypertexten und Hypertextsystemen auftretenden Fragestellungen sind vielfach interdisziplinärer Natur, die z.T. auch einzelwissenschaftlich mit etwas verengter Perspektive untersucht werden. Die Informatik sieht in Hypertext eine Spezialform multimedialer Systeme, die besonders unter dem Gesichtspunkt der Datenverwaltung, bestehender Kommunikationsstandards und Software-Architekturen zu untersuchen sind. Lerntheorien aus Pädagogik und Psychologie sind die Grundlage für den Aufbau und die Nutzung von Lehrhypertexten. Hyperfiction - hypermediale Belletristik- profitiert von und speist sich aus den Strömungen der gegenwärtigen Literaturtheorie. Hier soll Hypertext vor allem unter informationswissenschaftlichen Fragestellungen behandelt werden. Einer kurzen definitorischen Eingrenzung des Gegenstands folgen texttheoretische Überlegungen zum Hypertext. Sodann wird auf die Informationssuche in Hypertexten und die Gestaltung von Hypertexten eingegangen.
  7. Yang, C.C.; Liu, N.: Web site topic-hierarchy generation based on link structure (2009) 0.00
    0.0038404856 = product of:
      0.011521457 = sum of:
        0.011521457 = product of:
          0.03456437 = sum of:
            0.03456437 = weight(_text_:22 in 2738) [ClassicSimilarity], result of:
              0.03456437 = score(doc=2738,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.19345059 = fieldWeight in 2738, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2738)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Date
    22. 3.2009 12:51:47
  8. Luzón, M.J.: Scholarly hyperwriting : the function of links in academic weblogs (2009) 0.00
    0.0034615172 = product of:
      0.010384551 = sum of:
        0.010384551 = product of:
          0.031153653 = sum of:
            0.031153653 = weight(_text_:online in 3307) [ClassicSimilarity], result of:
              0.031153653 = score(doc=3307,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.20118743 = fieldWeight in 3307, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3307)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Weblogs are gaining momentum as one of most versatile tools for online scholarly communication. Since academic weblogs tend to be used by scholars to position themselves in a disciplinary blogging community, links are essential to their construction. The aim of this article is to analyze the reasons for linking in academic weblogs and to determine how links are used for distribution of information, collaborative construction of knowledge, and construction of the blog's and the blogger's identity. For this purpose I analyzed types of links in 15 academic blogs, considering both sidebar links and in-post links. The results show that links are strategically used by academic bloggers for several purposes, among others to seek their place in a disciplinary community, to engage in hypertext conversations for collaborative construction of knowledge, to organize information in the blog, to publicize their research, to enhance the blog's visibility, and to optimize blog entries and the blog itself.
  9. Melucci, M.: Making digital libraries effective : automatic generation of links for similarity search across hyper-textbooks (2004) 0.00
    0.0034387745 = product of:
      0.0103163235 = sum of:
        0.0103163235 = product of:
          0.03094897 = sum of:
            0.03094897 = weight(_text_:retrieval in 2226) [ClassicSimilarity], result of:
              0.03094897 = score(doc=2226,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.20052543 = fieldWeight in 2226, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2226)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Textbooks are more available in electronic format now than in the past. Because textbooks are typically large, the end user needs effective tools to rapidly access information encapsulated in textbooks stored in digital libraries. Statistical similarity-based links among hypertextbooks are a means to provide those tools. In this paper, the design and the implementation of a tool that generates networks of links within and across hypertextbooks through a completely automatic and unsupervised procedure is described. The design is based an statistical techniques. The overall methodology is presented together with the results of a case study reached through a working prototype that shows that connecting hyper-textbooks is an efficient way to provide an effective retrieval capability.
  10. Maislin, S.: Ripping out the pages (2000) 0.00
    0.0028845975 = product of:
      0.008653793 = sum of:
        0.008653793 = product of:
          0.025961377 = sum of:
            0.025961377 = weight(_text_:online in 220) [ClassicSimilarity], result of:
              0.025961377 = score(doc=220,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.16765618 = fieldWeight in 220, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=220)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Abstract
    When the Web was invented, it was touted as a novel nonlinear medium for the written word. No longer would we be constrained by linear presentations! Hyperlinks would allow us to jump haphazardly from page to page, chapter to chapter, idea to idea! Texts would no longer need to run from beginning to end! This is misleading. A printed book is also multidimensional and potentially nonlinear. We can open it to any page, from any other page, for any reason. We can open several books at once. In fact, what makes a book special is its combination of linear structure (the order of the words) and nonlinear physicality (the bound papers). This linear/nonlinear duality is enhanced further by the index, which maps linearly sequenced pages in a nonlinear, informationally ordered structure (architecture). In truth, the online environment is crippled by an absence of linear structure. Imagine selecting a hard cover book, tearing off the covers, ripping pages into small pieces, and throwing them in a box. That box is like a computer file system, and the paper scraps are Web documents. Only one scrap can be retrieved from the box at a time, and it must be replaced before another can be accessed. Page numbers are meaningless. Global context is destroyed. And without page numbers or context, what happens to the index?
  11. Heo, M.; Hirtle, S.C.: ¬An empirical comparison of visualization tools to assist information retrieval on the Web (2001) 0.00
    0.0022925164 = product of:
      0.006877549 = sum of:
        0.006877549 = product of:
          0.020632647 = sum of:
            0.020632647 = weight(_text_:retrieval in 5215) [ClassicSimilarity], result of:
              0.020632647 = score(doc=5215,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.13368362 = fieldWeight in 5215, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5215)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)