Search (27 results, page 1 of 2)

  • × theme_ss:"Hypertext"
  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Tredinnick, L.: Post-structuralism, hypertext, and the World Wide Web (2007) 0.03
    0.029142875 = product of:
      0.13600008 = sum of:
        0.077929266 = weight(_text_:wide in 650) [ClassicSimilarity], result of:
          0.077929266 = score(doc=650,freq=6.0), product of:
            0.1312982 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.029633347 = queryNorm
            0.5935288 = fieldWeight in 650, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0546875 = fieldNorm(doc=650)
        0.042278 = weight(_text_:web in 650) [ClassicSimilarity], result of:
          0.042278 = score(doc=650,freq=6.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.43716836 = fieldWeight in 650, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=650)
        0.015792815 = weight(_text_:information in 650) [ClassicSimilarity], result of:
          0.015792815 = score(doc=650,freq=10.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.3035872 = fieldWeight in 650, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=650)
      0.21428572 = coord(3/14)
    
    Abstract
    Purpose - The purpose of this paper is to explore the application of post-structuralist theory to understanding hypertext and the World Wide Web, and the challenge posed by digital information technology to the practices of the information profession. Design/methodology/approach - The method adopted is that of a critical study. Findings - The paper argues for the importance of post-structuralism for an understanding of the implications of digital information for the information management profession. Originality/value - Focuses on an epistemological gap between the traditional practices of the information profession, and the structure of the World Wide Web.
  2. Picard, J.; Savoy, J.: Enhancing retrieval with hyperlinks : a general model based on propositional argumentation systems (2003) 0.03
    0.028293263 = product of:
      0.09902642 = sum of:
        0.032137483 = weight(_text_:wide in 1427) [ClassicSimilarity], result of:
          0.032137483 = score(doc=1427,freq=2.0), product of:
            0.1312982 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.029633347 = queryNorm
            0.24476713 = fieldWeight in 1427, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1427)
        0.02465703 = weight(_text_:web in 1427) [ClassicSimilarity], result of:
          0.02465703 = score(doc=1427,freq=4.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.25496176 = fieldWeight in 1427, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1427)
        0.008737902 = weight(_text_:information in 1427) [ClassicSimilarity], result of:
          0.008737902 = score(doc=1427,freq=6.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.16796975 = fieldWeight in 1427, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1427)
        0.033494003 = weight(_text_:retrieval in 1427) [ClassicSimilarity], result of:
          0.033494003 = score(doc=1427,freq=10.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.37365708 = fieldWeight in 1427, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1427)
      0.2857143 = coord(4/14)
    
    Abstract
    Fast, effective, and adaptable techniques are needed to automatically organize and retrieve information an the ever-increasing World Wide Web. In that respect, different strategies have been suggested to take hypertext links into account. For example, hyperlinks have been used to (1) enhance document representation, (2) improve document ranking by propagating document score, (3) provide an indicator of popularity, and (4) find hubs and authorities for a given topic. Although the TREC experiments have not demonstrated the usefulness of hyperlinks for retrieval, the hypertext structure is nevertheless an essential aspect of the Web, and as such, should not be ignored. The development of abstract models of the IR task was a key factor to the improvement of search engines. However, at this time conceptual tools for modeling the hypertext retrieval task are lacking, making it difficult to compare, improve, and reason an the existing techniques. This article proposes a general model for using hyperlinks based an Probabilistic Argumentation Systems, in which each of the above-mentioned techniques can be stated. This model will allow to discover some inconsistencies in the mentioned techniques, and to take a higher level and systematic approach for using hyperlinks for retrieval.
    Footnote
    Beitrag eines Themenheftes: Mathematical, logical, and formal methods in information retrieval
    Source
    Journal of the American Society for Information Science and technology. 54(2003) no.4, S.347-355
  3. Kinnell, S.K.; Franklin, C.: Hypertext and hypercard : early development (2009) 0.03
    0.026236212 = product of:
      0.12243565 = sum of:
        0.06362897 = weight(_text_:wide in 3788) [ClassicSimilarity], result of:
          0.06362897 = score(doc=3788,freq=4.0), product of:
            0.1312982 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.029633347 = queryNorm
            0.4846142 = fieldWeight in 3788, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3788)
        0.048818428 = weight(_text_:web in 3788) [ClassicSimilarity], result of:
          0.048818428 = score(doc=3788,freq=8.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.50479853 = fieldWeight in 3788, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3788)
        0.009988253 = weight(_text_:information in 3788) [ClassicSimilarity], result of:
          0.009988253 = score(doc=3788,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.1920054 = fieldWeight in 3788, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3788)
      0.21428572 = coord(3/14)
    
    Abstract
    The ease of linking and hopping from one text to another that we associate today with the World Wide Web was implemented in a different context prior to the Web. The creation of "hypertext" has a long and interesting history prior to the Web, as this article demonstrates. At the time it was issued, the HyperCard software application was expected to be the foundation of a widely-used new means of information organization. We can see now that the key ideas of hypertext were present in HyperCard, without the ease of use of subsequent World Wide Web features.
    Source
    Encyclopedia of library and information sciences. 3rd ed. Ed.: M.J. Bates
  4. Hammwöhner, R.: Hypertext (2004) 0.02
    0.020851811 = product of:
      0.072981335 = sum of:
        0.025709987 = weight(_text_:wide in 2937) [ClassicSimilarity], result of:
          0.025709987 = score(doc=2937,freq=2.0), product of:
            0.1312982 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.029633347 = queryNorm
            0.1958137 = fieldWeight in 2937, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.03125 = fieldNorm(doc=2937)
        0.013948122 = weight(_text_:web in 2937) [ClassicSimilarity], result of:
          0.013948122 = score(doc=2937,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.14422815 = fieldWeight in 2937, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=2937)
        0.029287368 = weight(_text_:elektronische in 2937) [ClassicSimilarity], result of:
          0.029287368 = score(doc=2937,freq=2.0), product of:
            0.14013545 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.029633347 = queryNorm
            0.20899329 = fieldWeight in 2937, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.03125 = fieldNorm(doc=2937)
        0.0040358636 = weight(_text_:information in 2937) [ClassicSimilarity], result of:
          0.0040358636 = score(doc=2937,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.0775819 = fieldWeight in 2937, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=2937)
      0.2857143 = coord(4/14)
    
    Abstract
    Seit dem ersten internationalen Workshop über Hypertextsysteme 1987 in Chapel Hill hat das Hypertext-Gebiet eine außerordentlich dynamische Entwicklung erfahren. Hypertext-Komponenten sind in eine Vielzahl von Informationssystemen und Benutzungsoberflächen integriert, ohne dass sie - wie z.B. bei Dateisystemen - noch als solche wahrgenommen würden. Das World Wide Web (WWW) hat sich als weltumspannendes Medium etabliert, dessen konsistente Weiterentwicklung durch stets erweiterte Standards von einer eigenen Organisation, dem WWW-Consortium gesteuert wird. Elektronische Bücher kann man auf CD-ROM in fast jeder mittelgroßen Buchhandlung kaufen. Große Firmen setzen auf die Weiterbildung ihrer Mitarbeiter durch virtuelle, oft hypertext-basierte Lehre, für die wiederum eigene Standards-z.B. das Shareable Content Object Reference Model (Storm) - entwickelt werden. Dieser weite Einsatzbereich bringt allerdings auch ein erhebliches methodisches Problem mit sich. Hinter den disparaten Anforderungen der jeweiligen Einsatzgebiete droht eine zusammenhängende Theorie von Hypertext zu verschwinden. Ob eine solche überhaupt zu formulieren ist, ist ohnehin fraglich. Schon eine umfassende Theorie von Text konnte bisher nicht oder nur auf sehr abstraktem Niveau formuliert werden. Die im Zusammenhang mit dem Aufbau und der Nutzung von Hypertexten und Hypertextsystemen auftretenden Fragestellungen sind vielfach interdisziplinärer Natur, die z.T. auch einzelwissenschaftlich mit etwas verengter Perspektive untersucht werden. Die Informatik sieht in Hypertext eine Spezialform multimedialer Systeme, die besonders unter dem Gesichtspunkt der Datenverwaltung, bestehender Kommunikationsstandards und Software-Architekturen zu untersuchen sind. Lerntheorien aus Pädagogik und Psychologie sind die Grundlage für den Aufbau und die Nutzung von Lehrhypertexten. Hyperfiction - hypermediale Belletristik- profitiert von und speist sich aus den Strömungen der gegenwärtigen Literaturtheorie. Hier soll Hypertext vor allem unter informationswissenschaftlichen Fragestellungen behandelt werden. Einer kurzen definitorischen Eingrenzung des Gegenstands folgen texttheoretische Überlegungen zum Hypertext. Sodann wird auf die Informationssuche in Hypertexten und die Gestaltung von Hypertexten eingegangen.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  5. Heo, M.; Hirtle, S.C.: ¬An empirical comparison of visualization tools to assist information retrieval on the Web (2001) 0.02
    0.019669242 = product of:
      0.068842344 = sum of:
        0.025709987 = weight(_text_:wide in 5215) [ClassicSimilarity], result of:
          0.025709987 = score(doc=5215,freq=2.0), product of:
            0.1312982 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.029633347 = queryNorm
            0.1958137 = fieldWeight in 5215, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.03125 = fieldNorm(doc=5215)
        0.024158856 = weight(_text_:web in 5215) [ClassicSimilarity], result of:
          0.024158856 = score(doc=5215,freq=6.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.24981049 = fieldWeight in 5215, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=5215)
        0.0069903214 = weight(_text_:information in 5215) [ClassicSimilarity], result of:
          0.0069903214 = score(doc=5215,freq=6.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.1343758 = fieldWeight in 5215, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=5215)
        0.0119831795 = weight(_text_:retrieval in 5215) [ClassicSimilarity], result of:
          0.0119831795 = score(doc=5215,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.13368362 = fieldWeight in 5215, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03125 = fieldNorm(doc=5215)
      0.2857143 = coord(4/14)
    
    Abstract
    The reader of a hypertext document in a web environment, if maximum use of the document is to be obtained, must visualize the overall structure of the paths through the document as well as the document space. Graphic visualization displays of this space, produced to assist in navigation, are classified into four groups, and Heo and Hirtle compare three of these classes as to their effectiveness. Distortion displays expand regions of interest while relatively diminishing the detail of the remaining regions. This technique will show both local detail and global structure. Zoom techniques use a series of increasingly focused displays of smaller and smaller areas, and can reduce cogitative overload, but do not provide an easy movement to other parts of the total space. Expanding outline displays use a tree structure to allow movement through a hierarchy of documents, but if the organization has a wide horizontal structure, or is not particularly hierarchical in nature such display can break down. Three dimensional layouts, which are not evaluated here, place objects by location in three space, providing more information and freedom. However, the space must be represented in two dimensions resulting in difficulty in visually judging depth, size and positioning. Ten students were assigned to each of eight groups composed of viewers of the three techniques and an unassisted control group using either a large (583 selected pages) or a small (50 selected pages) web space. Sets of 10 questions, which were designed to elicit the use of a visualization tool, were provided for each space. Accuracy and time spent were extracted from a log file. Users views were also surveyed after completion. ANOVA shows significant differences in accuracy and time based upon the visualization tool in use. A Tukey test shows zoom accuracy to be significantly less than expanding outline and zoom time to be significantly greater than both the outline and control groups. Size significantly affected accuracy and time, but had no interaction with tool type. While the expanding tool class out performed zoom and distortion, its performance was not significantly different from the control group.
    Source
    Journal of the American Society for Information Science and technology. 52(2001) no.8, S.666-675
  6. Felker, K.: Ariadne's thread : hypertext, writing, and the World Wide Web (2002) 0.02
    0.01835876 = product of:
      0.12851131 = sum of:
        0.07271883 = weight(_text_:wide in 2832) [ClassicSimilarity], result of:
          0.07271883 = score(doc=2832,freq=4.0), product of:
            0.1312982 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.029633347 = queryNorm
            0.5538448 = fieldWeight in 2832, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0625 = fieldNorm(doc=2832)
        0.05579249 = weight(_text_:web in 2832) [ClassicSimilarity], result of:
          0.05579249 = score(doc=2832,freq=8.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.5769126 = fieldWeight in 2832, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=2832)
      0.14285715 = coord(2/14)
    
    Abstract
    Examines the concept of hypertext and how it relates to the World Wide Web, along with a discussion of why this is important to librarians. Includes examples of library Web pages and products that take advantage of the medium and some that do not, along with a specific discussion of crafting text, structure and linking for the Web.
  7. Yang, C.C.; Liu, N.: Web site topic-hierarchy generation based on link structure (2009) 0.01
    0.014171024 = product of:
      0.06613144 = sum of:
        0.052305456 = weight(_text_:web in 2738) [ClassicSimilarity], result of:
          0.052305456 = score(doc=2738,freq=18.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.5408555 = fieldWeight in 2738, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2738)
        0.0071344664 = weight(_text_:information in 2738) [ClassicSimilarity], result of:
          0.0071344664 = score(doc=2738,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.13714671 = fieldWeight in 2738, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2738)
        0.0066915164 = product of:
          0.020074548 = sum of:
            0.020074548 = weight(_text_:22 in 2738) [ClassicSimilarity], result of:
              0.020074548 = score(doc=2738,freq=2.0), product of:
                0.103770934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029633347 = queryNorm
                0.19345059 = fieldWeight in 2738, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2738)
          0.33333334 = coord(1/3)
      0.21428572 = coord(3/14)
    
    Abstract
    Navigating through hyperlinks within a Web site to look for information from one of its Web pages without the support of a site map can be inefficient and ineffective. Although the content of a Web site is usually organized with an inherent structure like a topic hierarchy, which is a directed tree rooted at a Web site's homepage whose vertices and edges correspond to Web pages and hyperlinks, such a topic hierarchy is not always available to the user. In this work, we studied the problem of automatic generation of Web sites' topic hierarchies. We modeled a Web site's link structure as a weighted directed graph and proposed methods for estimating edge weights based on eight types of features and three learning algorithms, namely decision trees, naïve Bayes classifiers, and logistic regression. Three graph algorithms, namely breadth-first search, shortest-path search, and directed minimum-spanning tree, were adapted to generate the topic hierarchy based on the graph model. We have tested the model and algorithms on real Web sites. It is found that the directed minimum-spanning tree algorithm with the decision tree as the weight learning algorithm achieves the highest performance with an average accuracy of 91.9%.
    Date
    22. 3.2009 12:51:47
    Source
    Journal of the American Society for Information Science and Technology. 60(2009) no.3, S.495-508
  8. Jünger, G.: ¬Ein neues Universum (2003) 0.01
    0.009921361 = product of:
      0.04629968 = sum of:
        0.018179707 = weight(_text_:wide in 1553) [ClassicSimilarity], result of:
          0.018179707 = score(doc=1553,freq=4.0), product of:
            0.1312982 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.029633347 = queryNorm
            0.1384612 = fieldWeight in 1553, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.015625 = fieldNorm(doc=1553)
        0.01708289 = weight(_text_:web in 1553) [ClassicSimilarity], result of:
          0.01708289 = score(doc=1553,freq=12.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.17664269 = fieldWeight in 1553, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.015625 = fieldNorm(doc=1553)
        0.0110370815 = weight(_text_:bibliothek in 1553) [ClassicSimilarity], result of:
          0.0110370815 = score(doc=1553,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.09072026 = fieldWeight in 1553, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.015625 = fieldNorm(doc=1553)
      0.21428572 = coord(3/14)
    
    Abstract
    Autorenrechte statt Geschäften der Medienkonzerne: Das Wolrd Wide Web von heute bleibt weit hinter den Möglichkeiten zurück, die das System 'Xanadu' schon vor 40 Jahren entworfen hatte
    Content
    Eine stetige Erfahrung der Techniksoziologie und -geschichte besagt, dass sich wirklich neue Konzepte, die ihrer Zeit vorauseilen, am Ende nicht durchsetzen können. Erfolg haben stattdessen mittelmäßige Nachbildungen der ersten Idee, die dann, um periphere Funktionen und Dekorationen erweitert, als große Innovationen auftreten. Beispiele für zweitbeste Lösungen, von denen jeder weiß, dass sie nur Krücken sind, liefert gerade die Informatik in großer Zahl. Das Gespann der Programmiersprachen Smalltalk und C++ gehört dazu, aber auch das World Wide Web, das wir heute kennen, bleibt weit hinter Konzepten eines universalen, globalen Informationssystems zurück, die lange vor der Definition des Hypertext-Protokolls durch Tim Berners-Lee entwickelt worden sind. Die Frage nach der technischen Vorgeschichte und ihren verpassten Chancen ist keineswegs nur von akademischem Interesse. Das "Xanadu" genannte System, das zum ersten Mal das weltweit vorhandene Wissen in digitaler Form radikal demokratisieren wollte, kann sehr gut als Folie dienen für die Diskussion über die zukünftige Entwicklung des WWW. Zweifellos ist der Wunsch, möglichst viel Wissen anzuhäufen, uralt. Er hat die Errichter der Bibliothek von Alexandria angetrieben, die kopierenden und kommentierenden Mönche des Mittelalters oder die Enzyklopädisten des 18. Jahrhunderts in Frankreich. Spätestens seit dem 20. Jahrhundert war die pure Menge des nun Wissbaren so nicht mehr zu bewältigen. Über die materielle Ablage der Dokumente hinaus mussten neue Organisationsprinzipien gefunden werden, um den Berg zu erschließen und seine Bestandteile untereinander in nutzbarer Weise zu verbinden. Nur dann konnte eine Wissenschaftlerin oder ein Wissenschaftler jetzt noch in vertretbarer Zeit zum aktuellen Wissensstand auf einem Gebiet aufschließen. Im Epochenjahr 1945 entwarf Vannevar Bush, ein wissenschaftlicher Berater von Roosevelt während des Zweiten Weltkriegs, eine erste Antwort auf die Frage nach einem solchen Organisationsprinzip. Er nannte sein System "Memex" (Memory Extender), also "Gedächtniserweiterer". Wissen sollte in der Form von Mikrofilmen archiviert und die dabei erzeugten Einzelbestandteile sollten so mit einander verknüpft werden, dass das sofortige Aufsuchen von Verweisen möglich würde. Technisch misslang das System, mit Hilfe von Mikrofilmen ließ es sich wohl kaum realisieren. Aber der Gedanke war formuliert, dass große Wissensbestände nicht unbedingt in separaten Dokumenten und überwiegend linear (Seite 2 folgt auf Seite 1) angeordnet zu werden brauchten. Sie können durch interne Verknüpfungen zwischen Einzelseiten zu etwas Neuem zusammengefügt werden. Der Flugzeugingenieur Douglas Engelbart las schon in den Vierzigerjahren von Bushs Idee. Ihm gebührt das Verdienst, sie auf die neue Technik der digitalen Computer übertragen zu haben. Eine Sitzung der "Fall Joint Computer Conference" im Jahr 1968 demonstrierte seine "NLS" (oN Line System) genannte Verwirklichung des Memex-Konzepts in der Praxis und war für viele Teilnehmer die Initialzündung zu eigenen Versuchen auf diesem Gebiet. NLS war ein riesiges Journal von einzelnen Memos und Berichten eines Vorgängerprojekts, das es den beteiligten Wissenschaftlern erlaubte, über adressierte Verweise unmittelbar zu einem benachbarten Dokument zu springen - ein Netz aus Knoten und `Kanten, dem nur noch ein geeigneter Name für seine neue Eigenschaft fehlte:
    - Hypertext - Nicht nur den Namen "Hypertext" für ein solches Netz, sondern auch entscheidende Impulse zu einer konkreten Ausgestaltung eines durch Links verknüpften Netzes steuerte ab 1965 Ted Nelson bei. Sein mit dem Namen "Xanadu" verbundenes Wissenschaftsnetz gibt noch heute die Messlatte ab, an der sich das WWW behaupten muss. Nelson versuchte, sein Konzept auch kommerziell zum Erfolg zu bringen. Zeitweise konnte er auf ein starkes finanzielles Engagement der CAD-Firma Autodesk rechnen, die sich jedoch nach ausbleibenden Erfolgen aus diesem Engagement zurückzog. Heute ist der Quellcode der Software frei zugänglich, und die Website xanadu.net informiert über die Aktivitäten der kleinen Xanadu-Gemeinde von heute. Nelson selbst stellt sein Projekt als ein geschlossenes System von Dokumenten dar, dessen Zugang man ähnlich erwirbt wie den zu einem Provider oder zum Zahlfernsehen. Dokumente werden in diesem aus vernetzten Computern bestehenden System binär gespeichert, unabhängig davon, ob im einzelnen Dokument Bilder, Müsik, Text oder sonst etwas vorliegen. Sie zerfallen in winzige, aber identifizierbare Bestandteile, so dass jeder Dokumententeil mit einer eindeutigen ID versehen ist und einem bestimmten Autor zugeordnet werden kann. Liest ein Leser ein Dokumententeil in Xanadu, wird dadurch automatisch eine Gutschrift für das Konto des Urhebers des Dokuments erzeugt. Wie im existierenden Web sind einzelne Wörter, Bilder oder andere Medieninhalte Anker zu Verweisen auf andere Dokumentenbestandteile, die sich per Mausklick aufrufen lassen. Im Unterschied zum Web aber führt der Weg nicht nur in eine Richtung. Stichwort A verweist nicht nur auf X, sondern X macht auch alle Dokumente kenntlich, von denen aus auf X gezeigt wird. Es ist also jederzeit nachvollziehbar, wo überall von einem Dokument Gebrauch gemacht wird. Dadurch lässt sich überprüfen, ob ein als Beleg verwendeter Verweis zu Recht oder zu Unrecht angegeben wird.
    - Forschungsdebatten - Die Vorteile dieses Systems vor dem Web liegen auf der Hand: Alle Urheberrechte sind grundsätzlich und zugunsten der tatsächlichen Autoren geregelt, auch im Falle der Belletristik, die in der Regel nur konsumiert wird. Darüber hinaus profitierte die wissenschaftliche Arbeit von der Möglichkeit, Texte zu kommentieren oder vorhandene Argumentationen zitierend in die eigene Darstellung aufzunehmen. Forschungsdebatten sind jederzeit an jeder Stelle möglich - und zugänglich werden sie durch die Funktion, Änderungsanzeigen für bestimmte Knoten abonnieren, zu können. Damit wird es einem Autor möglich, auf eine Entgegnung zügig zu antworten. So können nicht nur einzelne Knoten, sondern ganze Knotennetze bearbeitet werden. Man kann also eine vorhandene Darstellung zustimmend übernehmen, aber die zwei, drei Zusatzpunkte hinzufügen, in denen die eigene Meinung vom Knotenstandard abweicht. Schließlich schafft ein System wie Xanadu mit Versionskontrolle und garantiertem Speicherplatz ein Dauerproblem des vorhandenen Webs mit seinen toten Links aus der Welt und erzeugt mit dem eingebauten Dokumentenvergleich ein Maximum an Übersicht.
    - Technische Hürden - Bleibt die Frage, weshalb Xanadu mit seiner Vision, das Weltwissen one mouse-click away erreichbar zu machen - Nelson spricht gar von einem docuverse -, bislang so erfolglos blieb. Ernst zu nehmen sind zunächst die technischen Anforderungen, die Xanadu stellt. Sie beginnen bei einer Editorensoftware, die die Autorenkennungen- vorhandener und zitierter Dokumentknoten bewahrt. Dass diese Software am Ende weniger techniklastig ist als die heutigen HTML-Editoren, wie Nelson annimmt, darf bezweifelt werden. Hinzu kommen Anforderungen an Rechnersysteme und Verwaltungsaufgaben: Da Xanadu ein konsistentes Dokumentmanagement garantieren und Dokumente für den Notfall auch redundant auf mehreren Rechnern gleichzeitig vorhalten muss, wären die technischen und Managementherausforderungen für ein aus zig Milliarden Dokumenten bestehendes System beachtlich. Andere Gründe sind prinzipieller Art: Die Bereitschaft, für Inhalte auch nur mit kleinen Beiträgen zu zahlen, ist bei den meisten. Internetnutzern als recht gering anzusetzen. Anders ließe sich das Scheitern vieler Anbieter für Bezahlinhalte im bestehenden Web kaum interpretieren. Möglicherweise gibt es auch einen latenten Widerwillen, einer zentralen und weltweit auftretenden Organisation- und trete sie mit noch so ehrenhaften Zielen an - die Aufgabe anzuvertrauen, das Weltwissen abzulegen. Hier hat offenbar - Ironie der Geschichte - das Computernetz des Militärs die Nase vorn, das aus Gründen eines auch in der Katastrophe funktionierenden Systems auf stets austauschbare Rechner setzt und das Chaos ins Kalkül aufgenommen hat. Es ist daher absehbar, dass sich Xanadu in der skizzierten Form nicht mehr durchsetzen wird. Damit ist wahrscheinlich auch eine Chance für eine neue Internetarchitektur vertan. Was als Wunsch aber für die Weiterentwicklung des bestehenden Webs nicht laut genug vorgebracht werden kann, ist, dass die Visionen und konkreten Möglichkeiten von Xanadu stärker berücksichtigt werden sollten. Vielleicht sind die Aversionen gegen zentral geregelte Systeme aber immerhin dazu gut, dass das ".Net"; das Lieblingsprojekt des Softwaregiganten Microsoft, zu einem offenen System umgewandelt wird.
  9. Agosti, M.; Melucci, M.: Information retrieval techniques for the automatic construction of hypertext (2000) 0.01
    0.008845377 = product of:
      0.061917633 = sum of:
        0.019976506 = weight(_text_:information in 4671) [ClassicSimilarity], result of:
          0.019976506 = score(doc=4671,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.3840108 = fieldWeight in 4671, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.109375 = fieldNorm(doc=4671)
        0.04194113 = weight(_text_:retrieval in 4671) [ClassicSimilarity], result of:
          0.04194113 = score(doc=4671,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.46789268 = fieldWeight in 4671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.109375 = fieldNorm(doc=4671)
      0.14285715 = coord(2/14)
    
    Source
    Encyclopedia of library and information science. Vol.66, [=Suppl.29]
  10. Kim, H.J.: Motivations for hyperlinking in scholarly electronic articles : a qualitative study (2000) 0.01
    0.008330809 = product of:
      0.058315657 = sum of:
        0.051252894 = weight(_text_:elektronische in 4989) [ClassicSimilarity], result of:
          0.051252894 = score(doc=4989,freq=2.0), product of:
            0.14013545 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.029633347 = queryNorm
            0.36573824 = fieldWeight in 4989, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4989)
        0.0070627616 = weight(_text_:information in 4989) [ClassicSimilarity], result of:
          0.0070627616 = score(doc=4989,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.13576832 = fieldWeight in 4989, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4989)
      0.14285715 = coord(2/14)
    
    Form
    Elektronische Dokumente
    Source
    Journal of the American Society for Information Science. 51(2000) no.10, S.887-899
  11. Amitay, E.: Trends, fashions, patterns, norms, conventions and hypertext too (2001) 0.01
    0.0076331273 = product of:
      0.053431887 = sum of:
        0.039451245 = weight(_text_:web in 5192) [ClassicSimilarity], result of:
          0.039451245 = score(doc=5192,freq=4.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.4079388 = fieldWeight in 5192, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=5192)
        0.013980643 = weight(_text_:information in 5192) [ClassicSimilarity], result of:
          0.013980643 = score(doc=5192,freq=6.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.2687516 = fieldWeight in 5192, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=5192)
      0.14285715 = coord(2/14)
    
    Abstract
    At a finer level, Amitay speculates about the use of language on the Web. The Web may be one large corpus of text, but she suggests that communities will express themselves by the conventions used for writing hypertext. It may be that new information technologies will spawn new communities.
    Footnote
    Beitrag eines Themenheftes: Still the Frontier: Information Science at the Millenium
    Source
    Journal of the American Society for Information Science and technology. 52(2001) no.1, S.36-43
  12. Maislin, S.: Ripping out the pages (2000) 0.01
    0.0050347717 = product of:
      0.0352434 = sum of:
        0.03019857 = weight(_text_:web in 220) [ClassicSimilarity], result of:
          0.03019857 = score(doc=220,freq=6.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.3122631 = fieldWeight in 220, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=220)
        0.0050448296 = weight(_text_:information in 220) [ClassicSimilarity], result of:
          0.0050448296 = score(doc=220,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.09697737 = fieldWeight in 220, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=220)
      0.14285715 = coord(2/14)
    
    Abstract
    When the Web was invented, it was touted as a novel nonlinear medium for the written word. No longer would we be constrained by linear presentations! Hyperlinks would allow us to jump haphazardly from page to page, chapter to chapter, idea to idea! Texts would no longer need to run from beginning to end! This is misleading. A printed book is also multidimensional and potentially nonlinear. We can open it to any page, from any other page, for any reason. We can open several books at once. In fact, what makes a book special is its combination of linear structure (the order of the words) and nonlinear physicality (the bound papers). This linear/nonlinear duality is enhanced further by the index, which maps linearly sequenced pages in a nonlinear, informationally ordered structure (architecture). In truth, the online environment is crippled by an absence of linear structure. Imagine selecting a hard cover book, tearing off the covers, ripping pages into small pieces, and throwing them in a box. That box is like a computer file system, and the paper scraps are Web documents. Only one scrap can be retrieved from the box at a time, and it must be replaced before another can be accessed. Page numbers are meaningless. Global context is destroyed. And without page numbers or context, what happens to the index?
    Imprint
    Phoenix, AZ : American Society of Indexers / Information Today
    Issue
    Beyond book indexing: how to get started in Web indexing, embedded indexing and other computer-based media. Ed. by D. Brenner u. M. Rowland.
  13. Theyßen, H.; Vierschilling, N.: Entwicklung einer hypermedialen Lernumgebung für die naturwissenschaftliche Nebenfachausbildung : Ein gemeinsames DFG-Projekt der Physikalischen Grundpraktika der Heinrich-Heine Universität und der Universitäts- und Landesbibliothek Düsseldorf (2001) 0.00
    0.0039021978 = product of:
      0.054630768 = sum of:
        0.054630768 = weight(_text_:bibliothek in 5778) [ClassicSimilarity], result of:
          0.054630768 = score(doc=5778,freq=4.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.44904238 = fieldWeight in 5778, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5778)
      0.071428575 = coord(1/14)
    
    Abstract
    Multimediale Lernumgebungen werden bislang von wissenschaftlichen Bibliotheken in Form von CD-ROMs zur Verfügung gestellt oder über Hyperlinks zu Angeboten von Fachbereichen, die von diesen selbst verwaltet und gepflegt werden. Ober diese Angebote hat Monika Cremer in ihrem Artikel "Multimedia in deutschen Bibliotheken" einen breiten Oberblick gegeben. An dieser Stelle soll ein seit dem 1.10.2000 laufendes Projekt vorgestellt werden, bei dem die Bibliothek schon in die Entwicklung der Lernumgebung einbezogen ist und die Verwaltung sowie die Distribution vollständig übernimmt. Dadurch wird das Dienstleistungsspektrum der Bibliothek sowohl gegenüber den Fachbereichen als auch gegenüber den Studierenden signifikant erweitert
  14. Melucci, M.: Making digital libraries effective : automatic generation of links for similarity search across hyper-textbooks (2004) 0.00
    0.003790876 = product of:
      0.02653613 = sum of:
        0.00856136 = weight(_text_:information in 2226) [ClassicSimilarity], result of:
          0.00856136 = score(doc=2226,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.16457605 = fieldWeight in 2226, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=2226)
        0.01797477 = weight(_text_:retrieval in 2226) [ClassicSimilarity], result of:
          0.01797477 = score(doc=2226,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.20052543 = fieldWeight in 2226, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=2226)
      0.14285715 = coord(2/14)
    
    Abstract
    Textbooks are more available in electronic format now than in the past. Because textbooks are typically large, the end user needs effective tools to rapidly access information encapsulated in textbooks stored in digital libraries. Statistical similarity-based links among hypertextbooks are a means to provide those tools. In this paper, the design and the implementation of a tool that generates networks of links within and across hypertextbooks through a completely automatic and unsupervised procedure is described. The design is based an statistical techniques. The overall methodology is presented together with the results of a case study reached through a working prototype that shows that connecting hyper-textbooks is an efficient way to provide an effective retrieval capability.
    Source
    Journal of the American Society for Information Science and technology. 55(2004) no.5, S.414-430
  15. Kuhlen, R.; Bekavac, B.; Griesbaum, J.; Schütz, T.; Semar, W.: ENFORUM, ein Instrument des Wissensmanagements in Forschung und Ausbildung im Informationswesen (2002) 0.00
    0.0036609212 = product of:
      0.051252894 = sum of:
        0.051252894 = weight(_text_:elektronische in 928) [ClassicSimilarity], result of:
          0.051252894 = score(doc=928,freq=2.0), product of:
            0.14013545 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.029633347 = queryNorm
            0.36573824 = fieldWeight in 928, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.0546875 = fieldNorm(doc=928)
      0.071428575 = coord(1/14)
    
    Abstract
    Die Konzeption von ENFORUM beruht auf einer verteilten Organisation der informationswissenschaftlichen Kompetenzzentren im deutschsprachigen Bereich und der kooperativen Erarbeitung von ENFORUM-Einträgen über elektronische Kommunikationsforen. ENFORUM wird zum einen in den wissenschaftlichen Kontext elektronischer Wörterbücher und Enzyklopädien eingeordnet, zum anderen werden Vor- und Nachteile asynchroner elektronischer Kommunikation diskutiert, mit dem Ergebnis, dass die Kompensationsleistung von Moderatoren in Kommunikationsforen für den Erfolg der Diskurse unabdingbar ist. Der aktuelle Stand von ENFORUM (März 2002) wird vorgestellt. ENFORUM ist ein voll operatives System mit adaptiver Benutzerverwaltung, flexiblen Such- und Navigationsformen und ersten Funktionen in Richtung Wissensplattform. Überlegungen zur funktionalen Weiterentwicklung von ENFORUM und zum Einsatz in der Ausbildung schließen den Artikel ab.
  16. Karampiperis, P.; Sampson, D.: Supporting accessible hypermedia in web-based educational systems : defining an accessibility application profile for learning resources (2004) 0.00
    0.0021134596 = product of:
      0.029588435 = sum of:
        0.029588435 = weight(_text_:web in 5924) [ClassicSimilarity], result of:
          0.029588435 = score(doc=5924,freq=4.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.3059541 = fieldWeight in 5924, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=5924)
      0.071428575 = coord(1/14)
    
    Abstract
    The design and development of web-based educational systems for people with special abilities have recently attracted the attention of the research community. However, although a number of systems that claim to meet accessibility needs and preferences are proposed, most of them are typically supported by hypermedia and multimedia educational content that is specially designed for the user targeted group. Such approaches prevent their user groups (both learners and their tutors) from accessing other available resources. Therefore, it is important to be able to built generic e-learning systems that would allow the reuse of existing learning resources in different accessibility demanding applications. To this end, in this article we propose a methodology for defining an accessibility application profile that captures the accessibility properties of learning objects in a standard form and we examine its application to the IEEE Learning Object Metadata (LOM) standard.
  17. Ihadjadene, M.; Bouché, R.; Zâafrani, R.: ¬The dynamic nature of searching and browsing on Web-OPACs : the CATHIE experience (2000) 0.00
    0.001245368 = product of:
      0.017435152 = sum of:
        0.017435152 = weight(_text_:web in 118) [ClassicSimilarity], result of:
          0.017435152 = score(doc=118,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.18028519 = fieldWeight in 118, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=118)
      0.071428575 = coord(1/14)
    
  18. Wingert, B.: Hypertext Conference 2000 in San Antonio (2000) 0.00
    0.001008966 = product of:
      0.014125523 = sum of:
        0.014125523 = weight(_text_:information in 2250) [ClassicSimilarity], result of:
          0.014125523 = score(doc=2250,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.27153665 = fieldWeight in 2250, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.109375 = fieldNorm(doc=2250)
      0.071428575 = coord(1/14)
    
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.6, S.379-386
  19. Weal, M.J.; Michaelides, D.T.; Thompson, M.K.; Roure, D.C. de: Hypermedia in the ambient wood (2003) 0.00
    9.986174E-4 = product of:
      0.013980643 = sum of:
        0.013980643 = weight(_text_:information in 5928) [ClassicSimilarity], result of:
          0.013980643 = score(doc=5928,freq=6.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.2687516 = fieldWeight in 5928, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=5928)
      0.071428575 = coord(1/14)
    
    Abstract
    The Ambient Wood project, carried out as part of the Equator project, set out to provide an augmented learning experience for children in an outdoor environment. Using a variety of devices, the children gathered information about the woodland habitats performing basic scientific enquiry and hypothesis testing. In this paper, we describe the supporting information infrastructure used in the project, focusing on how hypermedia tools and techniques were used to structure and deliver the information to the children, helping to orchestrate the learning activities.
  20. Kerckhove, D. de: Medien des Wissens : Wissensherstellung auf Papier, auf dem Bildschirm und Online (2000) 0.00
    8.64828E-4 = product of:
      0.012107591 = sum of:
        0.012107591 = weight(_text_:information in 5030) [ClassicSimilarity], result of:
          0.012107591 = score(doc=5030,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.23274569 = fieldWeight in 5030, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.09375 = fieldNorm(doc=5030)
      0.071428575 = coord(1/14)
    
    Theme
    Information