Search (344 results, page 2 of 18)

  • × theme_ss:"Hypertext"
  1. Falquet, G.; Guyot, J.; Nerima, L.: Languages and tools to specify hypertext views on databases (1999) 0.02
    0.016324978 = product of:
      0.07618323 = sum of:
        0.03856498 = weight(_text_:wide in 3968) [ClassicSimilarity], result of:
          0.03856498 = score(doc=3968,freq=2.0), product of:
            0.1312982 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.029633347 = queryNorm
            0.29372054 = fieldWeight in 3968, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.046875 = fieldNorm(doc=3968)
        0.029588435 = weight(_text_:web in 3968) [ClassicSimilarity], result of:
          0.029588435 = score(doc=3968,freq=4.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.3059541 = fieldWeight in 3968, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=3968)
        0.008029819 = product of:
          0.024089456 = sum of:
            0.024089456 = weight(_text_:22 in 3968) [ClassicSimilarity], result of:
              0.024089456 = score(doc=3968,freq=2.0), product of:
                0.103770934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029633347 = queryNorm
                0.23214069 = fieldWeight in 3968, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3968)
          0.33333334 = coord(1/3)
      0.21428572 = coord(3/14)
    
    Abstract
    We present a declarative language for the construction of hypertext views on databases. The language is based on an object-oriented data model and a simple hypertext model with reference and inclusion links. A hypertext view specification consists in a collection of parameterized node schemes which specify how to construct node and links instances from the database contents. We show how this language can express different issues in hypertext view design. These include: the direct mapping of objects to nodes; the construction of complex nodes based on sets of objects; the representation of polymorphic sets of objects; and the representation of tree and graph structures. We have defined sublanguages corresponding to particular database models (relational, semantic, object-oriented) and implemented tools to generate Web views for these database models
    Date
    21.10.2000 15:01:22
    Source
    The World Wide Web and Databases: International Workshop WebDB'98, Valencia, Spain, March 27-28, 1998, Selected papers. Eds.: P. Atzeni et al
  2. E-Text : Strategien und Kompetenzen. Elektronische Kommunikation in Wissenschaft, Bildung und Beruf (2001) 0.02
    0.015006117 = product of:
      0.07002854 = sum of:
        0.013948122 = weight(_text_:web in 622) [ClassicSimilarity], result of:
          0.013948122 = score(doc=622,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.14422815 = fieldWeight in 622, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=622)
        0.05072721 = weight(_text_:elektronische in 622) [ClassicSimilarity], result of:
          0.05072721 = score(doc=622,freq=6.0), product of:
            0.14013545 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.029633347 = queryNorm
            0.361987 = fieldWeight in 622, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.03125 = fieldNorm(doc=622)
        0.0053532133 = product of:
          0.016059639 = sum of:
            0.016059639 = weight(_text_:22 in 622) [ClassicSimilarity], result of:
              0.016059639 = score(doc=622,freq=2.0), product of:
                0.103770934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029633347 = queryNorm
                0.15476047 = fieldWeight in 622, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=622)
          0.33333334 = coord(1/3)
      0.21428572 = coord(3/14)
    
    Abstract
    Elektronische Produktion, Verbreitung und Rezeption von Texten - deren integrative Wechselbeziehungen eingeschlossen - verändern unausweichlich unsere Forschungs-, Lernund Arbeitsbedingungen. In diesem Wandel braucht es Orientierung, Strategien und Kompetenzen. Dieser Band bietet sie in interdisziplinärer Vielfalt. Teil 1 befaßt sich mit Wissen und Wissenschaft. Er spannt den Bogen der Medientheorie von der Antike bis ins 21. Jahrhundert und bietet einen konstruktivistischen Ansatz für das Wissensmanagement. Textsortenkonventionen und Hypertext sind ebenso Schwerpunkte wie empiriegestützte Guidelines und innovative Werkzeuge für das wissenschaftliche Arbeiten. Teil 2 ist Lernumgebungen gewidmet. Reflexionen zur Theorie von hypermedialem Lernen und Kognition werden ergänzt durch ein Produktionssystem für interaktive Software. Eine Felduntersuchungvergleicht Varianten kooperativen Schreibens, ein Schreibdidaktik-Projekt vermittelt zwischen Studium und Beruf. Teil 3 vereint unter dem Titel «Domänen der Praxis» empirische Erhebungen zur Text(re)produktion und elektronischen Kommunikation im Berufsalltag, die Konzeption eines Werkzeugs für die Übersetzungsarbeit und den Ausblick auf kulturspezifische Web-Sites in der Wirtschaft.
    Date
    12. 8.2012 18:05:22
    Form
    Elektronische Dokumente
  3. Dimitroff, A.; Wolfram, D.: Searcher response in a hypertext-based bibliographic information retrieval system (1995) 0.01
    0.014185291 = product of:
      0.06619802 = sum of:
        0.013980643 = weight(_text_:information in 187) [ClassicSimilarity], result of:
          0.013980643 = score(doc=187,freq=6.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.2687516 = fieldWeight in 187, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=187)
        0.041510954 = weight(_text_:retrieval in 187) [ClassicSimilarity], result of:
          0.041510954 = score(doc=187,freq=6.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.46309367 = fieldWeight in 187, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=187)
        0.010706427 = product of:
          0.032119278 = sum of:
            0.032119278 = weight(_text_:22 in 187) [ClassicSimilarity], result of:
              0.032119278 = score(doc=187,freq=2.0), product of:
                0.103770934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029633347 = queryNorm
                0.30952093 = fieldWeight in 187, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=187)
          0.33333334 = coord(1/3)
      0.21428572 = coord(3/14)
    
    Abstract
    This article examines searcher behavior and affective response to a hypertext-based bibliographic information retrieval system called HyperLynx for searchers with different search skills and backgrounds. Search times and number of nodes visited were recorded for five specified search queries, and views of the system were recorded for each searcher. No significant differences were found in search times or user satisfaction with the system, indicating that a hypertext-based approach to bibliographic retrieval could be appropriate for a variety of searcher experience levels
    Source
    Journal of the American Society for Information Science. 46(1995) no.1, S.22-29
  4. Yang, C.C.; Liu, N.: Web site topic-hierarchy generation based on link structure (2009) 0.01
    0.014171024 = product of:
      0.06613144 = sum of:
        0.052305456 = weight(_text_:web in 2738) [ClassicSimilarity], result of:
          0.052305456 = score(doc=2738,freq=18.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.5408555 = fieldWeight in 2738, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2738)
        0.0071344664 = weight(_text_:information in 2738) [ClassicSimilarity], result of:
          0.0071344664 = score(doc=2738,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.13714671 = fieldWeight in 2738, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2738)
        0.0066915164 = product of:
          0.020074548 = sum of:
            0.020074548 = weight(_text_:22 in 2738) [ClassicSimilarity], result of:
              0.020074548 = score(doc=2738,freq=2.0), product of:
                0.103770934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029633347 = queryNorm
                0.19345059 = fieldWeight in 2738, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2738)
          0.33333334 = coord(1/3)
      0.21428572 = coord(3/14)
    
    Abstract
    Navigating through hyperlinks within a Web site to look for information from one of its Web pages without the support of a site map can be inefficient and ineffective. Although the content of a Web site is usually organized with an inherent structure like a topic hierarchy, which is a directed tree rooted at a Web site's homepage whose vertices and edges correspond to Web pages and hyperlinks, such a topic hierarchy is not always available to the user. In this work, we studied the problem of automatic generation of Web sites' topic hierarchies. We modeled a Web site's link structure as a weighted directed graph and proposed methods for estimating edge weights based on eight types of features and three learning algorithms, namely decision trees, naïve Bayes classifiers, and logistic regression. Three graph algorithms, namely breadth-first search, shortest-path search, and directed minimum-spanning tree, were adapted to generate the topic hierarchy based on the graph model. We have tested the model and algorithms on real Web sites. It is found that the directed minimum-spanning tree algorithm with the decision tree as the weight learning algorithm achieves the highest performance with an average accuracy of 91.9%.
    Date
    22. 3.2009 12:51:47
    Source
    Journal of the American Society for Information Science and Technology. 60(2009) no.3, S.495-508
  5. Nickerson, G.: World Wide Web : Hypertext from CERN (1992) 0.01
    0.0141636105 = product of:
      0.09914527 = sum of:
        0.06427497 = weight(_text_:wide in 4535) [ClassicSimilarity], result of:
          0.06427497 = score(doc=4535,freq=2.0), product of:
            0.1312982 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.029633347 = queryNorm
            0.48953426 = fieldWeight in 4535, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.078125 = fieldNorm(doc=4535)
        0.034870304 = weight(_text_:web in 4535) [ClassicSimilarity], result of:
          0.034870304 = score(doc=4535,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.36057037 = fieldWeight in 4535, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.078125 = fieldNorm(doc=4535)
      0.14285715 = coord(2/14)
    
  6. Riehm, U.: Sind elektronische Informationen mehr wert? : ein empirischer Vergleich der Nutzung gleicher Information auf Papier und am Computerbildscirm (1994) 0.01
    0.014108697 = product of:
      0.09876087 = sum of:
        0.08877262 = weight(_text_:elektronische in 8673) [ClassicSimilarity], result of:
          0.08877262 = score(doc=8673,freq=6.0), product of:
            0.14013545 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.029633347 = queryNorm
            0.6334772 = fieldWeight in 8673, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8673)
        0.009988253 = weight(_text_:information in 8673) [ClassicSimilarity], result of:
          0.009988253 = score(doc=8673,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.1920054 = fieldWeight in 8673, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8673)
      0.14285715 = coord(2/14)
    
    Abstract
    In einer Feldstudie wurden 74 Personen über ihre Nutzungserfahrungen in bezug auf eine elektronische oder eine gedruckte Projektkurzdarstellung befragt. Es zeigte sich u.a., daß die elektronische Fassung im Vergleich zur gedruckten deutlich länger genutzt wurde, aber auch unsystematischer. Die jeweilige Medienvariante beeinflußte nur unwesentlich die Fähigkeit, die Inhalte richtig zu reproduzieren. Damit konnte die weit verbreitete These von der generell höheren Leistungsfähigkeit elektronischer Informationssysteme, insbes. Hypertext, nicht bestätigt werden. Empirische, medienvergleichende Studien dieser Art sind noch relativ selten und ihre Ergebnisse sind sehr uneinheitlich. Es werden abschließend einige methodische Schwierigkeiten solcher Studien diskutiert
    Source
    Mehrwert von Information - Professionalisierung der Informationsarbeit: Proceedings des 4. Internationalen Symposiums für Informationswissenschaft (ISI'94), Graz, 2.-4. November 1994. Hrsg.: W. Rauch u.a
  7. Sundaram, A.: ¬The h-journal : a tool to support information work (1996) 0.01
    0.013342534 = product of:
      0.09339774 = sum of:
        0.07321842 = weight(_text_:elektronische in 449) [ClassicSimilarity], result of:
          0.07321842 = score(doc=449,freq=2.0), product of:
            0.14013545 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.029633347 = queryNorm
            0.5224832 = fieldWeight in 449, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.078125 = fieldNorm(doc=449)
        0.020179318 = weight(_text_:information in 449) [ClassicSimilarity], result of:
          0.020179318 = score(doc=449,freq=8.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.38790947 = fieldWeight in 449, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.078125 = fieldNorm(doc=449)
      0.14285715 = coord(2/14)
    
    Abstract
    The h-journal is both a networked information tool and a new, evolving genre of electronic documents that aims to support the information work of practitioners. Discusses the features and application of the h-journal that were needed for information work in health sciences reference librarianship
    Form
    Elektronische Dokumente
  8. Agosti, M.; Smeaton, A.F.: Information retrieval and hypertext (1996) 0.01
    0.012792739 = product of:
      0.08954917 = sum of:
        0.022561163 = weight(_text_:information in 497) [ClassicSimilarity], result of:
          0.022561163 = score(doc=497,freq=10.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.43369597 = fieldWeight in 497, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.078125 = fieldNorm(doc=497)
        0.066988006 = weight(_text_:retrieval in 497) [ClassicSimilarity], result of:
          0.066988006 = score(doc=497,freq=10.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.74731416 = fieldWeight in 497, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.078125 = fieldNorm(doc=497)
      0.14285715 = coord(2/14)
    
    COMPASS
    Information retrieval
    LCSH
    Information retrieval
    Subject
    Information retrieval
    Information retrieval
  9. Hypertext and information retrieval : [Themenheft] (1993) 0.01
    0.012636253 = product of:
      0.08845376 = sum of:
        0.028537866 = weight(_text_:information in 4707) [ClassicSimilarity], result of:
          0.028537866 = score(doc=4707,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.54858685 = fieldWeight in 4707, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.15625 = fieldNorm(doc=4707)
        0.059915897 = weight(_text_:retrieval in 4707) [ClassicSimilarity], result of:
          0.059915897 = score(doc=4707,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.6684181 = fieldWeight in 4707, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.15625 = fieldNorm(doc=4707)
      0.14285715 = coord(2/14)
    
    Source
    Information processing and management. 29(1993), no.3
  10. Lehner, C.: Hypertext und World Wide Web als Hilfen für einen Programmierkurs in Prolog (1998) 0.01
    0.012018222 = product of:
      0.08412755 = sum of:
        0.054539118 = weight(_text_:wide in 6614) [ClassicSimilarity], result of:
          0.054539118 = score(doc=6614,freq=4.0), product of:
            0.1312982 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.029633347 = queryNorm
            0.4153836 = fieldWeight in 6614, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.046875 = fieldNorm(doc=6614)
        0.029588435 = weight(_text_:web in 6614) [ClassicSimilarity], result of:
          0.029588435 = score(doc=6614,freq=4.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.3059541 = fieldWeight in 6614, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=6614)
      0.14285715 = coord(2/14)
    
    Abstract
    Der vorliegende Beitrag zeigt auf, wie sich Neue Medien zur Verbesserung der Qualität der universitären Lehre einsetzen lassen. Exemplarische Vertreter der Neuen Medien sind in diesem Zusammenhang vor allem Hypertext und das auf Hypertext basierende World Wide Web, das dem Internet seit Beginn der Neunziger Jahre zu dem enormen Popularitätsschub verholfen hat. Das WWW bringt nicht nur die vielbeschworene 'Informationsflut' mit sich, sondern es liegt durch das WWW auch ein Werkzeug vor, um Informationen und Wissen optimal zu organisieren und aufzubereiten. Exemplarisch wird an einem Online-Programmierkurs verdeutlicht, wie sich Informations- und Wissensressourcen mit Hilfe der Neuen Medien besser strukturieren und produktiver einsetzen lassen
  11. Li, Z.; Davis, H.; Hall, W.: Hypermedia links and information retrieval (1993) 0.01
    0.011891057 = product of:
      0.083237395 = sum of:
        0.020970963 = weight(_text_:information in 7502) [ClassicSimilarity], result of:
          0.020970963 = score(doc=7502,freq=6.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.40312737 = fieldWeight in 7502, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.09375 = fieldNorm(doc=7502)
        0.06226643 = weight(_text_:retrieval in 7502) [ClassicSimilarity], result of:
          0.06226643 = score(doc=7502,freq=6.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.6946405 = fieldWeight in 7502, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.09375 = fieldNorm(doc=7502)
      0.14285715 = coord(2/14)
    
    Source
    14th Information Retrieval Colloquium: Proceedings of the BCS 14th Information Retrieval Colloquium, University of Lancaster, 13-14 April 1992. Ed.: T. McEnery et al
  12. Sindoni, G.: Incremental maintenance of hypertext views (1999) 0.01
    0.011358904 = product of:
      0.07951232 = sum of:
        0.044992477 = weight(_text_:wide in 3966) [ClassicSimilarity], result of:
          0.044992477 = score(doc=3966,freq=2.0), product of:
            0.1312982 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.029633347 = queryNorm
            0.342674 = fieldWeight in 3966, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3966)
        0.034519844 = weight(_text_:web in 3966) [ClassicSimilarity], result of:
          0.034519844 = score(doc=3966,freq=4.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.35694647 = fieldWeight in 3966, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3966)
      0.14285715 = coord(2/14)
    
    Abstract
    A materialized hypertext view is a hypertext containing data coming from a database and whose pages are stored in files. A Web site presenting data coming from a database is an example of such a view, where the hypertext pages are HTML files. Even if the most popular approach to the generation of such sites is the virtual one, there is also a rationale for a materialized apporach. This paper deals with the maintenance issues required by these derived hypertext to enforce consistency between page content and database state
    Source
    The World Wide Web and Databases: International Workshop WebDB'98, Valencia, Spain, March 27-28, 1998, Selected papers. Eds.: P. Atzeni et al
  13. Frei, H.P.; Stieger, D.: ¬The use of semantic links in hypertext information retrieval (1995) 0.01
    0.010597833 = product of:
      0.07418483 = sum of:
        0.014268933 = weight(_text_:information in 1169) [ClassicSimilarity], result of:
          0.014268933 = score(doc=1169,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.27429342 = fieldWeight in 1169, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.078125 = fieldNorm(doc=1169)
        0.059915897 = weight(_text_:retrieval in 1169) [ClassicSimilarity], result of:
          0.059915897 = score(doc=1169,freq=8.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.6684181 = fieldWeight in 1169, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.078125 = fieldNorm(doc=1169)
      0.14285715 = coord(2/14)
    
    Abstract
    It is shown how the semantic content of hypertext links can be used for retrieval purposes. Indexing and retrieval algorithms are presented that exploit the link content in addition to the content of the nodes. The results of some retrieval experiments in a hypertext test collection are presented
    Source
    Information processing and management. 31(1995) no.1, S.1-13
  14. Petrou, C.; Martakos, D.; Hadjiefthymiades, S.: Adding semantics to hypermedia towards link's enhancements and dynamic linking (1997) 0.01
    0.01058195 = product of:
      0.049382433 = sum of:
        0.020922182 = weight(_text_:web in 734) [ClassicSimilarity], result of:
          0.020922182 = score(doc=734,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.21634221 = fieldWeight in 734, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=734)
        0.0104854815 = weight(_text_:information in 734) [ClassicSimilarity], result of:
          0.0104854815 = score(doc=734,freq=6.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.20156369 = fieldWeight in 734, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=734)
        0.01797477 = weight(_text_:retrieval in 734) [ClassicSimilarity], result of:
          0.01797477 = score(doc=734,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.20052543 = fieldWeight in 734, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=734)
      0.21428572 = coord(3/14)
    
    Abstract
    Most existing hypermedia authoring systems incorporate facilities for the creation of static links between pieces of information, termed nodes. Such links usually support only browsing activities over the hypermedia web, carrying little or no information about the conceptual relationship the nodes might have. Thus indecision occurs: the reader of the hypermedia can traverse a link but has no indication what link to choose and what he might expect from the traversal. At the same time, the creation of these links requires a great effort from the author, moreover if there are certain criteria that guide linking. This paper presents a two-layered hypermedia semantic model that enriches the semantic links, and alsoprovides the means for dynamic link creation. To accomplish these objectives, we adopt the use of fuzzy set theory and fuzzy logic as the mathematical framework for link characterization and dynamic link creation. Some aspects of a prototype system, named Platon, are also presented
    Source
    Hypertext - Information Retrieval - Multimedia '97: Theorien, Modelle und Implementierungen integrierter elektronischer Informationssysteme. Proceedings HIM '97. Hrsg.: N. Fuhr u.a
  15. Pfaff, S.: ¬Die Entwicklung eines Hypertextdokumentes als Informationsdienstleistung der Bibliothek und Dokumentation des Deutschen Elektronen-Synchrotron DESY im Internet (1994) 0.01
    0.010550044 = product of:
      0.073850304 = sum of:
        0.06243516 = weight(_text_:bibliothek in 5628) [ClassicSimilarity], result of:
          0.06243516 = score(doc=5628,freq=4.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.5131913 = fieldWeight in 5628, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0625 = fieldNorm(doc=5628)
        0.011415146 = weight(_text_:information in 5628) [ClassicSimilarity], result of:
          0.011415146 = score(doc=5628,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.21943474 = fieldWeight in 5628, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=5628)
      0.14285715 = coord(2/14)
    
    Abstract
    Das Internet und insbesondere das Internet Werkzeug WWW haben wachsenden Einfluß im wissenschaftlichen Bereich. Auch Bibliotheken haben begonnen, ihre Dieste in dieses Computernetz auszudehnen. Für Bibliothek und Dokumentation des DESY wurde eine Hypertext-Informationsdokument angefertigt und über das WWW bereitgestellt
    Footnote
    [Abschlußarbeit im Lehrbegiet Information Management des Instituts für Information und Dokumentation an der FH Potsdam]
  16. Agosti, M.: Hypertext and information retrieval (1993) 0.01
    0.010109002 = product of:
      0.07076301 = sum of:
        0.022830293 = weight(_text_:information in 4708) [ClassicSimilarity], result of:
          0.022830293 = score(doc=4708,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.43886948 = fieldWeight in 4708, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.125 = fieldNorm(doc=4708)
        0.047932718 = weight(_text_:retrieval in 4708) [ClassicSimilarity], result of:
          0.047932718 = score(doc=4708,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.5347345 = fieldWeight in 4708, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.125 = fieldNorm(doc=4708)
      0.14285715 = coord(2/14)
    
    Source
    Information processing and management. 29(1993) no.3, S.283-286
  17. Lucarella, D.; Zanzi, A.: Information retrieval from hypertext : an approach using plausible inference (1993) 0.01
    0.010109002 = product of:
      0.07076301 = sum of:
        0.022830293 = weight(_text_:information in 4710) [ClassicSimilarity], result of:
          0.022830293 = score(doc=4710,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.43886948 = fieldWeight in 4710, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.125 = fieldNorm(doc=4710)
        0.047932718 = weight(_text_:retrieval in 4710) [ClassicSimilarity], result of:
          0.047932718 = score(doc=4710,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.5347345 = fieldWeight in 4710, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.125 = fieldNorm(doc=4710)
      0.14285715 = coord(2/14)
    
    Source
    Information processing and management. 29(1993) no.3, S.299-312
  18. Smeaton, A.F.: Information retrieval and hypertext : competing technologies or complementary access methods (1992) 0.01
    0.010109002 = product of:
      0.07076301 = sum of:
        0.022830293 = weight(_text_:information in 7503) [ClassicSimilarity], result of:
          0.022830293 = score(doc=7503,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.43886948 = fieldWeight in 7503, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.125 = fieldNorm(doc=7503)
        0.047932718 = weight(_text_:retrieval in 7503) [ClassicSimilarity], result of:
          0.047932718 = score(doc=7503,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.5347345 = fieldWeight in 7503, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.125 = fieldNorm(doc=7503)
      0.14285715 = coord(2/14)
    
    Source
    Journal of information science. 2(1992), S.221-233
  19. Jünger, G.: ¬Ein neues Universum (2003) 0.01
    0.009921361 = product of:
      0.04629968 = sum of:
        0.018179707 = weight(_text_:wide in 1553) [ClassicSimilarity], result of:
          0.018179707 = score(doc=1553,freq=4.0), product of:
            0.1312982 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.029633347 = queryNorm
            0.1384612 = fieldWeight in 1553, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.015625 = fieldNorm(doc=1553)
        0.01708289 = weight(_text_:web in 1553) [ClassicSimilarity], result of:
          0.01708289 = score(doc=1553,freq=12.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.17664269 = fieldWeight in 1553, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.015625 = fieldNorm(doc=1553)
        0.0110370815 = weight(_text_:bibliothek in 1553) [ClassicSimilarity], result of:
          0.0110370815 = score(doc=1553,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.09072026 = fieldWeight in 1553, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.015625 = fieldNorm(doc=1553)
      0.21428572 = coord(3/14)
    
    Abstract
    Autorenrechte statt Geschäften der Medienkonzerne: Das Wolrd Wide Web von heute bleibt weit hinter den Möglichkeiten zurück, die das System 'Xanadu' schon vor 40 Jahren entworfen hatte
    Content
    Eine stetige Erfahrung der Techniksoziologie und -geschichte besagt, dass sich wirklich neue Konzepte, die ihrer Zeit vorauseilen, am Ende nicht durchsetzen können. Erfolg haben stattdessen mittelmäßige Nachbildungen der ersten Idee, die dann, um periphere Funktionen und Dekorationen erweitert, als große Innovationen auftreten. Beispiele für zweitbeste Lösungen, von denen jeder weiß, dass sie nur Krücken sind, liefert gerade die Informatik in großer Zahl. Das Gespann der Programmiersprachen Smalltalk und C++ gehört dazu, aber auch das World Wide Web, das wir heute kennen, bleibt weit hinter Konzepten eines universalen, globalen Informationssystems zurück, die lange vor der Definition des Hypertext-Protokolls durch Tim Berners-Lee entwickelt worden sind. Die Frage nach der technischen Vorgeschichte und ihren verpassten Chancen ist keineswegs nur von akademischem Interesse. Das "Xanadu" genannte System, das zum ersten Mal das weltweit vorhandene Wissen in digitaler Form radikal demokratisieren wollte, kann sehr gut als Folie dienen für die Diskussion über die zukünftige Entwicklung des WWW. Zweifellos ist der Wunsch, möglichst viel Wissen anzuhäufen, uralt. Er hat die Errichter der Bibliothek von Alexandria angetrieben, die kopierenden und kommentierenden Mönche des Mittelalters oder die Enzyklopädisten des 18. Jahrhunderts in Frankreich. Spätestens seit dem 20. Jahrhundert war die pure Menge des nun Wissbaren so nicht mehr zu bewältigen. Über die materielle Ablage der Dokumente hinaus mussten neue Organisationsprinzipien gefunden werden, um den Berg zu erschließen und seine Bestandteile untereinander in nutzbarer Weise zu verbinden. Nur dann konnte eine Wissenschaftlerin oder ein Wissenschaftler jetzt noch in vertretbarer Zeit zum aktuellen Wissensstand auf einem Gebiet aufschließen. Im Epochenjahr 1945 entwarf Vannevar Bush, ein wissenschaftlicher Berater von Roosevelt während des Zweiten Weltkriegs, eine erste Antwort auf die Frage nach einem solchen Organisationsprinzip. Er nannte sein System "Memex" (Memory Extender), also "Gedächtniserweiterer". Wissen sollte in der Form von Mikrofilmen archiviert und die dabei erzeugten Einzelbestandteile sollten so mit einander verknüpft werden, dass das sofortige Aufsuchen von Verweisen möglich würde. Technisch misslang das System, mit Hilfe von Mikrofilmen ließ es sich wohl kaum realisieren. Aber der Gedanke war formuliert, dass große Wissensbestände nicht unbedingt in separaten Dokumenten und überwiegend linear (Seite 2 folgt auf Seite 1) angeordnet zu werden brauchten. Sie können durch interne Verknüpfungen zwischen Einzelseiten zu etwas Neuem zusammengefügt werden. Der Flugzeugingenieur Douglas Engelbart las schon in den Vierzigerjahren von Bushs Idee. Ihm gebührt das Verdienst, sie auf die neue Technik der digitalen Computer übertragen zu haben. Eine Sitzung der "Fall Joint Computer Conference" im Jahr 1968 demonstrierte seine "NLS" (oN Line System) genannte Verwirklichung des Memex-Konzepts in der Praxis und war für viele Teilnehmer die Initialzündung zu eigenen Versuchen auf diesem Gebiet. NLS war ein riesiges Journal von einzelnen Memos und Berichten eines Vorgängerprojekts, das es den beteiligten Wissenschaftlern erlaubte, über adressierte Verweise unmittelbar zu einem benachbarten Dokument zu springen - ein Netz aus Knoten und `Kanten, dem nur noch ein geeigneter Name für seine neue Eigenschaft fehlte:
    - Hypertext - Nicht nur den Namen "Hypertext" für ein solches Netz, sondern auch entscheidende Impulse zu einer konkreten Ausgestaltung eines durch Links verknüpften Netzes steuerte ab 1965 Ted Nelson bei. Sein mit dem Namen "Xanadu" verbundenes Wissenschaftsnetz gibt noch heute die Messlatte ab, an der sich das WWW behaupten muss. Nelson versuchte, sein Konzept auch kommerziell zum Erfolg zu bringen. Zeitweise konnte er auf ein starkes finanzielles Engagement der CAD-Firma Autodesk rechnen, die sich jedoch nach ausbleibenden Erfolgen aus diesem Engagement zurückzog. Heute ist der Quellcode der Software frei zugänglich, und die Website xanadu.net informiert über die Aktivitäten der kleinen Xanadu-Gemeinde von heute. Nelson selbst stellt sein Projekt als ein geschlossenes System von Dokumenten dar, dessen Zugang man ähnlich erwirbt wie den zu einem Provider oder zum Zahlfernsehen. Dokumente werden in diesem aus vernetzten Computern bestehenden System binär gespeichert, unabhängig davon, ob im einzelnen Dokument Bilder, Müsik, Text oder sonst etwas vorliegen. Sie zerfallen in winzige, aber identifizierbare Bestandteile, so dass jeder Dokumententeil mit einer eindeutigen ID versehen ist und einem bestimmten Autor zugeordnet werden kann. Liest ein Leser ein Dokumententeil in Xanadu, wird dadurch automatisch eine Gutschrift für das Konto des Urhebers des Dokuments erzeugt. Wie im existierenden Web sind einzelne Wörter, Bilder oder andere Medieninhalte Anker zu Verweisen auf andere Dokumentenbestandteile, die sich per Mausklick aufrufen lassen. Im Unterschied zum Web aber führt der Weg nicht nur in eine Richtung. Stichwort A verweist nicht nur auf X, sondern X macht auch alle Dokumente kenntlich, von denen aus auf X gezeigt wird. Es ist also jederzeit nachvollziehbar, wo überall von einem Dokument Gebrauch gemacht wird. Dadurch lässt sich überprüfen, ob ein als Beleg verwendeter Verweis zu Recht oder zu Unrecht angegeben wird.
    - Forschungsdebatten - Die Vorteile dieses Systems vor dem Web liegen auf der Hand: Alle Urheberrechte sind grundsätzlich und zugunsten der tatsächlichen Autoren geregelt, auch im Falle der Belletristik, die in der Regel nur konsumiert wird. Darüber hinaus profitierte die wissenschaftliche Arbeit von der Möglichkeit, Texte zu kommentieren oder vorhandene Argumentationen zitierend in die eigene Darstellung aufzunehmen. Forschungsdebatten sind jederzeit an jeder Stelle möglich - und zugänglich werden sie durch die Funktion, Änderungsanzeigen für bestimmte Knoten abonnieren, zu können. Damit wird es einem Autor möglich, auf eine Entgegnung zügig zu antworten. So können nicht nur einzelne Knoten, sondern ganze Knotennetze bearbeitet werden. Man kann also eine vorhandene Darstellung zustimmend übernehmen, aber die zwei, drei Zusatzpunkte hinzufügen, in denen die eigene Meinung vom Knotenstandard abweicht. Schließlich schafft ein System wie Xanadu mit Versionskontrolle und garantiertem Speicherplatz ein Dauerproblem des vorhandenen Webs mit seinen toten Links aus der Welt und erzeugt mit dem eingebauten Dokumentenvergleich ein Maximum an Übersicht.
    - Technische Hürden - Bleibt die Frage, weshalb Xanadu mit seiner Vision, das Weltwissen one mouse-click away erreichbar zu machen - Nelson spricht gar von einem docuverse -, bislang so erfolglos blieb. Ernst zu nehmen sind zunächst die technischen Anforderungen, die Xanadu stellt. Sie beginnen bei einer Editorensoftware, die die Autorenkennungen- vorhandener und zitierter Dokumentknoten bewahrt. Dass diese Software am Ende weniger techniklastig ist als die heutigen HTML-Editoren, wie Nelson annimmt, darf bezweifelt werden. Hinzu kommen Anforderungen an Rechnersysteme und Verwaltungsaufgaben: Da Xanadu ein konsistentes Dokumentmanagement garantieren und Dokumente für den Notfall auch redundant auf mehreren Rechnern gleichzeitig vorhalten muss, wären die technischen und Managementherausforderungen für ein aus zig Milliarden Dokumenten bestehendes System beachtlich. Andere Gründe sind prinzipieller Art: Die Bereitschaft, für Inhalte auch nur mit kleinen Beiträgen zu zahlen, ist bei den meisten. Internetnutzern als recht gering anzusetzen. Anders ließe sich das Scheitern vieler Anbieter für Bezahlinhalte im bestehenden Web kaum interpretieren. Möglicherweise gibt es auch einen latenten Widerwillen, einer zentralen und weltweit auftretenden Organisation- und trete sie mit noch so ehrenhaften Zielen an - die Aufgabe anzuvertrauen, das Weltwissen abzulegen. Hier hat offenbar - Ironie der Geschichte - das Computernetz des Militärs die Nase vorn, das aus Gründen eines auch in der Katastrophe funktionierenden Systems auf stets austauschbare Rechner setzt und das Chaos ins Kalkül aufgenommen hat. Es ist daher absehbar, dass sich Xanadu in der skizzierten Form nicht mehr durchsetzen wird. Damit ist wahrscheinlich auch eine Chance für eine neue Internetarchitektur vertan. Was als Wunsch aber für die Weiterentwicklung des bestehenden Webs nicht laut genug vorgebracht werden kann, ist, dass die Visionen und konkreten Möglichkeiten von Xanadu stärker berücksichtigt werden sollten. Vielleicht sind die Aversionen gegen zentral geregelte Systeme aber immerhin dazu gut, dass das ".Net"; das Lieblingsprojekt des Softwaregiganten Microsoft, zu einem offenen System umgewandelt wird.
  20. Smith, L.C.: "Wholly new forms of encyclopedias" : electronic knowledge in the form of hypertext (1989) 0.01
    0.009875985 = product of:
      0.046087928 = sum of:
        0.011415146 = weight(_text_:information in 3558) [ClassicSimilarity], result of:
          0.011415146 = score(doc=3558,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.21943474 = fieldWeight in 3558, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=3558)
        0.023966359 = weight(_text_:retrieval in 3558) [ClassicSimilarity], result of:
          0.023966359 = score(doc=3558,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.26736724 = fieldWeight in 3558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=3558)
        0.010706427 = product of:
          0.032119278 = sum of:
            0.032119278 = weight(_text_:22 in 3558) [ClassicSimilarity], result of:
              0.032119278 = score(doc=3558,freq=2.0), product of:
                0.103770934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029633347 = queryNorm
                0.30952093 = fieldWeight in 3558, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3558)
          0.33333334 = coord(1/3)
      0.21428572 = coord(3/14)
    
    Abstract
    The history of encyclopedias and wholly new forms of encyclopedias are briefly reviewed. The possibilities and problems that hypertext presents as a basis for new forms of encyclopedias are explored. The capabilities of current systems, both experimental and commercially available, are outlined, focusing on new possibilities for authoring and design and for reading the retrieval. Examples of applications already making use of hypertext are given.
    Date
    7. 1.1996 22:47:52
    Source
    Information, knowledge, evolution. Proceedings of the 44th FID Congress, Helsinki, 28.8.-1.9.1988. Ed. by S. Koshiala and R. Launo
    Theme
    Information

Years

Languages

Types

  • a 294
  • m 20
  • s 13
  • r 8
  • d 5
  • x 5
  • b 1
  • u 1
  • More… Less…

Classifications