Search (133 results, page 1 of 7)

  • × theme_ss:"Hypertext"
  • × type_ss:"a"
  1. Streitz, N.A.: Werkzeuge zum pragmatischen Design von Hypertext (1990) 0.03
    0.03052123 = product of:
      0.14650191 = sum of:
        0.020441556 = weight(_text_:und in 8436) [ClassicSimilarity], result of:
          0.020441556 = score(doc=8436,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 8436, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8436)
        0.018425206 = weight(_text_:des in 8436) [ClassicSimilarity], result of:
          0.018425206 = score(doc=8436,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.302893 = fieldWeight in 8436, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8436)
        0.075205624 = weight(_text_:spezielle in 8436) [ClassicSimilarity], result of:
          0.075205624 = score(doc=8436,freq=2.0), product of:
            0.14615025 = queryWeight, product of:
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.021966046 = queryNorm
            0.51457745 = fieldWeight in 8436, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8436)
        0.011987969 = weight(_text_:der in 8436) [ClassicSimilarity], result of:
          0.011987969 = score(doc=8436,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.24431825 = fieldWeight in 8436, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8436)
        0.020441556 = weight(_text_:und in 8436) [ClassicSimilarity], result of:
          0.020441556 = score(doc=8436,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 8436, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8436)
      0.20833333 = coord(5/24)
    
    Abstract
    Der Beitrag orientiert sich an 2 Thesen: (1) Die Konzepte 'Hypertext / Hypermedia' eröffnen qualitativ neue Möglichkeiten für die Kommunikation von Wissen und repräsentieren damit den Beginn einer neuen Generation von Informations- und Publikationssystemen. (2) Die Konzepte 'Hypertext / Hypermedia' können nur dann überzeugend und erfolgreich umgesetzt werden, wenn Autoren und Rezipienten über spezielle Werkzeuge verfügen, die den spezifischen Charakteristika von Hyperdokumenten entsprechen. Die Thesen werden in Zusammenhang mit einer kurzen Einführung der Konzepte 'Hypertext / Hypermedia' erläutert. Im zweiten Teil des Beitrages werden Modelle zur Autorentätigkeit und die darauf basierenden Designentscheidungen für die Entwicklung des Hypertext-Autorensystems SEPIA (Structured Elicitation and Processing of Ideas) dargestellt
    Source
    Pragmatische Aspekte beim Entwurf und Betrieb von Informationssystemen: Proc. 1. Int. Symposiums für Informationswissenschaft, Universität Konstanz, 17.-19.10.1990. Hrsg.: J. Herget u. R. Kuhlen
  2. Just, M.: Hypertext und Hypermedia (1993) 0.02
    0.016359482 = product of:
      0.09815689 = sum of:
        0.030159926 = weight(_text_:und in 5018) [ClassicSimilarity], result of:
          0.030159926 = score(doc=5018,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.6194934 = fieldWeight in 5018, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5018)
        0.021057379 = weight(_text_:des in 5018) [ClassicSimilarity], result of:
          0.021057379 = score(doc=5018,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.34616345 = fieldWeight in 5018, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=5018)
        0.016779663 = weight(_text_:der in 5018) [ClassicSimilarity], result of:
          0.016779663 = score(doc=5018,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34197432 = fieldWeight in 5018, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=5018)
        0.030159926 = weight(_text_:und in 5018) [ClassicSimilarity], result of:
          0.030159926 = score(doc=5018,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.6194934 = fieldWeight in 5018, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5018)
      0.16666667 = coord(4/24)
    
    Abstract
    Der Beitrag versucht, die denkbaren Anwendungen des Hypertext- und Hypermedia-Konzepts im Bibliotheksbereich aufzuzeigen und zu bewerten. Im ersten Teil wird nach einem kurzen historischen Abriß der beiden Begriffe Hypertext und Hypermedia, ihrer Definition und Beschreibung, auf die sich hinter ihnen verbergende neue Art der Datenorganisation und die sich daraus ergebenden Möglichkeiten und Probleme eingegangen. Im zweiten Teil werden dann die bibliotheksspezifischen Einsatzmöglichkeiten des Hypertext- und Hypermedia-Konzepts erörtert und einige bereits realisierte Anwendungen im Bibliotheksbereich vorgestellt
    Source
    Bibliothek: Forschung und Praxis. 17(1993) H.2, S.163-175
  3. Baptist, H.; Czövek, Z.; Katona, K.; Primas, H.; Rozsa, G.; Schadler, H.; Trivic, G.; Wedl, B.; Wöber, G.; Schlögl, C.; Sütheo, P.: Entwurf eines hypertextbasierten Katalogs für die Institutsbibliothek des Instituts für Informationswissenschaft (1996) 0.02
    0.016197978 = product of:
      0.077750295 = sum of:
        0.007320746 = product of:
          0.021962237 = sum of:
            0.021962237 = weight(_text_:p in 6117) [ClassicSimilarity], result of:
              0.021962237 = score(doc=6117,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.27807623 = fieldWeight in 6117, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=6117)
          0.33333334 = coord(1/3)
        0.014454362 = weight(_text_:und in 6117) [ClassicSimilarity], result of:
          0.014454362 = score(doc=6117,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 6117, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6117)
        0.022566179 = weight(_text_:des in 6117) [ClassicSimilarity], result of:
          0.022566179 = score(doc=6117,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.3709667 = fieldWeight in 6117, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6117)
        0.018954644 = weight(_text_:der in 6117) [ClassicSimilarity], result of:
          0.018954644 = score(doc=6117,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.38630107 = fieldWeight in 6117, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6117)
        0.014454362 = weight(_text_:und in 6117) [ClassicSimilarity], result of:
          0.014454362 = score(doc=6117,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 6117, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6117)
      0.20833333 = coord(5/24)
    
    Abstract
    In diesem Beitrag wird ein Projekt vorgestellt, bei dem ein Prototyp für einen hypertextbasierten Bibliothekskatalog entwickelt wird. Nach einer kurzen literarischen Erörterung werden die dem Projekt zugrunde liegenden Entwicklungsprinzipien erörtert. Schließlich wird die technische Realisierung beschrieben, wobei der Schwerpunkt auf der hypertextspezifischen Gestaltung der Benutzeroberfläche liegt. Benutzte Software: MS Access und ToolBook
    Content
    Projekt am Institut für Informationswissenschaft der Karl-Franzens-Universität Graz sowie des Lehrstuhls für Bibliotheks- und Informationswissenschaft der Eötvös-Lorand-Universität Budapest
    Source
    Herausforderungen an die Informationswirtschaft: Informationsverdichtung, Informationsbewertung und Datenvisualisierung. Proceedings des 5. Internationalen Symposiums für Informationswissenschaft (ISI'96), Humboldt-Universität zu Berlin, 17.-19. Oktober 1996. Hrsg.: J. Krause u.a
  4. Wingert, B.: Äußerer und innerer Hypertext : eine notwendige Differenzierung, verdeutlicht am Flusser-Hypertext (1993) 0.02
    0.015790856 = product of:
      0.07579611 = sum of:
        0.016519273 = weight(_text_:und in 2937) [ClassicSimilarity], result of:
          0.016519273 = score(doc=2937,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.33931053 = fieldWeight in 2937, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2937)
        0.021057379 = weight(_text_:des in 2937) [ClassicSimilarity], result of:
          0.021057379 = score(doc=2937,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.34616345 = fieldWeight in 2937, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=2937)
        0.009687742 = weight(_text_:der in 2937) [ClassicSimilarity], result of:
          0.009687742 = score(doc=2937,freq=2.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.19743896 = fieldWeight in 2937, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2937)
        0.0120124435 = product of:
          0.024024887 = sum of:
            0.024024887 = weight(_text_:29 in 2937) [ClassicSimilarity], result of:
              0.024024887 = score(doc=2937,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.31092256 = fieldWeight in 2937, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2937)
          0.5 = coord(1/2)
        0.016519273 = weight(_text_:und in 2937) [ClassicSimilarity], result of:
          0.016519273 = score(doc=2937,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.33931053 = fieldWeight in 2937, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2937)
      0.20833333 = coord(5/24)
    
    Abstract
    Einen Großteil der mit Hypertexte verbundenen Programmatik könnte man als das 'Externalisierungs-Postulat' bezeichnen, d.h. die Erwartung, daß es besser sei, implizite Bezüge und Verweise in einem Text (oder komplexerem Material) explizit als 'links' zu verdeutlichen und sie damit dem Leser als weiteren, fortführenden oder konterkarierenden Stoff anzubieten. Am Beispiel des 'Flusser-Hypertextes', einer Entwicklung des 'Projekts Elektronisches Buch (PEB)', wird zunächst gezeigt, zu welcher Unübersichtlichkeit die Explizierung aller textlich angelegten Verweise führen würde. Danach wird die Problematik impliziter Verweise betrachtet
    Source
    Nachrichten für Dokumentation. 44(1993) H.1, S.29-36
  5. Schwab, P.: Wissensvermittlung und neue Technologien : ein medienpsychologischer Beitrag (1996) 0.01
    0.013495388 = product of:
      0.08097233 = sum of:
        0.010458209 = product of:
          0.031374626 = sum of:
            0.031374626 = weight(_text_:p in 588) [ClassicSimilarity], result of:
              0.031374626 = score(doc=588,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.39725178 = fieldWeight in 588, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.078125 = fieldNorm(doc=588)
          0.33333334 = coord(1/3)
        0.029202223 = weight(_text_:und in 588) [ClassicSimilarity], result of:
          0.029202223 = score(doc=588,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.5998219 = fieldWeight in 588, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=588)
        0.012109677 = weight(_text_:der in 588) [ClassicSimilarity], result of:
          0.012109677 = score(doc=588,freq=2.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.2467987 = fieldWeight in 588, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=588)
        0.029202223 = weight(_text_:und in 588) [ClassicSimilarity], result of:
          0.029202223 = score(doc=588,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.5998219 = fieldWeight in 588, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=588)
      0.16666667 = coord(4/24)
    
    Content
    Die Wissensklufthypothese: eine Kurzskizze - Sozialstruktur - Wissen und Wissensklüfte - Informationsfluß - Multimediale Technologie und Konzepte - Hypertext und Hypermedia - Cyberspace und Virtuelle Realität (VR) - Medienpsychologisches 'Know How' als Navigationshilfe
    Source
    Mediale Klassengesellschaft? Politische und soziale Folgen der Medienentwicklung. Hrsg.: M. Jäckel a.a
  6. Pollard, A.: ¬A hypertext-based thesaurus as subject browsing aid for bibliographic databases (1993) 0.01
    0.01340998 = product of:
      0.08045988 = sum of:
        0.016690461 = weight(_text_:und in 4713) [ClassicSimilarity], result of:
          0.016690461 = score(doc=4713,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34282678 = fieldWeight in 4713, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4713)
        0.026057174 = weight(_text_:des in 4713) [ClassicSimilarity], result of:
          0.026057174 = score(doc=4713,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.4283554 = fieldWeight in 4713, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.109375 = fieldNorm(doc=4713)
        0.021021776 = product of:
          0.04204355 = sum of:
            0.04204355 = weight(_text_:29 in 4713) [ClassicSimilarity], result of:
              0.04204355 = score(doc=4713,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.5441145 = fieldWeight in 4713, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4713)
          0.5 = coord(1/2)
        0.016690461 = weight(_text_:und in 4713) [ClassicSimilarity], result of:
          0.016690461 = score(doc=4713,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34282678 = fieldWeight in 4713, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4713)
      0.16666667 = coord(4/24)
    
    Source
    Information processing and management. 29(1993) no.3, S.345-358
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  7. Kuhlen, R.; Bekavac, B.; Griesbaum, J.; Schütz, T.; Semar, W.: ENFORUM, ein Instrument des Wissensmanagements in Forschung und Ausbildung im Informationswesen (2002) 0.01
    0.013198498 = product of:
      0.079190984 = sum of:
        0.023603875 = weight(_text_:und in 928) [ClassicSimilarity], result of:
          0.023603875 = score(doc=928,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4848303 = fieldWeight in 928, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=928)
        0.013028587 = weight(_text_:des in 928) [ClassicSimilarity], result of:
          0.013028587 = score(doc=928,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2141777 = fieldWeight in 928, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=928)
        0.018954644 = weight(_text_:der in 928) [ClassicSimilarity], result of:
          0.018954644 = score(doc=928,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.38630107 = fieldWeight in 928, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=928)
        0.023603875 = weight(_text_:und in 928) [ClassicSimilarity], result of:
          0.023603875 = score(doc=928,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4848303 = fieldWeight in 928, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=928)
      0.16666667 = coord(4/24)
    
    Abstract
    Die Konzeption von ENFORUM beruht auf einer verteilten Organisation der informationswissenschaftlichen Kompetenzzentren im deutschsprachigen Bereich und der kooperativen Erarbeitung von ENFORUM-Einträgen über elektronische Kommunikationsforen. ENFORUM wird zum einen in den wissenschaftlichen Kontext elektronischer Wörterbücher und Enzyklopädien eingeordnet, zum anderen werden Vor- und Nachteile asynchroner elektronischer Kommunikation diskutiert, mit dem Ergebnis, dass die Kompensationsleistung von Moderatoren in Kommunikationsforen für den Erfolg der Diskurse unabdingbar ist. Der aktuelle Stand von ENFORUM (März 2002) wird vorgestellt. ENFORUM ist ein voll operatives System mit adaptiver Benutzerverwaltung, flexiblen Such- und Navigationsformen und ersten Funktionen in Richtung Wissensplattform. Überlegungen zur funktionalen Weiterentwicklung von ENFORUM und zum Einsatz in der Ausbildung schließen den Artikel ab.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 49(2002) H.4, S.195-206
  8. Yetim, F.: Multilinguale Aspekte von Text und Hypertext (1996) 0.01
    0.012387009 = product of:
      0.07432205 = sum of:
        0.021326289 = weight(_text_:und in 6118) [ClassicSimilarity], result of:
          0.021326289 = score(doc=6118,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.438048 = fieldWeight in 6118, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6118)
        0.014889815 = weight(_text_:des in 6118) [ClassicSimilarity], result of:
          0.014889815 = score(doc=6118,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.24477452 = fieldWeight in 6118, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=6118)
        0.016779663 = weight(_text_:der in 6118) [ClassicSimilarity], result of:
          0.016779663 = score(doc=6118,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34197432 = fieldWeight in 6118, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=6118)
        0.021326289 = weight(_text_:und in 6118) [ClassicSimilarity], result of:
          0.021326289 = score(doc=6118,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.438048 = fieldWeight in 6118, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6118)
      0.16666667 = coord(4/24)
    
    Abstract
    In diesem Beitrag werden Aspekte der Multilingualität für die Hypertextforschung behandelt. Dabei werden einige Ergebnisse empirischer Arbeit zu interlingualen Textvergleichen vorgestellt und davon ausgehend ihre Anwendbarkeit auf Hypertext diskutiert. Darüberhinaus wird auf ein für Text und Hypertexte gleichermaßen wichtiges Diskursphänomen, die Konnektivität kontrastiv im Türkischen und Deutschen eingegangen. In diesem Zusammenhang wird auch der Nutzen wissensbasierter Verfahren in der Hypertextforschung angesprochen
    Source
    Herausforderungen an die Informationswirtschaft: Informationsverdichtung, Informationsbewertung und Datenvisualisierung. Proceedings des 5. Internationalen Symposiums für Informationswissenschaft (ISI'96), Humboldt-Universität zu Berlin, 17.-19. Oktober 1996. Hrsg.: J. Krause u.a
  9. Sarre, F.; Güntzer, U.; Myka, A.; Jüttner, G.: Maschinelles Lernen von Relationen für Thesauri und Hypertext (1992) 0.01
    0.012082277 = product of:
      0.07249366 = sum of:
        0.016859911 = weight(_text_:und in 1368) [ClassicSimilarity], result of:
          0.016859911 = score(doc=1368,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34630734 = fieldWeight in 1368, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1368)
        0.016118698 = weight(_text_:des in 1368) [ClassicSimilarity], result of:
          0.016118698 = score(doc=1368,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2649762 = fieldWeight in 1368, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1368)
        0.022655133 = weight(_text_:der in 1368) [ClassicSimilarity], result of:
          0.022655133 = score(doc=1368,freq=28.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.46171808 = fieldWeight in 1368, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1368)
        0.016859911 = weight(_text_:und in 1368) [ClassicSimilarity], result of:
          0.016859911 = score(doc=1368,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34630734 = fieldWeight in 1368, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1368)
      0.16666667 = coord(4/24)
    
    Abstract
    Fortschrittliche Informationssysteme stellen ihren Benutzern 2 wichtige Suchmethoden zur Verfügung: die gezielte (Volltext-) Suche und das Navigieren im Objektbestand mit Hilfe von Hypertext-Links. Der Grund, warum diese beiden Konzepte aber auf breiter Basis noch nicht in jedem Informationssystem Anwendung gefunden haben, ist darin zu sehen, daß der manuelle Aufbau von umfassenden Hypertext-Strukturen auf der einen Seite und von großen Thesauri, die den Erfolg von Volltextsuchen wesentlich steigern, auf der anderen Seite bislang enormen Aufwand und damit hohe Kosten verursachte. Langfristig werden Informationssysteme aber nur dann große Akzeptanz bei der Benutzerschaft erzielen, wenn sie ihre Benutzer mit diesen beiden Techniken unterstützen und wenn sie dynamisch neuen Informationsbedürfnissen anpassen können, also lernfähig sind. Für den einzelnen Benutzer ergibt sich daraus der wesentliche Vorteil, daß er von den Recherche-Erfahrungen anderer Benutzer profitieren kann. In diesem Papier stellen wir eine Lernkomponente vor, die für das Hypertextsystem 'HyperMan' an der TU München entwickelt und implementiert wurde. Wir zeigen beispielhaft, wie Volltext-Suchanfragen der HyperMan-Benutzer von der Lernkomponente untersucht werden, um Thesauruseinträge zu gewinnen. Bei der Entwicklung dieser Lerntechniken zum (automatischen) Thesaurusaufbau konnte auf Erfahrungen mit dem lernfähigen Information Retrieval System 'Tegen' zurückgegriffen werden. In dem HyperMan System werden aber nicht nur Beziehungen (Relationen) zwischen Begriffen erlernt, sondern auch zwischen Textstücken. Wir gehen daher auch darauf ein, wie aufgrund einer Analyse des Benutzerverhaltens sowohl neue Hypertext-Links erlernt als auch vorhandene Links, die zuvor von HyperMans Generierungskomponente automatisch erzeugt wurden, modifiziert werden
    Series
    Fortschritte in der Wissensorganisation; Bd.2
    Source
    Kognitive Ansätze zum Ordnen und Darstellen von Wissen. 2. Tagung der Deutschen ISKO Sektion einschl. der Vorträge des Workshops "Thesauri als Werkzeuge der Sprachtechnologie", Weilburg, 15.-18.10.1991
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  10. Peters, R.W.: Dokumentenmanagement mit Hypertext (1995) 0.01
    0.012069154 = product of:
      0.07241492 = sum of:
        0.019074813 = weight(_text_:und in 1309) [ClassicSimilarity], result of:
          0.019074813 = score(doc=1309,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39180204 = fieldWeight in 1309, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1309)
        0.014889815 = weight(_text_:des in 1309) [ClassicSimilarity], result of:
          0.014889815 = score(doc=1309,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.24477452 = fieldWeight in 1309, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=1309)
        0.019375484 = weight(_text_:der in 1309) [ClassicSimilarity], result of:
          0.019375484 = score(doc=1309,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3948779 = fieldWeight in 1309, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1309)
        0.019074813 = weight(_text_:und in 1309) [ClassicSimilarity], result of:
          0.019074813 = score(doc=1309,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39180204 = fieldWeight in 1309, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1309)
      0.16666667 = coord(4/24)
    
    Abstract
    Der Umgang mit dem weltweit online verfügbaren Wissen wird in Chaos und Frustration enden, wenn es nicht gelingt, dem Suchenden leistungsfähige Hilfsmittel für das Navigieren in großen Datenbeständen zur Verfügung zu stellen. Der vorliegende Beitrag macht deutlich, daß hierfür die klassischen Retrievalmöglichkeiten um hypertextorientierte Suchmechanismen zu ergänzen sind. Dies wurde in konsequenter Weise in einem Projekt der Bayer AG realisiert. Hier galt es, alle externen und internen Informationen und Softwarehilfsmittel für die Unterstützung der Arbeit des Ingenieurs elektronisch zu verwalten und online verfügbar zu halten
  11. Tergan, S.-O.: Zum Aufbau von Wissensstrukturen mit Texten und Hypertexten (1993) 0.01
    0.011595814 = product of:
      0.06957488 = sum of:
        0.016859911 = weight(_text_:und in 2927) [ClassicSimilarity], result of:
          0.016859911 = score(doc=2927,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34630734 = fieldWeight in 2927, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2927)
        0.020974576 = weight(_text_:der in 2927) [ClassicSimilarity], result of:
          0.020974576 = score(doc=2927,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.42746788 = fieldWeight in 2927, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=2927)
        0.016859911 = weight(_text_:und in 2927) [ClassicSimilarity], result of:
          0.016859911 = score(doc=2927,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34630734 = fieldWeight in 2927, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2927)
        0.01488048 = product of:
          0.02976096 = sum of:
            0.02976096 = weight(_text_:22 in 2927) [ClassicSimilarity], result of:
              0.02976096 = score(doc=2927,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.38690117 = fieldWeight in 2927, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2927)
          0.5 = coord(1/2)
      0.16666667 = coord(4/24)
    
    Abstract
    Der Beitrag geht zunächst auf traditionelle lineare texte und deren Funktion im Lehr-Lern-Kontext ein. Anschließend werden Befunde der Textforschung dargestellt. Implikationen der Befunde für das Lernen mit Hypertexten werden erörtert sowie Perspektiven einer kreativen Nutzung von Hypertext zur Förderung kognitiver Lernprozesse aufgezeigt
    Source
    Nachrichten für Dokumentation. 44(1993) H.1, S.15-22
  12. Aßfalg, R.; Hammwöhner, R.: ¬Eine Navigationshilfe nach dem fish-eye-Prinzip für das Konstanzer Hypertext System KHS (1992) 0.01
    0.009094244 = product of:
      0.05456546 = sum of:
        0.011921758 = weight(_text_:und in 8836) [ClassicSimilarity], result of:
          0.011921758 = score(doc=8836,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24487628 = fieldWeight in 8836, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=8836)
        0.01861227 = weight(_text_:des in 8836) [ClassicSimilarity], result of:
          0.01861227 = score(doc=8836,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.30596817 = fieldWeight in 8836, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=8836)
        0.012109677 = weight(_text_:der in 8836) [ClassicSimilarity], result of:
          0.012109677 = score(doc=8836,freq=2.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.2467987 = fieldWeight in 8836, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=8836)
        0.011921758 = weight(_text_:und in 8836) [ClassicSimilarity], result of:
          0.011921758 = score(doc=8836,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24487628 = fieldWeight in 8836, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=8836)
      0.16666667 = coord(4/24)
    
    Source
    Mensch und Maschine: Informationelle Schnittstellen der Kommunikation. Proc. des 3. Int. Symposiums für Informationswissenschaft (ISI'92), 5.-7.11.1992 in Saarbrücken. Hrsg.: H.H. Zimmermann, H.-D. Luckhardt u. A. Schulz
  13. Markscheffel, B.: ¬Eine Entwurfsmethodik für Hypermedia-Systeme auf Basis des Spatial-Satellite-Modells S**2M (1993) 0.01
    0.0090920795 = product of:
      0.054552473 = sum of:
        0.009537406 = weight(_text_:und in 2244) [ClassicSimilarity], result of:
          0.009537406 = score(doc=2244,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.19590102 = fieldWeight in 2244, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2244)
        0.025789918 = weight(_text_:des in 2244) [ClassicSimilarity], result of:
          0.025789918 = score(doc=2244,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.42396194 = fieldWeight in 2244, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=2244)
        0.009687742 = weight(_text_:der in 2244) [ClassicSimilarity], result of:
          0.009687742 = score(doc=2244,freq=2.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.19743896 = fieldWeight in 2244, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2244)
        0.009537406 = weight(_text_:und in 2244) [ClassicSimilarity], result of:
          0.009537406 = score(doc=2244,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.19590102 = fieldWeight in 2244, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2244)
      0.16666667 = coord(4/24)
    
    Abstract
    Die Komplexität des Entwurfs von Hypermedia-Systemen ist vergleichbar mit der Komplexität des Entwurfs von Expertensystemen, verlangt also nach einer methodischen Unterstützung im Entwurfsprozeß. Von dieser Motivation ausgehend, wird im vorliegenden Beitrag zunächst eine Analyse bestehender Dokumentenmodellierungsansätze durchgeführt, dann ein Ansatz zur formalen Beschreibung von Hypertext-Strukturen vorgestellt und schließlich mit dem Spatial-Satellite-Modell ein Beschreibungsansatz für Hypermedia-Strukturen präsentiert. Ausgehend von diesem Modell wird eine Entwurfsmethodik für Hypermedia-Systeme entwickelt, die als Ausgangspunkt für die Entwicklung eines Verständnisses für die Notwendigkeit eines 'Hypermedia-Engineering' bilden
  14. Vogel, U.: Hyperwelten : wie schreibt man elektronische Bücher? Strategien und Produkte (1994) 0.01
    0.008865621 = product of:
      0.07092497 = sum of:
        0.028612217 = weight(_text_:und in 7625) [ClassicSimilarity], result of:
          0.028612217 = score(doc=7625,freq=18.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.58770305 = fieldWeight in 7625, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=7625)
        0.013700536 = weight(_text_:der in 7625) [ClassicSimilarity], result of:
          0.013700536 = score(doc=7625,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.27922085 = fieldWeight in 7625, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=7625)
        0.028612217 = weight(_text_:und in 7625) [ClassicSimilarity], result of:
          0.028612217 = score(doc=7625,freq=18.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.58770305 = fieldWeight in 7625, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=7625)
      0.125 = coord(3/24)
    
    Abstract
    Wer digitale Bücher und Nachschlagewerke benutzt, anstatt gebundene Schmöker zu wälzen, der informiere sich schneller, umfassender und kreativer. So oder ähnlich werben Verlage und Buchhandlungen für ihre jüngsten elektronischen Publikationen. Obwohl dem Multimedia-Markt enorme Wachstumsraten prognostoziert und Hypermedia-Autoren immer gefragter werden, liegen Lust und Frust, Sinn und Unsinn zur Zeit noch eng beieinander. Wir stellen Strategien und Werkzeuge für ambitionierte Autoren vor und geben einen Einblick in den großen Markt der Applikationen
  15. Jünger, G.: ¬Ein neues Universum (2003) 0.01
    0.008796215 = product of:
      0.05277729 = sum of:
        0.012616802 = weight(_text_:und in 1553) [ClassicSimilarity], result of:
          0.012616802 = score(doc=1553,freq=56.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.25915268 = fieldWeight in 1553, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1553)
        0.013421497 = weight(_text_:des in 1553) [ClassicSimilarity], result of:
          0.013421497 = score(doc=1553,freq=26.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.22063677 = fieldWeight in 1553, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.015625 = fieldNorm(doc=1553)
        0.014122189 = weight(_text_:der in 1553) [ClassicSimilarity], result of:
          0.014122189 = score(doc=1553,freq=68.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.28781426 = fieldWeight in 1553, product of:
              8.246211 = tf(freq=68.0), with freq of:
                68.0 = termFreq=68.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=1553)
        0.012616802 = weight(_text_:und in 1553) [ClassicSimilarity], result of:
          0.012616802 = score(doc=1553,freq=56.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.25915268 = fieldWeight in 1553, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1553)
      0.16666667 = coord(4/24)
    
    Abstract
    Autorenrechte statt Geschäften der Medienkonzerne: Das Wolrd Wide Web von heute bleibt weit hinter den Möglichkeiten zurück, die das System 'Xanadu' schon vor 40 Jahren entworfen hatte
    Content
    Eine stetige Erfahrung der Techniksoziologie und -geschichte besagt, dass sich wirklich neue Konzepte, die ihrer Zeit vorauseilen, am Ende nicht durchsetzen können. Erfolg haben stattdessen mittelmäßige Nachbildungen der ersten Idee, die dann, um periphere Funktionen und Dekorationen erweitert, als große Innovationen auftreten. Beispiele für zweitbeste Lösungen, von denen jeder weiß, dass sie nur Krücken sind, liefert gerade die Informatik in großer Zahl. Das Gespann der Programmiersprachen Smalltalk und C++ gehört dazu, aber auch das World Wide Web, das wir heute kennen, bleibt weit hinter Konzepten eines universalen, globalen Informationssystems zurück, die lange vor der Definition des Hypertext-Protokolls durch Tim Berners-Lee entwickelt worden sind. Die Frage nach der technischen Vorgeschichte und ihren verpassten Chancen ist keineswegs nur von akademischem Interesse. Das "Xanadu" genannte System, das zum ersten Mal das weltweit vorhandene Wissen in digitaler Form radikal demokratisieren wollte, kann sehr gut als Folie dienen für die Diskussion über die zukünftige Entwicklung des WWW. Zweifellos ist der Wunsch, möglichst viel Wissen anzuhäufen, uralt. Er hat die Errichter der Bibliothek von Alexandria angetrieben, die kopierenden und kommentierenden Mönche des Mittelalters oder die Enzyklopädisten des 18. Jahrhunderts in Frankreich. Spätestens seit dem 20. Jahrhundert war die pure Menge des nun Wissbaren so nicht mehr zu bewältigen. Über die materielle Ablage der Dokumente hinaus mussten neue Organisationsprinzipien gefunden werden, um den Berg zu erschließen und seine Bestandteile untereinander in nutzbarer Weise zu verbinden. Nur dann konnte eine Wissenschaftlerin oder ein Wissenschaftler jetzt noch in vertretbarer Zeit zum aktuellen Wissensstand auf einem Gebiet aufschließen. Im Epochenjahr 1945 entwarf Vannevar Bush, ein wissenschaftlicher Berater von Roosevelt während des Zweiten Weltkriegs, eine erste Antwort auf die Frage nach einem solchen Organisationsprinzip. Er nannte sein System "Memex" (Memory Extender), also "Gedächtniserweiterer". Wissen sollte in der Form von Mikrofilmen archiviert und die dabei erzeugten Einzelbestandteile sollten so mit einander verknüpft werden, dass das sofortige Aufsuchen von Verweisen möglich würde. Technisch misslang das System, mit Hilfe von Mikrofilmen ließ es sich wohl kaum realisieren. Aber der Gedanke war formuliert, dass große Wissensbestände nicht unbedingt in separaten Dokumenten und überwiegend linear (Seite 2 folgt auf Seite 1) angeordnet zu werden brauchten. Sie können durch interne Verknüpfungen zwischen Einzelseiten zu etwas Neuem zusammengefügt werden. Der Flugzeugingenieur Douglas Engelbart las schon in den Vierzigerjahren von Bushs Idee. Ihm gebührt das Verdienst, sie auf die neue Technik der digitalen Computer übertragen zu haben. Eine Sitzung der "Fall Joint Computer Conference" im Jahr 1968 demonstrierte seine "NLS" (oN Line System) genannte Verwirklichung des Memex-Konzepts in der Praxis und war für viele Teilnehmer die Initialzündung zu eigenen Versuchen auf diesem Gebiet. NLS war ein riesiges Journal von einzelnen Memos und Berichten eines Vorgängerprojekts, das es den beteiligten Wissenschaftlern erlaubte, über adressierte Verweise unmittelbar zu einem benachbarten Dokument zu springen - ein Netz aus Knoten und `Kanten, dem nur noch ein geeigneter Name für seine neue Eigenschaft fehlte:
    - Hypertext - Nicht nur den Namen "Hypertext" für ein solches Netz, sondern auch entscheidende Impulse zu einer konkreten Ausgestaltung eines durch Links verknüpften Netzes steuerte ab 1965 Ted Nelson bei. Sein mit dem Namen "Xanadu" verbundenes Wissenschaftsnetz gibt noch heute die Messlatte ab, an der sich das WWW behaupten muss. Nelson versuchte, sein Konzept auch kommerziell zum Erfolg zu bringen. Zeitweise konnte er auf ein starkes finanzielles Engagement der CAD-Firma Autodesk rechnen, die sich jedoch nach ausbleibenden Erfolgen aus diesem Engagement zurückzog. Heute ist der Quellcode der Software frei zugänglich, und die Website xanadu.net informiert über die Aktivitäten der kleinen Xanadu-Gemeinde von heute. Nelson selbst stellt sein Projekt als ein geschlossenes System von Dokumenten dar, dessen Zugang man ähnlich erwirbt wie den zu einem Provider oder zum Zahlfernsehen. Dokumente werden in diesem aus vernetzten Computern bestehenden System binär gespeichert, unabhängig davon, ob im einzelnen Dokument Bilder, Müsik, Text oder sonst etwas vorliegen. Sie zerfallen in winzige, aber identifizierbare Bestandteile, so dass jeder Dokumententeil mit einer eindeutigen ID versehen ist und einem bestimmten Autor zugeordnet werden kann. Liest ein Leser ein Dokumententeil in Xanadu, wird dadurch automatisch eine Gutschrift für das Konto des Urhebers des Dokuments erzeugt. Wie im existierenden Web sind einzelne Wörter, Bilder oder andere Medieninhalte Anker zu Verweisen auf andere Dokumentenbestandteile, die sich per Mausklick aufrufen lassen. Im Unterschied zum Web aber führt der Weg nicht nur in eine Richtung. Stichwort A verweist nicht nur auf X, sondern X macht auch alle Dokumente kenntlich, von denen aus auf X gezeigt wird. Es ist also jederzeit nachvollziehbar, wo überall von einem Dokument Gebrauch gemacht wird. Dadurch lässt sich überprüfen, ob ein als Beleg verwendeter Verweis zu Recht oder zu Unrecht angegeben wird.
    - Gutschriften für Autoren - Es geht aber noch weiter: Prinzipiell wird allen Xanadu-Teilnehmern garantiert, vorhandene Dokumentebestandteile durch so genannte Transclusions zitieren zu können. Ein Rechtemanagement für Lesezugriffe ist ja bereits integriert. Es ist also jederzeit möglich, dass jemand für ein Thema, das interessant erscheint, eine neue Anthologie erzeugt, ohne dass vorher Genehmigungen eingeholt werden müssen. Und anders als das WWW ist Xanadu ein Instrument für Autoren: An jede vorhandenen Seite können Kommentare angefügt werden. Um den Überblick zu behalten, werden sie anders dargestellt als ein Quellennachweis ("getypte Links"). Änderungen, die an einem Knoten vorgenommen werden, indem etwa ein Kommentar hinzukommt, können anderen Lesern vom System angezeigt werden, so dass man auf diese Weise lebendige Debatten und permanente Onlinekonferenzen führen kann. Ohne dass Administratoren regelnd eingreifen müssen, spiegelt das Xanadu-Netz damit die Interdependenz der realen Welt wider. Im Zeitalter der Fachidioten wird Wissen in einer Form repräsentiert, die die Verflechtung der Dinge untereinander hervorhebt und Kontroversen sichtbar macht. Das System schreibt dabei seine Geschichte selbst, da eine Versionskontrolle, verbunden mit direktem Dokumentenvergleich, die unterschiedlichen redaktionellen Bearbeitungsstufen eines Dokumentknotens nachvollziehbar macht.
    - Forschungsdebatten - Die Vorteile dieses Systems vor dem Web liegen auf der Hand: Alle Urheberrechte sind grundsätzlich und zugunsten der tatsächlichen Autoren geregelt, auch im Falle der Belletristik, die in der Regel nur konsumiert wird. Darüber hinaus profitierte die wissenschaftliche Arbeit von der Möglichkeit, Texte zu kommentieren oder vorhandene Argumentationen zitierend in die eigene Darstellung aufzunehmen. Forschungsdebatten sind jederzeit an jeder Stelle möglich - und zugänglich werden sie durch die Funktion, Änderungsanzeigen für bestimmte Knoten abonnieren, zu können. Damit wird es einem Autor möglich, auf eine Entgegnung zügig zu antworten. So können nicht nur einzelne Knoten, sondern ganze Knotennetze bearbeitet werden. Man kann also eine vorhandene Darstellung zustimmend übernehmen, aber die zwei, drei Zusatzpunkte hinzufügen, in denen die eigene Meinung vom Knotenstandard abweicht. Schließlich schafft ein System wie Xanadu mit Versionskontrolle und garantiertem Speicherplatz ein Dauerproblem des vorhandenen Webs mit seinen toten Links aus der Welt und erzeugt mit dem eingebauten Dokumentenvergleich ein Maximum an Übersicht.
    - Technische Hürden - Bleibt die Frage, weshalb Xanadu mit seiner Vision, das Weltwissen one mouse-click away erreichbar zu machen - Nelson spricht gar von einem docuverse -, bislang so erfolglos blieb. Ernst zu nehmen sind zunächst die technischen Anforderungen, die Xanadu stellt. Sie beginnen bei einer Editorensoftware, die die Autorenkennungen- vorhandener und zitierter Dokumentknoten bewahrt. Dass diese Software am Ende weniger techniklastig ist als die heutigen HTML-Editoren, wie Nelson annimmt, darf bezweifelt werden. Hinzu kommen Anforderungen an Rechnersysteme und Verwaltungsaufgaben: Da Xanadu ein konsistentes Dokumentmanagement garantieren und Dokumente für den Notfall auch redundant auf mehreren Rechnern gleichzeitig vorhalten muss, wären die technischen und Managementherausforderungen für ein aus zig Milliarden Dokumenten bestehendes System beachtlich. Andere Gründe sind prinzipieller Art: Die Bereitschaft, für Inhalte auch nur mit kleinen Beiträgen zu zahlen, ist bei den meisten. Internetnutzern als recht gering anzusetzen. Anders ließe sich das Scheitern vieler Anbieter für Bezahlinhalte im bestehenden Web kaum interpretieren. Möglicherweise gibt es auch einen latenten Widerwillen, einer zentralen und weltweit auftretenden Organisation- und trete sie mit noch so ehrenhaften Zielen an - die Aufgabe anzuvertrauen, das Weltwissen abzulegen. Hier hat offenbar - Ironie der Geschichte - das Computernetz des Militärs die Nase vorn, das aus Gründen eines auch in der Katastrophe funktionierenden Systems auf stets austauschbare Rechner setzt und das Chaos ins Kalkül aufgenommen hat. Es ist daher absehbar, dass sich Xanadu in der skizzierten Form nicht mehr durchsetzen wird. Damit ist wahrscheinlich auch eine Chance für eine neue Internetarchitektur vertan. Was als Wunsch aber für die Weiterentwicklung des bestehenden Webs nicht laut genug vorgebracht werden kann, ist, dass die Visionen und konkreten Möglichkeiten von Xanadu stärker berücksichtigt werden sollten. Vielleicht sind die Aversionen gegen zentral geregelte Systeme aber immerhin dazu gut, dass das ".Net"; das Lieblingsprojekt des Softwaregiganten Microsoft, zu einem offenen System umgewandelt wird.
    Footnote
    Mit einer Karte der Internet-Datenströme nach: mappa.mundi.net/maps/maps_020
  16. Frank, I.: Fortschritt durch Rückschritt : vom Bibliothekskatalog zum Denkwerkzeug. Eine Idee (2016) 0.01
    0.008592236 = product of:
      0.051553413 = sum of:
        0.013487929 = weight(_text_:und in 3982) [ClassicSimilarity], result of:
          0.013487929 = score(doc=3982,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27704588 = fieldWeight in 3982, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3982)
        0.014889815 = weight(_text_:des in 3982) [ClassicSimilarity], result of:
          0.014889815 = score(doc=3982,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.24477452 = fieldWeight in 3982, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=3982)
        0.009687742 = weight(_text_:der in 3982) [ClassicSimilarity], result of:
          0.009687742 = score(doc=3982,freq=2.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.19743896 = fieldWeight in 3982, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3982)
        0.013487929 = weight(_text_:und in 3982) [ClassicSimilarity], result of:
          0.013487929 = score(doc=3982,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27704588 = fieldWeight in 3982, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3982)
      0.16666667 = coord(4/24)
    
    Abstract
    Der Text zeigt anhand einer essayistisch selektiven Rückschau in die Zeit vor den Digital Humanities bibliotheks- und informationswissenschaftliche Ansätze zur Entwicklung hypertextueller Werkzeuge für Bibliographie-Verwaltung und Strukturierung des wissenschaftlichen Diskurses - eine zukunftsweisende Idee für eine digitale Geisteswissenschaft zur Unterstützung geisteswissenschaftlicher Denkarbeit jenseits von reinem 'distant thinking'.
  17. Riehm, U.: Sind elektronische Informationen mehr wert? : ein empirischer Vergleich der Nutzung gleicher Information auf Papier und am Computerbildscirm (1994) 0.01
    0.008552445 = product of:
      0.051314667 = sum of:
        0.011801938 = weight(_text_:und in 8673) [ClassicSimilarity], result of:
          0.011801938 = score(doc=8673,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24241515 = fieldWeight in 8673, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8673)
        0.013028587 = weight(_text_:des in 8673) [ClassicSimilarity], result of:
          0.013028587 = score(doc=8673,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2141777 = fieldWeight in 8673, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8673)
        0.014682204 = weight(_text_:der in 8673) [ClassicSimilarity], result of:
          0.014682204 = score(doc=8673,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.29922754 = fieldWeight in 8673, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8673)
        0.011801938 = weight(_text_:und in 8673) [ClassicSimilarity], result of:
          0.011801938 = score(doc=8673,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24241515 = fieldWeight in 8673, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8673)
      0.16666667 = coord(4/24)
    
    Abstract
    In einer Feldstudie wurden 74 Personen über ihre Nutzungserfahrungen in bezug auf eine elektronische oder eine gedruckte Projektkurzdarstellung befragt. Es zeigte sich u.a., daß die elektronische Fassung im Vergleich zur gedruckten deutlich länger genutzt wurde, aber auch unsystematischer. Die jeweilige Medienvariante beeinflußte nur unwesentlich die Fähigkeit, die Inhalte richtig zu reproduzieren. Damit konnte die weit verbreitete These von der generell höheren Leistungsfähigkeit elektronischer Informationssysteme, insbes. Hypertext, nicht bestätigt werden. Empirische, medienvergleichende Studien dieser Art sind noch relativ selten und ihre Ergebnisse sind sehr uneinheitlich. Es werden abschließend einige methodische Schwierigkeiten solcher Studien diskutiert
    Source
    Mehrwert von Information - Professionalisierung der Informationsarbeit: Proceedings des 4. Internationalen Symposiums für Informationswissenschaft (ISI'94), Graz, 2.-4. November 1994. Hrsg.: W. Rauch u.a
  18. Lörwald, B.: Es wächst zusammen ... : erst im Internet wird deutlich, was Hypertext bedeutet (1996) 0.01
    0.008303322 = product of:
      0.04981993 = sum of:
        0.009537406 = weight(_text_:und in 5034) [ClassicSimilarity], result of:
          0.009537406 = score(doc=5034,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.19590102 = fieldWeight in 5034, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5034)
        0.021057379 = weight(_text_:des in 5034) [ClassicSimilarity], result of:
          0.021057379 = score(doc=5034,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.34616345 = fieldWeight in 5034, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=5034)
        0.009687742 = weight(_text_:der in 5034) [ClassicSimilarity], result of:
          0.009687742 = score(doc=5034,freq=2.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.19743896 = fieldWeight in 5034, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=5034)
        0.009537406 = weight(_text_:und in 5034) [ClassicSimilarity], result of:
          0.009537406 = score(doc=5034,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.19590102 = fieldWeight in 5034, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5034)
      0.16666667 = coord(4/24)
    
    Abstract
    Das immer populärer werdende WWW wird als multimedialer Teil des Internet bezeichnet. Dabei wird häufig übersehen, daß Multimedia nichts weiter ist als ein digitaler elektronischer Medienverbund. Erst durch Hypertext-Technologie wird das Internet als Multimedia-Anwendung interessant, erst die Hypertext-Technologie ermöglicht die Reise um die Welt mittels Mausklick. Auf der Basis des Internet kann Hypertext zeigen, was wirklich in ihm steckt. Wenn das Netz zum Computer wird - und darauf deutet vieles hin - dann könnte Hypertext die Software sein
  19. Hammwöhner, R.: Hypertext (2004) 0.01
    0.008072677 = product of:
      0.04843606 = sum of:
        0.015079963 = weight(_text_:und in 2937) [ClassicSimilarity], result of:
          0.015079963 = score(doc=2937,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3097467 = fieldWeight in 2937, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2937)
        0.0074449074 = weight(_text_:des in 2937) [ClassicSimilarity], result of:
          0.0074449074 = score(doc=2937,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.12238726 = fieldWeight in 2937, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=2937)
        0.010831225 = weight(_text_:der in 2937) [ClassicSimilarity], result of:
          0.010831225 = score(doc=2937,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.22074346 = fieldWeight in 2937, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2937)
        0.015079963 = weight(_text_:und in 2937) [ClassicSimilarity], result of:
          0.015079963 = score(doc=2937,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3097467 = fieldWeight in 2937, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2937)
      0.16666667 = coord(4/24)
    
    Abstract
    Seit dem ersten internationalen Workshop über Hypertextsysteme 1987 in Chapel Hill hat das Hypertext-Gebiet eine außerordentlich dynamische Entwicklung erfahren. Hypertext-Komponenten sind in eine Vielzahl von Informationssystemen und Benutzungsoberflächen integriert, ohne dass sie - wie z.B. bei Dateisystemen - noch als solche wahrgenommen würden. Das World Wide Web (WWW) hat sich als weltumspannendes Medium etabliert, dessen konsistente Weiterentwicklung durch stets erweiterte Standards von einer eigenen Organisation, dem WWW-Consortium gesteuert wird. Elektronische Bücher kann man auf CD-ROM in fast jeder mittelgroßen Buchhandlung kaufen. Große Firmen setzen auf die Weiterbildung ihrer Mitarbeiter durch virtuelle, oft hypertext-basierte Lehre, für die wiederum eigene Standards-z.B. das Shareable Content Object Reference Model (Storm) - entwickelt werden. Dieser weite Einsatzbereich bringt allerdings auch ein erhebliches methodisches Problem mit sich. Hinter den disparaten Anforderungen der jeweiligen Einsatzgebiete droht eine zusammenhängende Theorie von Hypertext zu verschwinden. Ob eine solche überhaupt zu formulieren ist, ist ohnehin fraglich. Schon eine umfassende Theorie von Text konnte bisher nicht oder nur auf sehr abstraktem Niveau formuliert werden. Die im Zusammenhang mit dem Aufbau und der Nutzung von Hypertexten und Hypertextsystemen auftretenden Fragestellungen sind vielfach interdisziplinärer Natur, die z.T. auch einzelwissenschaftlich mit etwas verengter Perspektive untersucht werden. Die Informatik sieht in Hypertext eine Spezialform multimedialer Systeme, die besonders unter dem Gesichtspunkt der Datenverwaltung, bestehender Kommunikationsstandards und Software-Architekturen zu untersuchen sind. Lerntheorien aus Pädagogik und Psychologie sind die Grundlage für den Aufbau und die Nutzung von Lehrhypertexten. Hyperfiction - hypermediale Belletristik- profitiert von und speist sich aus den Strömungen der gegenwärtigen Literaturtheorie. Hier soll Hypertext vor allem unter informationswissenschaftlichen Fragestellungen behandelt werden. Einer kurzen definitorischen Eingrenzung des Gegenstands folgen texttheoretische Überlegungen zum Hypertext. Sodann wird auf die Informationssuche in Hypertexten und die Gestaltung von Hypertexten eingegangen.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  20. Kuhlen, R.; Böhlen, M.; Diefenbach, M.; Reck, W.; Weber, H.: Hypertext - Grundlagen und Funktionen der Entlinearisierung von Text : T.1: Modellierung und Realisierung einer Hypertextbasis in einem Ausbildungssystem (1989) 0.01
    0.008020163 = product of:
      0.0641613 = sum of:
        0.023603875 = weight(_text_:und in 4799) [ClassicSimilarity], result of:
          0.023603875 = score(doc=4799,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4848303 = fieldWeight in 4799, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4799)
        0.016953548 = weight(_text_:der in 4799) [ClassicSimilarity], result of:
          0.016953548 = score(doc=4799,freq=2.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34551817 = fieldWeight in 4799, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=4799)
        0.023603875 = weight(_text_:und in 4799) [ClassicSimilarity], result of:
          0.023603875 = score(doc=4799,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4848303 = fieldWeight in 4799, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4799)
      0.125 = coord(3/24)
    

Years

Languages

Types