Search (20 results, page 1 of 1)

  • × theme_ss:"Hypertext"
  • × theme_ss:"Internet"
  • × type_ss:"a"
  1. Hammwöhner, R.: Komplexe Hypertextmodelle im World Wide Web durch dynamische Dokumente (1997) 0.02
    0.016264554 = product of:
      0.048793662 = sum of:
        0.01596415 = weight(_text_:in in 731) [ClassicSimilarity], result of:
          0.01596415 = score(doc=731,freq=10.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.26884392 = fieldWeight in 731, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=731)
        0.032829512 = weight(_text_:und in 731) [ClassicSimilarity], result of:
          0.032829512 = score(doc=731,freq=6.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.33931053 = fieldWeight in 731, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=731)
      0.33333334 = coord(2/6)
    
    Abstract
    In diesem Beitrag geht es um die Übertragung komplexer Hypertextmodelle, die dynamisches Verhalten von Dokumenten ermöglichen, in das WWW. Ein Ansatz, um dieses Ziel zu erreichen, wird anhand des Hypertextmodells des Konstanzer Hypertextsystems (KHS) entwickelt und beispielhaft erläutert. Zunächst wird eine Einführung in die Problemstellung gegeben. Es folgt eine kurze Darstellung des Modells des KHS. Die Abbildung struktureller und dynamischer Aspekte dieses Modells in das WWW wird dann in den nächsten 2 Kapiteln diskutiert
    Source
    Hypertext - Information Retrieval - Multimedia '97: Theorien, Modelle und Implementierungen integrierter elektronischer Informationssysteme. Proceedings HIM '97. Hrsg.: N. Fuhr u.a
  2. Lehner, C.: Hypertext und World Wide Web als Hilfen für einen Programmierkurs in Prolog (1998) 0.01
    0.01469843 = product of:
      0.04409529 = sum of:
        0.009274333 = weight(_text_:in in 6614) [ClassicSimilarity], result of:
          0.009274333 = score(doc=6614,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1561842 = fieldWeight in 6614, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=6614)
        0.034820955 = weight(_text_:und in 6614) [ClassicSimilarity], result of:
          0.034820955 = score(doc=6614,freq=12.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.35989314 = fieldWeight in 6614, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6614)
      0.33333334 = coord(2/6)
    
    Abstract
    Der vorliegende Beitrag zeigt auf, wie sich Neue Medien zur Verbesserung der Qualität der universitären Lehre einsetzen lassen. Exemplarische Vertreter der Neuen Medien sind in diesem Zusammenhang vor allem Hypertext und das auf Hypertext basierende World Wide Web, das dem Internet seit Beginn der Neunziger Jahre zu dem enormen Popularitätsschub verholfen hat. Das WWW bringt nicht nur die vielbeschworene 'Informationsflut' mit sich, sondern es liegt durch das WWW auch ein Werkzeug vor, um Informationen und Wissen optimal zu organisieren und aufzubereiten. Exemplarisch wird an einem Online-Programmierkurs verdeutlicht, wie sich Informations- und Wissensressourcen mit Hilfe der Neuen Medien besser strukturieren und produktiver einsetzen lassen
    Series
    Fortschritte in der Wissensorganisation; Bd.5
  3. Jünger, G.: ¬Ein neues Universum (2003) 0.01
    0.010951306 = product of:
      0.032853916 = sum of:
        0.007779964 = weight(_text_:in in 1553) [ClassicSimilarity], result of:
          0.007779964 = score(doc=1553,freq=38.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.13101831 = fieldWeight in 1553, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.015625 = fieldNorm(doc=1553)
        0.025073953 = weight(_text_:und in 1553) [ClassicSimilarity], result of:
          0.025073953 = score(doc=1553,freq=56.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.25915268 = fieldWeight in 1553, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1553)
      0.33333334 = coord(2/6)
    
    Content
    Eine stetige Erfahrung der Techniksoziologie und -geschichte besagt, dass sich wirklich neue Konzepte, die ihrer Zeit vorauseilen, am Ende nicht durchsetzen können. Erfolg haben stattdessen mittelmäßige Nachbildungen der ersten Idee, die dann, um periphere Funktionen und Dekorationen erweitert, als große Innovationen auftreten. Beispiele für zweitbeste Lösungen, von denen jeder weiß, dass sie nur Krücken sind, liefert gerade die Informatik in großer Zahl. Das Gespann der Programmiersprachen Smalltalk und C++ gehört dazu, aber auch das World Wide Web, das wir heute kennen, bleibt weit hinter Konzepten eines universalen, globalen Informationssystems zurück, die lange vor der Definition des Hypertext-Protokolls durch Tim Berners-Lee entwickelt worden sind. Die Frage nach der technischen Vorgeschichte und ihren verpassten Chancen ist keineswegs nur von akademischem Interesse. Das "Xanadu" genannte System, das zum ersten Mal das weltweit vorhandene Wissen in digitaler Form radikal demokratisieren wollte, kann sehr gut als Folie dienen für die Diskussion über die zukünftige Entwicklung des WWW. Zweifellos ist der Wunsch, möglichst viel Wissen anzuhäufen, uralt. Er hat die Errichter der Bibliothek von Alexandria angetrieben, die kopierenden und kommentierenden Mönche des Mittelalters oder die Enzyklopädisten des 18. Jahrhunderts in Frankreich. Spätestens seit dem 20. Jahrhundert war die pure Menge des nun Wissbaren so nicht mehr zu bewältigen. Über die materielle Ablage der Dokumente hinaus mussten neue Organisationsprinzipien gefunden werden, um den Berg zu erschließen und seine Bestandteile untereinander in nutzbarer Weise zu verbinden. Nur dann konnte eine Wissenschaftlerin oder ein Wissenschaftler jetzt noch in vertretbarer Zeit zum aktuellen Wissensstand auf einem Gebiet aufschließen. Im Epochenjahr 1945 entwarf Vannevar Bush, ein wissenschaftlicher Berater von Roosevelt während des Zweiten Weltkriegs, eine erste Antwort auf die Frage nach einem solchen Organisationsprinzip. Er nannte sein System "Memex" (Memory Extender), also "Gedächtniserweiterer". Wissen sollte in der Form von Mikrofilmen archiviert und die dabei erzeugten Einzelbestandteile sollten so mit einander verknüpft werden, dass das sofortige Aufsuchen von Verweisen möglich würde. Technisch misslang das System, mit Hilfe von Mikrofilmen ließ es sich wohl kaum realisieren. Aber der Gedanke war formuliert, dass große Wissensbestände nicht unbedingt in separaten Dokumenten und überwiegend linear (Seite 2 folgt auf Seite 1) angeordnet zu werden brauchten. Sie können durch interne Verknüpfungen zwischen Einzelseiten zu etwas Neuem zusammengefügt werden. Der Flugzeugingenieur Douglas Engelbart las schon in den Vierzigerjahren von Bushs Idee. Ihm gebührt das Verdienst, sie auf die neue Technik der digitalen Computer übertragen zu haben. Eine Sitzung der "Fall Joint Computer Conference" im Jahr 1968 demonstrierte seine "NLS" (oN Line System) genannte Verwirklichung des Memex-Konzepts in der Praxis und war für viele Teilnehmer die Initialzündung zu eigenen Versuchen auf diesem Gebiet. NLS war ein riesiges Journal von einzelnen Memos und Berichten eines Vorgängerprojekts, das es den beteiligten Wissenschaftlern erlaubte, über adressierte Verweise unmittelbar zu einem benachbarten Dokument zu springen - ein Netz aus Knoten und `Kanten, dem nur noch ein geeigneter Name für seine neue Eigenschaft fehlte:
    - Hypertext - Nicht nur den Namen "Hypertext" für ein solches Netz, sondern auch entscheidende Impulse zu einer konkreten Ausgestaltung eines durch Links verknüpften Netzes steuerte ab 1965 Ted Nelson bei. Sein mit dem Namen "Xanadu" verbundenes Wissenschaftsnetz gibt noch heute die Messlatte ab, an der sich das WWW behaupten muss. Nelson versuchte, sein Konzept auch kommerziell zum Erfolg zu bringen. Zeitweise konnte er auf ein starkes finanzielles Engagement der CAD-Firma Autodesk rechnen, die sich jedoch nach ausbleibenden Erfolgen aus diesem Engagement zurückzog. Heute ist der Quellcode der Software frei zugänglich, und die Website xanadu.net informiert über die Aktivitäten der kleinen Xanadu-Gemeinde von heute. Nelson selbst stellt sein Projekt als ein geschlossenes System von Dokumenten dar, dessen Zugang man ähnlich erwirbt wie den zu einem Provider oder zum Zahlfernsehen. Dokumente werden in diesem aus vernetzten Computern bestehenden System binär gespeichert, unabhängig davon, ob im einzelnen Dokument Bilder, Müsik, Text oder sonst etwas vorliegen. Sie zerfallen in winzige, aber identifizierbare Bestandteile, so dass jeder Dokumententeil mit einer eindeutigen ID versehen ist und einem bestimmten Autor zugeordnet werden kann. Liest ein Leser ein Dokumententeil in Xanadu, wird dadurch automatisch eine Gutschrift für das Konto des Urhebers des Dokuments erzeugt. Wie im existierenden Web sind einzelne Wörter, Bilder oder andere Medieninhalte Anker zu Verweisen auf andere Dokumentenbestandteile, die sich per Mausklick aufrufen lassen. Im Unterschied zum Web aber führt der Weg nicht nur in eine Richtung. Stichwort A verweist nicht nur auf X, sondern X macht auch alle Dokumente kenntlich, von denen aus auf X gezeigt wird. Es ist also jederzeit nachvollziehbar, wo überall von einem Dokument Gebrauch gemacht wird. Dadurch lässt sich überprüfen, ob ein als Beleg verwendeter Verweis zu Recht oder zu Unrecht angegeben wird.
    - Gutschriften für Autoren - Es geht aber noch weiter: Prinzipiell wird allen Xanadu-Teilnehmern garantiert, vorhandene Dokumentebestandteile durch so genannte Transclusions zitieren zu können. Ein Rechtemanagement für Lesezugriffe ist ja bereits integriert. Es ist also jederzeit möglich, dass jemand für ein Thema, das interessant erscheint, eine neue Anthologie erzeugt, ohne dass vorher Genehmigungen eingeholt werden müssen. Und anders als das WWW ist Xanadu ein Instrument für Autoren: An jede vorhandenen Seite können Kommentare angefügt werden. Um den Überblick zu behalten, werden sie anders dargestellt als ein Quellennachweis ("getypte Links"). Änderungen, die an einem Knoten vorgenommen werden, indem etwa ein Kommentar hinzukommt, können anderen Lesern vom System angezeigt werden, so dass man auf diese Weise lebendige Debatten und permanente Onlinekonferenzen führen kann. Ohne dass Administratoren regelnd eingreifen müssen, spiegelt das Xanadu-Netz damit die Interdependenz der realen Welt wider. Im Zeitalter der Fachidioten wird Wissen in einer Form repräsentiert, die die Verflechtung der Dinge untereinander hervorhebt und Kontroversen sichtbar macht. Das System schreibt dabei seine Geschichte selbst, da eine Versionskontrolle, verbunden mit direktem Dokumentenvergleich, die unterschiedlichen redaktionellen Bearbeitungsstufen eines Dokumentknotens nachvollziehbar macht.
    - Forschungsdebatten - Die Vorteile dieses Systems vor dem Web liegen auf der Hand: Alle Urheberrechte sind grundsätzlich und zugunsten der tatsächlichen Autoren geregelt, auch im Falle der Belletristik, die in der Regel nur konsumiert wird. Darüber hinaus profitierte die wissenschaftliche Arbeit von der Möglichkeit, Texte zu kommentieren oder vorhandene Argumentationen zitierend in die eigene Darstellung aufzunehmen. Forschungsdebatten sind jederzeit an jeder Stelle möglich - und zugänglich werden sie durch die Funktion, Änderungsanzeigen für bestimmte Knoten abonnieren, zu können. Damit wird es einem Autor möglich, auf eine Entgegnung zügig zu antworten. So können nicht nur einzelne Knoten, sondern ganze Knotennetze bearbeitet werden. Man kann also eine vorhandene Darstellung zustimmend übernehmen, aber die zwei, drei Zusatzpunkte hinzufügen, in denen die eigene Meinung vom Knotenstandard abweicht. Schließlich schafft ein System wie Xanadu mit Versionskontrolle und garantiertem Speicherplatz ein Dauerproblem des vorhandenen Webs mit seinen toten Links aus der Welt und erzeugt mit dem eingebauten Dokumentenvergleich ein Maximum an Übersicht.
    - Technische Hürden - Bleibt die Frage, weshalb Xanadu mit seiner Vision, das Weltwissen one mouse-click away erreichbar zu machen - Nelson spricht gar von einem docuverse -, bislang so erfolglos blieb. Ernst zu nehmen sind zunächst die technischen Anforderungen, die Xanadu stellt. Sie beginnen bei einer Editorensoftware, die die Autorenkennungen- vorhandener und zitierter Dokumentknoten bewahrt. Dass diese Software am Ende weniger techniklastig ist als die heutigen HTML-Editoren, wie Nelson annimmt, darf bezweifelt werden. Hinzu kommen Anforderungen an Rechnersysteme und Verwaltungsaufgaben: Da Xanadu ein konsistentes Dokumentmanagement garantieren und Dokumente für den Notfall auch redundant auf mehreren Rechnern gleichzeitig vorhalten muss, wären die technischen und Managementherausforderungen für ein aus zig Milliarden Dokumenten bestehendes System beachtlich. Andere Gründe sind prinzipieller Art: Die Bereitschaft, für Inhalte auch nur mit kleinen Beiträgen zu zahlen, ist bei den meisten. Internetnutzern als recht gering anzusetzen. Anders ließe sich das Scheitern vieler Anbieter für Bezahlinhalte im bestehenden Web kaum interpretieren. Möglicherweise gibt es auch einen latenten Widerwillen, einer zentralen und weltweit auftretenden Organisation- und trete sie mit noch so ehrenhaften Zielen an - die Aufgabe anzuvertrauen, das Weltwissen abzulegen. Hier hat offenbar - Ironie der Geschichte - das Computernetz des Militärs die Nase vorn, das aus Gründen eines auch in der Katastrophe funktionierenden Systems auf stets austauschbare Rechner setzt und das Chaos ins Kalkül aufgenommen hat. Es ist daher absehbar, dass sich Xanadu in der skizzierten Form nicht mehr durchsetzen wird. Damit ist wahrscheinlich auch eine Chance für eine neue Internetarchitektur vertan. Was als Wunsch aber für die Weiterentwicklung des bestehenden Webs nicht laut genug vorgebracht werden kann, ist, dass die Visionen und konkreten Möglichkeiten von Xanadu stärker berücksichtigt werden sollten. Vielleicht sind die Aversionen gegen zentral geregelte Systeme aber immerhin dazu gut, dass das ".Net"; das Lieblingsprojekt des Softwaregiganten Microsoft, zu einem offenen System umgewandelt wird.
  4. Milosavljevic, M.; Oberlander, J.: Dynamic catalogues on the WWW (1998) 0.01
    0.010265838 = product of:
      0.030797515 = sum of:
        0.0071393843 = weight(_text_:in in 3594) [ClassicSimilarity], result of:
          0.0071393843 = score(doc=3594,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.120230645 = fieldWeight in 3594, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=3594)
        0.02365813 = product of:
          0.04731626 = sum of:
            0.04731626 = weight(_text_:22 in 3594) [ClassicSimilarity], result of:
              0.04731626 = score(doc=3594,freq=2.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.30952093 = fieldWeight in 3594, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3594)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Natural language generation techniques can be used to dynamically produce hypertext dynamic catalogues on the Web, resulting in DYNAMIC HYPERTEXT. A dynamic hypertext document can be tailored more precisely to a particular user's needs and background, thus helping the user to search more effectively. Describes the automatic generation of WWW documents and illustrates with 2 implemented systems
    Date
    1. 8.1996 22:08:06
  5. Capps, M.; Ladd, B.; Stotts, D.: Enhanced graph models in the Web : multi-client, multi-head, multi-tail browsing (1996) 0.01
    0.009845134 = product of:
      0.029535402 = sum of:
        0.008834538 = weight(_text_:in in 5860) [ClassicSimilarity], result of:
          0.008834538 = score(doc=5860,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.14877784 = fieldWeight in 5860, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5860)
        0.020700864 = product of:
          0.04140173 = sum of:
            0.04140173 = weight(_text_:22 in 5860) [ClassicSimilarity], result of:
              0.04140173 = score(doc=5860,freq=2.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.2708308 = fieldWeight in 5860, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5860)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Richer graph models permit authors to 'program' the browsing behaviour they want WWW readers to see by turning the hypertext into a hyperprogram with specific semantics. Multiple browsing streams can be started under the author's control and then kept in step through the synchronization mechanisms provided by the graph model. Adds a Semantic Web Graph Layer (SWGL) which allows dynamic interpretation of link and node structures according to graph models. Details the SWGL and its architecture, some sample protocol implementations, and the latest extensions to MHTML
    Date
    1. 8.1996 22:08:06
  6. Falquet, G.; Guyot, J.; Nerima, L.: Languages and tools to specify hypertext views on databases (1999) 0.01
    0.009005977 = product of:
      0.027017929 = sum of:
        0.009274333 = weight(_text_:in in 3968) [ClassicSimilarity], result of:
          0.009274333 = score(doc=3968,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1561842 = fieldWeight in 3968, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3968)
        0.017743597 = product of:
          0.035487194 = sum of:
            0.035487194 = weight(_text_:22 in 3968) [ClassicSimilarity], result of:
              0.035487194 = score(doc=3968,freq=2.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.23214069 = fieldWeight in 3968, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3968)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    We present a declarative language for the construction of hypertext views on databases. The language is based on an object-oriented data model and a simple hypertext model with reference and inclusion links. A hypertext view specification consists in a collection of parameterized node schemes which specify how to construct node and links instances from the database contents. We show how this language can express different issues in hypertext view design. These include: the direct mapping of objects to nodes; the construction of complex nodes based on sets of objects; the representation of polymorphic sets of objects; and the representation of tree and graph structures. We have defined sublanguages corresponding to particular database models (relational, semantic, object-oriented) and implemented tools to generate Web views for these database models
    Date
    21.10.2000 15:01:22
    Series
    Lecture notes in computer science; vol.1590
  7. Lörwald, B.: Es wächst zusammen ... : erst im Internet wird deutlich, was Hypertext bedeutet (1996) 0.01
    0.008697838 = product of:
      0.02609351 = sum of:
        0.0071393843 = weight(_text_:in in 5034) [ClassicSimilarity], result of:
          0.0071393843 = score(doc=5034,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.120230645 = fieldWeight in 5034, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=5034)
        0.018954126 = weight(_text_:und in 5034) [ClassicSimilarity], result of:
          0.018954126 = score(doc=5034,freq=2.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.19590102 = fieldWeight in 5034, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5034)
      0.33333334 = coord(2/6)
    
    Abstract
    Das immer populärer werdende WWW wird als multimedialer Teil des Internet bezeichnet. Dabei wird häufig übersehen, daß Multimedia nichts weiter ist als ein digitaler elektronischer Medienverbund. Erst durch Hypertext-Technologie wird das Internet als Multimedia-Anwendung interessant, erst die Hypertext-Technologie ermöglicht die Reise um die Welt mittels Mausklick. Auf der Basis des Internet kann Hypertext zeigen, was wirklich in ihm steckt. Wenn das Netz zum Computer wird - und darauf deutet vieles hin - dann könnte Hypertext die Software sein
  8. Yang, C.C.; Liu, N.: Web site topic-hierarchy generation based on link structure (2009) 0.01
    0.0064161494 = product of:
      0.019248448 = sum of:
        0.0044621155 = weight(_text_:in in 2738) [ClassicSimilarity], result of:
          0.0044621155 = score(doc=2738,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.07514416 = fieldWeight in 2738, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2738)
        0.014786332 = product of:
          0.029572664 = sum of:
            0.029572664 = weight(_text_:22 in 2738) [ClassicSimilarity], result of:
              0.029572664 = score(doc=2738,freq=2.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.19345059 = fieldWeight in 2738, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2738)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Navigating through hyperlinks within a Web site to look for information from one of its Web pages without the support of a site map can be inefficient and ineffective. Although the content of a Web site is usually organized with an inherent structure like a topic hierarchy, which is a directed tree rooted at a Web site's homepage whose vertices and edges correspond to Web pages and hyperlinks, such a topic hierarchy is not always available to the user. In this work, we studied the problem of automatic generation of Web sites' topic hierarchies. We modeled a Web site's link structure as a weighted directed graph and proposed methods for estimating edge weights based on eight types of features and three learning algorithms, namely decision trees, naïve Bayes classifiers, and logistic regression. Three graph algorithms, namely breadth-first search, shortest-path search, and directed minimum-spanning tree, were adapted to generate the topic hierarchy based on the graph model. We have tested the model and algorithms on real Web sites. It is found that the directed minimum-spanning tree algorithm with the decision tree as the weight learning algorithm achieves the highest performance with an average accuracy of 91.9%.
    Date
    22. 3.2009 12:51:47
  9. Spertus, E.: ParaSite : mining structural information on the Web (1997) 0.00
    0.003943022 = product of:
      0.02365813 = sum of:
        0.02365813 = product of:
          0.04731626 = sum of:
            0.04731626 = weight(_text_:22 in 2740) [ClassicSimilarity], result of:
              0.04731626 = score(doc=2740,freq=2.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.30952093 = fieldWeight in 2740, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2740)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    1. 8.1996 22:08:06
  10. Luzón, M.J.: Scholarly hyperwriting : the function of links in academic weblogs (2009) 0.00
    0.0025241538 = product of:
      0.015144923 = sum of:
        0.015144923 = weight(_text_:in in 3307) [ClassicSimilarity], result of:
          0.015144923 = score(doc=3307,freq=16.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.25504774 = fieldWeight in 3307, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3307)
      0.16666667 = coord(1/6)
    
    Abstract
    Weblogs are gaining momentum as one of most versatile tools for online scholarly communication. Since academic weblogs tend to be used by scholars to position themselves in a disciplinary blogging community, links are essential to their construction. The aim of this article is to analyze the reasons for linking in academic weblogs and to determine how links are used for distribution of information, collaborative construction of knowledge, and construction of the blog's and the blogger's identity. For this purpose I analyzed types of links in 15 academic blogs, considering both sidebar links and in-post links. The results show that links are strategically used by academic bloggers for several purposes, among others to seek their place in a disciplinary community, to engage in hypertext conversations for collaborative construction of knowledge, to organize information in the blog, to publicize their research, to enhance the blog's visibility, and to optimize blog entries and the blog itself.
  11. Bra, P. de: Hypermedia, de opvolger van boek, film en video (1996) 0.00
    0.0020823204 = product of:
      0.012493922 = sum of:
        0.012493922 = weight(_text_:in in 4959) [ClassicSimilarity], result of:
          0.012493922 = score(doc=4959,freq=8.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.21040362 = fieldWeight in 4959, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4959)
      0.16666667 = coord(1/6)
    
    Abstract
    The concept of a system combining information in both textual and pictorial format was first suggested by Vannevar Bush in 1945. The present hypermedia system was originally developed by Tim Berners Lee at CERN in 1989 and provides access to brief documents, which are interlinked and contain text, images, sound and video. The system has become widely available through the WWW, which enables users to 'navigate' through related information. Recent developments include the ability to view objects in virtual reality and the automatic generation of document links
  12. Ihadjadene, M.; Bouché, R.; Zâafrani, R.: ¬The dynamic nature of searching and browsing on Web-OPACs : the CATHIE experience (2000) 0.00
    0.0019676082 = product of:
      0.011805649 = sum of:
        0.011805649 = weight(_text_:in in 118) [ClassicSimilarity], result of:
          0.011805649 = score(doc=118,freq=14.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.19881277 = fieldWeight in 118, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=118)
      0.16666667 = coord(1/6)
    
    Abstract
    The paradigm shift from the old system centered view to a user centered approach involves new tools needed for accessing library resources under the condition that the user's needs are taken into account. An end-user, who has only a little knowledge of classification systems or thesauri, understands little of the mode of the representation of contents and the use of authority lists. In addition, he will have difficulty in formulating his question in a precise manner. He needs to know better what the library proposes in order to define of what use it would be for him. Many studies have been carried out on the use of controlled vocabularies (classification, authority lists, thesauri) as searching devices. It is surprising to find that relatively little attention has been given to the role of these tools in filtering and browsing processes. We have developed a prototype named CATHIE (CATalog Hypertextuel Interactif et Enrichi) that supports such filtering and interactive reformulation features
    Series
    Advances in knowledge organization; vol.7
    Source
    Dynamism and stability in knowledge organization: Proceedings of the 6th International ISKO-Conference, 10-13 July 2000, Toronto, Canada. Ed.: C. Beghtol et al
  13. Wätjen, H.-J.: Hypertextbasierte OPACs im World-wide Web (1996) 0.00
    0.0017848461 = product of:
      0.010709076 = sum of:
        0.010709076 = weight(_text_:in in 5456) [ClassicSimilarity], result of:
          0.010709076 = score(doc=5456,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18034597 = fieldWeight in 5456, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=5456)
      0.16666667 = coord(1/6)
    
    Source
    Weiter auf dem Weg zur virtuellen Bibliothek! Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996. 2., erw. Aufl
  14. Heo, M.; Hirtle, S.C.: ¬An empirical comparison of visualization tools to assist information retrieval on the Web (2001) 0.00
    0.0017848461 = product of:
      0.010709076 = sum of:
        0.010709076 = weight(_text_:in in 5215) [ClassicSimilarity], result of:
          0.010709076 = score(doc=5215,freq=18.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18034597 = fieldWeight in 5215, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=5215)
      0.16666667 = coord(1/6)
    
    Abstract
    The reader of a hypertext document in a web environment, if maximum use of the document is to be obtained, must visualize the overall structure of the paths through the document as well as the document space. Graphic visualization displays of this space, produced to assist in navigation, are classified into four groups, and Heo and Hirtle compare three of these classes as to their effectiveness. Distortion displays expand regions of interest while relatively diminishing the detail of the remaining regions. This technique will show both local detail and global structure. Zoom techniques use a series of increasingly focused displays of smaller and smaller areas, and can reduce cogitative overload, but do not provide an easy movement to other parts of the total space. Expanding outline displays use a tree structure to allow movement through a hierarchy of documents, but if the organization has a wide horizontal structure, or is not particularly hierarchical in nature such display can break down. Three dimensional layouts, which are not evaluated here, place objects by location in three space, providing more information and freedom. However, the space must be represented in two dimensions resulting in difficulty in visually judging depth, size and positioning. Ten students were assigned to each of eight groups composed of viewers of the three techniques and an unassisted control group using either a large (583 selected pages) or a small (50 selected pages) web space. Sets of 10 questions, which were designed to elicit the use of a visualization tool, were provided for each space. Accuracy and time spent were extracted from a log file. Users views were also surveyed after completion. ANOVA shows significant differences in accuracy and time based upon the visualization tool in use. A Tukey test shows zoom accuracy to be significantly less than expanding outline and zoom time to be significantly greater than both the outline and control groups. Size significantly affected accuracy and time, but had no interaction with tool type. While the expanding tool class out performed zoom and distortion, its performance was not significantly different from the control group.
  15. Machovec, G.S.: World Wide Web : accessing the Internet (1993) 0.00
    0.001682769 = product of:
      0.010096614 = sum of:
        0.010096614 = weight(_text_:in in 4534) [ClassicSimilarity], result of:
          0.010096614 = score(doc=4534,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.17003182 = fieldWeight in 4534, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=4534)
      0.16666667 = coord(1/6)
    
    Abstract
    The World Wide Web (WWW) is one of the newest tools available to assist in the navigation of the Internet. As with other client/server network tools such as Gopher and WAIS, developments with the Web are in a dynamic state of change. Basically, WWW is an effort to organize information on the Internet plus local information into a set of hypertext documents; a person navigates the network by moving from one document to another via a set of hypertext links
  16. Heffron, J.K.; Dillon, A.; Mostafa, J.: Landmarks in the World Wide Web : a preliminary study (1996) 0.00
    0.001682769 = product of:
      0.010096614 = sum of:
        0.010096614 = weight(_text_:in in 7474) [ClassicSimilarity], result of:
          0.010096614 = score(doc=7474,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.17003182 = fieldWeight in 7474, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=7474)
      0.16666667 = coord(1/6)
    
    Abstract
    Outlines the results of a pilot study designed to consider what constitutes a landmark in hypertext. Tests users' memories for locations visited on the WWW. Reports the results, and outlines a refined methodology for a new study. By understanding more about users' navigation through hypertext information space, the issue of recognition of informative materials on the WWW may be addressed
  17. Nickerson, G.: World Wide Web : Hypertext from CERN (1992) 0.00
    0.0014873719 = product of:
      0.008924231 = sum of:
        0.008924231 = weight(_text_:in in 4535) [ClassicSimilarity], result of:
          0.008924231 = score(doc=4535,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.15028831 = fieldWeight in 4535, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=4535)
      0.16666667 = coord(1/6)
    
    Source
    Computers in libraries. 12(1992) no.12, S.75-77
  18. Sindoni, G.: Incremental maintenance of hypertext views (1999) 0.00
    0.0014724231 = product of:
      0.008834538 = sum of:
        0.008834538 = weight(_text_:in in 3966) [ClassicSimilarity], result of:
          0.008834538 = score(doc=3966,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.14877784 = fieldWeight in 3966, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3966)
      0.16666667 = coord(1/6)
    
    Abstract
    A materialized hypertext view is a hypertext containing data coming from a database and whose pages are stored in files. A Web site presenting data coming from a database is an example of such a view, where the hypertext pages are HTML files. Even if the most popular approach to the generation of such sites is the virtual one, there is also a rationale for a materialized apporach. This paper deals with the maintenance issues required by these derived hypertext to enforce consistency between page content and database state
    Series
    Lecture notes in computer science; vol.1590
  19. Scott, P.: Hypertext ... information at your fingertips (1993) 0.00
    0.0011898974 = product of:
      0.0071393843 = sum of:
        0.0071393843 = weight(_text_:in in 6) [ClassicSimilarity], result of:
          0.0071393843 = score(doc=6,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.120230645 = fieldWeight in 6, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=6)
      0.16666667 = coord(1/6)
    
    Abstract
    Hypertext is an alternative to traditional linear text and has been used successfully to create useful indexes on various types of computers. HyperRez, from MaxThink, is discussed in details, as is the creation of the major Internet index, HYTELNET. Reference is also made to hypertext utilities currently under development that make use of the HyperRez software
  20. Bieber, M.: Fourth generation hypermedia : some missing links for the World Wide Web (1997) 0.00
    0.0011898974 = product of:
      0.0071393843 = sum of:
        0.0071393843 = weight(_text_:in in 1209) [ClassicSimilarity], result of:
          0.0071393843 = score(doc=1209,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.120230645 = fieldWeight in 1209, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=1209)
      0.16666667 = coord(1/6)
    
    Abstract
    Presents a set of high-level hypermedia features: typed nodes and links, link attributes, structure-based query, transclusion, warm and hot links, private and public linkds, external link databases, link update mechanisms, overview, trails guided tours, backtracking and history-based navigation. Illustrates each feature from existing implementations and a running scenario. Gives suggestions for implementing these on the WWW and in other information systems