Search (57 results, page 1 of 3)

  • × theme_ss:"Hypertext"
  1. Jünger, G.: ¬Ein neues Universum (2003) 0.01
    0.01127447 = product of:
      0.03382341 = sum of:
        0.010491517 = product of:
          0.04196607 = sum of:
            0.04196607 = weight(_text_:seite in 1553) [ClassicSimilarity], result of:
              0.04196607 = score(doc=1553,freq=6.0), product of:
                0.1957637 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.034951173 = queryNorm
                0.21437104 = fieldWeight in 1553, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1553)
          0.25 = coord(1/4)
        0.023331892 = weight(_text_:zugang in 1553) [ClassicSimilarity], result of:
          0.023331892 = score(doc=1553,freq=2.0), product of:
            0.19210486 = queryWeight, product of:
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.034951173 = queryNorm
            0.12145394 = fieldWeight in 1553, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.015625 = fieldNorm(doc=1553)
      0.33333334 = coord(2/6)
    
    Content
    Eine stetige Erfahrung der Techniksoziologie und -geschichte besagt, dass sich wirklich neue Konzepte, die ihrer Zeit vorauseilen, am Ende nicht durchsetzen können. Erfolg haben stattdessen mittelmäßige Nachbildungen der ersten Idee, die dann, um periphere Funktionen und Dekorationen erweitert, als große Innovationen auftreten. Beispiele für zweitbeste Lösungen, von denen jeder weiß, dass sie nur Krücken sind, liefert gerade die Informatik in großer Zahl. Das Gespann der Programmiersprachen Smalltalk und C++ gehört dazu, aber auch das World Wide Web, das wir heute kennen, bleibt weit hinter Konzepten eines universalen, globalen Informationssystems zurück, die lange vor der Definition des Hypertext-Protokolls durch Tim Berners-Lee entwickelt worden sind. Die Frage nach der technischen Vorgeschichte und ihren verpassten Chancen ist keineswegs nur von akademischem Interesse. Das "Xanadu" genannte System, das zum ersten Mal das weltweit vorhandene Wissen in digitaler Form radikal demokratisieren wollte, kann sehr gut als Folie dienen für die Diskussion über die zukünftige Entwicklung des WWW. Zweifellos ist der Wunsch, möglichst viel Wissen anzuhäufen, uralt. Er hat die Errichter der Bibliothek von Alexandria angetrieben, die kopierenden und kommentierenden Mönche des Mittelalters oder die Enzyklopädisten des 18. Jahrhunderts in Frankreich. Spätestens seit dem 20. Jahrhundert war die pure Menge des nun Wissbaren so nicht mehr zu bewältigen. Über die materielle Ablage der Dokumente hinaus mussten neue Organisationsprinzipien gefunden werden, um den Berg zu erschließen und seine Bestandteile untereinander in nutzbarer Weise zu verbinden. Nur dann konnte eine Wissenschaftlerin oder ein Wissenschaftler jetzt noch in vertretbarer Zeit zum aktuellen Wissensstand auf einem Gebiet aufschließen. Im Epochenjahr 1945 entwarf Vannevar Bush, ein wissenschaftlicher Berater von Roosevelt während des Zweiten Weltkriegs, eine erste Antwort auf die Frage nach einem solchen Organisationsprinzip. Er nannte sein System "Memex" (Memory Extender), also "Gedächtniserweiterer". Wissen sollte in der Form von Mikrofilmen archiviert und die dabei erzeugten Einzelbestandteile sollten so mit einander verknüpft werden, dass das sofortige Aufsuchen von Verweisen möglich würde. Technisch misslang das System, mit Hilfe von Mikrofilmen ließ es sich wohl kaum realisieren. Aber der Gedanke war formuliert, dass große Wissensbestände nicht unbedingt in separaten Dokumenten und überwiegend linear (Seite 2 folgt auf Seite 1) angeordnet zu werden brauchten. Sie können durch interne Verknüpfungen zwischen Einzelseiten zu etwas Neuem zusammengefügt werden. Der Flugzeugingenieur Douglas Engelbart las schon in den Vierzigerjahren von Bushs Idee. Ihm gebührt das Verdienst, sie auf die neue Technik der digitalen Computer übertragen zu haben. Eine Sitzung der "Fall Joint Computer Conference" im Jahr 1968 demonstrierte seine "NLS" (oN Line System) genannte Verwirklichung des Memex-Konzepts in der Praxis und war für viele Teilnehmer die Initialzündung zu eigenen Versuchen auf diesem Gebiet. NLS war ein riesiges Journal von einzelnen Memos und Berichten eines Vorgängerprojekts, das es den beteiligten Wissenschaftlern erlaubte, über adressierte Verweise unmittelbar zu einem benachbarten Dokument zu springen - ein Netz aus Knoten und `Kanten, dem nur noch ein geeigneter Name für seine neue Eigenschaft fehlte:
    - Hypertext - Nicht nur den Namen "Hypertext" für ein solches Netz, sondern auch entscheidende Impulse zu einer konkreten Ausgestaltung eines durch Links verknüpften Netzes steuerte ab 1965 Ted Nelson bei. Sein mit dem Namen "Xanadu" verbundenes Wissenschaftsnetz gibt noch heute die Messlatte ab, an der sich das WWW behaupten muss. Nelson versuchte, sein Konzept auch kommerziell zum Erfolg zu bringen. Zeitweise konnte er auf ein starkes finanzielles Engagement der CAD-Firma Autodesk rechnen, die sich jedoch nach ausbleibenden Erfolgen aus diesem Engagement zurückzog. Heute ist der Quellcode der Software frei zugänglich, und die Website xanadu.net informiert über die Aktivitäten der kleinen Xanadu-Gemeinde von heute. Nelson selbst stellt sein Projekt als ein geschlossenes System von Dokumenten dar, dessen Zugang man ähnlich erwirbt wie den zu einem Provider oder zum Zahlfernsehen. Dokumente werden in diesem aus vernetzten Computern bestehenden System binär gespeichert, unabhängig davon, ob im einzelnen Dokument Bilder, Müsik, Text oder sonst etwas vorliegen. Sie zerfallen in winzige, aber identifizierbare Bestandteile, so dass jeder Dokumententeil mit einer eindeutigen ID versehen ist und einem bestimmten Autor zugeordnet werden kann. Liest ein Leser ein Dokumententeil in Xanadu, wird dadurch automatisch eine Gutschrift für das Konto des Urhebers des Dokuments erzeugt. Wie im existierenden Web sind einzelne Wörter, Bilder oder andere Medieninhalte Anker zu Verweisen auf andere Dokumentenbestandteile, die sich per Mausklick aufrufen lassen. Im Unterschied zum Web aber führt der Weg nicht nur in eine Richtung. Stichwort A verweist nicht nur auf X, sondern X macht auch alle Dokumente kenntlich, von denen aus auf X gezeigt wird. Es ist also jederzeit nachvollziehbar, wo überall von einem Dokument Gebrauch gemacht wird. Dadurch lässt sich überprüfen, ob ein als Beleg verwendeter Verweis zu Recht oder zu Unrecht angegeben wird.
    - Gutschriften für Autoren - Es geht aber noch weiter: Prinzipiell wird allen Xanadu-Teilnehmern garantiert, vorhandene Dokumentebestandteile durch so genannte Transclusions zitieren zu können. Ein Rechtemanagement für Lesezugriffe ist ja bereits integriert. Es ist also jederzeit möglich, dass jemand für ein Thema, das interessant erscheint, eine neue Anthologie erzeugt, ohne dass vorher Genehmigungen eingeholt werden müssen. Und anders als das WWW ist Xanadu ein Instrument für Autoren: An jede vorhandenen Seite können Kommentare angefügt werden. Um den Überblick zu behalten, werden sie anders dargestellt als ein Quellennachweis ("getypte Links"). Änderungen, die an einem Knoten vorgenommen werden, indem etwa ein Kommentar hinzukommt, können anderen Lesern vom System angezeigt werden, so dass man auf diese Weise lebendige Debatten und permanente Onlinekonferenzen führen kann. Ohne dass Administratoren regelnd eingreifen müssen, spiegelt das Xanadu-Netz damit die Interdependenz der realen Welt wider. Im Zeitalter der Fachidioten wird Wissen in einer Form repräsentiert, die die Verflechtung der Dinge untereinander hervorhebt und Kontroversen sichtbar macht. Das System schreibt dabei seine Geschichte selbst, da eine Versionskontrolle, verbunden mit direktem Dokumentenvergleich, die unterschiedlichen redaktionellen Bearbeitungsstufen eines Dokumentknotens nachvollziehbar macht.
  2. Dimitroff, A.; Wolfram, D.: Searcher response in a hypertext-based bibliographic information retrieval system (1995) 0.01
    0.008456701 = product of:
      0.050740205 = sum of:
        0.050740205 = product of:
          0.0761103 = sum of:
            0.03822709 = weight(_text_:29 in 187) [ClassicSimilarity], result of:
              0.03822709 = score(doc=187,freq=2.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.31092256 = fieldWeight in 187, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=187)
            0.03788321 = weight(_text_:22 in 187) [ClassicSimilarity], result of:
              0.03788321 = score(doc=187,freq=2.0), product of:
                0.12239305 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034951173 = queryNorm
                0.30952093 = fieldWeight in 187, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=187)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Source
    Journal of the American Society for Information Science. 46(1995) no.1, S.22-29
  3. Spertus, E.: ParaSite : mining structural information on the Web (1997) 0.01
    0.008456701 = product of:
      0.050740205 = sum of:
        0.050740205 = product of:
          0.0761103 = sum of:
            0.03822709 = weight(_text_:29 in 2740) [ClassicSimilarity], result of:
              0.03822709 = score(doc=2740,freq=2.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.31092256 = fieldWeight in 2740, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2740)
            0.03788321 = weight(_text_:22 in 2740) [ClassicSimilarity], result of:
              0.03788321 = score(doc=2740,freq=2.0), product of:
                0.12239305 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034951173 = queryNorm
                0.30952093 = fieldWeight in 2740, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2740)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    1. 8.1996 22:08:06
    Source
    Computer networks and ISDN systems. 29(1997) no.8, S.1205-1215
  4. Diaz, P.; Aedo, I.; Panetsos, F.: Labyrinth, an abstract model for hypermedia applications : Description of its static components (1997) 0.01
    0.008456701 = product of:
      0.050740205 = sum of:
        0.050740205 = product of:
          0.0761103 = sum of:
            0.03822709 = weight(_text_:29 in 3318) [ClassicSimilarity], result of:
              0.03822709 = score(doc=3318,freq=2.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.31092256 = fieldWeight in 3318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3318)
            0.03788321 = weight(_text_:22 in 3318) [ClassicSimilarity], result of:
              0.03788321 = score(doc=3318,freq=2.0), product of:
                0.12239305 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034951173 = queryNorm
                0.30952093 = fieldWeight in 3318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3318)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    5. 4.1996 15:29:15
    Source
    Information systems. 22(1997) no.8, S.447-464
  5. Hypertext and information retrieval : [Themenheft] (1993) 0.01
    0.0053093187 = product of:
      0.03185591 = sum of:
        0.03185591 = product of:
          0.095567726 = sum of:
            0.095567726 = weight(_text_:29 in 4707) [ClassicSimilarity], result of:
              0.095567726 = score(doc=4707,freq=2.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.77730644 = fieldWeight in 4707, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.15625 = fieldNorm(doc=4707)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Information processing and management. 29(1993), no.3
  6. Agosti, M.: Hypertext and information retrieval (1993) 0.00
    0.0042474545 = product of:
      0.025484726 = sum of:
        0.025484726 = product of:
          0.07645418 = sum of:
            0.07645418 = weight(_text_:29 in 4708) [ClassicSimilarity], result of:
              0.07645418 = score(doc=4708,freq=2.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.6218451 = fieldWeight in 4708, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=4708)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Information processing and management. 29(1993) no.3, S.283-286
  7. Dunlop, M.D.; Rijsbergen, C.J. van: Hypermedia and free text retrieval (1993) 0.00
    0.0042474545 = product of:
      0.025484726 = sum of:
        0.025484726 = product of:
          0.07645418 = sum of:
            0.07645418 = weight(_text_:29 in 4709) [ClassicSimilarity], result of:
              0.07645418 = score(doc=4709,freq=2.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.6218451 = fieldWeight in 4709, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=4709)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Information processing and management. 29(1993) no.3, S.287-298
  8. Lucarella, D.; Zanzi, A.: Information retrieval from hypertext : an approach using plausible inference (1993) 0.00
    0.0042474545 = product of:
      0.025484726 = sum of:
        0.025484726 = product of:
          0.07645418 = sum of:
            0.07645418 = weight(_text_:29 in 4710) [ClassicSimilarity], result of:
              0.07645418 = score(doc=4710,freq=2.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.6218451 = fieldWeight in 4710, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=4710)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Information processing and management. 29(1993) no.3, S.299-312
  9. Croft, W.B.; Turtle, H.R.: Retrieval strategies for hypertext (1993) 0.00
    0.0042474545 = product of:
      0.025484726 = sum of:
        0.025484726 = product of:
          0.07645418 = sum of:
            0.07645418 = weight(_text_:29 in 4711) [ClassicSimilarity], result of:
              0.07645418 = score(doc=4711,freq=2.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.6218451 = fieldWeight in 4711, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=4711)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Information processing and management. 29(1993) no.3, S.313-324
  10. Rada, R.; Wang, W.; Birchall, A.: Retrieval hierarchies in hypertext (1993) 0.00
    0.0042474545 = product of:
      0.025484726 = sum of:
        0.025484726 = product of:
          0.07645418 = sum of:
            0.07645418 = weight(_text_:29 in 4714) [ClassicSimilarity], result of:
              0.07645418 = score(doc=4714,freq=2.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.6218451 = fieldWeight in 4714, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=4714)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Information processing and management. 29(1993) no.3, S.359-372
  11. Schreiweis, U.: Hypertextstrukturen als Grundlage für integrierte Wissensakquisitionssysteme (1993) 0.00
    0.004209246 = product of:
      0.025255475 = sum of:
        0.025255475 = product of:
          0.07576642 = sum of:
            0.07576642 = weight(_text_:22 in 8762) [ClassicSimilarity], result of:
              0.07576642 = score(doc=8762,freq=2.0), product of:
                0.12239305 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034951173 = queryNorm
                0.61904186 = fieldWeight in 8762, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=8762)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    19.10.1995 10:22:53
  12. Pollard, A.: ¬A hypertext-based thesaurus as subject browsing aid for bibliographic databases (1993) 0.00
    0.0037165228 = product of:
      0.022299137 = sum of:
        0.022299137 = product of:
          0.06689741 = sum of:
            0.06689741 = weight(_text_:29 in 4713) [ClassicSimilarity], result of:
              0.06689741 = score(doc=4713,freq=2.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.5441145 = fieldWeight in 4713, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4713)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Information processing and management. 29(1993) no.3, S.345-358
  13. Arents, H.C.; Bogaerts, W.F.L.: Concept-based retrieval of hypermedia information : from term indexing to semantic hyperindexing (1993) 0.00
    0.0037165228 = product of:
      0.022299137 = sum of:
        0.022299137 = product of:
          0.06689741 = sum of:
            0.06689741 = weight(_text_:29 in 4715) [ClassicSimilarity], result of:
              0.06689741 = score(doc=4715,freq=2.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.5441145 = fieldWeight in 4715, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4715)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Information processing and management. 29(1993) no.3, S.373-386
  14. Arents, H.C.; Bogaerts, W.F.L.: Concept-based indexing and retrieval of hypermedia information (1996) 0.00
    0.0037165228 = product of:
      0.022299137 = sum of:
        0.022299137 = product of:
          0.06689741 = sum of:
            0.06689741 = weight(_text_:29 in 6132) [ClassicSimilarity], result of:
              0.06689741 = score(doc=6132,freq=2.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.5441145 = fieldWeight in 6132, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6132)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Pages
    S.1-29
  15. Agosti, M.; Melucci, M.: Information retrieval techniques for the automatic construction of hypertext (2000) 0.00
    0.0037165228 = product of:
      0.022299137 = sum of:
        0.022299137 = product of:
          0.06689741 = sum of:
            0.06689741 = weight(_text_:29 in 4671) [ClassicSimilarity], result of:
              0.06689741 = score(doc=4671,freq=2.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.5441145 = fieldWeight in 4671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4671)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Encyclopedia of library and information science. Vol.66, [=Suppl.29]
  16. Krull, S.: Lesen im Informationszeitalter : Hypertext versus Buch (2000) 0.00
    0.0037165228 = product of:
      0.022299137 = sum of:
        0.022299137 = product of:
          0.06689741 = sum of:
            0.06689741 = weight(_text_:29 in 4783) [ClassicSimilarity], result of:
              0.06689741 = score(doc=4783,freq=2.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.5441145 = fieldWeight in 4783, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4783)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    21. 5.2000 10:53:29
  17. Krajewski, M.: Käptn Mnemo : Zur hypertextuellen Wissensspeicherung mit elektronischen Zettelkästen (1997) 0.00
    0.0037165228 = product of:
      0.022299137 = sum of:
        0.022299137 = product of:
          0.06689741 = sum of:
            0.06689741 = weight(_text_:29 in 1712) [ClassicSimilarity], result of:
              0.06689741 = score(doc=1712,freq=2.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.5441145 = fieldWeight in 1712, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1712)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    25. 1.2004 10:17:29
  18. Aßfalg, R.: Integration eines offenen Hypertextsystems in den Internet-Mehrwertdienst World Wide Web : ein Ansatz unter Verwendung eines objektorientierten Datenbanksystems (1996) 0.00
    0.00368309 = product of:
      0.02209854 = sum of:
        0.02209854 = product of:
          0.06629562 = sum of:
            0.06629562 = weight(_text_:22 in 6562) [ClassicSimilarity], result of:
              0.06629562 = score(doc=6562,freq=2.0), product of:
                0.12239305 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034951173 = queryNorm
                0.5416616 = fieldWeight in 6562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6562)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 2.1997 19:40:31
  19. Menges, T.: Möglichkeiten und Grenzen der Übertragbarkeit eines Buches auf Hypertext am Beispiel einer französischen Grundgrammatik (Klein; Kleineidam) (1997) 0.00
    0.00368309 = product of:
      0.02209854 = sum of:
        0.02209854 = product of:
          0.06629562 = sum of:
            0.06629562 = weight(_text_:22 in 1496) [ClassicSimilarity], result of:
              0.06629562 = score(doc=1496,freq=2.0), product of:
                0.12239305 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034951173 = queryNorm
                0.5416616 = fieldWeight in 1496, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1496)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 7.1998 18:23:25
  20. Sarre, F.; Güntzer, U.; Myka, A.; Jüttner, G.: Maschinelles Lernen von Relationen für Thesauri und Hypertext (1992) 0.00
    0.0035692868 = product of:
      0.02141572 = sum of:
        0.02141572 = product of:
          0.08566288 = sum of:
            0.08566288 = weight(_text_:seite in 1368) [ClassicSimilarity], result of:
              0.08566288 = score(doc=1368,freq=4.0), product of:
                0.1957637 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.034951173 = queryNorm
                0.43758303 = fieldWeight in 1368, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1368)
          0.25 = coord(1/4)
      0.16666667 = coord(1/6)
    
    Abstract
    Fortschrittliche Informationssysteme stellen ihren Benutzern 2 wichtige Suchmethoden zur Verfügung: die gezielte (Volltext-) Suche und das Navigieren im Objektbestand mit Hilfe von Hypertext-Links. Der Grund, warum diese beiden Konzepte aber auf breiter Basis noch nicht in jedem Informationssystem Anwendung gefunden haben, ist darin zu sehen, daß der manuelle Aufbau von umfassenden Hypertext-Strukturen auf der einen Seite und von großen Thesauri, die den Erfolg von Volltextsuchen wesentlich steigern, auf der anderen Seite bislang enormen Aufwand und damit hohe Kosten verursachte. Langfristig werden Informationssysteme aber nur dann große Akzeptanz bei der Benutzerschaft erzielen, wenn sie ihre Benutzer mit diesen beiden Techniken unterstützen und wenn sie dynamisch neuen Informationsbedürfnissen anpassen können, also lernfähig sind. Für den einzelnen Benutzer ergibt sich daraus der wesentliche Vorteil, daß er von den Recherche-Erfahrungen anderer Benutzer profitieren kann. In diesem Papier stellen wir eine Lernkomponente vor, die für das Hypertextsystem 'HyperMan' an der TU München entwickelt und implementiert wurde. Wir zeigen beispielhaft, wie Volltext-Suchanfragen der HyperMan-Benutzer von der Lernkomponente untersucht werden, um Thesauruseinträge zu gewinnen. Bei der Entwicklung dieser Lerntechniken zum (automatischen) Thesaurusaufbau konnte auf Erfahrungen mit dem lernfähigen Information Retrieval System 'Tegen' zurückgegriffen werden. In dem HyperMan System werden aber nicht nur Beziehungen (Relationen) zwischen Begriffen erlernt, sondern auch zwischen Textstücken. Wir gehen daher auch darauf ein, wie aufgrund einer Analyse des Benutzerverhaltens sowohl neue Hypertext-Links erlernt als auch vorhandene Links, die zuvor von HyperMans Generierungskomponente automatisch erzeugt wurden, modifiziert werden

Years

Languages

  • e 43
  • d 12
  • pl 1
  • pt 1
  • More… Less…

Types

  • a 45
  • m 6
  • s 4
  • x 2
  • b 1
  • d 1
  • More… Less…