Search (92 results, page 1 of 5)

  • × theme_ss:"Hypertext"
  1. Hofmann, M.; Simon, L.: Problemlösung Hypertext : Grundlagen - Entwicklung - Anwendung (1995) 0.09
    0.09402816 = product of:
      0.28208447 = sum of:
        0.2517466 = weight(_text_:einzelne in 2474) [ClassicSimilarity], result of:
          0.2517466 = score(doc=2474,freq=20.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            1.0281975 = fieldWeight in 2474, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2474)
        0.03033788 = weight(_text_:der in 2474) [ClassicSimilarity], result of:
          0.03033788 = score(doc=2474,freq=14.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.326484 = fieldWeight in 2474, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2474)
      0.33333334 = coord(2/6)
    
    Abstract
    Dieses Buch ist ein Problemlöser für Projektmanager, die den Einsatz von Hyperteextsystemen erwägen, ebenso für die Entwickler und auch für den interessierten Anwender, der die Hintergründe von Hypertextsystemen verstehen will. Präzise Informationen zu den Grundlagen von Hypertext schaffen die Basis sich sicher in diesem Feld zu bewegen, sich gezielt weitergehende Information zu beschaffen und eigenständig Entwicklungstendenzen abzuschätzen. Eine ausführliche Beschreibung der Entwicklung von Hypertextanwendungen leistet die notwendige Hilfe für die Gestaltung von Hypertexten. Der Leser wird in die Lage versetzt, Chancen und Probleme von Hypertextprojekten frühzeitig zu erkennen und optimale Lösungen zu finden. Beispiele illustrieren tatsächlich realisierte und für den praktischen Einsatz konizpierte Anwendungen das Potential von Hypertext und geben Anregungen für die weitere Entwicklung von Hypertextsystemen.
    Classification
    ST 271 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme
    ST 325 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Multimedia
    ST 351 H97 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Textverarbeitung, Desktop Publishing / Einzelne Programme (A-Z) / Programme H / Hypertext
    ST 281 Informatik / Monographien / Software und -entwicklung / Einzelne Benutzerschnittstellen (alphabet.)
    RVK
    ST 271 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme
    ST 325 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Multimedia
    ST 351 H97 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Textverarbeitung, Desktop Publishing / Einzelne Programme (A-Z) / Programme H / Hypertext
    ST 281 Informatik / Monographien / Software und -entwicklung / Einzelne Benutzerschnittstellen (alphabet.)
  2. Kuhlen, R.: Hypertext : ein nichtlineares Medium zwischen Buch und Wissensbank (1991) 0.07
    0.06921838 = product of:
      0.20765513 = sum of:
        0.18013519 = weight(_text_:einzelne in 343) [ClassicSimilarity], result of:
          0.18013519 = score(doc=343,freq=16.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.73571825 = fieldWeight in 343, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=343)
        0.027519938 = weight(_text_:der in 343) [ClassicSimilarity], result of:
          0.027519938 = score(doc=343,freq=18.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.29615843 = fieldWeight in 343, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=343)
      0.33333334 = coord(2/6)
    
    Abstract
    Hypertext, eine neue Art der Informationsdarstellung, ist innerhalb weniger Jahre zu einem auf zahlreichen Fachkonferenzen diskutierten Thema im Umfeld von Informatik, Informationswissenschaft, K?nstlicher Intelligenz, Linguistik, Psychologie und Lerntheorie geworden. Die Faszination, die von diesem Medium auf Forschung, Entwicklung und Anwendung gleicherma~en ausgeht, beruht auf der prinzipiell nichtlinearen Organisation der Hypertexteinheiten und den benutzerfreundlichen Formen des ebenfalls nichtlinearen, flexiblen Zugriffs auf die Einheiten in einem Hypertextsystem. In dieser Einf?hrung in die Hypertextmethodik werden die wesentlichen Elemente von Hypertextsystemen, die Informationseinheiten und Verkn?pfungsarten sowie die hypertextspezifischen Navigationsformen, ausf?hrlich theoretisch und anschaulich am Beispiel existierender kommerzieller und experimenteller Hypertextsysteme behandelt. Besonderer Wert wird auf den Zusammenhang von Hypertext und Information Retrieval und die Einsatzm÷glichkeiten von Hypertext in Lernumgebungen gelegt. In theoretischer Hinsicht wird untersucht, ob sich Hypertextbenutzer mit Vorteil gegen?ber anderen Medien die Information erarbeiten k÷nnen, die sie aktuell in kritischen Situationen ben÷tigen, ob und wodurch also gegen?ber traditionellen linearen Formen ein ~informationeller Mehrwert~ erzielt wird. Au~erdem wird die M÷glichkeit diskutiert, mit Hilfe von Textanalyseverfahren und Techniken der Wissensrepr"sentation Hypertexte aus Texten automatisch aufzubauen. Das Buch enth"lt eine umfassende Bibliographie und im Anhang ein Glossar und eine strukturierte Beschreibung der wichtigsten gegenw"rtig erh"ltlichen oder in Entwicklung befindlichen Hypertextsysteme.
    Classification
    ES 920 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Formalisierte Sprachen
    ST 271 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme
    ST 281 Informatik / Monographien / Software und -entwicklung / Einzelne Benutzerschnittstellen (alphabet.)
    ST 351 H97 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Textverarbeitung, Desktop Publishing / Einzelne Programme (A-Z) / Programme H / Hypertext
    RVK
    ES 920 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Formalisierte Sprachen
    ST 271 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme
    ST 281 Informatik / Monographien / Software und -entwicklung / Einzelne Benutzerschnittstellen (alphabet.)
    ST 351 H97 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Textverarbeitung, Desktop Publishing / Einzelne Programme (A-Z) / Programme H / Hypertext
  3. Vichot, F.; Wolinksi, F.; Tomeh, J.; Guennou, S.; Dillet, B.; Aydjian, S.: High precision hypertext navigation based on NLP automation extractions (1997) 0.04
    0.039713454 = product of:
      0.23828071 = sum of:
        0.23828071 = weight(_text_:theorien in 733) [ClassicSimilarity], result of:
          0.23828071 = score(doc=733,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.8714547 = fieldWeight in 733, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.09375 = fieldNorm(doc=733)
      0.16666667 = coord(1/6)
    
    Source
    Hypertext - Information Retrieval - Multimedia '97: Theorien, Modelle und Implementierungen integrierter elektronischer Informationssysteme. Proceedings HIM '97. Hrsg.: N. Fuhr u.a
  4. Ashman, H.; Garrido, A.; Oinas-Kukkonen, H.: Hand-made and computed links, precomputed and dynamic links (1997) 0.04
    0.039713454 = product of:
      0.23828071 = sum of:
        0.23828071 = weight(_text_:theorien in 736) [ClassicSimilarity], result of:
          0.23828071 = score(doc=736,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.8714547 = fieldWeight in 736, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.09375 = fieldNorm(doc=736)
      0.16666667 = coord(1/6)
    
    Source
    Hypertext - Information Retrieval - Multimedia '97: Theorien, Modelle und Implementierungen integrierter elektronischer Informationssysteme. Proceedings HIM '97. Hrsg.: N. Fuhr u.a
  5. Barabási, A.-L.: Linked: The New Science of Networks (2002) 0.03
    0.033177167 = product of:
      0.0995315 = sum of:
        0.06949854 = weight(_text_:theorien in 2015) [ClassicSimilarity], result of:
          0.06949854 = score(doc=2015,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.2541743 = fieldWeight in 2015, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2015)
        0.030032966 = weight(_text_:der in 2015) [ClassicSimilarity], result of:
          0.030032966 = score(doc=2015,freq=28.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.32320264 = fieldWeight in 2015, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2015)
      0.33333334 = coord(2/6)
    
    Footnote
    Rez. in: nfd 54(2003) H.8, S.497 (T. Mandl): "Gesetze der digitalen Anarchie - Hyperlinks im Internet entstehen als Ergebnis sozialer Prozesse und können auch als formaler Graph im Sinne der Mathematik interpretiert werden. Die Thematik Hyperlinks ist im Information Retrieval höchst aktuell, da Suchmaschinen die Link-Struktur bei der Berechnung ihrer Ergebnisse berücksichtigen. Algorithmen zur Bestimmung des "guten Rufs" einer Seite wie etwa PageRank von Google gewichten eine Seite höher, wenn viele links auf sie verweisen. Barabási erklärt dem Leser seines Buches darüber hinaus noch, wie es zu solchen Phänomenen kommt. Soziale Prozesse im Netz wirken so, dass bereits bekannte Seiten mit größerer Wahrscheinlichkeit auch wieder weitere Links oder neue Besucher anziehen. Barabási ist Physiker an der Notre-Dame University und ihm fehlt ebenso wie Huberman die informationswissenschaftliche Perspektive. Er fragt also kaum, wie kann das Wissen über Netzwerke zu Verbesserungen in Informationssystemen führen, die Benutzerbedürfnisse besser erfüllen. Gleichwohl lohnt sich die Lektüre auch für Informationswissenschaftler. Barabäsi stellt die aktuelle Forschung zur Netzwerkstruktur des Internets auf einfache Weise fast ohne Zugeständnisse an Aktualität und Komplexität dar. Wie Huberman verzichtet auch er weitgehend auf Formeln und andere Formalismen. Der in Ungarn geborene Barabási lässt darüber hinaus keine Anekdote aus, sei es über die Begründer der Graphen-Theorie, im peer-review abgelehnte Beiträge und persönliche Begegnungen mit anderen Forschern. Barabási beginnt mit einfachen Netzwerkstrukturen und schreitet didaktisch über internet-ähnliche Netzwerke weiter zu Anwendungen und praktischen Beispielen aus unterschiedlichsten Disziplinen. Er schafft mit seinem Buch "Linked" unter anderem Links zwischen der ungarischen Literatur, dem I-Love-You Computer-Virus, der Verbreitung von Aids, den Theorien Einsteins, den Aufsichtsräten der wichtigsten amerikanischen Firmen, dem Al-Qaeda-Netzwerk und der Struktur und der Funktion biologischer Zellen. Zu Beginn seines Buches berichtet Barabási von sogenannten kleinen Welten, in denen viele Objekte über wenige Verbindungen zusammenhängen. Ein Blick in den eigenen größeren Bekanntenkreis mag bestätigen, dass viele Menschen über wenige Schritte zwischen Bekannten erreichbar sind. Sowohl Barabäsi als auch Huberman gehen auf die Geschichte des ersten sozialwissenschaftlichen Experiments zu diesem Thema ein, das in den 1960er Jahren versuchte, die Anzahl von Schritten zwischen gemeinsamen Bekannten zu bestimmen, welche vom Mittleren Westen der USA an die Ostküste führt. Die genauere Struktur solcher Systeme, in denen manche Knoten weitaus mehr Beziehungen zu anderen eingehen als der Durchschnitt, führt hin zum Internet. Im Web lässt sich keineswegs immer ein Pfad zwischen zwei Knoten finden, wie noch vor wenigen Jahren vermutet wurde. Die durchschnittliche Entfernung war damals noch mit 19 Klicks berechnet worden. Vielmehr herrscht eine differenziertere Struktur, die Barabási vorstellt und in der zahlreiche Seiten in Sackgassen führen. Huberman wie Barabási diskutieren auch negative Aspekte des Internet. Während Huberman die Wartezeiten und Staus bei Downloads analysiert, bespricht Barabási die rasante Verbreitung von ComputerViren und weist auf die Grundlagen für diese Gefährdung hin. Das vorletzte Kapitel widmen übrigens beide Autoren den Märkten im Internet. Spätestens hier werden die wirtschaftlichen Aspekte von Netzwerken deutlich. Beide Titel führen den Leser in die neue Forschung zur Struktur des Internet als Netzwerk und sind leicht lesbar. Beides sind wissenschaftliche Bücher, wenden sich aber auch an den interessierten Laien. Das Buch von Barabási ist etwas aktueller, plauderhafter, länger, umfassender und etwas populärwissenschaftlicher."
  6. Hypertext - Information Retrieval - Multimedia '97 : Theorien, Modelle und Implementierungen integrierter elektronischer Informationssysteme (1997) 0.03
    0.031771854 = product of:
      0.09531555 = sum of:
        0.07942691 = weight(_text_:theorien in 738) [ClassicSimilarity], result of:
          0.07942691 = score(doc=738,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.2904849 = fieldWeight in 738, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.03125 = fieldNorm(doc=738)
        0.015888644 = weight(_text_:der in 738) [ClassicSimilarity], result of:
          0.015888644 = score(doc=738,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.17098716 = fieldWeight in 738, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=738)
      0.33333334 = coord(2/6)
    
    Content
    Enthält u.a. die Beiträge: CHIARAMELLA, Y.: Browsing and querying: two complementary approaches for multimedia information retrieval; ELZER, P. u. U. KROHN: Visualisierung zur Unterstützung der Suche in komplexen Datenbeständen; OROSCO, R.: AutoFocus: User assistance in information visualization; LALMAS, M. u. I. RUTHVEN: A model for structured document retrieval: empirical investigations; HERZNER, W., M. KUMMER u. M. THUSWALD: DVS: a system for recording, archiving and retrieval of digital video in security environments; LOPEZ, J. u.a.: A user interface for the design of human figures multimedia animations; BOLES, D. u. G. WÜTHERICH: Transformationelle Multimedia-Softwareentwicklung; HAMMWÖHNER, R.: Komplexe Hypertextmodelle im World Wide Web durch dynamische Dokumente; BAUMGARTEN, C.: Probabilistische Modellierung der effizienten Informationssuche in verteilten multimedialen Dokumentbeständen durch Einschränkung des Suchraums; GÖVERT, N.: Evaluierung eines entscheidungstheoretischen Modells zur Datenbankselektion; RÖLLEKE, T. u. M. BLÖMER: Probabilisitc logical information retrieval for content, hypertext, and database querying; VICHOT, F. u.a.: High precision hypertext navigation based on NLP automatic extractions; PETROU, C., D, MARTAKOS u. S. HADJIEFTHYMIADES: Adding semantics to hypermedia towards link's enhancement and dynamic linking; ASHMAN, H., A. GARRIDO u. H. Oinas-Kukkonen: Hand-made and computed links, precomputed and dynamic links; MOGHRABI, I.A.R. u. M.A. SAFAR: Study of algorithms for clustering records in document database; PFEIFER, U. u. S. PENNEKAMP:Incremental processing of vague queries in interactive retrieval systems; DRESLER, S., A.G. GROSSE u. A. RÖSNER: Realisierung und Optimierung der Informationsbeschaffung von Internet-Suchmaschinen am Beispiel vom www.crawler.de; WOLFF, C. u. C. WOMSER-HACKER: Graphisches Faktenretrieval mit vager Anfrageinterpretation; DALAMAGAS, T. u. M.D. DUNLOP: Automatic construction of news hypertext; KAHABKA, T., M.KORKEA-AHO u. G. SPECHT: GRAS: an adaptive personalization scheme for hypermedia databases; BENZ, H. u.a.: DIANE: hypermedia documents in a distributed annotation environment; BEKAVEC, B. u. M. RITTBERGER: Kontextsensitive Visualisierung von Suchergebnissen; RIEKERT, W.-F. u.a.: Fach-, raum- und zeitbezogene Katalogisierung und Recherche von Umweltinformationen auf dem Internet; DUPONT-CHRIST, S. u.a.: PRISMA: eine Basis für multimediale Informationssysteme im Internet
  7. Hammwöhner, R.: Komplexe Hypertextmodelle im World Wide Web durch dynamische Dokumente (1997) 0.03
    0.026475636 = product of:
      0.15885381 = sum of:
        0.15885381 = weight(_text_:theorien in 731) [ClassicSimilarity], result of:
          0.15885381 = score(doc=731,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.5809698 = fieldWeight in 731, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0625 = fieldNorm(doc=731)
      0.16666667 = coord(1/6)
    
    Source
    Hypertext - Information Retrieval - Multimedia '97: Theorien, Modelle und Implementierungen integrierter elektronischer Informationssysteme. Proceedings HIM '97. Hrsg.: N. Fuhr u.a
  8. Jünger, G.: ¬Ein neues Universum (2003) 0.02
    0.023926124 = product of:
      0.07177837 = sum of:
        0.045033798 = weight(_text_:einzelne in 1553) [ClassicSimilarity], result of:
          0.045033798 = score(doc=1553,freq=4.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.18392956 = fieldWeight in 1553, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.015625 = fieldNorm(doc=1553)
        0.02674457 = weight(_text_:der in 1553) [ClassicSimilarity], result of:
          0.02674457 = score(doc=1553,freq=68.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.28781426 = fieldWeight in 1553, product of:
              8.246211 = tf(freq=68.0), with freq of:
                68.0 = termFreq=68.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=1553)
      0.33333334 = coord(2/6)
    
    Abstract
    Autorenrechte statt Geschäften der Medienkonzerne: Das Wolrd Wide Web von heute bleibt weit hinter den Möglichkeiten zurück, die das System 'Xanadu' schon vor 40 Jahren entworfen hatte
    Content
    Eine stetige Erfahrung der Techniksoziologie und -geschichte besagt, dass sich wirklich neue Konzepte, die ihrer Zeit vorauseilen, am Ende nicht durchsetzen können. Erfolg haben stattdessen mittelmäßige Nachbildungen der ersten Idee, die dann, um periphere Funktionen und Dekorationen erweitert, als große Innovationen auftreten. Beispiele für zweitbeste Lösungen, von denen jeder weiß, dass sie nur Krücken sind, liefert gerade die Informatik in großer Zahl. Das Gespann der Programmiersprachen Smalltalk und C++ gehört dazu, aber auch das World Wide Web, das wir heute kennen, bleibt weit hinter Konzepten eines universalen, globalen Informationssystems zurück, die lange vor der Definition des Hypertext-Protokolls durch Tim Berners-Lee entwickelt worden sind. Die Frage nach der technischen Vorgeschichte und ihren verpassten Chancen ist keineswegs nur von akademischem Interesse. Das "Xanadu" genannte System, das zum ersten Mal das weltweit vorhandene Wissen in digitaler Form radikal demokratisieren wollte, kann sehr gut als Folie dienen für die Diskussion über die zukünftige Entwicklung des WWW. Zweifellos ist der Wunsch, möglichst viel Wissen anzuhäufen, uralt. Er hat die Errichter der Bibliothek von Alexandria angetrieben, die kopierenden und kommentierenden Mönche des Mittelalters oder die Enzyklopädisten des 18. Jahrhunderts in Frankreich. Spätestens seit dem 20. Jahrhundert war die pure Menge des nun Wissbaren so nicht mehr zu bewältigen. Über die materielle Ablage der Dokumente hinaus mussten neue Organisationsprinzipien gefunden werden, um den Berg zu erschließen und seine Bestandteile untereinander in nutzbarer Weise zu verbinden. Nur dann konnte eine Wissenschaftlerin oder ein Wissenschaftler jetzt noch in vertretbarer Zeit zum aktuellen Wissensstand auf einem Gebiet aufschließen. Im Epochenjahr 1945 entwarf Vannevar Bush, ein wissenschaftlicher Berater von Roosevelt während des Zweiten Weltkriegs, eine erste Antwort auf die Frage nach einem solchen Organisationsprinzip. Er nannte sein System "Memex" (Memory Extender), also "Gedächtniserweiterer". Wissen sollte in der Form von Mikrofilmen archiviert und die dabei erzeugten Einzelbestandteile sollten so mit einander verknüpft werden, dass das sofortige Aufsuchen von Verweisen möglich würde. Technisch misslang das System, mit Hilfe von Mikrofilmen ließ es sich wohl kaum realisieren. Aber der Gedanke war formuliert, dass große Wissensbestände nicht unbedingt in separaten Dokumenten und überwiegend linear (Seite 2 folgt auf Seite 1) angeordnet zu werden brauchten. Sie können durch interne Verknüpfungen zwischen Einzelseiten zu etwas Neuem zusammengefügt werden. Der Flugzeugingenieur Douglas Engelbart las schon in den Vierzigerjahren von Bushs Idee. Ihm gebührt das Verdienst, sie auf die neue Technik der digitalen Computer übertragen zu haben. Eine Sitzung der "Fall Joint Computer Conference" im Jahr 1968 demonstrierte seine "NLS" (oN Line System) genannte Verwirklichung des Memex-Konzepts in der Praxis und war für viele Teilnehmer die Initialzündung zu eigenen Versuchen auf diesem Gebiet. NLS war ein riesiges Journal von einzelnen Memos und Berichten eines Vorgängerprojekts, das es den beteiligten Wissenschaftlern erlaubte, über adressierte Verweise unmittelbar zu einem benachbarten Dokument zu springen - ein Netz aus Knoten und `Kanten, dem nur noch ein geeigneter Name für seine neue Eigenschaft fehlte:
    - Hypertext - Nicht nur den Namen "Hypertext" für ein solches Netz, sondern auch entscheidende Impulse zu einer konkreten Ausgestaltung eines durch Links verknüpften Netzes steuerte ab 1965 Ted Nelson bei. Sein mit dem Namen "Xanadu" verbundenes Wissenschaftsnetz gibt noch heute die Messlatte ab, an der sich das WWW behaupten muss. Nelson versuchte, sein Konzept auch kommerziell zum Erfolg zu bringen. Zeitweise konnte er auf ein starkes finanzielles Engagement der CAD-Firma Autodesk rechnen, die sich jedoch nach ausbleibenden Erfolgen aus diesem Engagement zurückzog. Heute ist der Quellcode der Software frei zugänglich, und die Website xanadu.net informiert über die Aktivitäten der kleinen Xanadu-Gemeinde von heute. Nelson selbst stellt sein Projekt als ein geschlossenes System von Dokumenten dar, dessen Zugang man ähnlich erwirbt wie den zu einem Provider oder zum Zahlfernsehen. Dokumente werden in diesem aus vernetzten Computern bestehenden System binär gespeichert, unabhängig davon, ob im einzelnen Dokument Bilder, Müsik, Text oder sonst etwas vorliegen. Sie zerfallen in winzige, aber identifizierbare Bestandteile, so dass jeder Dokumententeil mit einer eindeutigen ID versehen ist und einem bestimmten Autor zugeordnet werden kann. Liest ein Leser ein Dokumententeil in Xanadu, wird dadurch automatisch eine Gutschrift für das Konto des Urhebers des Dokuments erzeugt. Wie im existierenden Web sind einzelne Wörter, Bilder oder andere Medieninhalte Anker zu Verweisen auf andere Dokumentenbestandteile, die sich per Mausklick aufrufen lassen. Im Unterschied zum Web aber führt der Weg nicht nur in eine Richtung. Stichwort A verweist nicht nur auf X, sondern X macht auch alle Dokumente kenntlich, von denen aus auf X gezeigt wird. Es ist also jederzeit nachvollziehbar, wo überall von einem Dokument Gebrauch gemacht wird. Dadurch lässt sich überprüfen, ob ein als Beleg verwendeter Verweis zu Recht oder zu Unrecht angegeben wird.
    - Gutschriften für Autoren - Es geht aber noch weiter: Prinzipiell wird allen Xanadu-Teilnehmern garantiert, vorhandene Dokumentebestandteile durch so genannte Transclusions zitieren zu können. Ein Rechtemanagement für Lesezugriffe ist ja bereits integriert. Es ist also jederzeit möglich, dass jemand für ein Thema, das interessant erscheint, eine neue Anthologie erzeugt, ohne dass vorher Genehmigungen eingeholt werden müssen. Und anders als das WWW ist Xanadu ein Instrument für Autoren: An jede vorhandenen Seite können Kommentare angefügt werden. Um den Überblick zu behalten, werden sie anders dargestellt als ein Quellennachweis ("getypte Links"). Änderungen, die an einem Knoten vorgenommen werden, indem etwa ein Kommentar hinzukommt, können anderen Lesern vom System angezeigt werden, so dass man auf diese Weise lebendige Debatten und permanente Onlinekonferenzen führen kann. Ohne dass Administratoren regelnd eingreifen müssen, spiegelt das Xanadu-Netz damit die Interdependenz der realen Welt wider. Im Zeitalter der Fachidioten wird Wissen in einer Form repräsentiert, die die Verflechtung der Dinge untereinander hervorhebt und Kontroversen sichtbar macht. Das System schreibt dabei seine Geschichte selbst, da eine Versionskontrolle, verbunden mit direktem Dokumentenvergleich, die unterschiedlichen redaktionellen Bearbeitungsstufen eines Dokumentknotens nachvollziehbar macht.
    - Forschungsdebatten - Die Vorteile dieses Systems vor dem Web liegen auf der Hand: Alle Urheberrechte sind grundsätzlich und zugunsten der tatsächlichen Autoren geregelt, auch im Falle der Belletristik, die in der Regel nur konsumiert wird. Darüber hinaus profitierte die wissenschaftliche Arbeit von der Möglichkeit, Texte zu kommentieren oder vorhandene Argumentationen zitierend in die eigene Darstellung aufzunehmen. Forschungsdebatten sind jederzeit an jeder Stelle möglich - und zugänglich werden sie durch die Funktion, Änderungsanzeigen für bestimmte Knoten abonnieren, zu können. Damit wird es einem Autor möglich, auf eine Entgegnung zügig zu antworten. So können nicht nur einzelne Knoten, sondern ganze Knotennetze bearbeitet werden. Man kann also eine vorhandene Darstellung zustimmend übernehmen, aber die zwei, drei Zusatzpunkte hinzufügen, in denen die eigene Meinung vom Knotenstandard abweicht. Schließlich schafft ein System wie Xanadu mit Versionskontrolle und garantiertem Speicherplatz ein Dauerproblem des vorhandenen Webs mit seinen toten Links aus der Welt und erzeugt mit dem eingebauten Dokumentenvergleich ein Maximum an Übersicht.
    - Technische Hürden - Bleibt die Frage, weshalb Xanadu mit seiner Vision, das Weltwissen one mouse-click away erreichbar zu machen - Nelson spricht gar von einem docuverse -, bislang so erfolglos blieb. Ernst zu nehmen sind zunächst die technischen Anforderungen, die Xanadu stellt. Sie beginnen bei einer Editorensoftware, die die Autorenkennungen- vorhandener und zitierter Dokumentknoten bewahrt. Dass diese Software am Ende weniger techniklastig ist als die heutigen HTML-Editoren, wie Nelson annimmt, darf bezweifelt werden. Hinzu kommen Anforderungen an Rechnersysteme und Verwaltungsaufgaben: Da Xanadu ein konsistentes Dokumentmanagement garantieren und Dokumente für den Notfall auch redundant auf mehreren Rechnern gleichzeitig vorhalten muss, wären die technischen und Managementherausforderungen für ein aus zig Milliarden Dokumenten bestehendes System beachtlich. Andere Gründe sind prinzipieller Art: Die Bereitschaft, für Inhalte auch nur mit kleinen Beiträgen zu zahlen, ist bei den meisten. Internetnutzern als recht gering anzusetzen. Anders ließe sich das Scheitern vieler Anbieter für Bezahlinhalte im bestehenden Web kaum interpretieren. Möglicherweise gibt es auch einen latenten Widerwillen, einer zentralen und weltweit auftretenden Organisation- und trete sie mit noch so ehrenhaften Zielen an - die Aufgabe anzuvertrauen, das Weltwissen abzulegen. Hier hat offenbar - Ironie der Geschichte - das Computernetz des Militärs die Nase vorn, das aus Gründen eines auch in der Katastrophe funktionierenden Systems auf stets austauschbare Rechner setzt und das Chaos ins Kalkül aufgenommen hat. Es ist daher absehbar, dass sich Xanadu in der skizzierten Form nicht mehr durchsetzen wird. Damit ist wahrscheinlich auch eine Chance für eine neue Internetarchitektur vertan. Was als Wunsch aber für die Weiterentwicklung des bestehenden Webs nicht laut genug vorgebracht werden kann, ist, dass die Visionen und konkreten Möglichkeiten von Xanadu stärker berücksichtigt werden sollten. Vielleicht sind die Aversionen gegen zentral geregelte Systeme aber immerhin dazu gut, dass das ".Net"; das Lieblingsprojekt des Softwaregiganten Microsoft, zu einem offenen System umgewandelt wird.
    Footnote
    Mit einer Karte der Internet-Datenströme nach: mappa.mundi.net/maps/maps_020
  9. Menges, T.: Möglichkeiten und Grenzen der Übertragbarkeit eines Buches auf Hypertext am Beispiel einer französischen Grundgrammatik (Klein; Kleineidam) (1997) 0.02
    0.023853153 = product of:
      0.07155946 = sum of:
        0.032106593 = weight(_text_:der in 1496) [ClassicSimilarity], result of:
          0.032106593 = score(doc=1496,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34551817 = fieldWeight in 1496, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=1496)
        0.039452866 = product of:
          0.07890573 = sum of:
            0.07890573 = weight(_text_:22 in 1496) [ClassicSimilarity], result of:
              0.07890573 = score(doc=1496,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.5416616 = fieldWeight in 1496, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1496)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    22. 7.1998 18:23:25
  10. Tergan, S.-O.: Zum Aufbau von Wissensstrukturen mit Texten und Hypertexten (1993) 0.02
    0.022634078 = product of:
      0.06790223 = sum of:
        0.03972161 = weight(_text_:der in 2927) [ClassicSimilarity], result of:
          0.03972161 = score(doc=2927,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.42746788 = fieldWeight in 2927, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=2927)
        0.02818062 = product of:
          0.05636124 = sum of:
            0.05636124 = weight(_text_:22 in 2927) [ClassicSimilarity], result of:
              0.05636124 = score(doc=2927,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.38690117 = fieldWeight in 2927, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2927)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Der Beitrag geht zunächst auf traditionelle lineare texte und deren Funktion im Lehr-Lern-Kontext ein. Anschließend werden Befunde der Textforschung dargestellt. Implikationen der Befunde für das Lernen mit Hypertexten werden erörtert sowie Perspektiven einer kreativen Nutzung von Hypertext zur Förderung kognitiver Lernprozesse aufgezeigt
    Source
    Nachrichten für Dokumentation. 44(1993) H.1, S.15-22
  11. Petrou, C.; Martakos, D.; Hadjiefthymiades, S.: Adding semantics to hypermedia towards link's enhancements and dynamic linking (1997) 0.02
    0.019856727 = product of:
      0.11914036 = sum of:
        0.11914036 = weight(_text_:theorien in 734) [ClassicSimilarity], result of:
          0.11914036 = score(doc=734,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.43572736 = fieldWeight in 734, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.046875 = fieldNorm(doc=734)
      0.16666667 = coord(1/6)
    
    Source
    Hypertext - Information Retrieval - Multimedia '97: Theorien, Modelle und Implementierungen integrierter elektronischer Informationssysteme. Proceedings HIM '97. Hrsg.: N. Fuhr u.a
  12. Hammwöhner, R.: Offene Hypertextsysteme : Das Konstanzer Hypertextsystem (KHS) im wissenschaftlichen und technischen Kontext (1997) 0.02
    0.016163513 = product of:
      0.04849054 = sum of:
        0.025946045 = weight(_text_:der in 1508) [ClassicSimilarity], result of:
          0.025946045 = score(doc=1508,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.27922085 = fieldWeight in 1508, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1508)
        0.022544496 = product of:
          0.04508899 = sum of:
            0.04508899 = weight(_text_:22 in 1508) [ClassicSimilarity], result of:
              0.04508899 = score(doc=1508,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.30952093 = fieldWeight in 1508, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1508)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Offene Hypertexte sind komplexe technosoziale Systeme, die zur Zeit in der Ausprägung des WWW im Begriff sind, die weltweite Informationslandschaft durchgreifend zu verändern. Ziel dieser Arbeit ist es, den Entwurf eines offenen Hypertextsystems, des KHS, vorzustellen und an Anwendungsbeipsielen zu bestätigen. Das schließt eine ausführliche Darstellung des zugrundeliegenden objektorientierten Hypertextmodells ein, das vergleichend zu anderen in der Literatur Hypertextmodellen vorgestellt wird
    Date
    17. 7.2002 16:22:13
  13. E-Text : Strategien und Kompetenzen. Elektronische Kommunikation in Wissenschaft, Bildung und Beruf (2001) 0.01
    0.013426937 = product of:
      0.04028081 = sum of:
        0.029008562 = weight(_text_:der in 622) [ClassicSimilarity], result of:
          0.029008562 = score(doc=622,freq=20.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3121784 = fieldWeight in 622, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=622)
        0.011272248 = product of:
          0.022544496 = sum of:
            0.022544496 = weight(_text_:22 in 622) [ClassicSimilarity], result of:
              0.022544496 = score(doc=622,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.15476047 = fieldWeight in 622, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=622)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Elektronische Produktion, Verbreitung und Rezeption von Texten - deren integrative Wechselbeziehungen eingeschlossen - verändern unausweichlich unsere Forschungs-, Lernund Arbeitsbedingungen. In diesem Wandel braucht es Orientierung, Strategien und Kompetenzen. Dieser Band bietet sie in interdisziplinärer Vielfalt. Teil 1 befaßt sich mit Wissen und Wissenschaft. Er spannt den Bogen der Medientheorie von der Antike bis ins 21. Jahrhundert und bietet einen konstruktivistischen Ansatz für das Wissensmanagement. Textsortenkonventionen und Hypertext sind ebenso Schwerpunkte wie empiriegestützte Guidelines und innovative Werkzeuge für das wissenschaftliche Arbeiten. Teil 2 ist Lernumgebungen gewidmet. Reflexionen zur Theorie von hypermedialem Lernen und Kognition werden ergänzt durch ein Produktionssystem für interaktive Software. Eine Felduntersuchungvergleicht Varianten kooperativen Schreibens, ein Schreibdidaktik-Projekt vermittelt zwischen Studium und Beruf. Teil 3 vereint unter dem Titel «Domänen der Praxis» empirische Erhebungen zur Text(re)produktion und elektronischen Kommunikation im Berufsalltag, die Konzeption eines Werkzeugs für die Übersetzungsarbeit und den Ausblick auf kulturspezifische Web-Sites in der Wirtschaft.
    Content
    Aus dem Inhalt: Peter Handler: Das E zum Text. Einführung - Eva-Maria Jakobs: Textproduktion im 21. Jahrhundert - Christoph Sauer: Vom «Alten» im «Neuen». Zur Bestimmung der Integration früherer Medienentwicklungen in multimediale Textgestaltungen - Eva Martha Eckkrammer: Textsortenkonventionen im Medienwechsel - Guido Ipsen: Pragmatik des Hypertextes. Linguistische Aspekte WWW-gebundener Informationsmedien als designtechnisches Instrument - Rolf Todesco: MailTack - Individuelles Wissensmanagement - Carsten Hausdorf/Herbert Stoyan: ScientiFix - ein modellbasiertes Werkzeug zur integrierten Rezeption und Produktion wissenschaftlicher Texte - Dagmar Knorr: Von der Dissertationsschrift zur Publikation oder: Wie wird aus einem Manuskript ein Buch? -Jörg Zumbach/Peter Reimann: Hypermediales Lernen und Kognition. Anforderungen an Lernende und Gestaltende - Bernd Gaede: Konventionalisierung der Gestaltung multimedialer Software durch Automatisierung. Ein Produktionssystem für interaktive Lernsoftware - Helmut Felix Friedrich/Aemilian Hron/Sigmar-Olaf Tergan/Thomas Jechle: Unterstützung kooperativen Schreibens in virtuellen Lernumgebungen - Katrin Lehnen/Kirsten Schindler: Schreiben zwischen Studium und Beruf. Zur didaktischen Vermittlung domänetispezifischer Schreibanforderungen in der Hochschulausbildung - Daniel Perrin: «Wir tun uns hier mal um den Inhalt herummogeln». Strategien computergestützter Textreproduktion beim Nachrichtenschreiben - Horst Silberhom: Das Projekt ForeignSGML. Übersetzungsunterstützung bei technischer Dokumentation - Karl-Heinz Pogner/Anne-Marie Soderberg: Organisationsinterne `E-Mail an alle'-Kommunikation: Informationsübertragung oder Kommunikationsraum? - Marc Rittberger/Frank Zimmermann: Wirtschaftliche und kommunikative Aspekte eines internen Kommunikationsforums in einem Unternehmen der Medienindustrie - Rogier Crijns: Elemente textuellen Appellierens in der digitalen Produktwerbung. Textgestaltung und kulturspezifische Appellformen in Webvertising.
    Date
    12. 8.2012 18:05:22
  14. Beling, J.: Hypertext: eine Anwendung (1990) 0.01
    0.008648682 = product of:
      0.05189209 = sum of:
        0.05189209 = weight(_text_:der in 275) [ClassicSimilarity], result of:
          0.05189209 = score(doc=275,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.5584417 = fieldWeight in 275, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.125 = fieldNorm(doc=275)
      0.16666667 = coord(1/6)
    
    Source
    11. Online-Frühjahrstagung der Online-Benutzergruppe der DGD: Proceedings
  15. Krüger, F.: Hypertext: eine Einführung (1990) 0.01
    0.007644427 = product of:
      0.04586656 = sum of:
        0.04586656 = weight(_text_:der in 2232) [ClassicSimilarity], result of:
          0.04586656 = score(doc=2232,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.4935974 = fieldWeight in 2232, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.15625 = fieldNorm(doc=2232)
      0.16666667 = coord(1/6)
    
    Imprint
    Saarbrücken : Univ., Fachschaftsrat der Informationswissenschaft
  16. Wallmannsberger, J.: Hypertextmodelle in der Informationswissenschaft : die Welt als Text, die Bibliothek als Hypertext (1993) 0.01
    0.007567597 = product of:
      0.04540558 = sum of:
        0.04540558 = weight(_text_:der in 6196) [ClassicSimilarity], result of:
          0.04540558 = score(doc=6196,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.4886365 = fieldWeight in 6196, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=6196)
      0.16666667 = coord(1/6)
    
    Footnote
    Beilage zu: Mitteilungen der VÖB 43(1990) H.1
  17. Schreiweis, U.: Hypertextstrukturen als Grundlage für integrierte Wissensakquisitionssysteme (1993) 0.01
    0.007514832 = product of:
      0.04508899 = sum of:
        0.04508899 = product of:
          0.09017798 = sum of:
            0.09017798 = weight(_text_:22 in 8762) [ClassicSimilarity], result of:
              0.09017798 = score(doc=8762,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.61904186 = fieldWeight in 8762, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=8762)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    19.10.1995 10:22:53
  18. Sarre, F.; Güntzer, U.; Myka, A.; Jüttner, G.: Maschinelles Lernen von Relationen für Thesauri und Hypertext (1992) 0.01
    0.007150707 = product of:
      0.04290424 = sum of:
        0.04290424 = weight(_text_:der in 1368) [ClassicSimilarity], result of:
          0.04290424 = score(doc=1368,freq=28.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.46171808 = fieldWeight in 1368, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1368)
      0.16666667 = coord(1/6)
    
    Abstract
    Fortschrittliche Informationssysteme stellen ihren Benutzern 2 wichtige Suchmethoden zur Verfügung: die gezielte (Volltext-) Suche und das Navigieren im Objektbestand mit Hilfe von Hypertext-Links. Der Grund, warum diese beiden Konzepte aber auf breiter Basis noch nicht in jedem Informationssystem Anwendung gefunden haben, ist darin zu sehen, daß der manuelle Aufbau von umfassenden Hypertext-Strukturen auf der einen Seite und von großen Thesauri, die den Erfolg von Volltextsuchen wesentlich steigern, auf der anderen Seite bislang enormen Aufwand und damit hohe Kosten verursachte. Langfristig werden Informationssysteme aber nur dann große Akzeptanz bei der Benutzerschaft erzielen, wenn sie ihre Benutzer mit diesen beiden Techniken unterstützen und wenn sie dynamisch neuen Informationsbedürfnissen anpassen können, also lernfähig sind. Für den einzelnen Benutzer ergibt sich daraus der wesentliche Vorteil, daß er von den Recherche-Erfahrungen anderer Benutzer profitieren kann. In diesem Papier stellen wir eine Lernkomponente vor, die für das Hypertextsystem 'HyperMan' an der TU München entwickelt und implementiert wurde. Wir zeigen beispielhaft, wie Volltext-Suchanfragen der HyperMan-Benutzer von der Lernkomponente untersucht werden, um Thesauruseinträge zu gewinnen. Bei der Entwicklung dieser Lerntechniken zum (automatischen) Thesaurusaufbau konnte auf Erfahrungen mit dem lernfähigen Information Retrieval System 'Tegen' zurückgegriffen werden. In dem HyperMan System werden aber nicht nur Beziehungen (Relationen) zwischen Begriffen erlernt, sondern auch zwischen Textstücken. Wir gehen daher auch darauf ein, wie aufgrund einer Analyse des Benutzerverhaltens sowohl neue Hypertext-Links erlernt als auch vorhandene Links, die zuvor von HyperMans Generierungskomponente automatisch erzeugt wurden, modifiziert werden
    Series
    Fortschritte in der Wissensorganisation; Bd.2
    Source
    Kognitive Ansätze zum Ordnen und Darstellen von Wissen. 2. Tagung der Deutschen ISKO Sektion einschl. der Vorträge des Workshops "Thesauri als Werkzeuge der Sprachtechnologie", Weilburg, 15.-18.10.1991
  19. Lehner, C.: Hypertext und World Wide Web als Hilfen für einen Programmierkurs in Prolog (1998) 0.01
    0.0068799844 = product of:
      0.041279905 = sum of:
        0.041279905 = weight(_text_:der in 6614) [ClassicSimilarity], result of:
          0.041279905 = score(doc=6614,freq=18.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.44423765 = fieldWeight in 6614, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=6614)
      0.16666667 = coord(1/6)
    
    Abstract
    Der vorliegende Beitrag zeigt auf, wie sich Neue Medien zur Verbesserung der Qualität der universitären Lehre einsetzen lassen. Exemplarische Vertreter der Neuen Medien sind in diesem Zusammenhang vor allem Hypertext und das auf Hypertext basierende World Wide Web, das dem Internet seit Beginn der Neunziger Jahre zu dem enormen Popularitätsschub verholfen hat. Das WWW bringt nicht nur die vielbeschworene 'Informationsflut' mit sich, sondern es liegt durch das WWW auch ein Werkzeug vor, um Informationen und Wissen optimal zu organisieren und aufzubereiten. Exemplarisch wird an einem Online-Programmierkurs verdeutlicht, wie sich Informations- und Wissensressourcen mit Hilfe der Neuen Medien besser strukturieren und produktiver einsetzen lassen
    Series
    Fortschritte in der Wissensorganisation; Bd.5
    Source
    Herausforderungen an die Wissensorganisation: Visualisierung, multimediale Dokumente, Internetstrukturen. 5. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Berlin, 07.-10. Oktober 1997. Hrsg.: H. Czap u.a
  20. Prätor, K.: Integration von Hypertext und Expertensystemen (1990) 0.01
    0.006837384 = product of:
      0.0410243 = sum of:
        0.0410243 = weight(_text_:der in 8437) [ClassicSimilarity], result of:
          0.0410243 = score(doc=8437,freq=10.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.44148692 = fieldWeight in 8437, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=8437)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Beitrag versucht eine Bestimmung der Charakteristika von Hypertext- und Expertensystemen, unter dem Aspekt ihrer wechselseitigen funktionellen Ergänzung. Er stellt an ausgewählten kommerziellen Systemen unterschiedliche Konzepte der Kopplung und Integration vor. Als Desiderat sowohl für die Entwicklung wie die Anwendung der Verbindung beider Systemtypen erweist sich ein übergreifendes datenmodell. Hier wird gegenüber den vorherrschenden an der VonNeumann-Programmierung orientierten Ansätzen für ein relationales Konzept plädiert

Years

Languages

  • d 61
  • e 27
  • m 3
  • More… Less…

Types

  • a 60
  • m 14
  • s 6
  • x 6
  • r 4
  • b 2
  • el 2
  • u 2
  • d 1
  • More… Less…

Classifications