Search (12 results, page 1 of 1)

  • × language_ss:"d"
  • × theme_ss:"Hypertext"
  • × type_ss:"a"
  1. Frank, I.: Fortschritt durch Rückschritt : vom Bibliothekskatalog zum Denkwerkzeug. Eine Idee (2016) 0.06
    0.0552435 = product of:
      0.220974 = sum of:
        0.15553129 = weight(_text_:fortschritt in 3982) [ClassicSimilarity], result of:
          0.15553129 = score(doc=3982,freq=2.0), product of:
            0.25497913 = queryWeight, product of:
              6.901097 = idf(docFreq=120, maxDocs=44218)
              0.036947623 = queryNorm
            0.60997653 = fieldWeight in 3982, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.901097 = idf(docFreq=120, maxDocs=44218)
              0.0625 = fieldNorm(doc=3982)
        0.06544271 = weight(_text_:entwicklung in 3982) [ClassicSimilarity], result of:
          0.06544271 = score(doc=3982,freq=2.0), product of:
            0.16539653 = queryWeight, product of:
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.036947623 = queryNorm
            0.3956716 = fieldWeight in 3982, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.0625 = fieldNorm(doc=3982)
      0.25 = coord(2/8)
    
    Abstract
    Der Text zeigt anhand einer essayistisch selektiven Rückschau in die Zeit vor den Digital Humanities bibliotheks- und informationswissenschaftliche Ansätze zur Entwicklung hypertextueller Werkzeuge für Bibliographie-Verwaltung und Strukturierung des wissenschaftlichen Diskurses - eine zukunftsweisende Idee für eine digitale Geisteswissenschaft zur Unterstützung geisteswissenschaftlicher Denkarbeit jenseits von reinem 'distant thinking'.
  2. Freies Navigieren in Informationsräumen? : Die Suche nach optimalen Freiheitsgraden in Hypermedien (1993) 0.01
    0.010225424 = product of:
      0.08180339 = sum of:
        0.08180339 = weight(_text_:entwicklung in 5349) [ClassicSimilarity], result of:
          0.08180339 = score(doc=5349,freq=2.0), product of:
            0.16539653 = queryWeight, product of:
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.036947623 = queryNorm
            0.4945895 = fieldWeight in 5349, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.078125 = fieldNorm(doc=5349)
      0.125 = coord(1/8)
    
    Abstract
    Mit Hypermedienstrukturen lassen sich Informationsmengen flexibler strukturieren als mit herkömmlichen, sequentiellen Organisationsformen. Neben reinem text können auch Multimedien, d.h. Text, Grafik, und Töne vernetzt organisiert werden. Der Artikel beschreibt die Schwierigkeiten, die sich bei der Entwicklung eines Hypermediensystem ergeben
  3. Theyßen, H.; Vierschilling, N.: Entwicklung einer hypermedialen Lernumgebung für die naturwissenschaftliche Nebenfachausbildung : Ein gemeinsames DFG-Projekt der Physikalischen Grundpraktika der Heinrich-Heine Universität und der Universitäts- und Landesbibliothek Düsseldorf (2001) 0.01
    0.010122653 = product of:
      0.080981225 = sum of:
        0.080981225 = weight(_text_:entwicklung in 5778) [ClassicSimilarity], result of:
          0.080981225 = score(doc=5778,freq=4.0), product of:
            0.16539653 = queryWeight, product of:
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.036947623 = queryNorm
            0.48961866 = fieldWeight in 5778, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5778)
      0.125 = coord(1/8)
    
    Abstract
    Multimediale Lernumgebungen werden bislang von wissenschaftlichen Bibliotheken in Form von CD-ROMs zur Verfügung gestellt oder über Hyperlinks zu Angeboten von Fachbereichen, die von diesen selbst verwaltet und gepflegt werden. Ober diese Angebote hat Monika Cremer in ihrem Artikel "Multimedia in deutschen Bibliotheken" einen breiten Oberblick gegeben. An dieser Stelle soll ein seit dem 1.10.2000 laufendes Projekt vorgestellt werden, bei dem die Bibliothek schon in die Entwicklung der Lernumgebung einbezogen ist und die Verwaltung sowie die Distribution vollständig übernimmt. Dadurch wird das Dienstleistungsspektrum der Bibliothek sowohl gegenüber den Fachbereichen als auch gegenüber den Studierenden signifikant erweitert
  4. Wingert, B.: Äußerer und innerer Hypertext : eine notwendige Differenzierung, verdeutlicht am Flusser-Hypertext (1993) 0.01
    0.008180339 = product of:
      0.06544271 = sum of:
        0.06544271 = weight(_text_:entwicklung in 2937) [ClassicSimilarity], result of:
          0.06544271 = score(doc=2937,freq=2.0), product of:
            0.16539653 = queryWeight, product of:
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.036947623 = queryNorm
            0.3956716 = fieldWeight in 2937, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.0625 = fieldNorm(doc=2937)
      0.125 = coord(1/8)
    
    Abstract
    Einen Großteil der mit Hypertexte verbundenen Programmatik könnte man als das 'Externalisierungs-Postulat' bezeichnen, d.h. die Erwartung, daß es besser sei, implizite Bezüge und Verweise in einem Text (oder komplexerem Material) explizit als 'links' zu verdeutlichen und sie damit dem Leser als weiteren, fortführenden oder konterkarierenden Stoff anzubieten. Am Beispiel des 'Flusser-Hypertextes', einer Entwicklung des 'Projekts Elektronisches Buch (PEB)', wird zunächst gezeigt, zu welcher Unübersichtlichkeit die Explizierung aller textlich angelegten Verweise führen würde. Danach wird die Problematik impliziter Verweise betrachtet
  5. Prätor, K.: Integration von Hypertext und Expertensystemen (1990) 0.01
    0.008180339 = product of:
      0.06544271 = sum of:
        0.06544271 = weight(_text_:entwicklung in 8437) [ClassicSimilarity], result of:
          0.06544271 = score(doc=8437,freq=2.0), product of:
            0.16539653 = queryWeight, product of:
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.036947623 = queryNorm
            0.3956716 = fieldWeight in 8437, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.0625 = fieldNorm(doc=8437)
      0.125 = coord(1/8)
    
    Abstract
    Der Beitrag versucht eine Bestimmung der Charakteristika von Hypertext- und Expertensystemen, unter dem Aspekt ihrer wechselseitigen funktionellen Ergänzung. Er stellt an ausgewählten kommerziellen Systemen unterschiedliche Konzepte der Kopplung und Integration vor. Als Desiderat sowohl für die Entwicklung wie die Anwendung der Verbindung beider Systemtypen erweist sich ein übergreifendes datenmodell. Hier wird gegenüber den vorherrschenden an der VonNeumann-Programmierung orientierten Ansätzen für ein relationales Konzept plädiert
  6. Markscheffel, B.: ¬Eine Entwurfsmethodik für Hypermedia-Systeme auf Basis des Spatial-Satellite-Modells S**2M (1993) 0.01
    0.008180339 = product of:
      0.06544271 = sum of:
        0.06544271 = weight(_text_:entwicklung in 2244) [ClassicSimilarity], result of:
          0.06544271 = score(doc=2244,freq=2.0), product of:
            0.16539653 = queryWeight, product of:
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.036947623 = queryNorm
            0.3956716 = fieldWeight in 2244, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.0625 = fieldNorm(doc=2244)
      0.125 = coord(1/8)
    
    Abstract
    Die Komplexität des Entwurfs von Hypermedia-Systemen ist vergleichbar mit der Komplexität des Entwurfs von Expertensystemen, verlangt also nach einer methodischen Unterstützung im Entwurfsprozeß. Von dieser Motivation ausgehend, wird im vorliegenden Beitrag zunächst eine Analyse bestehender Dokumentenmodellierungsansätze durchgeführt, dann ein Ansatz zur formalen Beschreibung von Hypertext-Strukturen vorgestellt und schließlich mit dem Spatial-Satellite-Modell ein Beschreibungsansatz für Hypermedia-Strukturen präsentiert. Ausgehend von diesem Modell wird eine Entwurfsmethodik für Hypermedia-Systeme entwickelt, die als Ausgangspunkt für die Entwicklung eines Verständnisses für die Notwendigkeit eines 'Hypermedia-Engineering' bilden
  7. Streitz, N.A.: Werkzeuge zum pragmatischen Design von Hypertext (1990) 0.01
    0.0071577965 = product of:
      0.057262372 = sum of:
        0.057262372 = weight(_text_:entwicklung in 8436) [ClassicSimilarity], result of:
          0.057262372 = score(doc=8436,freq=2.0), product of:
            0.16539653 = queryWeight, product of:
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.036947623 = queryNorm
            0.34621266 = fieldWeight in 8436, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.0546875 = fieldNorm(doc=8436)
      0.125 = coord(1/8)
    
    Abstract
    Der Beitrag orientiert sich an 2 Thesen: (1) Die Konzepte 'Hypertext / Hypermedia' eröffnen qualitativ neue Möglichkeiten für die Kommunikation von Wissen und repräsentieren damit den Beginn einer neuen Generation von Informations- und Publikationssystemen. (2) Die Konzepte 'Hypertext / Hypermedia' können nur dann überzeugend und erfolgreich umgesetzt werden, wenn Autoren und Rezipienten über spezielle Werkzeuge verfügen, die den spezifischen Charakteristika von Hyperdokumenten entsprechen. Die Thesen werden in Zusammenhang mit einer kurzen Einführung der Konzepte 'Hypertext / Hypermedia' erläutert. Im zweiten Teil des Beitrages werden Modelle zur Autorentätigkeit und die darauf basierenden Designentscheidungen für die Entwicklung des Hypertext-Autorensystems SEPIA (Structured Elicitation and Processing of Ideas) dargestellt
  8. Lehner, C.: Hypertext und World Wide Web als Hilfen für einen Programmierkurs in Prolog (1998) 0.01
    0.006025696 = product of:
      0.04820557 = sum of:
        0.04820557 = weight(_text_:gesellschaft in 6614) [ClassicSimilarity], result of:
          0.04820557 = score(doc=6614,freq=2.0), product of:
            0.16391313 = queryWeight, product of:
              4.4363647 = idf(docFreq=1422, maxDocs=44218)
              0.036947623 = queryNorm
            0.29409218 = fieldWeight in 6614, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4363647 = idf(docFreq=1422, maxDocs=44218)
              0.046875 = fieldNorm(doc=6614)
      0.125 = coord(1/8)
    
    Source
    Herausforderungen an die Wissensorganisation: Visualisierung, multimediale Dokumente, Internetstrukturen. 5. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Berlin, 07.-10. Oktober 1997. Hrsg.: H. Czap u.a
  9. Sarre, F.; Güntzer, U.; Myka, A.; Jüttner, G.: Maschinelles Lernen von Relationen für Thesauri und Hypertext (1992) 0.01
    0.005112712 = product of:
      0.040901694 = sum of:
        0.040901694 = weight(_text_:entwicklung in 1368) [ClassicSimilarity], result of:
          0.040901694 = score(doc=1368,freq=2.0), product of:
            0.16539653 = queryWeight, product of:
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.036947623 = queryNorm
            0.24729475 = fieldWeight in 1368, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1368)
      0.125 = coord(1/8)
    
    Abstract
    Fortschrittliche Informationssysteme stellen ihren Benutzern 2 wichtige Suchmethoden zur Verfügung: die gezielte (Volltext-) Suche und das Navigieren im Objektbestand mit Hilfe von Hypertext-Links. Der Grund, warum diese beiden Konzepte aber auf breiter Basis noch nicht in jedem Informationssystem Anwendung gefunden haben, ist darin zu sehen, daß der manuelle Aufbau von umfassenden Hypertext-Strukturen auf der einen Seite und von großen Thesauri, die den Erfolg von Volltextsuchen wesentlich steigern, auf der anderen Seite bislang enormen Aufwand und damit hohe Kosten verursachte. Langfristig werden Informationssysteme aber nur dann große Akzeptanz bei der Benutzerschaft erzielen, wenn sie ihre Benutzer mit diesen beiden Techniken unterstützen und wenn sie dynamisch neuen Informationsbedürfnissen anpassen können, also lernfähig sind. Für den einzelnen Benutzer ergibt sich daraus der wesentliche Vorteil, daß er von den Recherche-Erfahrungen anderer Benutzer profitieren kann. In diesem Papier stellen wir eine Lernkomponente vor, die für das Hypertextsystem 'HyperMan' an der TU München entwickelt und implementiert wurde. Wir zeigen beispielhaft, wie Volltext-Suchanfragen der HyperMan-Benutzer von der Lernkomponente untersucht werden, um Thesauruseinträge zu gewinnen. Bei der Entwicklung dieser Lerntechniken zum (automatischen) Thesaurusaufbau konnte auf Erfahrungen mit dem lernfähigen Information Retrieval System 'Tegen' zurückgegriffen werden. In dem HyperMan System werden aber nicht nur Beziehungen (Relationen) zwischen Begriffen erlernt, sondern auch zwischen Textstücken. Wir gehen daher auch darauf ein, wie aufgrund einer Analyse des Benutzerverhaltens sowohl neue Hypertext-Links erlernt als auch vorhandene Links, die zuvor von HyperMans Generierungskomponente automatisch erzeugt wurden, modifiziert werden
  10. Hammwöhner, R.: Hypertext (2004) 0.00
    0.0040901694 = product of:
      0.032721356 = sum of:
        0.032721356 = weight(_text_:entwicklung in 2937) [ClassicSimilarity], result of:
          0.032721356 = score(doc=2937,freq=2.0), product of:
            0.16539653 = queryWeight, product of:
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.036947623 = queryNorm
            0.1978358 = fieldWeight in 2937, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.03125 = fieldNorm(doc=2937)
      0.125 = coord(1/8)
    
    Abstract
    Seit dem ersten internationalen Workshop über Hypertextsysteme 1987 in Chapel Hill hat das Hypertext-Gebiet eine außerordentlich dynamische Entwicklung erfahren. Hypertext-Komponenten sind in eine Vielzahl von Informationssystemen und Benutzungsoberflächen integriert, ohne dass sie - wie z.B. bei Dateisystemen - noch als solche wahrgenommen würden. Das World Wide Web (WWW) hat sich als weltumspannendes Medium etabliert, dessen konsistente Weiterentwicklung durch stets erweiterte Standards von einer eigenen Organisation, dem WWW-Consortium gesteuert wird. Elektronische Bücher kann man auf CD-ROM in fast jeder mittelgroßen Buchhandlung kaufen. Große Firmen setzen auf die Weiterbildung ihrer Mitarbeiter durch virtuelle, oft hypertext-basierte Lehre, für die wiederum eigene Standards-z.B. das Shareable Content Object Reference Model (Storm) - entwickelt werden. Dieser weite Einsatzbereich bringt allerdings auch ein erhebliches methodisches Problem mit sich. Hinter den disparaten Anforderungen der jeweiligen Einsatzgebiete droht eine zusammenhängende Theorie von Hypertext zu verschwinden. Ob eine solche überhaupt zu formulieren ist, ist ohnehin fraglich. Schon eine umfassende Theorie von Text konnte bisher nicht oder nur auf sehr abstraktem Niveau formuliert werden. Die im Zusammenhang mit dem Aufbau und der Nutzung von Hypertexten und Hypertextsystemen auftretenden Fragestellungen sind vielfach interdisziplinärer Natur, die z.T. auch einzelwissenschaftlich mit etwas verengter Perspektive untersucht werden. Die Informatik sieht in Hypertext eine Spezialform multimedialer Systeme, die besonders unter dem Gesichtspunkt der Datenverwaltung, bestehender Kommunikationsstandards und Software-Architekturen zu untersuchen sind. Lerntheorien aus Pädagogik und Psychologie sind die Grundlage für den Aufbau und die Nutzung von Lehrhypertexten. Hyperfiction - hypermediale Belletristik- profitiert von und speist sich aus den Strömungen der gegenwärtigen Literaturtheorie. Hier soll Hypertext vor allem unter informationswissenschaftlichen Fragestellungen behandelt werden. Einer kurzen definitorischen Eingrenzung des Gegenstands folgen texttheoretische Überlegungen zum Hypertext. Sodann wird auf die Informationssuche in Hypertexten und die Gestaltung von Hypertexten eingegangen.
  11. Tergan, S.-O.: Zum Aufbau von Wissensstrukturen mit Texten und Hypertexten (1993) 0.00
    0.003128683 = product of:
      0.025029464 = sum of:
        0.025029464 = product of:
          0.050058927 = sum of:
            0.050058927 = weight(_text_:22 in 2927) [ClassicSimilarity], result of:
              0.050058927 = score(doc=2927,freq=2.0), product of:
                0.12938428 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036947623 = queryNorm
                0.38690117 = fieldWeight in 2927, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2927)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Source
    Nachrichten für Dokumentation. 44(1993) H.1, S.15-22
  12. Jünger, G.: ¬Ein neues Universum (2003) 0.00
    0.0020450847 = product of:
      0.016360678 = sum of:
        0.016360678 = weight(_text_:entwicklung in 1553) [ClassicSimilarity], result of:
          0.016360678 = score(doc=1553,freq=2.0), product of:
            0.16539653 = queryWeight, product of:
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.036947623 = queryNorm
            0.0989179 = fieldWeight in 1553, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.015625 = fieldNorm(doc=1553)
      0.125 = coord(1/8)
    
    Content
    Eine stetige Erfahrung der Techniksoziologie und -geschichte besagt, dass sich wirklich neue Konzepte, die ihrer Zeit vorauseilen, am Ende nicht durchsetzen können. Erfolg haben stattdessen mittelmäßige Nachbildungen der ersten Idee, die dann, um periphere Funktionen und Dekorationen erweitert, als große Innovationen auftreten. Beispiele für zweitbeste Lösungen, von denen jeder weiß, dass sie nur Krücken sind, liefert gerade die Informatik in großer Zahl. Das Gespann der Programmiersprachen Smalltalk und C++ gehört dazu, aber auch das World Wide Web, das wir heute kennen, bleibt weit hinter Konzepten eines universalen, globalen Informationssystems zurück, die lange vor der Definition des Hypertext-Protokolls durch Tim Berners-Lee entwickelt worden sind. Die Frage nach der technischen Vorgeschichte und ihren verpassten Chancen ist keineswegs nur von akademischem Interesse. Das "Xanadu" genannte System, das zum ersten Mal das weltweit vorhandene Wissen in digitaler Form radikal demokratisieren wollte, kann sehr gut als Folie dienen für die Diskussion über die zukünftige Entwicklung des WWW. Zweifellos ist der Wunsch, möglichst viel Wissen anzuhäufen, uralt. Er hat die Errichter der Bibliothek von Alexandria angetrieben, die kopierenden und kommentierenden Mönche des Mittelalters oder die Enzyklopädisten des 18. Jahrhunderts in Frankreich. Spätestens seit dem 20. Jahrhundert war die pure Menge des nun Wissbaren so nicht mehr zu bewältigen. Über die materielle Ablage der Dokumente hinaus mussten neue Organisationsprinzipien gefunden werden, um den Berg zu erschließen und seine Bestandteile untereinander in nutzbarer Weise zu verbinden. Nur dann konnte eine Wissenschaftlerin oder ein Wissenschaftler jetzt noch in vertretbarer Zeit zum aktuellen Wissensstand auf einem Gebiet aufschließen. Im Epochenjahr 1945 entwarf Vannevar Bush, ein wissenschaftlicher Berater von Roosevelt während des Zweiten Weltkriegs, eine erste Antwort auf die Frage nach einem solchen Organisationsprinzip. Er nannte sein System "Memex" (Memory Extender), also "Gedächtniserweiterer". Wissen sollte in der Form von Mikrofilmen archiviert und die dabei erzeugten Einzelbestandteile sollten so mit einander verknüpft werden, dass das sofortige Aufsuchen von Verweisen möglich würde. Technisch misslang das System, mit Hilfe von Mikrofilmen ließ es sich wohl kaum realisieren. Aber der Gedanke war formuliert, dass große Wissensbestände nicht unbedingt in separaten Dokumenten und überwiegend linear (Seite 2 folgt auf Seite 1) angeordnet zu werden brauchten. Sie können durch interne Verknüpfungen zwischen Einzelseiten zu etwas Neuem zusammengefügt werden. Der Flugzeugingenieur Douglas Engelbart las schon in den Vierzigerjahren von Bushs Idee. Ihm gebührt das Verdienst, sie auf die neue Technik der digitalen Computer übertragen zu haben. Eine Sitzung der "Fall Joint Computer Conference" im Jahr 1968 demonstrierte seine "NLS" (oN Line System) genannte Verwirklichung des Memex-Konzepts in der Praxis und war für viele Teilnehmer die Initialzündung zu eigenen Versuchen auf diesem Gebiet. NLS war ein riesiges Journal von einzelnen Memos und Berichten eines Vorgängerprojekts, das es den beteiligten Wissenschaftlern erlaubte, über adressierte Verweise unmittelbar zu einem benachbarten Dokument zu springen - ein Netz aus Knoten und `Kanten, dem nur noch ein geeigneter Name für seine neue Eigenschaft fehlte: