Search (7 results, page 1 of 1)

  • × type_ss:"el"
  • × type_ss:"x"
  • × year_i:[2000 TO 2010}
  1. Munzner, T.: Interactive visualization of large graphs and networks (2000) 0.03
    0.02582543 = product of:
      0.06456357 = sum of:
        0.032278713 = weight(_text_:context in 4746) [ClassicSimilarity], result of:
          0.032278713 = score(doc=4746,freq=2.0), product of:
            0.17622331 = queryWeight, product of:
              4.14465 = idf(docFreq=1904, maxDocs=44218)
              0.04251826 = queryNorm
            0.18316938 = fieldWeight in 4746, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.14465 = idf(docFreq=1904, maxDocs=44218)
              0.03125 = fieldNorm(doc=4746)
        0.032284863 = weight(_text_:system in 4746) [ClassicSimilarity], result of:
          0.032284863 = score(doc=4746,freq=6.0), product of:
            0.13391352 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.04251826 = queryNorm
            0.24108742 = fieldWeight in 4746, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03125 = fieldNorm(doc=4746)
      0.4 = coord(2/5)
    
    Abstract
    Many real-world domains can be represented as large node-link graphs: backbone Internet routers connect with 70,000 other hosts, mid-sized Web servers handle between 20,000 and 200,000 hyperlinked documents, and dictionaries contain millions of words defined in terms of each other. Computational manipulation of such large graphs is common, but previous tools for graph visualization have been limited to datasets of a few thousand nodes. Visual depictions of graphs and networks are external representations that exploit human visual processing to reduce the cognitive load of many tasks that require understanding of global or local structure. We assert that the two key advantages of computer-based systems for information visualization over traditional paper-based visual exposition are interactivity and scalability. We also argue that designing visualization software by taking the characteristics of a target user's task domain into account leads to systems that are more effective and scale to larger datasets than previous work. This thesis contains a detailed analysis of three specialized systems for the interactive exploration of large graphs, relating the intended tasks to the spatial layout and visual encoding choices. We present two novel algorithms for specialized layout and drawing that use quite different visual metaphors. The H3 system for visualizing the hyperlink structures of web sites scales to datasets of over 100,000 nodes by using a carefully chosen spanning tree as the layout backbone, 3D hyperbolic geometry for a Focus+Context view, and provides a fluid interactive experience through guaranteed frame rate drawing. The Constellation system features a highly specialized 2D layout intended to spatially encode domain-specific information for computational linguists checking the plausibility of a large semantic network created from dictionaries. The Planet Multicast system for displaying the tunnel topology of the Internet's multicast backbone provides a literal 3D geographic layout of arcs on a globe to help MBone maintainers find misconfigured long-distance tunnels. Each of these three systems provides a very different view of the graph structure, and we evaluate their efficacy for the intended task. We generalize these findings in our analysis of the importance of interactivity and specialization for graph visualization systems that are effective and scalable.
  2. Francu, V.: Multilingual access to information using an intermediate language (2003) 0.01
    0.008335916 = product of:
      0.04167958 = sum of:
        0.04167958 = weight(_text_:system in 1742) [ClassicSimilarity], result of:
          0.04167958 = score(doc=1742,freq=10.0), product of:
            0.13391352 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.04251826 = queryNorm
            0.31124252 = fieldWeight in 1742, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03125 = fieldNorm(doc=1742)
      0.2 = coord(1/5)
    
    Abstract
    While being theoretically so widely available, information can be restricted from a more general use by linguistic barriers. The linguistic aspects of the information languages and particularly the chances of an enhanced access to information by means of multilingual access facilities will make the substance of this thesis. The main problem of this research is thus to demonstrate that information retrieval can be improved by using multilingual thesaurus terms based on an intermediate or switching language to search with. Universal classification systems in general can play the role of switching languages for reasons dealt with in the forthcoming pages. The Universal Decimal Classification (UDC) in particular is the classification system used as example of a switching language for our objectives. The question may arise: why a universal classification system and not another thesaurus? Because the UDC like most of the classification systems uses symbols. Therefore, it is language independent and the problems of compatibility between such a thesaurus and different other thesauri in different languages are avoided. Another question may still arise? Why not then, assign running numbers to the descriptors in a thesaurus and make a switching language out of the resulting enumerative system? Because of some other characteristics of the UDC: hierarchical structure and terminological richness, consistency and control. One big problem to find an answer to is: can a thesaurus be made having as a basis a classification system in any and all its parts? To what extent this question can be given an affirmative answer? This depends much on the attributes of the universal classification system which can be favourably used to this purpose. Examples of different situations will be given and discussed upon beginning with those classes of UDC which are best fitted for building a thesaurus structure out of them (classes which are both hierarchical and faceted)...
  3. Artemenko, O.; Shramko, M.: Entwicklung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2005) 0.01
    0.007293926 = product of:
      0.03646963 = sum of:
        0.03646963 = weight(_text_:system in 572) [ClassicSimilarity], result of:
          0.03646963 = score(doc=572,freq=10.0), product of:
            0.13391352 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.04251826 = queryNorm
            0.2723372 = fieldWeight in 572, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
      0.2 = coord(1/5)
    
    Abstract
    Identifikation der Sprache bzw. Sprachen elektronischer Textdokumente ist einer der wichtigsten Schritte in vielen Prozessen maschineller Textverarbeitung. Die vorliegende Arbeit stellt LangIdent, ein System zur Sprachidentifikation von mono- und multilingualen elektronischen Textdokumenten vor. Das System bietet sowohl eine Auswahl von gängigen Algorithmen für die Sprachidentifikation monolingualer Textdokumente als auch einen neuen Algorithmus für die Sprachidentifikation multilingualer Textdokumente.
    Mit der Verbreitung des Internets vermehrt sich die Menge der im World Wide Web verfügbaren Dokumente. Die Gewährleistung eines effizienten Zugangs zu gewünschten Informationen für die Internetbenutzer wird zu einer großen Herausforderung an die moderne Informationsgesellschaft. Eine Vielzahl von Werkzeugen wird bereits eingesetzt, um den Nutzern die Orientierung in der wachsenden Informationsflut zu erleichtern. Allerdings stellt die enorme Menge an unstrukturierten und verteilten Informationen nicht die einzige Schwierigkeit dar, die bei der Entwicklung von Werkzeugen dieser Art zu bewältigen ist. Die zunehmende Vielsprachigkeit von Web-Inhalten resultiert in dem Bedarf an Sprachidentifikations-Software, die Sprache/en von elektronischen Dokumenten zwecks gezielter Weiterverarbeitung identifiziert. Solche Sprachidentifizierer können beispielsweise effektiv im Bereich des Multilingualen Information Retrieval eingesetzt werden, da auf den Sprachidentifikationsergebnissen Prozesse der automatischen Indexbildung wie Stemming, Stoppwörterextraktion etc. aufbauen. In der vorliegenden Arbeit wird das neue System "LangIdent" zur Sprachidentifikation von elektronischen Textdokumenten vorgestellt, das in erster Linie für Lehre und Forschung an der Universität Hildesheim verwendet werden soll. "LangIdent" enthält eine Auswahl von gängigen Algorithmen zu der monolingualen Sprachidentifikation, die durch den Benutzer interaktiv ausgewählt und eingestellt werden können. Zusätzlich wurde im System ein neuer Algorithmus implementiert, der die Identifikation von Sprachen, in denen ein multilinguales Dokument verfasst ist, ermöglicht. Die Identifikation beschränkt sich nicht nur auf eine Aufzählung von gefundenen Sprachen, vielmehr wird der Text in monolinguale Abschnitte aufgeteilt, jeweils mit der Angabe der identifizierten Sprache.
    Die Arbeit wird in zwei Hauptteile gegliedert. Der erste Teil besteht aus Kapiteln 1-5, in denen theoretische Grundlagen zum Thema Sprachidentifikation dargelegt werden. Das erste Kapitel beschreibt den Sprachidentifikationsprozess und definiert grundlegende Begriffe. Im zweiten und dritten Kapitel werden vorherrschende Ansätze zur Sprachidentifikation von monolingualen Dokumenten dargestellt und miteinander verglichen, indem deren Vor- und Nachteile diskutiert werden. Das vierte Kapitel stellt einige Arbeiten vor, die sich mit der Sprachidentifikation von multilingualen Texten befasst haben. Der erste Teil der Arbeit wird mit einem Überblick über die bereits entwickelten und im Internet verfügbaren Sprachidentifikationswerkzeuge abgeschlossen. Der zweite Teil der Arbeit stellt die Entwicklung des Sprachidentifikationssystems LangIdent dar. In den Kapiteln 6 und 7 werden die an das System gestellten Anforderungen zusammengefasst und die wichtigsten Phasen des Projekts definiert. In den weiterführenden Kapiteln 8 und 9 werden die Systemarchitektur und eine detaillierte Beschreibung ihrer Kernkomponenten gegeben. Das Kapitel 10 liefert ein statisches UML-Klassendiagramm mit einer ausführlichen Erklärung von Attributen und Methoden der im Diagramm vorgestellten Klassen. Das nächste Kapitel befasst sich mit den im Prozess der Systementwicklung aufgetretenen Problemen. Die Bedienung des Programms wird im Kapitel 12 beschrieben. Im letzten Kapitel der Arbeit wird die Systemevaluierung vorgestellt, in der der Aufbau und Umfang von Trainingskorpora sowie die wichtigsten Ergebnisse mit der anschließenden Diskussion präsentiert werden.
  4. Körber, S.: Suchmuster erfahrener und unerfahrener Suchmaschinennutzer im deutschsprachigen World Wide Web (2000) 0.01
    0.0071760663 = product of:
      0.03588033 = sum of:
        0.03588033 = weight(_text_:index in 5938) [ClassicSimilarity], result of:
          0.03588033 = score(doc=5938,freq=2.0), product of:
            0.18579477 = queryWeight, product of:
              4.369764 = idf(docFreq=1520, maxDocs=44218)
              0.04251826 = queryNorm
            0.1931181 = fieldWeight in 5938, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.369764 = idf(docFreq=1520, maxDocs=44218)
              0.03125 = fieldNorm(doc=5938)
      0.2 = coord(1/5)
    
    Abstract
    In einem Labor-Experiment wurden insgesamt achtzehn Studenten und Studentinnen mit zwei offenen Web-Rechercheaufgaben konfrontiert. Während deren Bewältigung mit einer Suchmaschine wurden sie per Proxy-Logfile-Protokollierung verdeckt beobachtet. Sie machten demographische und ihre Webnutzungs-Gewohnheiten betreffende Angaben, bewerteten Aufgaben-, Performance- und Suchmaschinen-Eigenschaften in Fragebögen und stellten sich einem Multiple-Choice-Test zu ihrem Wissen über Suchmaschinen. Die Versuchspersonen wurden gezielt angeworben und eingeteilt: in eine erfahrene und eine unerfahrene Untergruppe mit je neun Teilnehmern. Die Untersuchung beruht auf dem Vergleich der beiden Gruppen: Im Zentrum stehen dabei die Lesezeichen, die sie als Lösungen ablegten, ihre Einschätzungen aus den Fragebögen, ihre Suchphrasen sowie die Muster ihrer Suchmaschinen-Interaktion und Navigation in Zielseiten. Diese aus den Logfiles gewonnen sequentiellen Aktionsmuster wurden vergleichend visualisiert, ausgezählt und interpretiert. Zunächst wird das World Wide Web als strukturell und inhaltlich komplexer Informationsraum beschrieben. Daraufhin beleuchtet der Autor die allgemeinen Aufgaben und Typen von Meta-Medienanwendungen, sowie die Komponenten Index-basierter Suchmaschinen. Im Anschluß daran wechselt die Perspektive von der strukturell-medialen Seite hin zu Nutzungsaspekten. Der Autor beschreibt Nutzung von Meta-Medienanwendungen als Ko-Selektion zwischen Nutzer und Suchmaschine auf der Basis von Entscheidungen und entwickelt ein einfaches, dynamisches Phasenmodell. Der Einfluß unterschiedlicher Wissensarten auf den Selektionsprozeß findet hier Beachtung.Darauf aufbauend werden im folgenden Schritt allgemeine Forschungsfragen und Hypothesen für das Experiment formuliert. Dessen Eigenschaften sind das anschließende Thema, wobei das Beobachtungsinstrument Logfile-Analyse, die Wahl des Suchdienstes, die Formulierung der Aufgaben, Ausarbeitung der Fragebögen und der Ablauf im Zentrum stehen. Im folgenden präsentiert der Autor die Ergebnisse in drei Schwerpunkten: erstens in bezug auf die Performance - was die Prüfung der Hypothesen erlaubt - zweitens in bezug auf die Bewertungen, Kommentare und Suchphrasen der Versuchspersonen und drittens in bezug auf die visuelle und rechnerische Auswertung der Suchmuster. Letztere erlauben einen Einblick in das Suchverhalten der Versuchspersonen. Zusammenfassende Interpretationen und ein Ausblick schließen die Arbeit ab
  5. Klas, C.-P.: DAFFODIL: Strategische Unterstützung bei der Informationssuche in Digitalen Bibliotheken (2007) 0.01
    0.0065901205 = product of:
      0.032950602 = sum of:
        0.032950602 = weight(_text_:system in 1843) [ClassicSimilarity], result of:
          0.032950602 = score(doc=1843,freq=4.0), product of:
            0.13391352 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.04251826 = queryNorm
            0.24605882 = fieldWeight in 1843, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1843)
      0.2 = coord(1/5)
    
    Abstract
    Sowohl die rechnergestützte Informationssuche in einer realen Bibliothek als auch die in einer digitalen Bibliothek stellen heute immer noch ein zeitaufwändiges und damit teures Unterfangen dar. Als wesentliche Gründe können drei Problembereiche identifiziert werden. Zum Ersten existieren zahlreiche Zugangspunkte mit jeweils unterschiedlichen Formularen, Anfragesprachen und unterschiedlicher inhaltlicher Qualität. Zum Zweiten fehlt eine dringend benötigte anbieterübergreifende Integration der Informationen und Dienste. Zum Dritten schließlich wird der Benutzer durch die unbefriedigende Funktionalität nicht ausreichend in seinem Informationssuchprozess unterstützt. Alle diese Punkte führen letztendlich zu langwierigen und damit teuren Suchprozessen. Diese Dissertation stellt sich der Aufgabe, den oben genannten Problembereichen in geeigneter Weise zu begegnen und eine adäquate Lösung zu erarbeiten. Dazu erhält der Benutzer durch strategische Unterstützung in Form von verschiedenen integrierten Diensten von einem aktiven System eine Hilfestellung, um so sein Informationsbedürfnis effektiv und effizient befriedigen zu können. Die Ergebnisse dieser Arbeit, die durch eine ausführliche Evaluation belegt worden sind, bieten sowohl theoretische als auch praktische Lösungen zur Entwicklung und zur Nutzung von digitalen Bibliotheken: - Der theoretische Teil zeigt ein Modell für verteilte Bibliotheksdienste auf, strukturiert diese und stellt sie in einen Gesamtzusammenhang. Dadurch wird die Modellierung neuer Dienste erleichtert und ein positiver Nutzen kann schon im Vorfeld diskutiert werden. - Der praktische Teil basiert auf dem entwickelten Modell und ermöglicht - den Benutzern, effektiv und effizient einer umfassenden Literatursuche nachzugehen und diese auch nachhaltig zu verwalten. - den Entwicklern von digitalen Bibliotheken durch Zugriff auf eine Vielzahl von Basisdiensten dar¨uber hinausgehende Dienste zu entwickeln. Insgesamt kann das Daffodil-System als Basisarchitektur für die Entwicklung und Evaluation von digitalen Bibliotheken verwendet werden und trägt somit zur wissenschaftlichen Forschung in diesem Bereich bei.
  6. García Barrios, V.M.: Informationsaufbereitung und Wissensorganisation in transnationalen Konzernen : Konzeption eines Informationssystems für große und geographisch verteilte Unternehmen mit dem Hyperwave Information System (2002) 0.00
    0.0046599186 = product of:
      0.023299592 = sum of:
        0.023299592 = weight(_text_:system in 6000) [ClassicSimilarity], result of:
          0.023299592 = score(doc=6000,freq=2.0), product of:
            0.13391352 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.04251826 = queryNorm
            0.17398985 = fieldWeight in 6000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6000)
      0.2 = coord(1/5)
    
  7. Bierbach, P.: Wissensrepräsentation - Gegenstände und Begriffe : Bedingungen des Antinomieproblems bei Frege und Chancen des Begriffssystems bei Lambert (2001) 0.00
    0.003727935 = product of:
      0.018639674 = sum of:
        0.018639674 = weight(_text_:system in 4498) [ClassicSimilarity], result of:
          0.018639674 = score(doc=4498,freq=2.0), product of:
            0.13391352 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.04251826 = queryNorm
            0.13919188 = fieldWeight in 4498, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03125 = fieldNorm(doc=4498)
      0.2 = coord(1/5)
    
    Abstract
    Die auf Basis vernetzter Computer realisierbare Möglichkeit einer universalen Enzyklopädie führt aufgrund der dabei technisch notwendigen Reduktion auf nur eine Sorte Repräsentanten zu Systemen, bei denen entweder nur Gegenstände repräsentiert werden, die auch Begriffe vertreten, oder nur Begriffe, die auch Gegenstände vertreten. In der Dissertation werden als Beispiele solcher Repräsentationssysteme die logischen Systeme von Gottlob Frege und Johann Heinrich Lambert untersucht. Freges System, basierend auf der Annahme der Objektivität von Bedeutungen, war durch die Nachweisbarkeit einer Antinomie gescheitert, weshalb von Philosophen im 20. Jahrhundert die Existenz einer objektiven Bedeutung von Ausdrücken und die Übersetzbarkeit der Gedanken aus den natürlichen Sprachen in eine formale Sprache in Frage gestellt wurde. In der Dissertation wird nachgewiesen, daß diese Konsequenz voreilig war und daß die Antinomie auch bei Annahme der Objektivität von Wissen erst durch zwei Zusatzforderungen in Freges Logik ausgelöst wird: die eineindeutige Zuordnung eines Gegenstands zu jedem Begriff sowie die scharfen Begrenzung der Begriffe, die zur Abgeschlossenheit des Systems zwingt. Als Alternative wird das Begriffssystem Lamberts diskutiert, bei dem jeder Gegenstand durch einen Begriff und gleichwertig durch Gesamtheiten von Begriffen vertreten wird und Begriffe durch Gesamtheiten von Begriffen ersetzbar sind. Beide die Antinomie auslösenden Bedingungen sind hier nicht vorhanden, zugleich ist die fortschreitende Entwicklung von Wissen repräsentierbar. Durch die mengentheoretische Rekonstruktion des Begriffssystems Lamberts in der Dissertation wird dessen praktische Nutzbarkeit gezeigt. Resultat der Dissertation ist der Nachweis, daß es Repräsentationssysteme gibt, die nicht auf die für die Prüfung der Verbindlichkeit der Einträge in die Enzyklopädie notwendige Annahme der Verobjektivierbarkeit von Wissen verzichten müssen, weil ihnen nicht jene die Antinomie auslösenden Voraussetzungen zugrunde liegen.