Search (213 results, page 11 of 11)

  • × language_ss:"d"
  • × type_ss:"x"
  1. Roßmann, N.: Website-usability : Landtag NRW (2002) 0.00
    0.0017165683 = product of:
      0.006866273 = sum of:
        0.006866273 = weight(_text_:information in 1076) [ClassicSimilarity], result of:
          0.006866273 = score(doc=1076,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.0775819 = fieldWeight in 1076, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
      0.25 = coord(1/4)
    
    Abstract
    Die Studie untersucht die Usability der Homepage des Landtags NordrheinWestfalen. Es wird analysiert, wie benutzerfreundlich die Website ist, ob sie effektiv genutzt werden kann und ob die Inhalte der Site den Erwartungen der Benutzer entsprechen. Drei Evaluationsmethoden finden Einsatz: Ein Thinking-Aloud-Test, eine heuristische Evaluation und eine Availability-Untersuchung. Der hier eingesetzte Thinking-Aloud-Test ist ein Benutzertest, bei dem zwanzig Laien und zwanzig Information Professionals zuerst ihre Erwartungen an die Site äußern und dann anhand der Homepage, unter Beobachtung, Aufgaben bearbeiten. Anschließend geben sie anhand eines Fragebogens eine Beurteilung ab. Die heuristische Evaluation ist eine expertenzentrierte Methode. Usability-Experten stellen Checklisten auf, anhand derer eine Homepage untersucht wird. In dieser Studie finden drei Heuristiken Anwendung. Die Availability-Untersuchung der homepageeigenen Suchmaschine ist eine bibliothekarische Evaluationsmethode, die anhand einer Suche nach Webseiten, von denen bekannt ist, dass ihr Angebot aktiv ist, die Qualität der Suchmaschine hinsichtlich der Erreichbarkeit der Dokumente bestimmt. Die drei Methoden ergänzen einander und decken in ihrer Variation einen großen Pool an Usability-Fehlern auf. Die Ergebnisse: Die Benutzer vermissen auf der Homepage besonders Informationen über den Landeshaushalt, eine Liste der Mitarbeiter mit ihren Zuständigkeiten, Hintergrundinformationen zu aktuellen landespolitischen Themen und Diskussionsforen als Kommunikationsmöglichkeit. Im Durchschnitt liegen die Klickhäufigkeiten für das Lösen einer Aufgabe über denen, die für den kürzesten Weg benötigt werden. Die Abbruch-Quote aufgrund einer nicht lösbar erscheinenden Aufgabe beträgt bei 40 Probanden à sechs Aufgaben 13,33% (32 Abbrüche). In der Abschlussbefragung äußern sich die Testpersonen größtenteils zufrieden. Die Ausnahme stellt der Bereich "Navigation" dar. 40% halten die benötigten Links für schwer auffindbar, 45% aller Probanden wissen nicht jederzeit, an welcher Stelle sie sich befinden.
  2. Nimz, B.: ¬Die Erschließung im Archiv- und Bibliothekswesen unter besonderer Berücksichtigung elektronischer Informationsträger : ein Vergleich im Interesse der Professionalisierung und Harmonisierung (2001) 0.00
    0.0017165683 = product of:
      0.006866273 = sum of:
        0.006866273 = weight(_text_:information in 2442) [ClassicSimilarity], result of:
          0.006866273 = score(doc=2442,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.0775819 = fieldWeight in 2442, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=2442)
      0.25 = coord(1/4)
    
    Abstract
    Diese Arbeit dient der Professionalisierung und Harmonisierung der Erschließungsmethodik im Archiv- und Bibliothekswesen. Die Erschließung ist das Kernstück der archivarischen und bibliothekarischen Arbeit und Grundlage für die Benutzung durch die interessierte Öffentlichkeit. Hier wird, bildlich gesprochen, das gesät, was in der Benutzung geerntet wird und je gewissenhafter die Aussaat desto ertragreicher die Ernte. Der Bereich der Dokumentation wird, wo es für die Betrachtung der integrativen Momente in den Informationswissenschaften erforderlich erscheint, einbezogen. Das Hauptaugenmerk gilt jedoch der Archivwissenschaft und den Beziehungen zwischen der Archiv- und Bibliothekswissenschaft. Vornehmlich wird die Arbeit nationale Strukturen des Archivund Bibliothekswesens sowie ausgewählte Projekte und Tendenzen abhandeln. Auf eine erschöpfende Untersuchung aller Ausbildungsgänge auf dem Informationssektor wird verzichtet, da das Ziel dieser Arbeit nur die Betrachtung der integrativen Konzepte in der Ausbildung ist. Ziel der Publikation ist es, Angebote sowohl für die Grundlagenforschung als auch für die angewandte Forschung im Themenbereich Harmonisierung und Professionalisierung in der Erschließung der Informationswissenschaften zu machen. Sie kann als Diskussionsgrundlage für den interdisziplinären fachlichen Austausch dienen, der weitere Arbeiten folgen müssen. Es wird versucht, Wissen aus den Bereichen Archivwesen und Bibliothekswesen zu kumulieren und zu kommentieren. Vollständigkeit wird nicht beansprucht, sondern Wert auf Beispielhaftigkeit gelegt, zumal der rasante Technologiewandel zwangsläufig eine rasche Veralterung technischer Angaben zu den elektronischen Informationsträgern zur Folge hat. Bestand haben jedoch die theoretischen Überlegungen und abstrakten Betrachtungen sowie die getroffenen Aussagen zur Addition, Integration und Separation der Informationswissenschaften. In der Arbeit werden in dem Kapitel "Die Informationsgesellschaft" vorrangig die Auswirkungen der Informationsgesellschaft auf die Archive und Bibliotheken untersucht, wobei zunächst von der Klärung der Begriffe "Information" und "Informationsgesellschaft" und der Informationspolitik in der EU und in der Bundesrepublik ausgegangen wird.
  3. Marcus, S.: Textvergleich mit mehreren Mustern (2005) 0.00
    0.0017165683 = product of:
      0.006866273 = sum of:
        0.006866273 = weight(_text_:information in 862) [ClassicSimilarity], result of:
          0.006866273 = score(doc=862,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.0775819 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
      0.25 = coord(1/4)
    
    Abstract
    Das Gebiet des Pattern-Matching besitzt in vielen wissenschaftlichen Bereichen eine hohe Relevanz. Aufgrund unterschiedlicher Einsatzgebiete sind auch Umsetzung und Anwendung des Pattern-Matching sehr verschieden. Die allen Anwendungen des Pattern-Matching inhärente Aufgabe besteht darin, in einer Vielzahl von Eingabedaten bestimmte Muster wieder zu erkennen. Dies ist auch der deutschen Bezeichnung Mustererkennung zu entnehmen. In der Medizin findet Pattern-Matching zum Beispiel bei der Untersuchung von Chromosomensträngen auf bestimmte Folgen von Chromosomen Verwendung. Auf dem Gebiet der Bildverarbeitung können mit Hilfe des Pattern-Matching ganze Bilder verglichen oder einzelne Bildpunkte betrachtet werden, die durch ein Muster identifizierbar sind. Ein weiteres Einsatzgebiet des Pattern-Matching ist das Information-Retrieval, bei dem in gespeicherten Daten nach relevanten Informationen gesucht wird. Die Relevanz der zu suchenden Daten wird auch hier anhand eines Musters, zum Beispiel einem bestimmten Schlagwort, beurteilt. Ein vergleichbares Verfahren findet auch im Internet Anwendung. Internet-Benutzer, die mittels einer Suchmaschine nach bedeutsamen Informationen suchen, erhalten diese durch den Einsatz eines Pattern-Matching-Automaten. Die in diesem Zusammenhang an den Pattern-Matching-Automaten gestellten Anforderungen variieren mit der Suchanfrage, die an eine Suchmaschine gestellt wird. Eine solche Suchanfrage kann im einfachsten Fall aus genau einem Schlüsselwort bestehen. Im komplexeren Fall enthält die Anfrage mehrere Schlüsselwörter. Dabei muss für eine erfolgreiche Suche eine Konkatenation der in der Anfrage enthaltenen Wörter erfolgen. Zu Beginn dieser Arbeit wird in Kapitel 2 eine umfassende Einführung in die Thematik des Textvergleichs gegeben, wobei die Definition einiger grundlegender Begriffe vorgenommen wird. Anschließend werden in Kapitel 3 Verfahren zum Textvergleich mit mehreren Mustern vorgestellt. Dabei wird zunächst ein einfaches Vorgehen erläutert, um einen Einsteig in das Thema des Textvergleichs mit mehreren Mustern zu erleichtern. Danach wird eine komplexe Methode des Textvergleichs vorgestellt und anhand von Beispielen verdeutlicht.
  4. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.00
    0.0017165683 = product of:
      0.006866273 = sum of:
        0.006866273 = weight(_text_:information in 3359) [ClassicSimilarity], result of:
          0.006866273 = score(doc=3359,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.0775819 = fieldWeight in 3359, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=3359)
      0.25 = coord(1/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  5. Meier, P.: Visualisierung von Kommunikationsstrukturen für kollaboratives Wissensmanagement in der Lehre (2006) 0.00
    0.0017165683 = product of:
      0.006866273 = sum of:
        0.006866273 = weight(_text_:information in 3402) [ClassicSimilarity], result of:
          0.006866273 = score(doc=3402,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.0775819 = fieldWeight in 3402, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=3402)
      0.25 = coord(1/4)
    
    Abstract
    Bei elektronisch vermittelten Kommunikationsprozessen im Kontext von kollaborativem Wissensmanagement in der Lehre entstehen sehr rasch komplexe Kommunikationsstrukturen mit reichhaltigen Verknüpfungen zu heterogenen Informationsmaterialien, die mit herkömmlichen Mitteln zu verfolgen und verfügbar zu machen sehr schnell schwierig bis unmöglich wird. Bisherige Formen von Orientierungshilfe werden eher durch konventionelle Mittel der Kommunikation und Interaktion unterstützt, und daher ist in der Regel kaum nachvollziehbar, wie Wissen, insbesondere dessen repräsentierende Konzepte zusammenhängt, sich entwickelt hat oder wo sich Wissenslücken ergeben. Eine fehlende Orientierung über die Kommunikationsprozesse hat u.a. zur Folge, dass (1) das Angebot elektronischer wissenschaftlicher Information nicht genutzt wird; (2) es zu Orientierungslosigkeit und kognitiven Überlastung kommt und damit die Wissensproduktion gehemmt wird; (3) Wissenslücken nicht aufgezeigt werden und somit in weiteren Diskursen nicht geschlossen werden können; (4) eine Unterstützung für die Moderation fehlt, um effizient Ursachen für Störungen in den Lernprozessen und Konflikten innerhalb der Gruppen zu erkennen; (5) die grundlegende Basis fehlt, um typische Fragen von Benutzern im Umgang mit einem kollaborativen Wissensmanagementsystem in der Lehre effizient beantworten zu können. In der vorliegenden Arbeit wird ein Konzept zur Visualisierung von Kommunikationsstrukturen vorgestellt, das zum Ziel hat, eine effiziente und effektive Orientierungs- und Navigationshilfe für ein kollaboratives Wissensmanagementsystem in der Lehre bereitzustellen. Dabei sollen typische Orientierungsfragen der Benutzer und der Moderation effizient beantwortet werden können. Das entwickelte Gesamtkonzept wurde in das Visualisierungssystem K3Vis umgesetzt und damit dessen Machbarkeit überprüft. K3Vis ist im Forschungsprojekt K3 integriert und steht für den produktiven Einsatz zur Verfügung. K3 steht für Kooperation, Kommunikation und InformationsKompetenz und ist ein von der Konstanzer Informationswissenschaft initiiertes Projekt im Kontext des kollaborativen Wissensmanagements in der Lehre. Im Rahmen dieser Arbeit wurden alle historischen, von den Studierenden kollaborativ erarbeiteten Arbeitsaufträge im Detail analysiert und dabei symptomatische Muster in Kommunikationsstrukturen ermittelt, die bei der Bewertung und der Moderation des Diskursverlaufs hilfreich sein können. An konkreten, "produktiven" Beispielen werden diese Diagnosemöglichkeiten anhand von Abbildungen diskutiert.
  6. Schönauer, S.: Wissensmanagement im Fokus kommunikativer Prozesse (2003) 0.00
    0.0017165683 = product of:
      0.006866273 = sum of:
        0.006866273 = weight(_text_:information in 3407) [ClassicSimilarity], result of:
          0.006866273 = score(doc=3407,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.0775819 = fieldWeight in 3407, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=3407)
      0.25 = coord(1/4)
    
    Abstract
    Der Untersuchungsgegenstand dieser Arbeit umfasst sowohl die theoretischen Konzepte zum Management von Wissen, als auch die Möglichkeit der Integration neuer Informations- und Kommunikationstechnologien in den Prozess des Wissensmanagements. Da eine kritische Betrachtung von Wissensmanagementkonzepten ohne der grundsätzlichen Darstellung des ökonomischen Umfeldes, sowie der Klärung der Frage, welche Faktoren die Entstehung von Wissen beeinflussen nicht möglich ist, werden im Rahmen dieser Arbeit auch diese Aspekte betrachtet. In Bezug auf die Integration neuer Informations- und Kommunikationstechnologien müssen neben den grundsätzlichen Charakteristika dieser Technologien auch die Bedeutung von Kommunikation und Information im Kontext des ökonomischen Systems, als auch im Kontext von Wissen untersucht werden. Aus der grundsätzlichen Darstellung der Zusammenhänge von Kommunikation und Wissen und der Bedeutung von Wissen für die Wirtschaft lassen sich einige grundlegende Anforderungen an das Management von Wissen stellen, anhand derer das Wissensmanagement untersucht wird. Eine Analyse der Charakteristika neuer Informations- und Kommunikationstechnologien und der Bedeutung von Kommunikation für die Wissensgenerierung können Hinweise darauf geben, welche Wissensmanagementkonzepte dem Untersuchungsgegenstand Wissen gerecht werden und welche Relevanz neue Informations- und Kommunikationstechnologien im Kontext von Wissensmanagement haben.
  7. Brocke, J. vom: Referenzmodellierung : Gestaltung und Verteilung von Konstruktionsprozessen (2003) 0.00
    0.0017165683 = product of:
      0.006866273 = sum of:
        0.006866273 = weight(_text_:information in 3414) [ClassicSimilarity], result of:
          0.006866273 = score(doc=3414,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.0775819 = fieldWeight in 3414, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=3414)
      0.25 = coord(1/4)
    
    Series
    Advances in information systems and management science; 4
  8. Csákány, B.: Vom Zettelkatalog zum Volltext : über die Entwicklung und Funktion des Kataloges am Beispiel der Österreichischen Nationalbibliothek (2012) 0.00
    0.0017165683 = product of:
      0.006866273 = sum of:
        0.006866273 = weight(_text_:information in 600) [ClassicSimilarity], result of:
          0.006866273 = score(doc=600,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.0775819 = fieldWeight in 600, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=600)
      0.25 = coord(1/4)
    
    Footnote
    Wien, Univ., Lehrgang Library and Information Studies, Master-Thesis, 2012.
  9. Schaffner, V.: FRBR in MAB2 und Primo - ein kafkaesker Prozess? : Möglichkeiten der FRBRisierung von MAB2-Datensätzen in Primo exemplarisch dargestellt an Datensätzen zu Franz Kafkas "Der Process" (2011) 0.00
    0.0017165683 = product of:
      0.006866273 = sum of:
        0.006866273 = weight(_text_:information in 907) [ClassicSimilarity], result of:
          0.006866273 = score(doc=907,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.0775819 = fieldWeight in 907, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=907)
      0.25 = coord(1/4)
    
    Content
    Master Thesis im Rahmen des Universitätslehrganges Library and Information Studies MSc an der Universität Wien in Kooperation mit der Österreichischen Nationalbibliothek. Vgl. auch: http://eprints.rclis.org/16193/1/Master%20Thesis_Schaffner%20Verena.pdf.
  10. Frommeyer, J.: Zeitbegriffe und Zeitcodierungen in allgemeinbibliographischen Datenbanken : eine Analyse von RSWK, LCSH und RAMEAU sowie Entwicklung eines theoretischen Modells für ein Zeitretrieval (2003) 0.00
    0.0015172462 = product of:
      0.006068985 = sum of:
        0.006068985 = weight(_text_:information in 2203) [ClassicSimilarity], result of:
          0.006068985 = score(doc=2203,freq=4.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.068573356 = fieldWeight in 2203, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2203)
      0.25 = coord(1/4)
    
    RSWK
    Information Retrieval / Zeitraum (21)
    Subject
    Information Retrieval / Zeitraum (21)
  11. Artemenko, O.; Shramko, M.: Entwicklung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2005) 0.00
    0.0015019972 = product of:
      0.006007989 = sum of:
        0.006007989 = weight(_text_:information in 572) [ClassicSimilarity], result of:
          0.006007989 = score(doc=572,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.06788416 = fieldWeight in 572, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
      0.25 = coord(1/4)
    
    Abstract
    Mit der Verbreitung des Internets vermehrt sich die Menge der im World Wide Web verfügbaren Dokumente. Die Gewährleistung eines effizienten Zugangs zu gewünschten Informationen für die Internetbenutzer wird zu einer großen Herausforderung an die moderne Informationsgesellschaft. Eine Vielzahl von Werkzeugen wird bereits eingesetzt, um den Nutzern die Orientierung in der wachsenden Informationsflut zu erleichtern. Allerdings stellt die enorme Menge an unstrukturierten und verteilten Informationen nicht die einzige Schwierigkeit dar, die bei der Entwicklung von Werkzeugen dieser Art zu bewältigen ist. Die zunehmende Vielsprachigkeit von Web-Inhalten resultiert in dem Bedarf an Sprachidentifikations-Software, die Sprache/en von elektronischen Dokumenten zwecks gezielter Weiterverarbeitung identifiziert. Solche Sprachidentifizierer können beispielsweise effektiv im Bereich des Multilingualen Information Retrieval eingesetzt werden, da auf den Sprachidentifikationsergebnissen Prozesse der automatischen Indexbildung wie Stemming, Stoppwörterextraktion etc. aufbauen. In der vorliegenden Arbeit wird das neue System "LangIdent" zur Sprachidentifikation von elektronischen Textdokumenten vorgestellt, das in erster Linie für Lehre und Forschung an der Universität Hildesheim verwendet werden soll. "LangIdent" enthält eine Auswahl von gängigen Algorithmen zu der monolingualen Sprachidentifikation, die durch den Benutzer interaktiv ausgewählt und eingestellt werden können. Zusätzlich wurde im System ein neuer Algorithmus implementiert, der die Identifikation von Sprachen, in denen ein multilinguales Dokument verfasst ist, ermöglicht. Die Identifikation beschränkt sich nicht nur auf eine Aufzählung von gefundenen Sprachen, vielmehr wird der Text in monolinguale Abschnitte aufgeteilt, jeweils mit der Angabe der identifizierten Sprache.
  12. Pfeiffer, S.: Entwicklung einer Ontologie für die wissensbasierte Erschließung des ISDC-Repository und die Visualisierung kontextrelevanter semantischer Zusammenhänge (2010) 0.00
    0.0015019972 = product of:
      0.006007989 = sum of:
        0.006007989 = weight(_text_:information in 4658) [ClassicSimilarity], result of:
          0.006007989 = score(doc=4658,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.06788416 = fieldWeight in 4658, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
      0.25 = coord(1/4)
    
    Abstract
    Um die Vernetzung von Daten, Informationen und Wissen imWWWzu verbessern, werden verschiedene Ansätze verfolgt. Neben dem Semantic Web mit seinen verschiedenen Ausprägungen gibt es auch andere Ideen und Konzepte, welche die Verknüpfung von Wissen unterstützen. Foren, soziale Netzwerke und Wikis sind eine Möglichkeit des Wissensaustausches. In Wikis wird Wissen in Form von Artikeln gebündelt, um es so einer breiten Masse zur Verfügung zu stellen. Hier angebotene Informationen sollten jedoch kritisch hinterfragt werden, da die Autoren der Artikel in den meisten Fällen keine Verantwortung für die dort veröffentlichten Inhalte übernehmen müssen. Ein anderer Weg Wissen zu vernetzen bietet das Web of Linked Data. Hierbei werden strukturierte Daten des WWWs durch Verweise auf andere Datenquellen miteinander verbunden. Der Nutzer wird so im Zuge der Suche auf themenverwandte und verlinkte Datenquellen verwiesen. Die geowissenschaftlichen Metadaten mit ihren Inhalten und Beziehungen untereinander, die beim GFZ unter anderem im Information System and Data Center (ISDC) gespeichert sind, sollen als Ontologie in dieser Arbeit mit den Sprachkonstrukten von OWL modelliert werden. Diese Ontologie soll die Repräsentation und Suche von ISDC-spezifischem Domänenwissen durch die semantische Vernetzung persistenter ISDC-Metadaten entscheidend verbessern. Die in dieser Arbeit aufgezeigten Modellierungsmöglichkeiten, zunächst mit der Extensible Markup Language (XML) und später mit OWL, bilden die existierenden Metadatenbestände auf einer semantischen Ebene ab (siehe Abbildung 2). Durch die definierte Nutzung der Semantik, die in OWL vorhanden ist, kann mittels Maschinen ein Mehrwert aus den Metadaten gewonnen und dem Nutzer zur Verfügung gestellt werden. Geowissenschaftliche Informationen, Daten und Wissen können in semantische Zusammenhänge gebracht und verständlich repräsentiert werden. Unterstützende Informationen können ebenfalls problemlos in die Ontologie eingebunden werden. Dazu gehören z.B. Bilder zu den im ISDC gespeicherten Instrumenten, Plattformen oder Personen. Suchanfragen bezüglich geowissenschaftlicher Phänomene können auch ohne Expertenwissen über Zusammenhänge und Begriffe gestellt und beantwortet werden. Die Informationsrecherche und -aufbereitung gewinnt an Qualität und nutzt die existierenden Ressourcen im vollen Umfang.
  13. Moustafid, Y. El: Semantic Web Techniken für E-Learning (2003) 0.00
    0.0012874262 = product of:
      0.005149705 = sum of:
        0.005149705 = weight(_text_:information in 585) [ClassicSimilarity], result of:
          0.005149705 = score(doc=585,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.058186423 = fieldWeight in 585, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=585)
      0.25 = coord(1/4)
    
    Abstract
    Die vorliegende Arbeit versucht, das Thema "Topic Maps" von verschiedenen Perspektiven zu betrachten. "Topic Maps" sind geordnete Wissensnetze. Sie stellen ein Hilfsmittel dar, um sich in der immer größer werdenden Informationsvielfalt zurechtzufinden und beim Navigieren trotz einer möglichen Informationsüberflutung die Übersicht zu behalten. Wie ein Stichwortverzeichnis in einem guten Fachbuch, helfen sie, die genau gesuchte Information zu finden. Die Tatsache, dass elektronische Informationen in größerem Umfang als die Seiten eines Buches vorliegen und auf heterogenen Plattformen gespeichert sind, zieht die Konsequenz mit sich, dass Topic Maps nicht nur aus einer Liste alphabetisch sortierter Stichworte bestehen. Vielmehr werden mit Hilfe von Topic Maps logische Konzepte entworfen, die Wissensnetze semantisch modellieren. In Zusammenhang mit Topic Maps spricht Tim Berner-Lee von der dritten Revolution des Internets. Die XTM-Arbeitsgruppe wirbt sogar mit dem Slogan "Das GPS des Web". So wie eine Landkarte eine schematische Sicht auf eine reale Landschaft ermöglicht und bestimmte Merkmale der Landschaft (z.B. Städte, Straßen, Flüsse) markiert, sind Topic Map in der Lage wichtige Merkmale eines Informationsbestandes festzuhalten und in Bezug zueinander zu setzen. So wie ein GPS-Empfänger die eigene Position auf der Karte feststellt, kann eine Topic Map die Orientierung in einer virtuellen Welt vernetzter Dokumente herstellen. Das klingt etwas exotisch, hat jedoch durchaus praktische und sehr weit gefächerte Anwendungen.

Years

Types