Search (24 results, page 1 of 2)

  • × type_ss:"x"
  • × theme_ss:"Wissensrepräsentation"
  1. Beßler, S.: Wissensrepräsentation musealer Bestände mittels semantischer Netze : Analyse und Annotation eines Teilbestands des Haus der Geschichte der BRD in Bonn (2010) 0.05
    0.051193573 = product of:
      0.17064524 = sum of:
        0.024936043 = weight(_text_:und in 4024) [ClassicSimilarity], result of:
          0.024936043 = score(doc=4024,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.46462005 = fieldWeight in 4024, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4024)
        0.05128121 = weight(_text_:geschichte in 4024) [ClassicSimilarity], result of:
          0.05128121 = score(doc=4024,freq=4.0), product of:
            0.11508996 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.024215192 = queryNorm
            0.445575 = fieldWeight in 4024, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.046875 = fieldNorm(doc=4024)
        0.024936043 = weight(_text_:und in 4024) [ClassicSimilarity], result of:
          0.024936043 = score(doc=4024,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.46462005 = fieldWeight in 4024, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4024)
        0.019619841 = weight(_text_:der in 4024) [ClassicSimilarity], result of:
          0.019619841 = score(doc=4024,freq=12.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.36271852 = fieldWeight in 4024, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4024)
        0.024936043 = weight(_text_:und in 4024) [ClassicSimilarity], result of:
          0.024936043 = score(doc=4024,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.46462005 = fieldWeight in 4024, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4024)
        0.024936043 = weight(_text_:und in 4024) [ClassicSimilarity], result of:
          0.024936043 = score(doc=4024,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.46462005 = fieldWeight in 4024, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4024)
      0.3 = coord(6/20)
    
    Abstract
    Semantische Netze unterstützen den Suchvorgang im Information Retrieval. Über ihre vielfältigen Relationen und Inferenzen unterstützen sie den Anwender und helfen Daten im Kontext zu präsentieren und zu erfassen. Die Relationen ermöglichen Suchanfragen die große Treffermengen produzieren zu verfeinern und so Treffermengen zu erreichen die möglichst genau das enthalten was gesucht wurde. Es wird, anhand eines Ausschnitts des Datenbestands des Haus der Geschichte der Bundesrepublik Deutschland in Bonn, aufgezeigt wie bestehende Datenbestände in semantische Netze überführt werden können und wie diese anschließend für das Retrieval eingesetzt werden können. Für die Modellierung des semantischen Netz wird die Open Source Software Protégé in den Versionen 3.4.4. und 4.1_beta eingesetzt, die Möglichkeiten des Retrieval werden anhand der Abfragesprachen DL Query und SPARQL sowie anhand der Software Ontology Browser und OntoGraf erläutert.
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
  2. Bierbach, P.: Wissensrepräsentation - Gegenstände und Begriffe : Bedingungen des Antinomieproblems bei Frege und Chancen des Begriffssystems bei Lambert (2001) 0.05
    0.05062662 = product of:
      0.1446475 = sum of:
        0.015770938 = weight(_text_:und in 4498) [ClassicSimilarity], result of:
          0.015770938 = score(doc=4498,freq=18.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.29385152 = fieldWeight in 4498, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4498)
        0.034187473 = weight(_text_:geschichte in 4498) [ClassicSimilarity], result of:
          0.034187473 = score(doc=4498,freq=4.0), product of:
            0.11508996 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.024215192 = queryNorm
            0.29705 = fieldWeight in 4498, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.03125 = fieldNorm(doc=4498)
        0.015770938 = weight(_text_:und in 4498) [ClassicSimilarity], result of:
          0.015770938 = score(doc=4498,freq=18.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.29385152 = fieldWeight in 4498, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4498)
        0.021359377 = weight(_text_:der in 4498) [ClassicSimilarity], result of:
          0.021359377 = score(doc=4498,freq=32.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.3948779 = fieldWeight in 4498, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4498)
        0.015770938 = weight(_text_:und in 4498) [ClassicSimilarity], result of:
          0.015770938 = score(doc=4498,freq=18.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.29385152 = fieldWeight in 4498, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4498)
        0.026016891 = product of:
          0.052033782 = sum of:
            0.052033782 = weight(_text_:philosophie in 4498) [ClassicSimilarity], result of:
              0.052033782 = score(doc=4498,freq=6.0), product of:
                0.12829916 = queryWeight, product of:
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.024215192 = queryNorm
                0.40556604 = fieldWeight in 4498, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4498)
          0.5 = coord(1/2)
        0.015770938 = weight(_text_:und in 4498) [ClassicSimilarity], result of:
          0.015770938 = score(doc=4498,freq=18.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.29385152 = fieldWeight in 4498, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4498)
      0.35 = coord(7/20)
    
    Abstract
    Die auf Basis vernetzter Computer realisierbare Möglichkeit einer universalen Enzyklopädie führt aufgrund der dabei technisch notwendigen Reduktion auf nur eine Sorte Repräsentanten zu Systemen, bei denen entweder nur Gegenstände repräsentiert werden, die auch Begriffe vertreten, oder nur Begriffe, die auch Gegenstände vertreten. In der Dissertation werden als Beispiele solcher Repräsentationssysteme die logischen Systeme von Gottlob Frege und Johann Heinrich Lambert untersucht. Freges System, basierend auf der Annahme der Objektivität von Bedeutungen, war durch die Nachweisbarkeit einer Antinomie gescheitert, weshalb von Philosophen im 20. Jahrhundert die Existenz einer objektiven Bedeutung von Ausdrücken und die Übersetzbarkeit der Gedanken aus den natürlichen Sprachen in eine formale Sprache in Frage gestellt wurde. In der Dissertation wird nachgewiesen, daß diese Konsequenz voreilig war und daß die Antinomie auch bei Annahme der Objektivität von Wissen erst durch zwei Zusatzforderungen in Freges Logik ausgelöst wird: die eineindeutige Zuordnung eines Gegenstands zu jedem Begriff sowie die scharfen Begrenzung der Begriffe, die zur Abgeschlossenheit des Systems zwingt. Als Alternative wird das Begriffssystem Lamberts diskutiert, bei dem jeder Gegenstand durch einen Begriff und gleichwertig durch Gesamtheiten von Begriffen vertreten wird und Begriffe durch Gesamtheiten von Begriffen ersetzbar sind. Beide die Antinomie auslösenden Bedingungen sind hier nicht vorhanden, zugleich ist die fortschreitende Entwicklung von Wissen repräsentierbar. Durch die mengentheoretische Rekonstruktion des Begriffssystems Lamberts in der Dissertation wird dessen praktische Nutzbarkeit gezeigt. Resultat der Dissertation ist der Nachweis, daß es Repräsentationssysteme gibt, die nicht auf die für die Prüfung der Verbindlichkeit der Einträge in die Enzyklopädie notwendige Annahme der Verobjektivierbarkeit von Wissen verzichten müssen, weil ihnen nicht jene die Antinomie auslösenden Voraussetzungen zugrunde liegen.
    Content
    Dissertation zur Erlangung des Grades eines Doctor philosophiae (Dr. phil.) vorgelegt an der Philosophischen Fakultät der Martin-Luther-Universität Halle-Wittenberg verteidigt am 11.07.2001. Vgl.: http://sundoc.bibliothek.uni-halle.de/diss-online/01/01H114/.
    Field
    Philosophie
    Imprint
    Halle-Wittenberg : Fachbereich Geschichte, Philosophie und Sozialwissenschaften, Fachbereich Geschichte, Philosophie und Sozialwissenschaften
  3. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.04
    0.038032074 = product of:
      0.19016036 = sum of:
        0.025640097 = product of:
          0.076920286 = sum of:
            0.076920286 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.076920286 = score(doc=701,freq=2.0), product of:
                0.20529667 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024215192 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.076920286 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.076920286 = score(doc=701,freq=2.0), product of:
            0.20529667 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024215192 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.010679688 = weight(_text_:der in 701) [ClassicSimilarity], result of:
          0.010679688 = score(doc=701,freq=8.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.19743896 = fieldWeight in 701, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.076920286 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.076920286 = score(doc=701,freq=2.0), product of:
            0.20529667 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024215192 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.2 = coord(4/20)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
    Footnote
    Zur Erlangung des akademischen Grades eines Doktors der Wirtschaftswissenschaften (Dr. rer. pol.) von der Fakultaet fuer Wirtschaftswissenschaften der Universitaet Fridericiana zu Karlsruhe genehmigte Dissertation.
    Imprint
    Karlsruhe : Fakultaet fuer Wirtschaftswissenschaften der Universitaet Fridericiana zu Karlsruhe
  4. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.04
    0.03648053 = product of:
      0.24320352 = sum of:
        0.025640097 = product of:
          0.076920286 = sum of:
            0.076920286 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.076920286 = score(doc=5820,freq=2.0), product of:
                0.20529667 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024215192 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.10878171 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.10878171 = score(doc=5820,freq=4.0), product of:
            0.20529667 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024215192 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.10878171 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.10878171 = score(doc=5820,freq=4.0), product of:
            0.20529667 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024215192 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.15 = coord(3/20)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  5. Müller, T.: Wissensrepräsentation mit semantischen Netzen im Bereich Luftfahrt (2006) 0.03
    0.0324493 = product of:
      0.10816433 = sum of:
        0.019713672 = weight(_text_:und in 1670) [ClassicSimilarity], result of:
          0.019713672 = score(doc=1670,freq=18.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3673144 = fieldWeight in 1670, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1670)
        0.019713672 = weight(_text_:und in 1670) [ClassicSimilarity], result of:
          0.019713672 = score(doc=1670,freq=18.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3673144 = fieldWeight in 1670, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1670)
        0.021107588 = weight(_text_:der in 1670) [ClassicSimilarity], result of:
          0.021107588 = score(doc=1670,freq=20.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.390223 = fieldWeight in 1670, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1670)
        0.019713672 = weight(_text_:und in 1670) [ClassicSimilarity], result of:
          0.019713672 = score(doc=1670,freq=18.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3673144 = fieldWeight in 1670, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1670)
        0.019713672 = weight(_text_:und in 1670) [ClassicSimilarity], result of:
          0.019713672 = score(doc=1670,freq=18.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3673144 = fieldWeight in 1670, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1670)
        0.00820206 = product of:
          0.01640412 = sum of:
            0.01640412 = weight(_text_:22 in 1670) [ClassicSimilarity], result of:
              0.01640412 = score(doc=1670,freq=2.0), product of:
                0.08479747 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024215192 = queryNorm
                0.19345059 = fieldWeight in 1670, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1670)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Abstract
    Es ist ein semantisches Netz für den Gegenstandsbereich Luftfahrt modelliert worden, welches Unternehmensinformationen, Organisationen, Fluglinien, Flughäfen, etc. enthält, Diese sind 10 Hauptkategorien zugeordnet worden, die untergliedert nach Facetten sind. Die Begriffe des Gegenstandsbereiches sind mit 23 unterschiedlichen Relationen verknüpft worden (Z. B.: 'hat Standort in', bietet an, 'ist Homebase von', etc). Der Schwerpunkt der Betrachtung liegt auf dem Unterschied zwischen den drei klassischen Standardrelationen und den zusätzlich eingerichteten Relationen, bezüglich ihrem Nutzen für ein effizientes Retrieval. Die angelegten Kategorien und Relationen sind sowohl für eine kognitive als auch für eine maschinelle Verarbeitung geeignet.
    Das Ziel der vorliegenden Arbeit ist es, ein Modell für ein Informationssystems zu erstellen und die Voraussetzungen und Aspekte zu betrachten, die notwendig sind, um Einsichten in die begrifflichen Zusammenhänge des Gegenstandsbereiches Luftfahrt zu erlangen. Der Ansatz, der hier erläutert wird, plädiert für die Konstruktion einer begrifflichen Wissensstruktur in Form eines semantischen Netzes. Ausgangspunkt dieser Überlegungen ist die Auffassung, daß zwar das kontrollierte Vokabular eines Thesaurus mit seiner Verweisstruktur vielfältiges Wissen enthält, das aber aufgrund der drei klassischen Standardrelationen nur unzureichend repräsentiert und damit auch nur beschränkt zugänglich ist. Es wird erläutert, welche Vorteile eine Erweiterung der drei Thesaurusrelationen erbringen kann und in welcher Funktion die Relationen bei der Formulierung der Suchanfrage unterstützend sein können. Gezeigt wird, wie die Begriffstrukturen eines semantischen Netzes deutlicher hervortreten, wenn bei der Erstellung einer Wissensstruktur eines Gegenstandsbereiches Kategorien zugrunde gelegt werden und welche Gestaltungsprinzipien den Suchprozeß unterstützen können. Dazu werden die Voraussetzungen erörtert, die garantieren, daß komplexe Suchanfragen (erfolgreich) geleistet werden können und zu präzisen Treffermengen führen.
    Date
    26. 9.2006 21:00:22
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  6. Pichler, R.: Annäherung an die Bildsprache : Ontologien als Hilfsmittel für Bilderschliessung und Bildrecherche in Kunstbilddatenbanken (2007) 0.03
    0.030234005 = product of:
      0.12093602 = sum of:
        0.024936043 = weight(_text_:und in 4821) [ClassicSimilarity], result of:
          0.024936043 = score(doc=4821,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.46462005 = fieldWeight in 4821, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4821)
        0.024936043 = weight(_text_:und in 4821) [ClassicSimilarity], result of:
          0.024936043 = score(doc=4821,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.46462005 = fieldWeight in 4821, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4821)
        0.02119185 = weight(_text_:der in 4821) [ClassicSimilarity], result of:
          0.02119185 = score(doc=4821,freq=14.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.3917808 = fieldWeight in 4821, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4821)
        0.024936043 = weight(_text_:und in 4821) [ClassicSimilarity], result of:
          0.024936043 = score(doc=4821,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.46462005 = fieldWeight in 4821, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4821)
        0.024936043 = weight(_text_:und in 4821) [ClassicSimilarity], result of:
          0.024936043 = score(doc=4821,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.46462005 = fieldWeight in 4821, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4821)
      0.25 = coord(5/20)
    
    Abstract
    Der grundsätzliche Unterschied zwischen der verbalen Sprache und der so genannten Bildsprache führt zu erheblichen Schwierigkeiten bei der Bilderschliessung und der Bildrecherche. Die heute übliche inhaltliche Bilderschliessung mit einzelnen Schlagwörtern ist häufig unbefriedigend, insbesondere was die Erschliessung der verschiedenen Bildbedeutungen und -wirkungen betrifft. Um eine Annäherung an die Bildsprache erreichen zu können, wird in der vorliegenden Arbeit vorgeschlagen, Bilder als komplexe Zeichensysteme aus Motiv- und Bildelementen, Bedeutungen und Wirkungen zu verstehen. Diese Zeichensysteme werden in Ontologien festgehalten, womit die Relationen zwischen den verschiedenen Bildzeichen aufgezeigt werden. Dabei wird untersucht, inwiefern mit solchen Ontologien Bildbedeutungen und -wirkungen erschlossen werden können und wie mit Ontologien sowohl eine einheitliche als auch eine umfassende Bilderschliessung realisiert werden kann, die auch für die Bildrecherche grosse Vorteile bietet.
    Content
    Diese Publikation entstand im Rahmen einer Diplomarbeit zum Abschluss als dipl. Informations- und Dokumentationsspezialist FH. Vgl. unter: http://www.fh-htwchur.ch/uploads/media/CSI_34_Frei.pdf.
    Imprint
    Chur : Hochschule für Technik und Wirtschaft
  7. Moustafid, Y. El: Semantic Web Techniken für E-Learning (2003) 0.03
    0.029600022 = product of:
      0.098666735 = sum of:
        0.01625631 = weight(_text_:und in 585) [ClassicSimilarity], result of:
          0.01625631 = score(doc=585,freq=34.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3028952 = fieldWeight in 585, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=585)
        0.018130645 = weight(_text_:geschichte in 585) [ClassicSimilarity], result of:
          0.018130645 = score(doc=585,freq=2.0), product of:
            0.11508996 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.024215192 = queryNorm
            0.15753455 = fieldWeight in 585, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.0234375 = fieldNorm(doc=585)
        0.01625631 = weight(_text_:und in 585) [ClassicSimilarity], result of:
          0.01625631 = score(doc=585,freq=34.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3028952 = fieldWeight in 585, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=585)
        0.015510848 = weight(_text_:der in 585) [ClassicSimilarity], result of:
          0.015510848 = score(doc=585,freq=30.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.2867542 = fieldWeight in 585, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=585)
        0.01625631 = weight(_text_:und in 585) [ClassicSimilarity], result of:
          0.01625631 = score(doc=585,freq=34.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3028952 = fieldWeight in 585, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=585)
        0.01625631 = weight(_text_:und in 585) [ClassicSimilarity], result of:
          0.01625631 = score(doc=585,freq=34.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3028952 = fieldWeight in 585, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=585)
      0.3 = coord(6/20)
    
    Abstract
    Die vorliegende Arbeit versucht, das Thema "Topic Maps" von verschiedenen Perspektiven zu betrachten. "Topic Maps" sind geordnete Wissensnetze. Sie stellen ein Hilfsmittel dar, um sich in der immer größer werdenden Informationsvielfalt zurechtzufinden und beim Navigieren trotz einer möglichen Informationsüberflutung die Übersicht zu behalten. Wie ein Stichwortverzeichnis in einem guten Fachbuch, helfen sie, die genau gesuchte Information zu finden. Die Tatsache, dass elektronische Informationen in größerem Umfang als die Seiten eines Buches vorliegen und auf heterogenen Plattformen gespeichert sind, zieht die Konsequenz mit sich, dass Topic Maps nicht nur aus einer Liste alphabetisch sortierter Stichworte bestehen. Vielmehr werden mit Hilfe von Topic Maps logische Konzepte entworfen, die Wissensnetze semantisch modellieren. In Zusammenhang mit Topic Maps spricht Tim Berner-Lee von der dritten Revolution des Internets. Die XTM-Arbeitsgruppe wirbt sogar mit dem Slogan "Das GPS des Web". So wie eine Landkarte eine schematische Sicht auf eine reale Landschaft ermöglicht und bestimmte Merkmale der Landschaft (z.B. Städte, Straßen, Flüsse) markiert, sind Topic Map in der Lage wichtige Merkmale eines Informationsbestandes festzuhalten und in Bezug zueinander zu setzen. So wie ein GPS-Empfänger die eigene Position auf der Karte feststellt, kann eine Topic Map die Orientierung in einer virtuellen Welt vernetzter Dokumente herstellen. Das klingt etwas exotisch, hat jedoch durchaus praktische und sehr weit gefächerte Anwendungen.
    In dieser Arbeit wurde zuerst der Übergang von Suchmaschinen zu einem semantischen Web beschrieben. Im zweiten Kapitel wurden die Topic Maps ausführlicher behandelt. Angefangen bei der Geschichte von Topic Maps, über die Entwurfsziele bis hin zu einem XTM-Tutorial . In diesem Tutorial wurden verschiedene Beispiele durchgeführt und die Lineare Topic Map von Ontopia vorgestellt. Abschließend wurde anhand eines Beispiels eine mögliche Realisierung von Topic Maps mit HTML. Das dritte Kapitel wurde den TopicMaps-Tools und Anfragesprachen gewidmet. Es wurden kommerzielle sowie freiverfügbare Tools vorgestellt und miteinander verglichen. Danach wurden die beiden Anfragesprachen Tolog und TMQL eingeführt. Im vierten Kapitel wurden die beiden Einsatzgebiete von Topic Maps behandelt. Das sind zum einen die Webkataloge und die Suchmaschinen. Zum anderen ist es möglich, auch im Rahmen vom E-Learning von dem Konzept der Topic Maps zu profitieren. In diesem Zusammenhang wurde erst der Omnigator von Ontopia vorgestellt. Dann wurde das im Laufe dieser Arbeit entwickelte Topic Maps Tool E-Learning -Tracker ausgeführt und erklärt.
    Im fünften Kapitel wurden die neuen Suchmaschinen, die ausschließlich auf dem Konzept der Topic Maps basieren und diese Technik auch tatsächlich verwenden, angesprochen und mit Beispielanfragen erläutert. In dieser Diplomarbeit wurden wegen dem großen Einsatzpotential von Topic Maps, viele Gebiete angesprochen, angefangen bei den Webkatalogen über Suchmaschinen bis hin zum E-Learning. Mit XML Topic Maps gibt man den Beziehungen zwischen den verschiedenen Topics die Chance sich auszuzeichnen. Damit erreicht die Suche eine neue, bis dahin unmögliche Qualität. Mit einer Topic Map lassen sich beispielsweise die klassischen Navigationselemente technischer Dokumentation (Inhalt, Index, Glossar etc.) in einheitlicher Weise beschreiben; eine andere Topic Map könnte die inhaltliche Vernetzung von Artikeln in einem Lexikon ausdrücken (z.B. Person A wurde geboren in Stadt B, B liegt in Land C, Oper D wurde komponiert von A, Person E war Zeitgenosse von A) und für "siehe auch"-Verweise sorgen (andere Werke dieses Komponisten, andere Städte in diesem Land etc.). Es klingt wie die Lösung aller Suchprobleme. Allerdings nur in der Theorie. Denn Tools, die in der Lage sind, das Wissen oder die Riesendaten in Topicmaps automatisch zu generieren, sind noch Mangelware, was die Ausbreitung von Topic Maps hemmt. Der Aufbau solcher Netze erfordert sehr viel Zeit und sehr viel "Handarbeit" - und damit auch viel Geld, was viele Firmen davon abhält Topic Maps zu benutzen.
    Trotz alledem bleibt diese Technik keine graue Theorie. Denn obwohl es spürbare Schwierigkeiten auf dem Weg zur Popularität gibt, wird sie eines Tages das Web beherrschen. Microsoft hat sogar versucht, einige Leute und Entwickler von Topic Maps abzuwerben, was ihr missglückt ist. Dies ist als ein Hinweis zu verstehen, dass diese Technik Interesse bei einigen Herrschern in der Informatikindustrie.
    Content
    Diplomarbeit, Fachbereich Informatik, AG Integrierte Kommunikationssysteme der Universität Kaiserslautern
  8. Stollberg, M.: Ontologiebasierte Wissensmodellierung : Verwendung als semantischer Grundbaustein des Semantic Web (2002) 0.03
    0.028681697 = product of:
      0.09560566 = sum of:
        0.014546025 = weight(_text_:und in 4495) [ClassicSimilarity], result of:
          0.014546025 = score(doc=4495,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27102837 = fieldWeight in 4495, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.014546025 = weight(_text_:und in 4495) [ClassicSimilarity], result of:
          0.014546025 = score(doc=4495,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27102837 = fieldWeight in 4495, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.024278315 = weight(_text_:der in 4495) [ClassicSimilarity], result of:
          0.024278315 = score(doc=4495,freq=54.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.44884127 = fieldWeight in 4495, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.014546025 = weight(_text_:und in 4495) [ClassicSimilarity], result of:
          0.014546025 = score(doc=4495,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27102837 = fieldWeight in 4495, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.013143251 = product of:
          0.026286501 = sum of:
            0.026286501 = weight(_text_:philosophie in 4495) [ClassicSimilarity], result of:
              0.026286501 = score(doc=4495,freq=2.0), product of:
                0.12829916 = queryWeight, product of:
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.024215192 = queryNorm
                0.20488444 = fieldWeight in 4495, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4495)
          0.5 = coord(1/2)
        0.014546025 = weight(_text_:und in 4495) [ClassicSimilarity], result of:
          0.014546025 = score(doc=4495,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27102837 = fieldWeight in 4495, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
      0.3 = coord(6/20)
    
    Abstract
    In Kapitel A werden die Grundlagen von Ontologien als Verfahren der Wissensmodellierung erarbeitet. Dazu wird zunächst die definitorische Erfassung von Ontologien erläutert. Zur Erlangung eines fundierten Verständnisses von Wissensmodellierung und der Besonderheiten ontologiebasierter Verfahren ist die Eingliederung dieser in den relevanten wissenschaftlichen Kontext erforderlich. Die in diesem Zusammenhang betrachtete Art der Wissensmodellierung dient vornehmlich als konzeptionelle Grundlage für die Erstellung wissensverarbeitender Computersysteme. Die Entwicklung derartiger Systeme ist das Hauptanliegen der Künstlichen Intelligenz, weshalb eine Positionierung ontologiebasierter Verfahren in derselben vorgenommen wird. Dabei sind vor allem jene Ansätze interessant, auf denen ontologiebasierte Verfahren aufbauen. Zunächst werden daher die grundlegenden theoretischen Aspekte der Wissensrepräsentation erläutert und anschließend daran die Bedeutung von Ontologien im Knowledge Engineering aufgezeigt, um den Verwendungskontext derartiger Verfahren der Wissensmodellierung zu verdeutlichen. Aufbauend darauf werden die spezifischen Eigenschaften ontologiebasierter Verfahren der Wissensmodellierung erörtert, wodurch ein grundlegendes Verständnis dieser Methodik erreicht werden soll.
    Der in Kapitel B behandelte Schwerpunkt ist die Ontologie-Entwicklung. Nach der Erfassung der grundlegenden Charakteristika ontologiebasierter Wissensmodellierung stehen hier die Anforderungen bei der Erstellung einer Ontologie im Vordergrund. Dazu werden die wesentlichen diesbezüglichen Errungenschaften des sogenannten Ontology Engineering erörtert. Es werden zunächst methodologische Ansätze für den Entwicklungsprozess von Ontologien sowie für die einzelnen Aufgabengebiete entwickelter Techniken und Verfahren vorgestellt. Anschließend daran werden Design-Kriterien und ein Ansatz zur Meta-Modellierung besprochen, welche der Qualitätssicherung einer Ontologie dienen sollen. Diese Betrachtungen sollen eine Übersicht über den Erkenntnisstand des Ontology Engineering geben, womit ein wesentlicher Aspekt zur Nutzung ontologiebasierter Verfahren der Wissensmodellierung im Semantic Web abgedeckt wird. Als letzter Aspekt zur Erfassung der Charakteristika ontologiebasierter Wissensmodellierung wird in Kapitel C die Fragestellung bearbeitet, wie Ontologien in Informationssystemen eingesetzt werden können. Dazu werden zunächst die Verwendungsmöglichkeiten von Ontologien identifiziert. Dann werden Anwendungsgebiete von Ontologien vorgestellt, welche zum einen Beispiele für die aufgefundenen Einsatzmöglichkeiten darstellen und zum anderen im Hinblick auf die Untersuchung der Verwendung von Ontologien im Semantic Web grundlegende Aspekte desselben erörtern sollen. Im Anschluss daran werden die wesentlichen softwaretechnischen Herausforderungen besprochen, die sich durch die Verwendung von Ontologien in Informationssystemen ergeben. Damit wird die Erarbeitung der wesentlichen Charakteristika ontologiebasierter Verfahren der Wissensmodellierung als erstem Teil dieser Arbeit abgeschlossen.
    Basierend auf diesen Abhandlungen wird in Kapitel D die Verwendung von Ontologien im Semantic Web behandelt. Dabei ist das Semantic Web nicht als computergestützte Lösung für ein konkretes Anwendungsgebiet zu verstehen, sondern - ähnlich wie existente Web-Technologien - als eine informationstechnische Infrastruktur zur Bereitstellung und Verknüpfung von Applikationen für verschiedene Anwendungsgebiete. Die technologischen Lösungen zur Umsetzung des Semantic Web befinden sich noch in der Entwicklungsphase. Daher werden zunächst die grundlegenden Ideen der Vision des Semantic Web genauer erläutert und das antizipierte Architekturmodell zur Realisierung derselben vorgestellt, wobei insbesondere die darin angestrebte Rolle von Ontologien herausgearbeitet wird. Anschließend daran wird die formale Darstellung von Ontologien durch web-kompatible Sprachen erörtert, wodurch die Verwendung von Ontologien im Semantic Web ermöglicht werden soll. In diesem Zusammenhang sollen ferner die Beweggründe für die Verwendung von Ontologien als bedeutungsdefinierende Konstrukte im Semantic Web verdeutlicht sowie die auftretenden Herausforderungen hinsichtlich der Handhabung von Ontologien aufgezeigt werden. Dazu werden als dritter Aspekt des Kapitels entsprechende Lösungsansätze des Ontologie-Managements diskutiert. Abschließend wird auf die Implikationen für konkrete Anwendungen der Semantic Web - Technologien eingegangen, die aus der Verwendung von Ontologien im Semantic Web resultieren. Zum Abschluss der Ausführungen werden die Ergebnisse der Untersuchung zusammengefasst. Dabei soll auch eine kritische Betrachtung bezüglich der Notwendigkeit semantischer Web-Technologien sowie der Realisierbarkeit der Vision des Semantic Web vorgenommen werden.
    Content
    Magisterarbeit am Institut für Publizistik und Kommunikationswissenschaft, Arbeitsbereich Informationswissenschaft, Fachbereich Philosophie und Sozialwissenschaften, Freie Universität Berlin
    Imprint
    Berlin : Institut für Publizistik und Kommunikationswissenschaft
  9. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2008) 0.03
    0.027206969 = product of:
      0.108827874 = sum of:
        0.022534605 = weight(_text_:und in 2461) [ClassicSimilarity], result of:
          0.022534605 = score(doc=2461,freq=12.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.41987535 = fieldWeight in 2461, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2461)
        0.022534605 = weight(_text_:und in 2461) [ClassicSimilarity], result of:
          0.022534605 = score(doc=2461,freq=12.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.41987535 = fieldWeight in 2461, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2461)
        0.018689455 = weight(_text_:der in 2461) [ClassicSimilarity], result of:
          0.018689455 = score(doc=2461,freq=8.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.34551817 = fieldWeight in 2461, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2461)
        0.022534605 = weight(_text_:und in 2461) [ClassicSimilarity], result of:
          0.022534605 = score(doc=2461,freq=12.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.41987535 = fieldWeight in 2461, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2461)
        0.022534605 = weight(_text_:und in 2461) [ClassicSimilarity], result of:
          0.022534605 = score(doc=2461,freq=12.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.41987535 = fieldWeight in 2461, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2461)
      0.25 = coord(5/20)
    
    Abstract
    Moderne Verfahren des Information Retrieval verlangen nach aussagekräftigen und detailliert relationierten Dokumentationssprachen. Der selektive Transfer einzelner Modellierungsstrategien aus dem Bereich semantischer Technologien für die Gestaltung und Relationierung bestehender Dokumentationssprachen wird diskutiert. Am Beispiel des Gegenstandsbereichs "Theater" der Schlagwortnormdatei wird ein hierarchisch strukturiertes Relationeninventar definiert, welches sowohl hinreichend allgemeine als auch zahlreiche spezifische Relationstypen enthält, welche eine detaillierte und damit funktionale Relationierung des Vokabulars ermöglichen. Die Relationierung des Gegenstandsbereichs wird als Ontologie im OWL-Format modelliert. Im Gegensatz zu anderen Ansätzen und Überlegungen zur Schaffung von Relationeninventaren entwickelt der vorgestellte Vorschlag das Relationeninventar aus der Begriffsmenge eines vorgegebenen Gegenstandsbereichs heraus. Das entwickelte Inventar wird als eine hierarchisch strukturierte Taxonomie gestaltet, was einen Zugewinn an Übersichtlichkeit und Funktionalität bringt.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  10. Pfeiffer, S.: Entwicklung einer Ontologie für die wissensbasierte Erschließung des ISDC-Repository und die Visualisierung kontextrelevanter semantischer Zusammenhänge (2010) 0.03
    0.025449786 = product of:
      0.101799145 = sum of:
        0.021079192 = weight(_text_:und in 4658) [ClassicSimilarity], result of:
          0.021079192 = score(doc=4658,freq=42.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.39275742 = fieldWeight in 4658, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
        0.021079192 = weight(_text_:und in 4658) [ClassicSimilarity], result of:
          0.021079192 = score(doc=4658,freq=42.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.39275742 = fieldWeight in 4658, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
        0.017482383 = weight(_text_:der in 4658) [ClassicSimilarity], result of:
          0.017482383 = score(doc=4658,freq=28.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.32320264 = fieldWeight in 4658, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
        0.021079192 = weight(_text_:und in 4658) [ClassicSimilarity], result of:
          0.021079192 = score(doc=4658,freq=42.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.39275742 = fieldWeight in 4658, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
        0.021079192 = weight(_text_:und in 4658) [ClassicSimilarity], result of:
          0.021079192 = score(doc=4658,freq=42.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.39275742 = fieldWeight in 4658, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
      0.25 = coord(5/20)
    
    Abstract
    In der heutigen Zeit sind Informationen jeglicher Art über das World Wide Web (WWW) für eine breite Bevölkerungsschicht zugänglich. Dabei ist es jedoch schwierig die existierenden Dokumente auch so aufzubereiten, dass die Inhalte für Maschinen inhaltlich interpretierbar sind. Das Semantic Web, eine Weiterentwicklung des WWWs, möchte dies ändern, indem es Webinhalte in maschinenverständlichen Formaten anbietet. Dadurch können Automatisierungsprozesse für die Suchanfragenoptimierung und für die Wissensbasenvernetzung eingesetzt werden. Die Web Ontology Language (OWL) ist eine mögliche Sprache, in der Wissen beschrieben und gespeichert werden kann (siehe Kapitel 4 OWL). Das Softwareprodukt Protégé unterstützt den Standard OWL, weshalb ein Großteil der Modellierungsarbeiten in Protégé durchgeführt wurde. Momentan erhält der Nutzer in den meisten Fällen bei der Informationsfindung im Internet lediglich Unterstützung durch eine von Suchmaschinenbetreibern vorgenommene Verschlagwortung des Dokumentinhaltes, d.h. Dokumente können nur nach einem bestimmten Wort oder einer bestimmten Wortgruppe durchsucht werden. Die Ausgabeliste der Suchergebnisse muss dann durch den Nutzer selbst gesichtet und nach Relevanz geordnet werden. Das kann ein sehr zeit- und arbeitsintensiver Prozess sein. Genau hier kann das Semantic Web einen erheblichen Beitrag in der Informationsaufbereitung für den Nutzer leisten, da die Ausgabe der Suchergebnisse bereits einer semantischen Überprüfung und Verknüpfung unterliegt. Deshalb fallen hier nicht relevante Informationsquellen von vornherein bei der Ausgabe heraus, was das Finden von gesuchten Dokumenten und Informationen in einem bestimmten Wissensbereich beschleunigt.
    Um die Vernetzung von Daten, Informationen und Wissen imWWWzu verbessern, werden verschiedene Ansätze verfolgt. Neben dem Semantic Web mit seinen verschiedenen Ausprägungen gibt es auch andere Ideen und Konzepte, welche die Verknüpfung von Wissen unterstützen. Foren, soziale Netzwerke und Wikis sind eine Möglichkeit des Wissensaustausches. In Wikis wird Wissen in Form von Artikeln gebündelt, um es so einer breiten Masse zur Verfügung zu stellen. Hier angebotene Informationen sollten jedoch kritisch hinterfragt werden, da die Autoren der Artikel in den meisten Fällen keine Verantwortung für die dort veröffentlichten Inhalte übernehmen müssen. Ein anderer Weg Wissen zu vernetzen bietet das Web of Linked Data. Hierbei werden strukturierte Daten des WWWs durch Verweise auf andere Datenquellen miteinander verbunden. Der Nutzer wird so im Zuge der Suche auf themenverwandte und verlinkte Datenquellen verwiesen. Die geowissenschaftlichen Metadaten mit ihren Inhalten und Beziehungen untereinander, die beim GFZ unter anderem im Information System and Data Center (ISDC) gespeichert sind, sollen als Ontologie in dieser Arbeit mit den Sprachkonstrukten von OWL modelliert werden. Diese Ontologie soll die Repräsentation und Suche von ISDC-spezifischem Domänenwissen durch die semantische Vernetzung persistenter ISDC-Metadaten entscheidend verbessern. Die in dieser Arbeit aufgezeigten Modellierungsmöglichkeiten, zunächst mit der Extensible Markup Language (XML) und später mit OWL, bilden die existierenden Metadatenbestände auf einer semantischen Ebene ab (siehe Abbildung 2). Durch die definierte Nutzung der Semantik, die in OWL vorhanden ist, kann mittels Maschinen ein Mehrwert aus den Metadaten gewonnen und dem Nutzer zur Verfügung gestellt werden. Geowissenschaftliche Informationen, Daten und Wissen können in semantische Zusammenhänge gebracht und verständlich repräsentiert werden. Unterstützende Informationen können ebenfalls problemlos in die Ontologie eingebunden werden. Dazu gehören z.B. Bilder zu den im ISDC gespeicherten Instrumenten, Plattformen oder Personen. Suchanfragen bezüglich geowissenschaftlicher Phänomene können auch ohne Expertenwissen über Zusammenhänge und Begriffe gestellt und beantwortet werden. Die Informationsrecherche und -aufbereitung gewinnt an Qualität und nutzt die existierenden Ressourcen im vollen Umfang.
  11. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.02
    0.023891333 = product of:
      0.095565334 = sum of:
        0.019669816 = weight(_text_:und in 3359) [ClassicSimilarity], result of:
          0.019669816 = score(doc=3359,freq=28.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.36649725 = fieldWeight in 3359, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3359)
        0.019669816 = weight(_text_:und in 3359) [ClassicSimilarity], result of:
          0.019669816 = score(doc=3359,freq=28.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.36649725 = fieldWeight in 3359, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3359)
        0.01688607 = weight(_text_:der in 3359) [ClassicSimilarity], result of:
          0.01688607 = score(doc=3359,freq=20.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.3121784 = fieldWeight in 3359, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3359)
        0.019669816 = weight(_text_:und in 3359) [ClassicSimilarity], result of:
          0.019669816 = score(doc=3359,freq=28.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.36649725 = fieldWeight in 3359, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3359)
        0.019669816 = weight(_text_:und in 3359) [ClassicSimilarity], result of:
          0.019669816 = score(doc=3359,freq=28.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.36649725 = fieldWeight in 3359, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3359)
      0.25 = coord(5/20)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  12. Haller, S.H.M.: Mappingverfahren zur Wissensorganisation (2002) 0.02
    0.022687258 = product of:
      0.09074903 = sum of:
        0.018586228 = weight(_text_:und in 3406) [ClassicSimilarity], result of:
          0.018586228 = score(doc=3406,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34630734 = fieldWeight in 3406, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3406)
        0.018586228 = weight(_text_:und in 3406) [ClassicSimilarity], result of:
          0.018586228 = score(doc=3406,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34630734 = fieldWeight in 3406, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3406)
        0.018586228 = weight(_text_:und in 3406) [ClassicSimilarity], result of:
          0.018586228 = score(doc=3406,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34630734 = fieldWeight in 3406, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3406)
        0.018586228 = weight(_text_:und in 3406) [ClassicSimilarity], result of:
          0.018586228 = score(doc=3406,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34630734 = fieldWeight in 3406, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3406)
        0.01640412 = product of:
          0.03280824 = sum of:
            0.03280824 = weight(_text_:22 in 3406) [ClassicSimilarity], result of:
              0.03280824 = score(doc=3406,freq=2.0), product of:
                0.08479747 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024215192 = queryNorm
                0.38690117 = fieldWeight in 3406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3406)
          0.5 = coord(1/2)
      0.25 = coord(5/20)
    
    Content
    Diplomarbeit, Freie Universität Berlin / Fachbereich Erziehungswissenschaft und Psychologie / Diplomstudiengang Psychologie; vgl.: http://heikohaller.de/literatur/diplomarbeit/ bzw. www.heikohaller.de/toolvergleich/.
    Date
    30. 5.2010 16:22:35
    Imprint
    Berlin : Freie Universität / Fachbereich Erziehungswissenschaft und Psychologie
  13. Meyer, A.: Begriffsrelationen im Kategoriensystem der Wikipedia : Entwicklung eines Relationeninventars zur kollaborativen Anwendung (2010) 0.02
    0.022673694 = product of:
      0.09069478 = sum of:
        0.018586228 = weight(_text_:und in 4429) [ClassicSimilarity], result of:
          0.018586228 = score(doc=4429,freq=16.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34630734 = fieldWeight in 4429, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4429)
        0.018586228 = weight(_text_:und in 4429) [ClassicSimilarity], result of:
          0.018586228 = score(doc=4429,freq=16.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34630734 = fieldWeight in 4429, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4429)
        0.016349867 = weight(_text_:der in 4429) [ClassicSimilarity], result of:
          0.016349867 = score(doc=4429,freq=12.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.30226544 = fieldWeight in 4429, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4429)
        0.018586228 = weight(_text_:und in 4429) [ClassicSimilarity], result of:
          0.018586228 = score(doc=4429,freq=16.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34630734 = fieldWeight in 4429, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4429)
        0.018586228 = weight(_text_:und in 4429) [ClassicSimilarity], result of:
          0.018586228 = score(doc=4429,freq=16.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34630734 = fieldWeight in 4429, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4429)
      0.25 = coord(5/20)
    
    Abstract
    Neben den bekannten Hyperlinks in Artikeltexten verfügt die Online-Enzyklopädie Wikipedia mit ihrem Kategoriensystem über ein weiteres Mittel zur Herstellung von Relationen zwischen Artikeln. Jeder Artikel ist einer oder mehreren Kategorien zugeordnet, die ihrerseits anderen Kategorien zugeordnet sind. Auf diese Weise entsteht eine systematische Ordnung von Artikeln und Kategorien. Betrachtet man nur die Artikel- und Kategoriennamen sowie diese Relationen, so stellt das Kategoriensystem ein gemeinschaftlich erstelltes Begriffssystem dar, das sämtliche von der Wikipedia abgedeckten Themenbereiche umfasst, jedoch - technisch betrachtet - ausschließlich hierarchische Relationen enthält. Aufgrund des Fehlens eines differenzierten Regelwerks zur Kategorisierung ist das Kategoriensystem derzeit jedoch inkonsistent, daneben sind, bedingt durch das Vorhandensein lediglich eines Relationstyps, viele Relationen wenig aussagekräftig. Dennoch besteht das Potenzial zur Schaffung eines stark und differenziert relationierten Begriffssystems aus dem bestehenden Kategoriensystem heraus. Die vorliegende Arbeit diskutiert die Anwendungsmöglichkeiten eines solchen Begriffssystems und die Option seiner gemeinschaftlichen Entwicklung aus dem bestehenden Vokabular des Kategoriensystems, mithin also der gemeinschaftlichen Relationierung von Begriffen anhand eines differenzierten Relationeninventars. Ausgehend von den Kategorien "Theater" und "Jagd" der deutschsprachigen Wikipedia wird ein hierarchisch strukturiertes Relationeninventar definiert, das sowohl spezifische als auch allgemeine Relationstypen enthält und damit die Möglichkeit zur Übertragung auf andere Gegenstandsbereiche bietet. Sämtliche Artikel- und Kategoriennamen, die unterhalb jener Kategorien erscheinen, werden unter Verwendung der neu entwickelten Relationstypen als Deskriptoren relationiert.
    Footnote
    Video des Vortrags auf der ISI_2011 in Hildesheim (www.eurospider.com/video-podcasts.html) unter: ..\videos\Meyer_ISI_2011.flv.
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
  14. Brumm, A.: Modellierung eines Informationssystems zum Bühnentanz als semantisches Wiki (2010) 0.02
    0.022445817 = product of:
      0.089783266 = sum of:
        0.018399429 = weight(_text_:und in 4025) [ClassicSimilarity], result of:
          0.018399429 = score(doc=4025,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34282678 = fieldWeight in 4025, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4025)
        0.018399429 = weight(_text_:und in 4025) [ClassicSimilarity], result of:
          0.018399429 = score(doc=4025,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34282678 = fieldWeight in 4025, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4025)
        0.016185544 = weight(_text_:der in 4025) [ClassicSimilarity], result of:
          0.016185544 = score(doc=4025,freq=6.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.29922754 = fieldWeight in 4025, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4025)
        0.018399429 = weight(_text_:und in 4025) [ClassicSimilarity], result of:
          0.018399429 = score(doc=4025,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34282678 = fieldWeight in 4025, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4025)
        0.018399429 = weight(_text_:und in 4025) [ClassicSimilarity], result of:
          0.018399429 = score(doc=4025,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34282678 = fieldWeight in 4025, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4025)
      0.25 = coord(5/20)
    
    Abstract
    Es wurde ein Informationssystem zum Bühnentanz modelliert, das der Informierung über konkrete Individuen des Gegenstandsbereichs (insbesondere choreographische Werke und Personen) dienen soll. Dabei wurde auch insbesondere das Ziel verfolgt, Beziehungen zwischen Werken, Personen, Organisationen etc. aufzuzeigen und abfragbar zu machen. Konzipiert wurde das Informationssystem als semantisches Wiki. Neben der Entwicklung eines Inventars an Kategorien und Attributen wurde anhand konkreter Beispiele gezeigt, wie Informationen in einem semantischen Wiki sowohl maschinenverständlich erfasst, als auch dem Benutzer anschaulich präsentiert werden können. Denkbar wäre ein Einsatzbereich des im Grunde eigenständigen Informationssystems auch im Bereich der Erschließung von Tanzsammlungen.
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
  15. Haas, M.: Methoden der künstlichen Intelligenz in betriebswirtschaftlichen Anwendungen (2006) 0.02
    0.021932933 = product of:
      0.087731734 = sum of:
        0.014868983 = weight(_text_:und in 4499) [ClassicSimilarity], result of:
          0.014868983 = score(doc=4499,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27704588 = fieldWeight in 4499, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.014868983 = weight(_text_:und in 4499) [ClassicSimilarity], result of:
          0.014868983 = score(doc=4499,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27704588 = fieldWeight in 4499, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.028255802 = weight(_text_:der in 4499) [ClassicSimilarity], result of:
          0.028255802 = score(doc=4499,freq=14.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.5223744 = fieldWeight in 4499, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.014868983 = weight(_text_:und in 4499) [ClassicSimilarity], result of:
          0.014868983 = score(doc=4499,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27704588 = fieldWeight in 4499, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.014868983 = weight(_text_:und in 4499) [ClassicSimilarity], result of:
          0.014868983 = score(doc=4499,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27704588 = fieldWeight in 4499, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
      0.25 = coord(5/20)
    
    Abstract
    Mit dieser Diplomarbeit soll vor allem ein Überblick über den derzeitigen Stand der Technik der Methoden der Semantischen Netze, der Fuzzy-Logik sowie der regelbasierten Wissensrepräsentation und -verarbeitung gegeben werden. Anhand praktischer Anwendungen wird dargestellt, in welchen Bereichen diese Techniken eingesetzt werden und welcher Nutzen sich hieraus ergibt.
    Content
    Diplomarbeit zur Erlangung des Grades eines Diplom-Wirtschaftsinformatikers (FH) der Hochschule Wismar. Vgl.: http://www.wi.hs-wismar.de/~cleve/vorl/projects/da/DA-FS-Haas.pdf.
  16. Schmude, A.N.: Ontologiebasierte Suche und Navigation in webbasierten Informationssystemen : am Beispiel Bürgerinformationsdienste (2004) 0.02
    0.020880632 = product of:
      0.08352253 = sum of:
        0.018210711 = weight(_text_:und in 4605) [ClassicSimilarity], result of:
          0.018210711 = score(doc=4605,freq=24.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.33931053 = fieldWeight in 4605, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4605)
        0.018210711 = weight(_text_:und in 4605) [ClassicSimilarity], result of:
          0.018210711 = score(doc=4605,freq=24.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.33931053 = fieldWeight in 4605, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4605)
        0.010679688 = weight(_text_:der in 4605) [ClassicSimilarity], result of:
          0.010679688 = score(doc=4605,freq=8.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.19743896 = fieldWeight in 4605, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4605)
        0.018210711 = weight(_text_:und in 4605) [ClassicSimilarity], result of:
          0.018210711 = score(doc=4605,freq=24.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.33931053 = fieldWeight in 4605, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4605)
        0.018210711 = weight(_text_:und in 4605) [ClassicSimilarity], result of:
          0.018210711 = score(doc=4605,freq=24.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.33931053 = fieldWeight in 4605, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4605)
      0.25 = coord(5/20)
    
    Abstract
    Webbasierte Informationssysteme werden heute von einer Vielzahl unterschiedlicher Organisationen angeboten, mit ganz verschiedenen Zielsetzungen. Die technischen Herausforderungen bzgl. Datenhaltung, Pflege der Informationen und Anbindung an das Internet scheinen gelöst. Das Auffinden bestimmter Informationen stellt für viele Nutzer aber dennoch eine große Herausforderung dar. Das gilt für das WWW (WorldWide Web ) als Ganzes, wie auch für viele einzelne webbasierte Informationssysteme. Grund dafür sind im Wesentlichen die nach wie vor ungenügenden Benutzungs-schnittstellen. Heutig gängige webbasierte Informationssysteme bieten Nutzern meist neben einer Navigation die Möglichkeit, Informationen durch das Absenden einer Suchanfrage zu suchen. Beide Strategien, also die Suche und die Navigation, weisen jeweils eigene Probleme in der Umsetzung auf, die es verhindern, dass Nutzer die gewünschte Information einfach auffinden können. Oftmals werden Suchanfragen unspezifisch und allgemein gehalten vorgetragen. Wird eine solche Anfrage mit einer großen Zusammenstellung von Daten beantwortet, man denke nur an Suchergebnisse von Suchmaschinen mit tausenden Treffern, und damit tausenden von Nieten, kann sich schnell Frust einstellen. Aber auch heutige Navigationen sind nicht geeignet, es dem Nutzer so einfach wie möglich zu machen. Sie beschränken sich meist auf Begriffshierarchien. Der Informationsraum wird also in Ober- und Unterklassen gegliedert und die Informationsobjekte den Ebenen zugeordnet. Eine solche Aufteilung kann für den einen sinnvoll und verständlich sein, andere aber in die Irre führen. Zudem lassen sich Begriffe nur anhand zweier Beziehungen, nämlich Ober- und Unterbegriff, strukturieren. Begriffe und Konzepte vieler Themengebiete weisen aber weitere Beziehungen auf, wie "gehört zu", "arbeitet zusammen mit", "entwickelte" um nur ein paar Beispiele zu nennen. Semantische Netze bzw. Ontologien können eine solche Verknüpfung durch die Beschreibung ebendieser Beziehungen leisten. Die Ausgangsüberlegung dieser Arbeit ist es, die Strukturierung des Informationsraums mit Hilfe einer Ontologie vorzunehmen. Diese erweiterte Strukturierung soll sowohl für die Suche als auch für die Navigation genutzt werden, um die Auffindbarkeit von Information zu verbessern. Eine Suchfunktionalität müsste sich nicht mehr nur auf eine wortbasierte Suche verlassen, sondern könnte das Beziehungsgeflecht nutzen. Die Navigation wiederum könnte die Beziehungen explizit machen und dadurch Nutzern helfen, den Informationsraum zu verstehen und dadurch einfacher zielgerichtet zu der gewünschten Information zu navigieren. Als Untersuchungsgegenstand werden in dieser Arbeit Bürgerinformationssysteme betrachtet. Die Anwendungsdomäne webbasierte Bürgerinformation ist ausreichend komplex, um daran die oben angeführten Probleme untersuchen zu können. Heutige Bürgerinformationssysteme weisen, neben anderen Problemen, genau die oben beschriebenen Schwächen auf, wie sich zeigen wird.
  17. Seidlmayer, E.: ¬An ontology of digital objects in philosophy : an approach for practical use in research (2018) 0.02
    0.019581987 = product of:
      0.07832795 = sum of:
        0.01301036 = weight(_text_:und in 5496) [ClassicSimilarity], result of:
          0.01301036 = score(doc=5496,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.24241515 = fieldWeight in 5496, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5496)
        0.01301036 = weight(_text_:und in 5496) [ClassicSimilarity], result of:
          0.01301036 = score(doc=5496,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.24241515 = fieldWeight in 5496, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5496)
        0.01301036 = weight(_text_:und in 5496) [ClassicSimilarity], result of:
          0.01301036 = score(doc=5496,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.24241515 = fieldWeight in 5496, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5496)
        0.026286501 = product of:
          0.052573003 = sum of:
            0.052573003 = weight(_text_:philosophie in 5496) [ClassicSimilarity], result of:
              0.052573003 = score(doc=5496,freq=2.0), product of:
                0.12829916 = queryWeight, product of:
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.024215192 = queryNorm
                0.40976888 = fieldWeight in 5496, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5496)
          0.5 = coord(1/2)
        0.01301036 = weight(_text_:und in 5496) [ClassicSimilarity], result of:
          0.01301036 = score(doc=5496,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.24241515 = fieldWeight in 5496, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5496)
      0.25 = coord(5/20)
    
    Field
    Philosophie
    Footnote
    Master thesis Library and Information Science, Fakultät für Informations- und Kommunikationswissenschaften, Technische Hochschule Köln. Schön auch: Bei Google Scholar unter 'Eva, S.' nachgewiesen.
    Imprint
    Köln : Technische Hochschule / Fakultät für Informations- und Kommunikationswissenschaften
  18. Wachsmann, L.: Entwurf und Implementierung eines Modells zur Visualisierung von OWL-Properties als Protégé-PlugIn mit Layoutalgorithmen aus Graphviz (2008) 0.02
    0.019493423 = product of:
      0.07797369 = sum of:
        0.014868983 = weight(_text_:und in 4173) [ClassicSimilarity], result of:
          0.014868983 = score(doc=4173,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27704588 = fieldWeight in 4173, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4173)
        0.014868983 = weight(_text_:und in 4173) [ClassicSimilarity], result of:
          0.014868983 = score(doc=4173,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27704588 = fieldWeight in 4173, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4173)
        0.018497765 = weight(_text_:der in 4173) [ClassicSimilarity], result of:
          0.018497765 = score(doc=4173,freq=6.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.34197432 = fieldWeight in 4173, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4173)
        0.014868983 = weight(_text_:und in 4173) [ClassicSimilarity], result of:
          0.014868983 = score(doc=4173,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27704588 = fieldWeight in 4173, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4173)
        0.014868983 = weight(_text_:und in 4173) [ClassicSimilarity], result of:
          0.014868983 = score(doc=4173,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27704588 = fieldWeight in 4173, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4173)
      0.25 = coord(5/20)
    
    Abstract
    Diese Diplomarbeit beschäftigt sich mit der Erstellung eines PlugIns für den Ontologie-Editor Protégé. Das PlugIn visualisiert Objekt-Properties als Verknüpfungen zwischen zwei OWL-Klassen. Als Ausgangspunkt für die Entwicklung dient das PlugIn OWLViz, das Vererbungshierarchien von OWL-Klassen als Graphen darstellt. Die Platzierung der Knoten und Kanten des Graphen wird von Algorithmen der Programmbibliothek Graphviz vorgenommen.
  19. Dietiker, S.: Cognitive Map einer Bibliothek : eine Überprüfung der Methodentauglichkeit im Bereich Bibliothekswissenschaft - am Beispiel der Kantonsbibliothek Graubünden (2016) 0.02
    0.01878117 = product of:
      0.07512468 = sum of:
        0.0146937035 = weight(_text_:und in 4570) [ClassicSimilarity], result of:
          0.0146937035 = score(doc=4570,freq=10.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27378 = fieldWeight in 4570, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4570)
        0.0146937035 = weight(_text_:und in 4570) [ClassicSimilarity], result of:
          0.0146937035 = score(doc=4570,freq=10.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27378 = fieldWeight in 4570, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4570)
        0.016349867 = weight(_text_:der in 4570) [ClassicSimilarity], result of:
          0.016349867 = score(doc=4570,freq=12.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.30226544 = fieldWeight in 4570, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4570)
        0.0146937035 = weight(_text_:und in 4570) [ClassicSimilarity], result of:
          0.0146937035 = score(doc=4570,freq=10.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27378 = fieldWeight in 4570, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4570)
        0.0146937035 = weight(_text_:und in 4570) [ClassicSimilarity], result of:
          0.0146937035 = score(doc=4570,freq=10.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27378 = fieldWeight in 4570, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4570)
      0.25 = coord(5/20)
    
    Abstract
    Cognitive Maps sind mentale Karten, welche jeder Mensch besitzt. Es handelt sich dabei um eine Reflexion der jeweiligen Umwelt. Cognitive Mapping ist eine Methode, welche diese mentale Karte sichtbar macht. Aufgrund dieser Visualisierung können Erkenntnisse darüber gewonnen werden, was Menschen an einem Ort oder in einem Raum tun und wahrnehmen. Die Methode hat verschiede Anwendungstechniken, welche sich in sechs Kategorien teilen: Aufgabenlösung, Elemente orten, Sketch Map erstellen, Zonen und Gebiete einzeichnen, Weg- und Ortsbeschreibung sowie Kognitive Befragung. Anhand dieser lassen sich Untersuchungen beliebig kombinieren. Die Anwendung von Cognitive Mapping sowie eine einfache Befragung in der Kantonsbibliothek Graubünden hat ergeben, dass die Methode für Bibliotheken sinnvoll ist. Allerdings sollte bei zukünftigen Anwendungen die Punkte Gesamtaufwand, Untersuchungsaufbau, Teilnehmer-Zusammensetzung und Auswertungs-Aufwand angepasst werden.
    Content
    "Das Thema 'Cognitive Map einer Bibliothek' hat mich von Beginn an interessiert. Methoden anwenden, um den Bedürfnissen der Nutzer zu entsprechen, ist für Bibliotheken eine Möglichkeit sich auch in Zukunft als Wissensplatz zu positionieren. Das Spannende an dieser Arbeit war, sich zunächst in den vielen Anwendungsmöglichkeiten der Methode zurechtzufinden, einige davon auszuprobieren und schlussendlich herauszufinden, ob die Methode als sinnvoll für Bibliotheken bezeichnet werden kann."
  20. Maier, A.; Peters, A.: Entwicklung eines interaktiven dynamischen semantischen Netzes mit multimedialen Informationsobjekten am Beispiel eines wissenschaftlichen digitalen Schriftarchivs (2004) 0.02
    0.017538905 = product of:
      0.07015562 = sum of:
        0.014868983 = weight(_text_:und in 4732) [ClassicSimilarity], result of:
          0.014868983 = score(doc=4732,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27704588 = fieldWeight in 4732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4732)
        0.014868983 = weight(_text_:und in 4732) [ClassicSimilarity], result of:
          0.014868983 = score(doc=4732,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27704588 = fieldWeight in 4732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4732)
        0.010679688 = weight(_text_:der in 4732) [ClassicSimilarity], result of:
          0.010679688 = score(doc=4732,freq=2.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.19743896 = fieldWeight in 4732, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4732)
        0.014868983 = weight(_text_:und in 4732) [ClassicSimilarity], result of:
          0.014868983 = score(doc=4732,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27704588 = fieldWeight in 4732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4732)
        0.014868983 = weight(_text_:und in 4732) [ClassicSimilarity], result of:
          0.014868983 = score(doc=4732,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27704588 = fieldWeight in 4732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4732)
      0.25 = coord(5/20)
    
    Abstract
    Im ersten Teil wird eine Idee zur Darstellung von Informationen und deren Beziehungen in einem semantischen Netzwerk beschrieben. Eine mögliche Realisierung der Idee wird an einem Beispiel gezeigt. Im zweiten Teil wird beschrieben, wie die Informationsobjekte, die in einem Bild enthalten sind, mit zusätzlichen multimedialen Informationen versehen werden können. Als Informationsbestand diente ein digitales Schriftarchiv, das im Rahmen des Forschungsprojektes "Hebräische Typographie im deutschsprachigen Raum" entstanden wurde.
    Imprint
    Gummersbach : Fachhochschule Köln / Campus Gummersbach Fakultät für Informatik und Ingenieurwissenschaften