Search (640 results, page 1 of 32)

  • × type_ss:"x"
  1. Fromme, A.: Strukturierung facettierter Thesauri : Probleme und Methoden, dargestellt an ausgewählten Beispielen (1991) 0.57
    0.5672035 = product of:
      0.6806443 = sum of:
        0.058027163 = weight(_text_:und in 1107) [ClassicSimilarity], result of:
          0.058027163 = score(doc=1107,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.55409175 = fieldWeight in 1107, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=1107)
        0.19578929 = weight(_text_:anwendung in 1107) [ClassicSimilarity], result of:
          0.19578929 = score(doc=1107,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.85586053 = fieldWeight in 1107, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.125 = fieldNorm(doc=1107)
        0.0640583 = weight(_text_:des in 1107) [ClassicSimilarity], result of:
          0.0640583 = score(doc=1107,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.48954904 = fieldWeight in 1107, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.125 = fieldNorm(doc=1107)
        0.273585 = weight(_text_:prinzips in 1107) [ClassicSimilarity], result of:
          0.273585 = score(doc=1107,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            1.0117067 = fieldWeight in 1107, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.125 = fieldNorm(doc=1107)
        0.08918455 = product of:
          0.1783691 = sum of:
            0.1783691 = weight(_text_:thesaurus in 1107) [ClassicSimilarity], result of:
              0.1783691 = score(doc=1107,freq=2.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.81689894 = fieldWeight in 1107, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.125 = fieldNorm(doc=1107)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  2. Köper, B.: Vergleich von ausgewählten Thesaurus-Begriffsfeldern hinsichtlich ihrer linguistischen Relation (1990) 0.52
    0.52323955 = product of:
      0.6278875 = sum of:
        0.050773766 = weight(_text_:und in 39) [ClassicSimilarity], result of:
          0.050773766 = score(doc=39,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.4848303 = fieldWeight in 39, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=39)
        0.17131563 = weight(_text_:anwendung in 39) [ClassicSimilarity], result of:
          0.17131563 = score(doc=39,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.74887794 = fieldWeight in 39, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.109375 = fieldNorm(doc=39)
        0.05605101 = weight(_text_:des in 39) [ClassicSimilarity], result of:
          0.05605101 = score(doc=39,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.4283554 = fieldWeight in 39, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.109375 = fieldNorm(doc=39)
        0.23938686 = weight(_text_:prinzips in 39) [ClassicSimilarity], result of:
          0.23938686 = score(doc=39,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.88524336 = fieldWeight in 39, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.109375 = fieldNorm(doc=39)
        0.110360265 = product of:
          0.22072053 = sum of:
            0.22072053 = weight(_text_:thesaurus in 39) [ClassicSimilarity], result of:
              0.22072053 = score(doc=39,freq=4.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                1.0108609 = fieldWeight in 39, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.109375 = fieldNorm(doc=39)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Imprint
    Darmstadt : Fachhochschule, Fachbereich Information und Dokumentation
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  3. Widdra, M.: Besonderheiten eines multilingualen Thesaurus : Am Beispiel des "Europäischen Thesaurus Internationale Beziehungen und Länderkunde" (2004) 0.49
    0.49094188 = product of:
      0.5891303 = sum of:
        0.053301353 = weight(_text_:und in 4628) [ClassicSimilarity], result of:
          0.053301353 = score(doc=4628,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.5089658 = fieldWeight in 4628, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4628)
        0.14684197 = weight(_text_:anwendung in 4628) [ClassicSimilarity], result of:
          0.14684197 = score(doc=4628,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.6418954 = fieldWeight in 4628, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.09375 = fieldNorm(doc=4628)
        0.06794408 = weight(_text_:des in 4628) [ClassicSimilarity], result of:
          0.06794408 = score(doc=4628,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.51924515 = fieldWeight in 4628, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=4628)
        0.20518874 = weight(_text_:prinzips in 4628) [ClassicSimilarity], result of:
          0.20518874 = score(doc=4628,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.75878 = fieldWeight in 4628, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.09375 = fieldNorm(doc=4628)
        0.11585415 = product of:
          0.2317083 = sum of:
            0.2317083 = weight(_text_:thesaurus in 4628) [ClassicSimilarity], result of:
              0.2317083 = score(doc=4628,freq=6.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                1.061183 = fieldWeight in 4628, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4628)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Imprint
    Potsdam : Fachhochschule, Institut für Information und Dokumentation
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  4. Sieber, W.: Visualisierung von Thesaurus-Strukturen unter besonderer Berücksichtigung eines Hyperbolic Tree Views (2004) 0.32
    0.31636626 = product of:
      0.3796395 = sum of:
        0.035902474 = weight(_text_:und in 1456) [ClassicSimilarity], result of:
          0.035902474 = score(doc=1456,freq=8.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.34282678 = fieldWeight in 1456, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1456)
        0.08565781 = weight(_text_:anwendung in 1456) [ClassicSimilarity], result of:
          0.08565781 = score(doc=1456,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.37443897 = fieldWeight in 1456, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1456)
        0.028025504 = weight(_text_:des in 1456) [ClassicSimilarity], result of:
          0.028025504 = score(doc=1456,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2141777 = fieldWeight in 1456, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1456)
        0.11969343 = weight(_text_:prinzips in 1456) [ClassicSimilarity], result of:
          0.11969343 = score(doc=1456,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.44262168 = fieldWeight in 1456, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1456)
        0.110360265 = product of:
          0.22072053 = sum of:
            0.22072053 = weight(_text_:thesaurus in 1456) [ClassicSimilarity], result of:
              0.22072053 = score(doc=1456,freq=16.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                1.0108609 = fieldWeight in 1456, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1456)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Wenige Software-Werkzeuge zur Visualisierung von Thesaurus-Strukturen sind über das prototypische Stadium hinaus gelangt. Konkrete Implementationen entsprechender Anwendungen werden evaluiert. Aus den Gebieten Thesaurus-Entwicklung, Visualisierung, Interaktion, Informations- und Graphenvisualisierung werden Kriterien ermittelt, an denen die Implementierungen gemessen werden. Ein generisches Werkzeug zur Visualisierung dreidimensionaler hyperbolischer Bäume wird dazu verwendet, die Strukturen eines Thesaurus darzustellen. Dieses Werkzeug wird mit in die Evaluation einbezogen. Es hat sich gezeigt, dass die Visualisierung der Thesaurus-Strukturen auf Basis weniger unterschiedlicher Verfahren erfolgt. Der generische Visualisierer ist für Thesaurus-Strukturen prinzipiell geeignet, doch fehlen ihm spezifische Möglichkeiten der Domäne Thesaurus.
    Footnote
    Diplomarbeit Studiengang Informationswirtschaft, Fakultät für Informations- und Kommunikationswissenschaft Fachhochschule Köln
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaft
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  5. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2008) 0.31
    0.30597472 = product of:
      0.36716968 = sum of:
        0.04397137 = weight(_text_:und in 2461) [ClassicSimilarity], result of:
          0.04397137 = score(doc=2461,freq=12.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.41987535 = fieldWeight in 2461, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2461)
        0.08565781 = weight(_text_:anwendung in 2461) [ClassicSimilarity], result of:
          0.08565781 = score(doc=2461,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.37443897 = fieldWeight in 2461, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2461)
        0.06266693 = weight(_text_:des in 2461) [ClassicSimilarity], result of:
          0.06266693 = score(doc=2461,freq=10.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.4789159 = fieldWeight in 2461, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2461)
        0.11969343 = weight(_text_:prinzips in 2461) [ClassicSimilarity], result of:
          0.11969343 = score(doc=2461,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.44262168 = fieldWeight in 2461, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2461)
        0.055180132 = product of:
          0.110360265 = sum of:
            0.110360265 = weight(_text_:thesaurus in 2461) [ClassicSimilarity], result of:
              0.110360265 = score(doc=2461,freq=4.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.50543046 = fieldWeight in 2461, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2461)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Moderne Verfahren des Information Retrieval verlangen nach aussagekräftigen und detailliert relationierten Dokumentationssprachen. Der selektive Transfer einzelner Modellierungsstrategien aus dem Bereich semantischer Technologien für die Gestaltung und Relationierung bestehender Dokumentationssprachen wird diskutiert. Am Beispiel des Gegenstandsbereichs "Theater" der Schlagwortnormdatei wird ein hierarchisch strukturiertes Relationeninventar definiert, welches sowohl hinreichend allgemeine als auch zahlreiche spezifische Relationstypen enthält, welche eine detaillierte und damit funktionale Relationierung des Vokabulars ermöglichen. Die Relationierung des Gegenstandsbereichs wird als Ontologie im OWL-Format modelliert. Im Gegensatz zu anderen Ansätzen und Überlegungen zur Schaffung von Relationeninventaren entwickelt der vorgestellte Vorschlag das Relationeninventar aus der Begriffsmenge eines vorgegebenen Gegenstandsbereichs heraus. Das entwickelte Inventar wird als eine hierarchisch strukturierte Taxonomie gestaltet, was einen Zugewinn an Übersichtlichkeit und Funktionalität bringt.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  6. Müller, T.: Wissensrepräsentation mit semantischen Netzen im Bereich Luftfahrt (2006) 0.28
    0.27554733 = product of:
      0.3306568 = sum of:
        0.038466934 = weight(_text_:und in 1670) [ClassicSimilarity], result of:
          0.038466934 = score(doc=1670,freq=18.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3673144 = fieldWeight in 1670, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1670)
        0.061184157 = weight(_text_:anwendung in 1670) [ClassicSimilarity], result of:
          0.061184157 = score(doc=1670,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 1670, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1670)
        0.03467257 = weight(_text_:des in 1670) [ClassicSimilarity], result of:
          0.03467257 = score(doc=1670,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2649762 = fieldWeight in 1670, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1670)
        0.08549531 = weight(_text_:prinzips in 1670) [ClassicSimilarity], result of:
          0.08549531 = score(doc=1670,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.31615835 = fieldWeight in 1670, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1670)
        0.11083783 = sum of:
          0.07882876 = weight(_text_:thesaurus in 1670) [ClassicSimilarity], result of:
            0.07882876 = score(doc=1670,freq=4.0), product of:
              0.21834905 = queryWeight, product of:
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.04725067 = queryNorm
              0.36102176 = fieldWeight in 1670, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1670)
          0.03200907 = weight(_text_:22 in 1670) [ClassicSimilarity], result of:
            0.03200907 = score(doc=1670,freq=2.0), product of:
              0.16546379 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04725067 = queryNorm
              0.19345059 = fieldWeight in 1670, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1670)
      0.8333333 = coord(5/6)
    
    Abstract
    Es ist ein semantisches Netz für den Gegenstandsbereich Luftfahrt modelliert worden, welches Unternehmensinformationen, Organisationen, Fluglinien, Flughäfen, etc. enthält, Diese sind 10 Hauptkategorien zugeordnet worden, die untergliedert nach Facetten sind. Die Begriffe des Gegenstandsbereiches sind mit 23 unterschiedlichen Relationen verknüpft worden (Z. B.: 'hat Standort in', bietet an, 'ist Homebase von', etc). Der Schwerpunkt der Betrachtung liegt auf dem Unterschied zwischen den drei klassischen Standardrelationen und den zusätzlich eingerichteten Relationen, bezüglich ihrem Nutzen für ein effizientes Retrieval. Die angelegten Kategorien und Relationen sind sowohl für eine kognitive als auch für eine maschinelle Verarbeitung geeignet.
    Das Ziel der vorliegenden Arbeit ist es, ein Modell für ein Informationssystems zu erstellen und die Voraussetzungen und Aspekte zu betrachten, die notwendig sind, um Einsichten in die begrifflichen Zusammenhänge des Gegenstandsbereiches Luftfahrt zu erlangen. Der Ansatz, der hier erläutert wird, plädiert für die Konstruktion einer begrifflichen Wissensstruktur in Form eines semantischen Netzes. Ausgangspunkt dieser Überlegungen ist die Auffassung, daß zwar das kontrollierte Vokabular eines Thesaurus mit seiner Verweisstruktur vielfältiges Wissen enthält, das aber aufgrund der drei klassischen Standardrelationen nur unzureichend repräsentiert und damit auch nur beschränkt zugänglich ist. Es wird erläutert, welche Vorteile eine Erweiterung der drei Thesaurusrelationen erbringen kann und in welcher Funktion die Relationen bei der Formulierung der Suchanfrage unterstützend sein können. Gezeigt wird, wie die Begriffstrukturen eines semantischen Netzes deutlicher hervortreten, wenn bei der Erstellung einer Wissensstruktur eines Gegenstandsbereiches Kategorien zugrunde gelegt werden und welche Gestaltungsprinzipien den Suchprozeß unterstützen können. Dazu werden die Voraussetzungen erörtert, die garantieren, daß komplexe Suchanfragen (erfolgreich) geleistet werden können und zu präzisen Treffermengen führen.
    Date
    26. 9.2006 21:00:22
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  7. Schulz, T.: Konzeption und prototypische Entwicklung eines Thesaurus für IT-Konzepte an Hochschulen (2021) 0.24
    0.23610324 = product of:
      0.28332388 = sum of:
        0.04623151 = weight(_text_:und in 429) [ClassicSimilarity], result of:
          0.04623151 = score(doc=429,freq=26.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.441457 = fieldWeight in 429, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=429)
        0.061184157 = weight(_text_:anwendung in 429) [ClassicSimilarity], result of:
          0.061184157 = score(doc=429,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=429)
        0.03467257 = weight(_text_:des in 429) [ClassicSimilarity], result of:
          0.03467257 = score(doc=429,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2649762 = fieldWeight in 429, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=429)
        0.08549531 = weight(_text_:prinzips in 429) [ClassicSimilarity], result of:
          0.08549531 = score(doc=429,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.31615835 = fieldWeight in 429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0390625 = fieldNorm(doc=429)
        0.055740345 = product of:
          0.11148069 = sum of:
            0.11148069 = weight(_text_:thesaurus in 429) [ClassicSimilarity], result of:
              0.11148069 = score(doc=429,freq=8.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.5105618 = fieldWeight in 429, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=429)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    In Hochschulen besteht derzeit ein großes Anliegen, die Digitalisierung effektiv und effizient für Prozesse in Steuerungsbereichen zu nutzen. Dabei steht die IT-Governance im Mittelpunkt der hochschulpolitischen Überlegungen und beinhaltet "die interne Steuerung und Koordination von Entscheidungsprozessen in Bezug auf IT-Steuerung beziehungsweise Digitalisierungsmaßnahmen."(Christmann-Budian et al. 2018) Strategisch kann die Bündelung von Kompetenzen in der deutschen Hochschullandschaft dabei helfen, die steigenden Anforderungen an die IT-Governance zu erfüllen. Passend zu diesem Ansatz realisieren aktuell im ZDT zusammengeschlossene Hochschulen das Projekt "IT-Konzepte - Portfolio gemeinsamer Vorlagen und Muster". Das Projekt schließt an die Problemstellung an, indem Kompetenzen gebündelt und alle Hochschulen befähigt werden, IT-Konzepte erarbeiten und verabschieden zu können. Dazu wird ein Portfolio an Muster und Vorlagen als Ressourcenpool zusammengetragen und referenziert, um eine Nachvollziehbarkeit der Vielfalt an Herausgebern gewährleisten zu können (Meister 2020). Um den Ressourcenpool, welcher einen Body of Knowledge (BoK) darstellt, effizient durchsuchen zu können, ist eine sinnvolle Struktur unabdinglich. Daher setzt sich das Ziel der Bachelorarbeit aus der Analyse von hochschulinternen Dokumenten mithilfe von Natural Language Processing (NLP) und die daraus resultierende Entwicklung eines Thesaurus-Prototyps für IT-Konzepte zusammen. Dieser soll im Anschluss serialisiert und automatisiert werden, um diesen fortlaufend auf einem aktuellen Stand zu halten. Es wird sich mit der Frage beschäftigt, wie ein Thesaurus nachhaltig technologisch, systematisch und konsistent erstellt werden kann, um diesen Prozess im späteren Verlauf als Grundlage für weitere Themenbereiche einzuführen.
    Content
    Bachelorarbeit zur Erlangung des Grades Bachelor of Science Wirtschaftsinformatik des Fachbereichs Wirtschaft der Technischen Hochschule Brandenburg. Vgl. unter: https://opus4.kobv.de/opus4-fhbrb/files/2732/20210826_BT_SchulzTheresa.pdf.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  8. Faden, M.: ¬Der Einsatz eines WIKIs als zentrales Kommunikationsinstrument für die Thesauruspflege an verteilten Bibliotheksstandorten (2007) 0.23
    0.22679281 = product of:
      0.27215138 = sum of:
        0.0425268 = weight(_text_:und in 2824) [ClassicSimilarity], result of:
          0.0425268 = score(doc=2824,freq=22.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.40608138 = fieldWeight in 2824, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2824)
        0.061184157 = weight(_text_:anwendung in 2824) [ClassicSimilarity], result of:
          0.061184157 = score(doc=2824,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 2824, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2824)
        0.03467257 = weight(_text_:des in 2824) [ClassicSimilarity], result of:
          0.03467257 = score(doc=2824,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2649762 = fieldWeight in 2824, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2824)
        0.08549531 = weight(_text_:prinzips in 2824) [ClassicSimilarity], result of:
          0.08549531 = score(doc=2824,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.31615835 = fieldWeight in 2824, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2824)
        0.048272558 = product of:
          0.096545115 = sum of:
            0.096545115 = weight(_text_:thesaurus in 2824) [ClassicSimilarity], result of:
              0.096545115 = score(doc=2824,freq=6.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.44215953 = fieldWeight in 2824, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2824)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Mit dieser Arbeit wird untersucht, welche Möglichkeiten und Vorteile ein Wiki bei der Pflege und Weiterentwicklung eines Thesaurus bietet. Als Basis für diese Arbeit wird ein entsprechendes Wiki, der Standard-Thesaurus Wirtschaft (STW) und Einrichtungen an verschiedenen Standorten, die mit dem STW arbeiten (das sog. STW-Konsortium) herangezogen. Um die Untersuchungsergebnisse zu präsentieren und zu belegen, wird parallel dazu der Prototyp "Wikisaurus oeconomicus" entwickelt; er ist die praktische Umsetzung der hier beschriebenen Möglichkeiten und wird im Internet zur Verfügung gestellt. Die Arbeit gliedert sich in zwei wesentliche Bereiche. Zuerst wird in einem kurzen Abriss die Entwicklungsgeschichte der Dokumentationssprachen, insbesondere von Thesauri, im 20. Jhd. beschrieben. Darauf aufbauend folgt die Darstellung der Genese und der Struktur des STW sowie dessen Pflege und Weiterentwicklung. Der zweite Teil widmet sich dann dem eigentlichen Untersuchungsgegenstand: Um diesen sinnvoll vor- und darstellen zu können, erfolgt eine Einführung in die, zugegebenermaßen kurze Geschichte der WikiWelt. Dazu wird noch die Software MediaWiki, deren Möglichkeiten sowie die Theorie der Zusammenarbeit in Wikis beschrieben. Danach wird ein möglicher Einsatz von Wikitechnik bei der Pflege und Weiterentwicklung des STW beschrieben. Wie oben schon erwähnt, wird zur Präsentation der Ergebnisse im Inter-net, der Prototyp "Wikisaurus oeconomicus" entwickelt. Neben der reinen Präsentation soll so auch ein (exemplarischer) Eindruck über die Praktikabilität und Anwendbarkeit der Wiki-technik vermittelt werden.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  9. Eckert, K.: Thesaurus analysis and visualization in semantic search applications (2007) 0.22
    0.2197166 = product of:
      0.26365992 = sum of:
        0.018133488 = weight(_text_:und in 3222) [ClassicSimilarity], result of:
          0.018133488 = score(doc=3222,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.17315367 = fieldWeight in 3222, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3222)
        0.061184157 = weight(_text_:anwendung in 3222) [ClassicSimilarity], result of:
          0.061184157 = score(doc=3222,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 3222, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3222)
        0.020018218 = weight(_text_:des in 3222) [ClassicSimilarity], result of:
          0.020018218 = score(doc=3222,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.15298408 = fieldWeight in 3222, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3222)
        0.08549531 = weight(_text_:prinzips in 3222) [ClassicSimilarity], result of:
          0.08549531 = score(doc=3222,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.31615835 = fieldWeight in 3222, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3222)
        0.07882876 = product of:
          0.15765752 = sum of:
            0.15765752 = weight(_text_:thesaurus in 3222) [ClassicSimilarity], result of:
              0.15765752 = score(doc=3222,freq=16.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.7220435 = fieldWeight in 3222, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3222)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    The use of thesaurus-based indexing is a common approach for increasing the performance of information retrieval. In this thesis, we examine the suitability of a thesaurus for a given set of information and evaluate improvements of existing thesauri to get better search results. On this area, we focus on two aspects: 1. We demonstrate an analysis of the indexing results achieved by an automatic document indexer and the involved thesaurus. 2. We propose a method for thesaurus evaluation which is based on a combination of statistical measures and appropriate visualization techniques that support the detection of potential problems in a thesaurus. In this chapter, we give an overview of the context of our work. Next, we briefly outline the basics of thesaurus-based information retrieval and describe the Collexis Engine that was used for our experiments. In Chapter 3, we describe two experiments in automatically indexing documents in the areas of medicine and economics with corresponding thesauri and compare the results to available manual annotations. Chapter 4 describes methods for assessing thesauri and visualizing the result in terms of a treemap. We depict examples of interesting observations supported by the method and show that we actually find critical problems. We conclude with a discussion of open questions and future research in Chapter 5.
    Imprint
    Mannheim : Fakultät für Mathematik und Informatik
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  10. Tavakolizadeh-Ravari, M.: Analysis of the long term dynamics in thesaurus developments and its consequences (2017) 0.19
    0.19344495 = product of:
      0.23213395 = sum of:
        0.03243817 = weight(_text_:und in 3081) [ClassicSimilarity], result of:
          0.03243817 = score(doc=3081,freq=20.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3097467 = fieldWeight in 3081, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3081)
        0.048947323 = weight(_text_:anwendung in 3081) [ClassicSimilarity], result of:
          0.048947323 = score(doc=3081,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.21396513 = fieldWeight in 3081, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.03125 = fieldNorm(doc=3081)
        0.027738057 = weight(_text_:des in 3081) [ClassicSimilarity], result of:
          0.027738057 = score(doc=3081,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.21198097 = fieldWeight in 3081, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=3081)
        0.06839625 = weight(_text_:prinzips in 3081) [ClassicSimilarity], result of:
          0.06839625 = score(doc=3081,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.25292668 = fieldWeight in 3081, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.03125 = fieldNorm(doc=3081)
        0.054614164 = product of:
          0.10922833 = sum of:
            0.10922833 = weight(_text_:thesaurus in 3081) [ClassicSimilarity], result of:
              0.10922833 = score(doc=3081,freq=12.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.5002464 = fieldWeight in 3081, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3081)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Die Arbeit analysiert die dynamische Entwicklung und den Gebrauch von Thesaurusbegriffen. Zusätzlich konzentriert sie sich auf die Faktoren, die die Zahl von Indexbegriffen pro Dokument oder Zeitschrift beeinflussen. Als Untersuchungsobjekt dienten der MeSH und die entsprechende Datenbank "MEDLINE". Die wichtigsten Konsequenzen sind: 1. Der MeSH-Thesaurus hat sich durch drei unterschiedliche Phasen jeweils logarithmisch entwickelt. Solch einen Thesaurus sollte folgenden Gleichung folgen: "T = 3.076,6 Ln (d) - 22.695 + 0,0039d" (T = Begriffe, Ln = natürlicher Logarithmus und d = Dokumente). Um solch einen Thesaurus zu konstruieren, muss man demnach etwa 1.600 Dokumente von unterschiedlichen Themen des Bereiches des Thesaurus haben. Die dynamische Entwicklung von Thesauri wie MeSH erfordert die Einführung eines neuen Begriffs pro Indexierung von 256 neuen Dokumenten. 2. Die Verteilung der Thesaurusbegriffe erbrachte drei Kategorien: starke, normale und selten verwendete Headings. Die letzte Gruppe ist in einer Testphase, während in der ersten und zweiten Kategorie die neu hinzukommenden Deskriptoren zu einem Thesauruswachstum führen. 3. Es gibt ein logarithmisches Verhältnis zwischen der Zahl von Index-Begriffen pro Aufsatz und dessen Seitenzahl für die Artikeln zwischen einer und einundzwanzig Seiten. 4. Zeitschriftenaufsätze, die in MEDLINE mit Abstracts erscheinen erhalten fast zwei Deskriptoren mehr. 5. Die Findablity der nicht-englisch sprachigen Dokumente in MEDLINE ist geringer als die englische Dokumente. 6. Aufsätze der Zeitschriften mit einem Impact Factor 0 bis fünfzehn erhalten nicht mehr Indexbegriffe als die der anderen von MEDINE erfassten Zeitschriften. 7. In einem Indexierungssystem haben unterschiedliche Zeitschriften mehr oder weniger Gewicht in ihrem Findability. Die Verteilung der Indexbegriffe pro Seite hat gezeigt, dass es bei MEDLINE drei Kategorien der Publikationen gibt. Außerdem gibt es wenige stark bevorzugten Zeitschriften."
    Footnote
    Dissertation, Humboldt-Universität zu Berlin - Institut für Bibliotheks- und Informationswissenschaft.
    Imprint
    Berlin : Humboldt-Universität zu Berlin / Institut für Bibliotheks- und Informationswissenschaft
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  11. Nikolai, R.: Thesaurusföderationen : Ein Rahmenwerk für die flexible Integration von heterogenen, autonomen Thesauri (2002) 0.16
    0.15993637 = product of:
      0.19192365 = sum of:
        0.033534694 = weight(_text_:und in 165) [ClassicSimilarity], result of:
          0.033534694 = score(doc=165,freq=38.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.32021725 = fieldWeight in 165, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=165)
        0.036710493 = weight(_text_:anwendung in 165) [ClassicSimilarity], result of:
          0.036710493 = score(doc=165,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.16047385 = fieldWeight in 165, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0234375 = fieldNorm(doc=165)
        0.02942065 = weight(_text_:des in 165) [ClassicSimilarity], result of:
          0.02942065 = score(doc=165,freq=12.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.22483975 = fieldWeight in 165, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=165)
        0.051297184 = weight(_text_:prinzips in 165) [ClassicSimilarity], result of:
          0.051297184 = score(doc=165,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.189695 = fieldWeight in 165, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0234375 = fieldNorm(doc=165)
        0.040960625 = product of:
          0.08192125 = sum of:
            0.08192125 = weight(_text_:thesaurus in 165) [ClassicSimilarity], result of:
              0.08192125 = score(doc=165,freq=12.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.3751848 = fieldWeight in 165, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=165)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Dem wachsenden Bedarf der "Informationsgesellschaft" nach Informationen folgten in den letzten Jahren rasch wachsende Informationssysteme, die heterogene Informationen global verteilt und einfach zugreifbar vorhalten. Solche modernen Informationssysteme und datenintensiven Anwendungen können als eine wesentliche Komponente "verteilter Informationsumgebungen" angesehen werden, die universellen Zugriff auf Informationen aus einer Vielzahl menschlicher Wissensgebiete ermöglichen. Charakteristische Eigenschaften derartiger großer Informationssysteme sind, dass sie auf großen, zum Teil autonomen Informationsquellen basieren, die häufig über offene Computernetze (lose) verbunden sind, eine große Anzahl von Benutzern unterstützen, eine Infrastruktur anbieten, die den einfachen Zugriff auf verschiedenen Dienste ermöglicht, und dass die Qualität dieser Dienste entscheidend für deren Erfolg ist. Von besonderer Bedeutung sind bei derartig großen zur Verfügung stehenden Datenmengen Dienste, die das gezielte Wiederauffinden von Informationen (Information Retrieval) ermöglichen. Thesauri sind ein bewährtes Werkzeug, um diesen Prozess zu unterstützen. Sie bieten ein einheitliches und konsistentes Vokabular, das als Grundlage für semantisches Information Retrieval verwendet werden kann. Bei einem häufig fachübergreifenden Datenbestand, der auch mehrsprachig sein kann, sind traditionelle Fachthesauri, die in der Regel nur einsprachig vorliegen, aber nicht mehr ausreichend. Selbst in Dokumentenbeständen eines Fachinformationssystems finden sich oft Ausweitungen auf Begriffe angrenzender Fachgebiete. Es wird ein umfangreicheres und zugleich spezialisierteres Vokabular gefordert.
    In Informationssystemen werden häufig jeweils an die besonderen Bedürfnisse der Benutzer angepasste Thesauri verwendet. Bei einer Integration der Informationssysteme wird auch eine Integration der Thesauri erforderlich, um den Benutzer beispielsweise dabei zu unterstützen, Informationen aus verschiedenen Informationsquellen zu erhalten. Die DG XIII der Europäischen Union hat bereits 1990 eine Liste von 1.000 häufig verwendeten Thesauri weltweit erstellt. Eine Verbindung dieser Thesauri wäre ein wichtiger Fortschritt bei der gemeinsamen Benutzung der Terminologie. Da das Aufbauen eines neuen Thesaurus, aber auch die manuelle Integration existierender Thesauri immense Kosten verursacht (als Beispiel sei genannt, dass zur Erstellung einer initialen Version des Allgemeinen Umweltthesaurus GEMET mehrere Mannjahre benötigt wurden), sind neue Lösungen, die eine integrierte Sicht auf die Vokabulare mehrerer Thesauri unter Aufwendung finanziell vertretbarer Mittel ermöglichen, erforderlich. Zudem wird die klassische Form der Integration von Thesauri der losen Kopplung von Informationssystemen nicht gerecht. Die erforderlichen technischen Voraussetzungen für das logische Zusammenbringen verteilter, heterogener Thesauri sind durch lokale und globale Vernetzung weitestgehend gegeben.
    Zielbeschreibung: In dieser Arbeit soll ein Rahmenwerk für die lose Integration von heterogenen und autonomen Thesauri, Thesaurusföderationen genannt, erarbeitet werden. Das Konzept der Thesaurusföderationen soll den Anforderungen moderner Informationssysteme nach zugleich umfangreicheren und spezialisierteren Vokabularen unter Ausnutzung neuer technologischer Möglichkeiten gerecht werden. Der zu entwickelnde Integrations-Ansatz soll als Basis die mit großem Aufwand erstellten, bereits vorhandenen Thesauri (Komponententhesauri) verwenden und deren Vokabulare verknüpfen, so dass sie als ein Gesamtvokabular erscheinen. Existierende Ansätze für einen integrierten Zugriff auf verschiedene Informationssysteme sowie der gleichzeitigen Verwendung verschiedener Terminologien basieren auf so genannten MultiThesaurus-Systemen. Ein wesentlicher Kritikpunkt an diesen Ansätzen ist der, dass jeweils nur Teilaspekte behandelt werden. Was fehlt, ist ein in ganzheitliches Rahmenwerk, das die Aspekte der Integration, der Behandlung von Konflikten und Unvollständigkeiten, der Verwendung im Information Retrieval und schließlich die Bewertung der Güte des integrierten Vokabulars betrachtet. Ein solches Rahmenwerk soll in dieser Arbeit erstmals erarbeitet werden. Dabei gilt es zu berücksichtigen, dass eine Überforderung des Benutzers durch die Komplexität des Gesamtvokabulars vermieden wird. U.a. soll das dynamische Ein-/Ausblenden von teilhabenden Thesauri unterstützt werden. Die existierenden Ansätze der Multi-Thesaurus-Systeme berücksichtigen zudem nicht eine in verteilten Informationssystemen erstrebenswerte Autonomie der Thesauri und ihre häufig gegebene Heterogenität. Um diesen Anforderungen gerecht zu werden, soll sich unser Ansatz an den Konzepten föderierter Datenbanksysteme orientieren, allerdings ohne die Einschränkung, ausschließlich von Datenbankverwaltungsystemen verwaltete Thesauri zu integrieren. Der Schwerpunkt soll hier auf der semantischen Integration liegen, die in föderierten Datenbanksystemen häufig nur ein Randthema ist. Neue Integrationsverfahren auf semantischer Ebene (Begriffsintegration), die im Gegensatz zu bekannten Ansätzen die Ergebnisse einer rechner-unterstützten Analyse der Inhalte und Güte der Thesauri berücksichtigen und entsprechend konfiguriert werden, sollen eine verbesserte semi-automatische Integration ermöglichen, ebenso erstmals eine Bewertung der Integrationsergebnisse. Diese Verfahren sollen die Reichhaltigkeit der Informationen in den Thesauri selbst ausnutzen sowie auf weitere Wissensquellen zugreifen können, um den notwendigen menschlichen Einsatz zu minimieren. Die Thesaurusföderation soll ihre Dienste als Mehrwertdienste anbieten und dazu auf die an der Föderation beteiligten heterogenen Komponententhesauri zugreifen, deren Autonomie erhalten bleibt. Um den breiten Einsatz des entwickelten Ansatzes zu ermöglichen, soll das Konzept grundsätzlich fachgebietsunabhängig sein. Auch wenn eine (semi-)automatische Integration unter Berücksichtigung der Autonomie einem durch manuelle Verfahren und Anpassung der beteiligten Thesauri entstandenem SuperThesaurus unterlegen ist, ist dies möglicherweise die einzig praktikable Art und Weise, um ein flexibel skalierbares Multi-Thesaurus-System zu erstellen und zu pflegen.
    RSWK
    Thesaurus / Föderiertes System
    Subject
    Thesaurus / Föderiertes System
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  12. Wenke, M.: Schlagwortkatalog und Schlagwortindex : eine Untersuchung über die Zweckmäßigkeit ihrer Anwendung und mögliche Kombinationsformen am Beispiel des Katalogwerks einer Großstadtbücherei (1970) 0.16
    0.15893738 = product of:
      0.31787476 = sum of:
        0.058027163 = weight(_text_:und in 234) [ClassicSimilarity], result of:
          0.058027163 = score(doc=234,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.55409175 = fieldWeight in 234, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=234)
        0.19578929 = weight(_text_:anwendung in 234) [ClassicSimilarity], result of:
          0.19578929 = score(doc=234,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.85586053 = fieldWeight in 234, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.125 = fieldNorm(doc=234)
        0.0640583 = weight(_text_:des in 234) [ClassicSimilarity], result of:
          0.0640583 = score(doc=234,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.48954904 = fieldWeight in 234, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.125 = fieldNorm(doc=234)
      0.5 = coord(3/6)
    
  13. Schubert, P.: Revision von Aufbau und Anwendung des kontrollierten Vokabulars einer bibliografischen Datensammlung zum Thema Dramturgie (2003) 0.14
    0.1390702 = product of:
      0.2781404 = sum of:
        0.050773766 = weight(_text_:und in 2518) [ClassicSimilarity], result of:
          0.050773766 = score(doc=2518,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.4848303 = fieldWeight in 2518, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=2518)
        0.17131563 = weight(_text_:anwendung in 2518) [ClassicSimilarity], result of:
          0.17131563 = score(doc=2518,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.74887794 = fieldWeight in 2518, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.109375 = fieldNorm(doc=2518)
        0.05605101 = weight(_text_:des in 2518) [ClassicSimilarity], result of:
          0.05605101 = score(doc=2518,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.4283554 = fieldWeight in 2518, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.109375 = fieldNorm(doc=2518)
      0.5 = coord(3/6)
    
    Imprint
    Potsdam : Fachhochschule, Institut für Information und Dokumentation
  14. Geh, H.-P.: ¬Die Facettenklassifikation und ihre Anwendung auf das Fach Geschichte (1965) 0.13
    0.13163455 = product of:
      0.2632691 = sum of:
        0.035902474 = weight(_text_:und in 1215) [ClassicSimilarity], result of:
          0.035902474 = score(doc=1215,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.34282678 = fieldWeight in 1215, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=1215)
        0.17131563 = weight(_text_:anwendung in 1215) [ClassicSimilarity], result of:
          0.17131563 = score(doc=1215,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.74887794 = fieldWeight in 1215, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.109375 = fieldNorm(doc=1215)
        0.05605101 = weight(_text_:des in 1215) [ClassicSimilarity], result of:
          0.05605101 = score(doc=1215,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.4283554 = fieldWeight in 1215, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.109375 = fieldNorm(doc=1215)
      0.5 = coord(3/6)
    
    Imprint
    Köln : Bibliothekar-Lehrinstitut des Landes NW
  15. Schulte-Tigges, F.: ¬Die Facettenanalyse nach Vickery und ihre Anwendung auf die Klassifikation der Physik (1961) 0.13
    0.13163455 = product of:
      0.2632691 = sum of:
        0.035902474 = weight(_text_:und in 1218) [ClassicSimilarity], result of:
          0.035902474 = score(doc=1218,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.34282678 = fieldWeight in 1218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=1218)
        0.17131563 = weight(_text_:anwendung in 1218) [ClassicSimilarity], result of:
          0.17131563 = score(doc=1218,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.74887794 = fieldWeight in 1218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.109375 = fieldNorm(doc=1218)
        0.05605101 = weight(_text_:des in 1218) [ClassicSimilarity], result of:
          0.05605101 = score(doc=1218,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.4283554 = fieldWeight in 1218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.109375 = fieldNorm(doc=1218)
      0.5 = coord(3/6)
    
    Imprint
    Köln : Bibliothekar-Lehrinstitut des Landes NW
  16. Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003) 0.13
    0.13118578 = product of:
      0.19677867 = sum of:
        0.0425268 = weight(_text_:und in 4283) [ClassicSimilarity], result of:
          0.0425268 = score(doc=4283,freq=22.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.40608138 = fieldWeight in 4283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.08652747 = weight(_text_:anwendung in 4283) [ClassicSimilarity], result of:
          0.08652747 = score(doc=4283,freq=4.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3782405 = fieldWeight in 4283, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.028310036 = weight(_text_:des in 4283) [ClassicSimilarity], result of:
          0.028310036 = score(doc=4283,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.21635216 = fieldWeight in 4283, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.03941438 = product of:
          0.07882876 = sum of:
            0.07882876 = weight(_text_:thesaurus in 4283) [ClassicSimilarity], result of:
              0.07882876 = score(doc=4283,freq=4.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.36102176 = fieldWeight in 4283, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4283)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Automatische Indexierung verzeichnet schon seit einigen Jahren aufgrund steigender Informationsflut ein wachsendes Interesse. Allerdings gibt es immer noch Vorbehalte gegenüber der intellektuellen Indexierung in Bezug auf Qualität und größerem Aufwand der Systemimplementierung bzw. -pflege. Neuere Entwicklungen aus dem Bereich des Wissensmanagements, wie beispielsweise Verfahren aus der Künstlichen Intelligenz, der Informationsextraktion, dem Text Mining bzw. der automatischen Klassifikation sollen die automatische Indexierung aufwerten und verbessern. Damit soll eine intelligentere und mehr inhaltsbasierte Erschließung geleistet werden. In dieser Masterarbeit wird außerhalb der Darstellung von Grundlagen und Verfahren der automatischen Indexierung sowie neueren Entwicklungen auch Möglichkeiten der Evaluation dargestellt. Die mögliche Anwendung der automatischen Indexierung im DFG-ProjektGemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" bilden den Schwerpunkt der Arbeit. Im Portal steht die bibliothekarische Erschließung von Texten im Vordergrund. In einem umfangreichen Test werden drei deutsche, linguistische Systeme mit statistischen Verfahren kombiniert (die aber teilweise im System bereits integriert ist) und evaluiert, allerdings nur auf der Basis der ausgegebenen Indexate. Abschließend kann festgestellt werden, dass die Ergebnisse und damit die Qualität (bezogen auf die Indexate) von intellektueller und automatischer Indexierung noch signifikant unterschiedlich sind. Die Gründe liegen in noch zu lösenden semantischen Problemen bzw, in der Obereinstimmung mit Worten aus einem Thesaurus, die von einem automatischen Indexierungssystem nicht immer nachvollzogen werden kann. Eine Inhaltsanreicherung mit den Indexaten zum Vorteil beim Retrieval kann, je nach System oder auch über die Einbindung durch einen Thesaurus, erreicht werden.
    Footnote
    Masterarbeit im Studiengang Information Engineering zur Erlagung des Grades eines Master of Science in Information science,
    Imprint
    Konstanz : Universität / Fachbereich Informatik und Informationswissenschaft
  17. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.12
    0.12453022 = product of:
      0.18679532 = sum of:
        0.06253883 = product of:
          0.18761648 = sum of:
            0.18761648 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.18761648 = score(doc=1000,freq=2.0), product of:
                0.4005917 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04725067 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.022208897 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.022208897 = score(doc=1000,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.028310036 = weight(_text_:des in 1000) [ClassicSimilarity], result of:
          0.028310036 = score(doc=1000,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.21635216 = fieldWeight in 1000, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.073737554 = product of:
          0.14747511 = sum of:
            0.14747511 = weight(_text_:thesaurus in 1000) [ClassicSimilarity], result of:
              0.14747511 = score(doc=1000,freq=14.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.6754099 = fieldWeight in 1000, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  18. Rieder, S.: ¬Das Datenbankprogramm CDS/ISIS und dessen Anwendung in der Bundesrepublik Deutschland : Ergebnisse einer Nutzerstudie (1995) 0.12
    0.120883584 = product of:
      0.24176717 = sum of:
        0.058027163 = weight(_text_:und in 1416) [ClassicSimilarity], result of:
          0.058027163 = score(doc=1416,freq=16.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.55409175 = fieldWeight in 1416, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1416)
        0.13844395 = weight(_text_:anwendung in 1416) [ClassicSimilarity], result of:
          0.13844395 = score(doc=1416,freq=4.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.6051848 = fieldWeight in 1416, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0625 = fieldNorm(doc=1416)
        0.045296054 = weight(_text_:des in 1416) [ClassicSimilarity], result of:
          0.045296054 = score(doc=1416,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.34616345 = fieldWeight in 1416, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=1416)
      0.5 = coord(3/6)
    
    Abstract
    Ergebnisse einer Umfrage über die Anwendung des Datenbankprogramms CDS/ISIS in der Bundesrepublik Deutschland. Von 130 angeschriebenem deutschen ISIS-Lizenznehmern haben 42 geantwortet, die das Programm nicht anwenden und 20, die es anwenden. Deren Verhalten, Gründe für die Nicht-Nutzung und verwirklichte Anwendungen wurden ausführlich untersucht und dargelegt.Auf eine allgemeine Auswertung hin folgt ein Überblick über das ISIS-Anwendungsspektrum mit konkreten Einzeldarstellungen aller Anwender. Im ersten Teil werden Hauptmerkmale und -funktionen des leistingsfähigen Programm beschrieben und bewertet, außerdem Bedeutung und Verbreitung in anderen Ländern kurz vorgestellt
    Imprint
    Stuttgart : Fachhochschule - Hochschule für Bibliotheks- und Informationswesen
  19. Ammann, A.: Klassifikation dynamischer Wissensräume : multifaktorielle Wechselbeziehungen zur Generierung und Gestaltung konstellativer dynamischer und mehrdimensionaler Wissensräume mit einem Fokus der Anwendung in der Zahn-, Mund- und Kieferheilkunde am Beispiel der enossalen Implantologie (2012) 0.12
    0.116813175 = product of:
      0.17521976 = sum of:
        0.037689745 = weight(_text_:und in 1751) [ClassicSimilarity], result of:
          0.037689745 = score(doc=1751,freq=48.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.35989314 = fieldWeight in 1751, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
        0.036710493 = weight(_text_:anwendung in 1751) [ClassicSimilarity], result of:
          0.036710493 = score(doc=1751,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.16047385 = fieldWeight in 1751, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
        0.049522337 = weight(_text_:des in 1751) [ClassicSimilarity], result of:
          0.049522337 = score(doc=1751,freq=34.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.37846172 = fieldWeight in 1751, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
        0.051297184 = weight(_text_:prinzips in 1751) [ClassicSimilarity], result of:
          0.051297184 = score(doc=1751,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.189695 = fieldWeight in 1751, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
      0.6666667 = coord(4/6)
    
    Abstract
    Das Thema der Wissensklassifikationen begleitet uns über alle vier epochalen Konvergenz-Zyklen im Wissenstransfer von der schriftlichen, der analogen über die digitalen bis zur künstlichen neuronalen Welt als Ordnungsprinzipien für eine Orientierung in unserer Wissenslandschaft. Die Explosion des Verfügungswissens wird geprägt durch eine immer weitere Fortschreitung zur Ausdifferenzierung der Wissenschaftsdisziplinen, die digitale Speicherung des "Weltwissens" mit ihren Web-Technologien und dem Ubiquitous Computing als Bestandteil des "Internets der Dinge". Die klassischen Konzepte der Wissensorganisation durch ihre Struktur der Dendrogramme und der orthogonalen Koordinatensysteme werden den Anforderungen für eine aufgaben- und problemorientierten Wissensnavigation nicht mehr gerecht, um die Qualität des Wissens aus der Quantität so zu selektieren, dass damit eine kompetente Unterstützung der Entscheidungsprozesse gewährleistet werden kann. Die Berechnung semantischer Relationen durch statistische, hierarchischagglomerative Algorithmen u.a. mit Cluster- und Vektorenmodellen stoßen an ihre Grenzen in der Modellierung von Wissensräumen.
    Eine Neuorientierung der Wissensarchitektur bei der Generierung und Gestaltung der konstellativen dynamischen und mehrdimensionalen Wissensräume wird eine zentrale Herausforderung in der digitalen Wissenswelt werden. Die <Einheit des Wissens> wird dabei nicht mehr als universeller interdisziplinärer Wissensraum mit dem Problem <lost within the space of knowledge> verstanden, sondern assistierende Netz- Avatare konfigurieren den erforderlichen Wissensraum durch die Orientierung des konstellativen Nutzerprofils selbstständig. Es wäre jedoch vermessen, hier den Anspruch eines neuen Ordnungsprinzips des Wissens zu erheben. Mit dieser Arbeit können aber Impulse für einen "semantischen Code des Wissens" gegeben werden, wie durch eine Klassifikation der Wissensräume ein neues Konzept zur "Einheit des Wissens" in einem Raum-Zeit-Gefüge entstehen kann. Dabei werden wir uns auch der fundamentalen Frage stellen müssen, wie sich eine neue Wissenskultur definiert, in der das Jahrtausende währende Kulturerbe der Schriftlichkeit des Wissens sich zu einer Flüchtigkeit des Wissens als Gebrauchsgut hin entwickelt. Es ist die gesellschaftliche Position der genuinen intellektuellen Leistung des Urhebers und Schöpfers einer Schriftlichkeit, die er an die "Wisdom of Community" abgibt. Parallel hierzu finden auch Divergenz-Prozesse statt, in der sich die Schriftlichkeit von dem Medium löst, um selbst laufend neue Konvergenz- Prozesse einzugehen, in denen nicht mehr der Inhalt das Medium bestimmt, sondern das Medium die charakteristischen Merkmale der Inhalte definiert.
    Eine Herausforderung dieser Arbeit lag in der Struktur der Wissensordnung zu dieser Thematik. Dabei sei erlaubt, mit dem erforderlichen Respekt sich auch in andere Fachgebiete hineinzuwagen, um diese Thematik in den historischen Kontext zur Entwicklung der Ordnungsprinzipien des Wissens zu stellen. Nur dadurch wird ersichtlich, wie diese Fragestellung in den jeweiligen Epochen sich immer wieder aufs Neue ergeben hat, altes und neues Wissen zu ordnen, um damit den Wissenstransfer zu fördern. Neue Erkenntnisse zu gewinnen bedeutet auch alte Erkenntnisse verstehen zu lernen. Da Wissen keine Grenzen hat, ist diese komplexe Thematik auch nicht fakultativ behandelt, sondern wurde interdisziplinär im Rahmen der Möglichkeiten in den jeweiligen Kontext gestellt. Für diese Arbeit ist die Methodik des deduktiven Prinzips der Wissensordnung gewählt worden.
    Im Teil A wird, neben dem menschlichen Urbedürfnis mit dem Streben nach dem Wissen, auf die vier epochalen Konvergenz-Zyklen mit ihren Kompetenzprofilen der Wissensordnungen im Wissenstransfer eingegangen. Insbesondere die Verschiebungen der Wissenschaftssprachen nehmen dabei einen erheblichen Einfluss auf die Abgrenzung der Klassifikationen zum impliziten, visuellen und explizitem Wissen. Daher werden den Äquivalenztypen im expliziten Wissensraum einer besonderen Aufmerksamkeit gewidmet, denn in unserer multilingualen Wissenslandschaft entstehen im Wissenstransfer zum Verfügungs-, Orientierungs- und Handlungswissen Artefakte, die auch auf die Gestaltung der Lernziel-Taxonomien einen Einfluss haben. Im Teil B werden zunächst die Arten, Merkmale und Klassifikationskonzepte des Wissens behandelt. Bei dem Versuch einer neuen Wissensordnung wird das kartesische / geodätische Koordinatensystem in ein Raum-Zeit-Gefüge gestellt, aus dem sich elf Wissensräume herauskristallisiert haben, die sowohl in ihren Definitionen, den damit verbundenen Ableitungen und Beispielen und einer Verortung im Wissensraum klassifiziert werden. Im Projekt <K-Space Visual Library in Dental Medicine> wird die problem- und aufgabenorientierte Navigation in den jeweiligen Wissensräumen erläutert und in der Diskussion die noch bevorstehenden Konvergenz-Forderungen der meist noch bestehenden proprietären digitalen Technologien und Programme skizziert, um diese bei der Modellierung der Wissensräume mit einzubeziehen.
    Im Teil C erfolgt zunächst auszugsweise die Beschreibung bestehender Dokumenten-Analysesysteme für die Bildung von aufgaben- und problemorientierten Wissensräumen, um dann in der Ableitung die Wissensmodelle nach dem Molekül- und Legoprinzip vorzustellen. Mit einer Diskussion zur gesamten Thematik und den Ergebnissen mit den sich aus der Arbeit ergebenden Thesen schließt diese Arbeit, die durch einen Rückblick, einen Einblick und einen Ausblick den Diskurs um die Genese einer neuen Ordnung des Wissens ein wenig beleben kann. Es ist dabei verständlich, dass diese Arbeit eine besondere Beziehung zur Zahn-, Mund- und Kieferheilkunde hat, da es die berufliche Wissenswelt ist, in der ich lebe.
    Content
    Dissertation zur Erlangung des Grades eines Doktors der Humanbiologie Doctor rerum biologicarum humanarum Vgl.: https://www.deutsche-digitale-bibliothek.de/binary/SKXBHJSDCMK7JOFRAVUCAMAU6UL5P5IR/full/1.pdf.
  20. Aufreiter, M.: Informationsvisualisierung und Navigation im Semantic Web (2008) 0.10
    0.09941533 = product of:
      0.19883066 = sum of:
        0.037689745 = weight(_text_:und in 4711) [ClassicSimilarity], result of:
          0.037689745 = score(doc=4711,freq=12.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.35989314 = fieldWeight in 4711, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4711)
        0.12716888 = weight(_text_:anwendung in 4711) [ClassicSimilarity], result of:
          0.12716888 = score(doc=4711,freq=6.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.5558977 = fieldWeight in 4711, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=4711)
        0.03397204 = weight(_text_:des in 4711) [ClassicSimilarity], result of:
          0.03397204 = score(doc=4711,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.25962257 = fieldWeight in 4711, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4711)
      0.5 = coord(3/6)
    
    Abstract
    Der Anreiz und das Potential von Informationsvisualisierungen wird bereits häufig erkannt und der Wunsch nach deren Anwendung immer stärker. Gerade im Bereich des Wissensmanagements spielt dieses Gebiet eine immer wichtigere Rolle. Diese Arbeit beschäftigt sich mit Informationsvisualisierung im Semantic Web und vermittelt einen Überblick über aktuelle Entwicklungen zum Thema Knowledge Visualization. Zun¨achst werden grundlegende Konzepte der Informationsvisualisierung vorgestellt und deren Bedeutung in Hinblick auf das Wissensmanagement erklärt. Aus den Anforderungen, die das Semantic Web an die Informationsvisualisierungen stellt, lassen sich Kriterien ableiten, die zur Beurteilung von Visualisierungstechniken herangezogen werden können. Die ausgewählten Kriterien werden im Rahmen dieser Arbeit zu einem Kriterienkatalog zusammengefasst. Schließlich werden ausgewählte Werkzeuge beschrieben, die im Wissensmanagement bereits erfolgreich Anwendung finden. Die einzelnen Untersuchungsobjekte werden nach einer detailierten Beschreibung anhand der ausgewählten Kriterien analysiert und bewertet. Dabei wird besonders auf deren Anwendung im Kontext des Semantic Web eingegangen.

Years

Languages

  • d 610
  • e 22
  • f 3
  • a 1
  • hu 1
  • More… Less…

Types

Themes

Subjects

Classifications