Search (167 results, page 1 of 9)

  • × theme_ss:"Wissensrepräsentation"
  • × year_i:[2000 TO 2010}
  1. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.10
    0.104158714 = product of:
      0.39927506 = sum of:
        0.024954692 = product of:
          0.074864075 = sum of:
            0.074864075 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.074864075 = score(doc=701,freq=2.0), product of:
                0.19980873 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.023567878 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.074864075 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.074864075 = score(doc=701,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.074864075 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.074864075 = score(doc=701,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.074864075 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.074864075 = score(doc=701,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.074864075 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.074864075 = score(doc=701,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.074864075 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.074864075 = score(doc=701,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.26086956 = coord(6/23)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  2. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2008) 0.03
    0.03010348 = product of:
      0.13847601 = sum of:
        0.021932216 = weight(_text_:und in 2461) [ClassicSimilarity], result of:
          0.021932216 = score(doc=2461,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.41987535 = fieldWeight in 2461, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2461)
        0.018109638 = product of:
          0.036219276 = sum of:
            0.036219276 = weight(_text_:bibliothekswesen in 2461) [ClassicSimilarity], result of:
              0.036219276 = score(doc=2461,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.34475547 = fieldWeight in 2461, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2461)
          0.5 = coord(1/2)
        0.036987606 = weight(_text_:informationswissenschaft in 2461) [ClassicSimilarity], result of:
          0.036987606 = score(doc=2461,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.348393 = fieldWeight in 2461, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2461)
        0.036219276 = weight(_text_:bibliothekswesen in 2461) [ClassicSimilarity], result of:
          0.036219276 = score(doc=2461,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.34475547 = fieldWeight in 2461, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2461)
        0.025227265 = weight(_text_:im in 2461) [ClassicSimilarity], result of:
          0.025227265 = score(doc=2461,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.37866634 = fieldWeight in 2461, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2461)
      0.2173913 = coord(5/23)
    
    Abstract
    Moderne Verfahren des Information Retrieval verlangen nach aussagekräftigen und detailliert relationierten Dokumentationssprachen. Der selektive Transfer einzelner Modellierungsstrategien aus dem Bereich semantischer Technologien für die Gestaltung und Relationierung bestehender Dokumentationssprachen wird diskutiert. Am Beispiel des Gegenstandsbereichs "Theater" der Schlagwortnormdatei wird ein hierarchisch strukturiertes Relationeninventar definiert, welches sowohl hinreichend allgemeine als auch zahlreiche spezifische Relationstypen enthält, welche eine detaillierte und damit funktionale Relationierung des Vokabulars ermöglichen. Die Relationierung des Gegenstandsbereichs wird als Ontologie im OWL-Format modelliert. Im Gegensatz zu anderen Ansätzen und Überlegungen zur Schaffung von Relationeninventaren entwickelt der vorgestellte Vorschlag das Relationeninventar aus der Begriffsmenge eines vorgegebenen Gegenstandsbereichs heraus. Das entwickelte Inventar wird als eine hierarchisch strukturierte Taxonomie gestaltet, was einen Zugewinn an Übersichtlichkeit und Funktionalität bringt.
    Footnote
    Diplomarbeit im Studiengang Bibliothekswesen
    Imprint
    Köln : Fachhochschule, Institut für Informationswissenschaft
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  3. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2008) 0.03
    0.029290007 = product of:
      0.13473403 = sum of:
        0.021707265 = weight(_text_:und in 1837) [ClassicSimilarity], result of:
          0.021707265 = score(doc=1837,freq=16.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.41556883 = fieldWeight in 1837, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
        0.015522547 = product of:
          0.031045094 = sum of:
            0.031045094 = weight(_text_:bibliothekswesen in 1837) [ClassicSimilarity], result of:
              0.031045094 = score(doc=1837,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2955047 = fieldWeight in 1837, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1837)
          0.5 = coord(1/2)
        0.04483575 = weight(_text_:informationswissenschaft in 1837) [ClassicSimilarity], result of:
          0.04483575 = score(doc=1837,freq=4.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.42231607 = fieldWeight in 1837, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
        0.031045094 = weight(_text_:bibliothekswesen in 1837) [ClassicSimilarity], result of:
          0.031045094 = score(doc=1837,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.2955047 = fieldWeight in 1837, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
        0.02162337 = weight(_text_:im in 1837) [ClassicSimilarity], result of:
          0.02162337 = score(doc=1837,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.32457113 = fieldWeight in 1837, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
      0.2173913 = coord(5/23)
    
    Abstract
    Moderne Verfahren des Information Retrieval verlangen nach aussagekräftigen und detailliert relationierten Dokumentationssprachen. Der selektive Transfer einzelner Modellierungsstrategien aus dem Bereich semantischer Technologien für die Gestaltung und Relationierung bestehender Dokumentationssprachen wird diskutiert. Am Beispiel des Gegenstandsbereichs "Theater" der Schlagwortnormdatei wird ein hierarchisch strukturiertes Relationeninventar definiert, welches sowohl hinreichend allgemeine als auch zahlreiche spezifische Relationstypen enthält, welche eine detaillierte und damit funktionale Relationierung des Vokabulars ermöglichen. Die Relationierung des Gegenstandsbereichs wird als Ontologie im OWL-Format modelliert. Im Gegensatz zu anderen Ansätzen und Überlegungen zur Schaffung von Relationeninventaren entwickelt der vorgestellte Vorschlag das Relationeninventar aus der Begriffsmenge eines vorgegebenen Gegenstandsbereichs heraus. Das entwickelte Inventar wird als eine hierarchisch strukturierte Taxonomie gestaltet, was einen Zugewinn an Übersichtlichkeit und Funktionalität bringt.
    Footnote
    Überarb. Version der Diplomarbeit im Studiengang Bibliothekswesen
    Imprint
    Köln : Fachhochschule, Fakultät für Informations- und Kommunikationswissenschaften, Institut für Informationswissenschaft
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd. 54
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  4. Müller, T.: Wissensrepräsentation mit semantischen Netzen im Bereich Luftfahrt (2006) 0.03
    0.02794133 = product of:
      0.10710843 = sum of:
        0.019186692 = weight(_text_:und in 1670) [ClassicSimilarity], result of:
          0.019186692 = score(doc=1670,freq=18.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.3673144 = fieldWeight in 1670, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1670)
        0.012935456 = product of:
          0.025870912 = sum of:
            0.025870912 = weight(_text_:bibliothekswesen in 1670) [ClassicSimilarity], result of:
              0.025870912 = score(doc=1670,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.24625391 = fieldWeight in 1670, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1670)
          0.5 = coord(1/2)
        0.026419718 = weight(_text_:informationswissenschaft in 1670) [ClassicSimilarity], result of:
          0.026419718 = score(doc=1670,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.24885213 = fieldWeight in 1670, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1670)
        0.025870912 = weight(_text_:bibliothekswesen in 1670) [ClassicSimilarity], result of:
          0.025870912 = score(doc=1670,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.24625391 = fieldWeight in 1670, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1670)
        0.014712838 = weight(_text_:im in 1670) [ClassicSimilarity], result of:
          0.014712838 = score(doc=1670,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.22084267 = fieldWeight in 1670, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1670)
        0.007982805 = product of:
          0.01596561 = sum of:
            0.01596561 = weight(_text_:22 in 1670) [ClassicSimilarity], result of:
              0.01596561 = score(doc=1670,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.19345059 = fieldWeight in 1670, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1670)
          0.5 = coord(1/2)
      0.26086956 = coord(6/23)
    
    Abstract
    Es ist ein semantisches Netz für den Gegenstandsbereich Luftfahrt modelliert worden, welches Unternehmensinformationen, Organisationen, Fluglinien, Flughäfen, etc. enthält, Diese sind 10 Hauptkategorien zugeordnet worden, die untergliedert nach Facetten sind. Die Begriffe des Gegenstandsbereiches sind mit 23 unterschiedlichen Relationen verknüpft worden (Z. B.: 'hat Standort in', bietet an, 'ist Homebase von', etc). Der Schwerpunkt der Betrachtung liegt auf dem Unterschied zwischen den drei klassischen Standardrelationen und den zusätzlich eingerichteten Relationen, bezüglich ihrem Nutzen für ein effizientes Retrieval. Die angelegten Kategorien und Relationen sind sowohl für eine kognitive als auch für eine maschinelle Verarbeitung geeignet.
    Das Ziel der vorliegenden Arbeit ist es, ein Modell für ein Informationssystems zu erstellen und die Voraussetzungen und Aspekte zu betrachten, die notwendig sind, um Einsichten in die begrifflichen Zusammenhänge des Gegenstandsbereiches Luftfahrt zu erlangen. Der Ansatz, der hier erläutert wird, plädiert für die Konstruktion einer begrifflichen Wissensstruktur in Form eines semantischen Netzes. Ausgangspunkt dieser Überlegungen ist die Auffassung, daß zwar das kontrollierte Vokabular eines Thesaurus mit seiner Verweisstruktur vielfältiges Wissen enthält, das aber aufgrund der drei klassischen Standardrelationen nur unzureichend repräsentiert und damit auch nur beschränkt zugänglich ist. Es wird erläutert, welche Vorteile eine Erweiterung der drei Thesaurusrelationen erbringen kann und in welcher Funktion die Relationen bei der Formulierung der Suchanfrage unterstützend sein können. Gezeigt wird, wie die Begriffstrukturen eines semantischen Netzes deutlicher hervortreten, wenn bei der Erstellung einer Wissensstruktur eines Gegenstandsbereiches Kategorien zugrunde gelegt werden und welche Gestaltungsprinzipien den Suchprozeß unterstützen können. Dazu werden die Voraussetzungen erörtert, die garantieren, daß komplexe Suchanfragen (erfolgreich) geleistet werden können und zu präzisen Treffermengen führen.
    Date
    26. 9.2006 21:00:22
    Footnote
    Diplomarbeit im Studiengang Bibliothekswesen
    Imprint
    Köln : Fachhochschule, Institut für Informationswissenschaft
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  5. Erbarth, M.: Wissensrepräsentation mit semantischen Netzen : Grundlagen mit einem Anwendungsbeispiel für das Multi-Channel-Publishing (2006) 0.02
    0.021530993 = product of:
      0.12380321 = sum of:
        0.059935786 = weight(_text_:allgemeines in 714) [ClassicSimilarity], result of:
          0.059935786 = score(doc=714,freq=4.0), product of:
            0.13446471 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.023567878 = queryNorm
            0.44573617 = fieldWeight in 714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=714)
        0.019186692 = weight(_text_:und in 714) [ClassicSimilarity], result of:
          0.019186692 = score(doc=714,freq=18.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.3673144 = fieldWeight in 714, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=714)
        0.014712838 = weight(_text_:im in 714) [ClassicSimilarity], result of:
          0.014712838 = score(doc=714,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.22084267 = fieldWeight in 714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=714)
        0.029967893 = product of:
          0.059935786 = sum of:
            0.059935786 = weight(_text_:allgemeines in 714) [ClassicSimilarity], result of:
              0.059935786 = score(doc=714,freq=4.0), product of:
                0.13446471 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.023567878 = queryNorm
                0.44573617 = fieldWeight in 714, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=714)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    "Wir ertrinken in Informationen, aber uns dürstet nach Wissen." Trendforscher John Naisbitt drückt hiermit aus, dass es dem Menschen heute nicht mehr möglich ist die Informationsflut, die sich über ihn ergießt, effizient zu verwerten. Er lebt in einer globalisierten Welt mit einem vielfältigen Angebot an Medien, wie Presse, Radio, Fernsehen und dem Internet. Die Problematik der mangelnden Auswertbarkeit von großen Informationsmengen ist dabei vor allem im Internet akut. Die Quantität, Verbreitung, Aktualität und Verfügbarkeit sind die großen Vorteile des World Wide Web (WWW). Die Probleme liegen in der Qualität und Dichte der Informationen. Das Information Retrieval muss effizienter gestaltet werden, um den wirtschaftlichen und kulturellen Nutzen einer vernetzten Welt zu erhalten.Matthias Erbarth beleuchtet zunächst genau diesen Themenkomplex, um im Anschluss ein Format für elektronische Dokumente, insbesondere kommerzielle Publikationen, zu entwickeln. Dieses Anwendungsbeispiel stellt eine semantische Inhaltsbeschreibung mit Metadaten mittels XML vor, wobei durch Nutzung von Verweisen und Auswertung von Zusammenhängen insbesondere eine netzförmige Darstellung berücksichtigt wird.
    Classification
    AP 15860 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Formen der Kommunikation und des Kommunikationsdesigns / Kommunikationsdesign in elektronischen Medien
    RVK
    AP 15860 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Formen der Kommunikation und des Kommunikationsdesigns / Kommunikationsdesign in elektronischen Medien
  6. Panyr, J.: Thesauri, Semantische Netze, Frames, Topic Maps, Taxonomien, Ontologien - begriffliche Verwirrung oder konzeptionelle Vielfalt? (2006) 0.02
    0.020438595 = product of:
      0.094017535 = sum of:
        0.0144715095 = weight(_text_:und in 6058) [ClassicSimilarity], result of:
          0.0144715095 = score(doc=6058,freq=16.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.27704588 = fieldWeight in 6058, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6058)
        0.010348365 = product of:
          0.02069673 = sum of:
            0.02069673 = weight(_text_:bibliothekswesen in 6058) [ClassicSimilarity], result of:
              0.02069673 = score(doc=6058,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.19700313 = fieldWeight in 6058, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.03125 = fieldNorm(doc=6058)
          0.5 = coord(1/2)
        0.0298905 = weight(_text_:informationswissenschaft in 6058) [ClassicSimilarity], result of:
          0.0298905 = score(doc=6058,freq=4.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.28154406 = fieldWeight in 6058, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=6058)
        0.02069673 = weight(_text_:bibliothekswesen in 6058) [ClassicSimilarity], result of:
          0.02069673 = score(doc=6058,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.19700313 = fieldWeight in 6058, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.03125 = fieldNorm(doc=6058)
        0.018610433 = weight(_text_:im in 6058) [ClassicSimilarity], result of:
          0.018610433 = score(doc=6058,freq=10.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.27934635 = fieldWeight in 6058, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=6058)
      0.2173913 = coord(5/23)
    
    Abstract
    Mit der Verbreitung des Internets und insbesondere mit der Einführung des Begriffes Semantic Web wurde eine Reihe von neuen Begriffen (Termini) für nicht immer neue Entwicklungen eingeführt, ohne dass die bisherige Begriffsbildung bzw. die schon angewandten Lösungen in benachbarten Fachgebieten hinreichend berücksichtigt wurden. Dabei wird manchmal der Eindruck erweckt, dass die populären Anwendungszweige der Informatik (oder auch der Informationswissenschaft) hauptsächlich durch wirksame Schlagworte gesteuert werden. Im deutschsprachigen Raum kommt auch noch die oftmals (vermeintlich) werbewirksame Verwendung der nicht übersetzten englischen Ausdrücke im Original oder als eingedeutschter Termini. Letzteres führt dabei nicht selten zur semantischen Verschiebungen der Bedeutung der ursprünglichen Begriffe. So z.B. wird das englische Wort concept (entspricht dem deutschen Wort Begriff) mit allen seinen Ableitungen (wie z.B. conceptualization - Verbegrifflichung, conceptual - begrifflich) in der eingedeutschten unübersetzten Form fälschlich verwendet, ohne dass diese Wortschöpfungen dabei näher erläutert werden. Es wird dadurch der Eindruck erweckt, dass etwas inhaltlich Neues eingeführt wird. Häufig werden diese Begriffe auch nebeneinander verwendet, wie z.B. in der Definition von Ontologie in der Internet-Enzyklopädie Wikipedia " ... System von Begriffen und/oder Konzepten und Relationen zwischen diesen Begriffen". In den zahlreichen Studien über die Ontologie wird auf die Möglichkeit ähnlicher Verwendung von Thesauri nicht eingegangen, sie existieren im Kontext der Veröffentlichung überhaupt nicht (vgl. z.B. die Studie von Smith (2003), die jedoch mit Bezug zu Philosophie gerade zu überfrachtet wird). In der folgenden Arbeit werden verwandte Repräsentationsarten, wie z.B. Thesaurus, semantisches Netz, Frames, Themenkarten (Topic Maps) und Ontologie definiert. Die Gemeinsamkeiten dieser Repräsentationsformen werden dabei im Vordergrund stehen. Die in der Literatur häufig betonten Unterschiede sind manchmal aus der Unkenntnis der theoretischen Basis dieser Ansätze abzuleiten. Eine Koexistenz jeweiliger Repräsentation ist vonnöten. Im Vordergrund des Aufsatzes steht die mögliche Wechselwirkung zwischen Ontologien und Thesauri.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  7. Schubert, C.; Kinkeldey, C.; Reich, H.: Handbuch Datenbankanwendung zur Wissensrepräsentation im Verbundprojekt DeCOVER (2006) 0.01
    0.014806522 = product of:
      0.0851375 = sum of:
        0.0144715095 = weight(_text_:und in 4256) [ClassicSimilarity], result of:
          0.0144715095 = score(doc=4256,freq=4.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.27704588 = fieldWeight in 4256, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4256)
        0.034237023 = product of:
          0.06847405 = sum of:
            0.06847405 = weight(_text_:kataloge in 4256) [ClassicSimilarity], result of:
              0.06847405 = score(doc=4256,freq=2.0), product of:
                0.1351219 = queryWeight, product of:
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.023567878 = queryNorm
                0.5067576 = fieldWeight in 4256, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4256)
          0.5 = coord(1/2)
        0.023540542 = weight(_text_:im in 4256) [ClassicSimilarity], result of:
          0.023540542 = score(doc=4256,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.35334828 = fieldWeight in 4256, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=4256)
        0.012888429 = product of:
          0.025776858 = sum of:
            0.025776858 = weight(_text_:29 in 4256) [ClassicSimilarity], result of:
              0.025776858 = score(doc=4256,freq=2.0), product of:
                0.08290443 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.023567878 = queryNorm
                0.31092256 = fieldWeight in 4256, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4256)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Die Datenbank basierte Objektartenbeschreibung dient zur eigenschaftsbasierten Aufnahme aller Objektarten der Kataloge BNTK, CLC; GMES M 2.1, ATKIS und des DeCOVER Vorschlags. Das Ziel der Datenbankanwendung besteht in der 'manuellen' Beziehungsauswertung und Darstellung der gesamten Objektarten bezogen auf die erstellte Wissensrepräsentation. Anhand einer hierarchisch strukturierten Wissensrepräsentation lassen sich mit Ontologien Überführungen von Objektarten verwirklichen, die im Sinne der semantischen Interoperabilität als Zielstellung in dem Verbundprojekt DeCOVER besteht.
    Date
    29. 1.2011 18:45:23
  8. Helbig, H.: Wissensverarbeitung und die Semantik der natürlichen Sprache : Wissensrepräsentation mit MultiNet (2008) 0.01
    0.0136817815 = product of:
      0.07867024 = sum of:
        0.039801437 = weight(_text_:buch in 2731) [ClassicSimilarity], result of:
          0.039801437 = score(doc=2731,freq=4.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.36323205 = fieldWeight in 2731, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.016921071 = weight(_text_:und in 2731) [ClassicSimilarity], result of:
          0.016921071 = score(doc=2731,freq=14.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.32394084 = fieldWeight in 2731, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.018019475 = weight(_text_:im in 2731) [ClassicSimilarity], result of:
          0.018019475 = score(doc=2731,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.27047595 = fieldWeight in 2731, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.0039282576 = product of:
          0.007856515 = sum of:
            0.007856515 = weight(_text_:1 in 2731) [ClassicSimilarity], result of:
              0.007856515 = score(doc=2731,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.13570388 = fieldWeight in 2731, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2731)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Das Buch gibt eine umfassende Darstellung einer Methodik zur Interpretation und Bedeutungsrepräsentation natürlichsprachlicher Ausdrücke. Diese Methodik der "Mehrschichtigen Erweiterten Semantischen Netze", das sogenannte MultiNet-Paradigma, ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Im ersten Teil des zweiteiligen Buches werden grundlegende Probleme der semantischen Repräsentation von Wissen bzw. der semantischen Interpretation natürlichsprachlicher Phänomene behandelt. Der zweite Teil enthält eine systematische Zusammenstellung des gesamten Repertoires von Darstellungsmitteln, die jeweils nach einem einheitlichen Schema beschrieben werden. Er dient als Kompendium der im Buch verwendeten formalen Beschreibungsmittel von MultiNet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation im Rahmen der automatischen Sprachverarbeitung sichern. Hierzu gehören: eine Werkbank für den Wissensingenieur, ein Übersetzungssystem zur automatischen Gewinnung von Bedeutungsdarstellungen natürlichsprachlicher Sätze und eine Werkbank für den Computerlexikographen. Der Inhalt des Buches beruht auf jahrzehntelanger Forschung auf dem Gebiet der automatischen Sprachverarbeitung und wurde mit Vorlesungen zur Künstlichen Intelligenz und Wissensverarbeitung an der TU Dresden und der FernUniversität Hagen wiederholt in der Hochschullehre eingesetzt. Als Vorkenntnisse werden beim Leser lediglich Grundlagen der traditionellen Grammatik und elementare Kenntnisse der Prädikatenlogik vorausgesetzt.
    Content
    1. Aufl. u.d.T.: Die semantische Struktur natürlicher Sprache
  9. Beierle, C.; Kern-Isberner, G.: Methoden wissensbasierter Systeme : Grundlagen, Algorithmen, Anwendungen (2008) 0.01
    0.013238731 = product of:
      0.0761227 = sum of:
        0.045030188 = weight(_text_:buch in 4622) [ClassicSimilarity], result of:
          0.045030188 = score(doc=4622,freq=8.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.41095015 = fieldWeight in 4622, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.03125 = fieldNorm(doc=4622)
        0.01617964 = weight(_text_:und in 4622) [ClassicSimilarity], result of:
          0.01617964 = score(doc=4622,freq=20.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.3097467 = fieldWeight in 4622, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4622)
        0.011770271 = weight(_text_:im in 4622) [ClassicSimilarity], result of:
          0.011770271 = score(doc=4622,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.17667414 = fieldWeight in 4622, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=4622)
        0.0031426062 = product of:
          0.0062852125 = sum of:
            0.0062852125 = weight(_text_:1 in 4622) [ClassicSimilarity], result of:
              0.0062852125 = score(doc=4622,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.1085631 = fieldWeight in 4622, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4622)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Dieses Buch präsentiert ein breites Spektrum aktueller Methoden zur Repräsentation und Verarbeitung (un)sicheren Wissens in maschinellen Systemen in didaktisch aufbereiteter Form. Neben symbolischen Ansätzen des nichtmonotonen Schließens (Default-Logik, hier konstruktiv und leicht verständlich mittels sog. Default-Bäume realisiert) werden auch ausführlich quantitative Methoden wie z.B. probabilistische Markov- und Bayes-Netze vorgestellt. Weitere Abschnitte beschäftigen sich mit Wissensdynamik (Truth Maintenance-Systeme), Aktionen und Planen, maschinellem Lernen, Data Mining und fallbasiertem Schließen.In einem vertieften Querschnitt werden zentrale alternative Ansätze einer logikbasierten Wissensmodellierung ausführlich behandelt. Detailliert beschriebene Algorithmen geben dem Praktiker nützliche Hinweise zur Anwendung der vorgestellten Ansätze an die Hand, während fundiertes Hintergrundwissen ein tieferes Verständnis für die Besonderheiten der einzelnen Methoden vermittelt . Mit einer weitgehend vollständigen Darstellung des Stoffes und zahlreichen, in den Text integrierten Aufgaben ist das Buch für ein Selbststudium konzipiert, eignet sich aber gleichermaßen für eine entsprechende Vorlesung. Im Online-Service zu diesem Buch werden u.a. ausführliche Lösungshinweise zu allen Aufgaben des Buches angeboten.Zahlreiche Beispiele mit medizinischem, biologischem, wirtschaftlichem und technischem Hintergrund illustrieren konkrete Anwendungsszenarien. Von namhaften Professoren empfohlen: State-of-the-Art bietet das Buch zu diesem klassischen Bereich der Informatik. Die wesentlichen Methoden wissensbasierter Systeme werden verständlich und anschaulich dargestellt. Repräsentation und Verarbeitung sicheren und unsicheren Wissens in maschinellen Systemen stehen dabei im Mittelpunkt. In der vierten, verbesserten Auflage wurde die Anzahl der motivierenden Selbsttestaufgaben mit aktuellem Praxisbezug nochmals erweitert. Ein Online-Service mit ausführlichen Musterlösungen erleichtert das Lernen.
    Isbn
    978-3-8348-0504-1
  10. Fenske, M.: Modell eines automatisierbaren syntaktischen Metathesaurus und seine Eignung für parlamentarische Thesauri im Internet (2006) 0.01
    0.013179173 = product of:
      0.07578024 = sum of:
        0.021707265 = weight(_text_:und in 32) [ClassicSimilarity], result of:
          0.021707265 = score(doc=32,freq=16.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.41556883 = fieldWeight in 32, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=32)
        0.031703662 = weight(_text_:informationswissenschaft in 32) [ClassicSimilarity], result of:
          0.031703662 = score(doc=32,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.29862255 = fieldWeight in 32, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=32)
        0.017655406 = weight(_text_:im in 32) [ClassicSimilarity], result of:
          0.017655406 = score(doc=32,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.26501122 = fieldWeight in 32, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=32)
        0.0047139092 = product of:
          0.0094278185 = sum of:
            0.0094278185 = weight(_text_:1 in 32) [ClassicSimilarity], result of:
              0.0094278185 = score(doc=32,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.16284466 = fieldWeight in 32, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=32)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Es werden Konzepte eines syntaktischen Metathesaurus, der identische Benennungen und deren Relationen aufeinander abbildet, vorgestellt und von semantischen Metathesauri abgegrenzt. Dieses aus mehreren Konzepten bestehende Modell bietet sich für die automatische Zusammenführung weit gehend übereinstimmender Thesauri zu einem virtuellen Metathesaurus an, den man in Internetportale und Suchmaschinen integrieren kann. Besondere Vorteile sind hierbei das günstige Kosten-Nutzen- Verhältnis und die geringen technischen Anforderungen eines syntaktischen Metathesaurus. Es werden die Inkonsistenzen bei der Zusammenführung inhomogener Thesauri ausführlich beschrieben und Möglichkeiten zur Konsistenzverbesserung angeboten. Ein syntaktisches Thesauruskonzept eignet sich für den Einsatz bei der Websuche in Parlamentsinformationssystemen, wie z. B. dem Parlamentsspiegel, einer Datenbank zum Nachweis der deutschen Parlamentsmaterialien.
    Series
    Beiträge zur Bibliotheks- und Informationswissenschaft; 1
    Source
    Vom Wandel der Wissensorganisation im Informationszeitalter: Festschrift für Walther Umstätter zum 65. Geburtstag, hrsg. von P. Hauke u. K. Umlauf
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  11. Handbook on ontologies (2004) 0.01
    0.012671453 = product of:
      0.09714781 = sum of:
        0.059935786 = weight(_text_:allgemeines in 1952) [ClassicSimilarity], result of:
          0.059935786 = score(doc=1952,freq=4.0), product of:
            0.13446471 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.023567878 = queryNorm
            0.44573617 = fieldWeight in 1952, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1952)
        0.0072441325 = product of:
          0.014488265 = sum of:
            0.014488265 = weight(_text_:international in 1952) [ClassicSimilarity], result of:
              0.014488265 = score(doc=1952,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.18428308 = fieldWeight in 1952, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1952)
          0.5 = coord(1/2)
        0.029967893 = product of:
          0.059935786 = sum of:
            0.059935786 = weight(_text_:allgemeines in 1952) [ClassicSimilarity], result of:
              0.059935786 = score(doc=1952,freq=4.0), product of:
                0.13446471 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.023567878 = queryNorm
                0.44573617 = fieldWeight in 1952, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1952)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Classification
    ST 300 Informatik / Monographien / Künstliche Intelligenz / Allgemeines
    RVK
    ST 300 Informatik / Monographien / Künstliche Intelligenz / Allgemeines
    Series
    International handbook on information systems
  12. Harbig, D.; Schneider, R.: Ontology Learning im Rahmen von MyShelf (2006) 0.01
    0.012619227 = product of:
      0.072560556 = sum of:
        0.015508419 = weight(_text_:und in 5781) [ClassicSimilarity], result of:
          0.015508419 = score(doc=5781,freq=6.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.2968967 = fieldWeight in 5781, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5781)
        0.036987606 = weight(_text_:informationswissenschaft in 5781) [ClassicSimilarity], result of:
          0.036987606 = score(doc=5781,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.348393 = fieldWeight in 5781, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5781)
        0.014564968 = weight(_text_:im in 5781) [ClassicSimilarity], result of:
          0.014564968 = score(doc=5781,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.2186231 = fieldWeight in 5781, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5781)
        0.005499561 = product of:
          0.010999122 = sum of:
            0.010999122 = weight(_text_:1 in 5781) [ClassicSimilarity], result of:
              0.010999122 = score(doc=5781,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.18998542 = fieldWeight in 5781, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5781)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Date
    1. 9.2006 13:32:03
    Series
    Schriften zur Informationswissenschaft; Bd.45
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  13. Maier, A.; Peters, A.: Entwicklung eines interaktiven dynamischen semantischen Netzes mit multimedialen Informationsobjekten am Beispiel eines wissenschaftlichen digitalen Schriftarchivs (2004) 0.01
    0.012103441 = product of:
      0.09279305 = sum of:
        0.045030188 = weight(_text_:buch in 4732) [ClassicSimilarity], result of:
          0.045030188 = score(doc=4732,freq=2.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.41095015 = fieldWeight in 4732, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0625 = fieldNorm(doc=4732)
        0.0144715095 = weight(_text_:und in 4732) [ClassicSimilarity], result of:
          0.0144715095 = score(doc=4732,freq=4.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.27704588 = fieldWeight in 4732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4732)
        0.033291355 = weight(_text_:im in 4732) [ClassicSimilarity], result of:
          0.033291355 = score(doc=4732,freq=8.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.49970993 = fieldWeight in 4732, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=4732)
      0.13043478 = coord(3/23)
    
    Abstract
    Im ersten Teil wird eine Idee zur Darstellung von Informationen und deren Beziehungen in einem semantischen Netzwerk beschrieben. Eine mögliche Realisierung der Idee wird an einem Beispiel gezeigt. Im zweiten Teil wird beschrieben, wie die Informationsobjekte, die in einem Bild enthalten sind, mit zusätzlichen multimedialen Informationen versehen werden können. Als Informationsbestand diente ein digitales Schriftarchiv, das im Rahmen des Forschungsprojektes "Hebräische Typographie im deutschsprachigen Raum" entstanden wurde.
    Form
    Altes Buch
    Imprint
    Gummersbach : Fachhochschule Köln / Campus Gummersbach Fakultät für Informatik und Ingenieurwissenschaften
  14. Sigel, A.: Was leisten Topic Maps? (2001) 0.01
    0.010642105 = product of:
      0.08158947 = sum of:
        0.02426946 = weight(_text_:und in 5855) [ClassicSimilarity], result of:
          0.02426946 = score(doc=5855,freq=20.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.46462005 = fieldWeight in 5855, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5855)
        0.04483575 = weight(_text_:informationswissenschaft in 5855) [ClassicSimilarity], result of:
          0.04483575 = score(doc=5855,freq=4.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.42231607 = fieldWeight in 5855, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5855)
        0.012484257 = weight(_text_:im in 5855) [ClassicSimilarity], result of:
          0.012484257 = score(doc=5855,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 5855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=5855)
      0.13043478 = coord(3/23)
    
    Abstract
    Dieser Kurzbeitrag skizziert das Potenzial der Topic Map-Technologie (ISO/IEC 13250 und XTM 1.0) für die Wissensorganisation und veranschaulicht dies anhand einer Liste fruchtbarer Anwendungsfälle (Use Cases). Er berichtet auch knapp über erste Erfahrungen bei der experimentellen Anwendung. Am Beispiel von Informationsressourcen zur Thematik sozialwissenschaftlicher Migration werden Möglichkeiten und Grenzen von Topic Maps für die inhaltliche Erschließung und semantische Suche aufgezeigt werden. Da es sich um eine terminologisch "weiche" Donnerte handelt, ist von besonderem Interesse, wie sich komplexe Relationen und multiple Indexierungssichten umsetzen lassen und wie sich diese auf das Retrieval-Ergebnis auswirken
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  15. Pichler, R.: Annäherung an die Bildsprache : Ontologien als Hilfsmittel für Bilderschliessung und Bildrecherche in Kunstbilddatenbanken (2007) 0.01
    0.010642105 = product of:
      0.08158947 = sum of:
        0.02426946 = weight(_text_:und in 4821) [ClassicSimilarity], result of:
          0.02426946 = score(doc=4821,freq=20.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.46462005 = fieldWeight in 4821, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4821)
        0.04483575 = weight(_text_:informationswissenschaft in 4821) [ClassicSimilarity], result of:
          0.04483575 = score(doc=4821,freq=4.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.42231607 = fieldWeight in 4821, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=4821)
        0.012484257 = weight(_text_:im in 4821) [ClassicSimilarity], result of:
          0.012484257 = score(doc=4821,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 4821, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4821)
      0.13043478 = coord(3/23)
    
    Abstract
    Der grundsätzliche Unterschied zwischen der verbalen Sprache und der so genannten Bildsprache führt zu erheblichen Schwierigkeiten bei der Bilderschliessung und der Bildrecherche. Die heute übliche inhaltliche Bilderschliessung mit einzelnen Schlagwörtern ist häufig unbefriedigend, insbesondere was die Erschliessung der verschiedenen Bildbedeutungen und -wirkungen betrifft. Um eine Annäherung an die Bildsprache erreichen zu können, wird in der vorliegenden Arbeit vorgeschlagen, Bilder als komplexe Zeichensysteme aus Motiv- und Bildelementen, Bedeutungen und Wirkungen zu verstehen. Diese Zeichensysteme werden in Ontologien festgehalten, womit die Relationen zwischen den verschiedenen Bildzeichen aufgezeigt werden. Dabei wird untersucht, inwiefern mit solchen Ontologien Bildbedeutungen und -wirkungen erschlossen werden können und wie mit Ontologien sowohl eine einheitliche als auch eine umfassende Bilderschliessung realisiert werden kann, die auch für die Bildrecherche grosse Vorteile bietet.
    Content
    Diese Publikation entstand im Rahmen einer Diplomarbeit zum Abschluss als dipl. Informations- und Dokumentationsspezialist FH. Vgl. unter: http://www.fh-htwchur.ch/uploads/media/CSI_34_Frei.pdf.
    Imprint
    Chur : Hochschule für Technik und Wirtschaft
    Series
    Churer Schriften zur Informationswissenschaft / Arbeitsbereich Informationswissenschaft; Schrift 18
  16. Stuckenschmidt, H.: Ontologien : Konzepte, Technologien und Anwendungen (2009) 0.01
    0.010161778 = product of:
      0.077906966 = sum of:
        0.039401412 = weight(_text_:buch in 37) [ClassicSimilarity], result of:
          0.039401412 = score(doc=37,freq=2.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.35958138 = fieldWeight in 37, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0546875 = fieldNorm(doc=37)
        0.01790758 = weight(_text_:und in 37) [ClassicSimilarity], result of:
          0.01790758 = score(doc=37,freq=8.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.34282678 = fieldWeight in 37, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=37)
        0.020597974 = weight(_text_:im in 37) [ClassicSimilarity], result of:
          0.020597974 = score(doc=37,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.30917975 = fieldWeight in 37, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=37)
      0.13043478 = coord(3/23)
    
    Abstract
    Ontologien haben durch die aktuellen Entwicklungen des Semantic Web große Beachtung erfahren, da jetzt Technologien bereitgestellt werden, die eine Verwendung von Ontologien in Informationssystemen ermöglichen. Beginnend mit den grundlegenden Konzepten und Ideen von Ontologien, die der Philosophie und Linguistik entstammen, stellt das Buch den aktuellen Stand der Technik im Bereich unterstützender Technologien aus der Semantic Web Forschung dar und zeigt vielversprechende Anwendungsbiete auf.
    Series
    Informatik im Fokus
  17. Hanke, P.; Mandl, T.; Womser-Hacker, C.: ¬Ein "Virtuelles Bibliotheksregal" für die Informationswissenschaft als Anwendungsfall semantischer Heterogenität (2002) 0.01
    0.0076250425 = product of:
      0.087687984 = sum of:
        0.0144715095 = weight(_text_:und in 4858) [ClassicSimilarity], result of:
          0.0144715095 = score(doc=4858,freq=4.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.27704588 = fieldWeight in 4858, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4858)
        0.073216476 = weight(_text_:informationswissenschaft in 4858) [ClassicSimilarity], result of:
          0.073216476 = score(doc=4858,freq=6.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.68963933 = fieldWeight in 4858, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=4858)
      0.08695652 = coord(2/23)
    
    Series
    Schriften zur Informationswissenschaft; Bd.40
    Source
    Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker
  18. Stollberg, M.: Ontologiebasierte Wissensmodellierung : Verwendung als semantischer Grundbaustein des Semantic Web (2002) 0.01
    0.007262638 = product of:
      0.055680223 = sum of:
        0.014157185 = weight(_text_:und in 4495) [ClassicSimilarity], result of:
          0.014157185 = score(doc=4495,freq=20.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.27102837 = fieldWeight in 4495, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.018493803 = weight(_text_:informationswissenschaft in 4495) [ClassicSimilarity], result of:
          0.018493803 = score(doc=4495,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.1741965 = fieldWeight in 4495, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.023029236 = weight(_text_:im in 4495) [ClassicSimilarity], result of:
          0.023029236 = score(doc=4495,freq=20.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.34567347 = fieldWeight in 4495, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
      0.13043478 = coord(3/23)
    
    Abstract
    In Kapitel A werden die Grundlagen von Ontologien als Verfahren der Wissensmodellierung erarbeitet. Dazu wird zunächst die definitorische Erfassung von Ontologien erläutert. Zur Erlangung eines fundierten Verständnisses von Wissensmodellierung und der Besonderheiten ontologiebasierter Verfahren ist die Eingliederung dieser in den relevanten wissenschaftlichen Kontext erforderlich. Die in diesem Zusammenhang betrachtete Art der Wissensmodellierung dient vornehmlich als konzeptionelle Grundlage für die Erstellung wissensverarbeitender Computersysteme. Die Entwicklung derartiger Systeme ist das Hauptanliegen der Künstlichen Intelligenz, weshalb eine Positionierung ontologiebasierter Verfahren in derselben vorgenommen wird. Dabei sind vor allem jene Ansätze interessant, auf denen ontologiebasierte Verfahren aufbauen. Zunächst werden daher die grundlegenden theoretischen Aspekte der Wissensrepräsentation erläutert und anschließend daran die Bedeutung von Ontologien im Knowledge Engineering aufgezeigt, um den Verwendungskontext derartiger Verfahren der Wissensmodellierung zu verdeutlichen. Aufbauend darauf werden die spezifischen Eigenschaften ontologiebasierter Verfahren der Wissensmodellierung erörtert, wodurch ein grundlegendes Verständnis dieser Methodik erreicht werden soll.
    Der in Kapitel B behandelte Schwerpunkt ist die Ontologie-Entwicklung. Nach der Erfassung der grundlegenden Charakteristika ontologiebasierter Wissensmodellierung stehen hier die Anforderungen bei der Erstellung einer Ontologie im Vordergrund. Dazu werden die wesentlichen diesbezüglichen Errungenschaften des sogenannten Ontology Engineering erörtert. Es werden zunächst methodologische Ansätze für den Entwicklungsprozess von Ontologien sowie für die einzelnen Aufgabengebiete entwickelter Techniken und Verfahren vorgestellt. Anschließend daran werden Design-Kriterien und ein Ansatz zur Meta-Modellierung besprochen, welche der Qualitätssicherung einer Ontologie dienen sollen. Diese Betrachtungen sollen eine Übersicht über den Erkenntnisstand des Ontology Engineering geben, womit ein wesentlicher Aspekt zur Nutzung ontologiebasierter Verfahren der Wissensmodellierung im Semantic Web abgedeckt wird. Als letzter Aspekt zur Erfassung der Charakteristika ontologiebasierter Wissensmodellierung wird in Kapitel C die Fragestellung bearbeitet, wie Ontologien in Informationssystemen eingesetzt werden können. Dazu werden zunächst die Verwendungsmöglichkeiten von Ontologien identifiziert. Dann werden Anwendungsgebiete von Ontologien vorgestellt, welche zum einen Beispiele für die aufgefundenen Einsatzmöglichkeiten darstellen und zum anderen im Hinblick auf die Untersuchung der Verwendung von Ontologien im Semantic Web grundlegende Aspekte desselben erörtern sollen. Im Anschluss daran werden die wesentlichen softwaretechnischen Herausforderungen besprochen, die sich durch die Verwendung von Ontologien in Informationssystemen ergeben. Damit wird die Erarbeitung der wesentlichen Charakteristika ontologiebasierter Verfahren der Wissensmodellierung als erstem Teil dieser Arbeit abgeschlossen.
    Basierend auf diesen Abhandlungen wird in Kapitel D die Verwendung von Ontologien im Semantic Web behandelt. Dabei ist das Semantic Web nicht als computergestützte Lösung für ein konkretes Anwendungsgebiet zu verstehen, sondern - ähnlich wie existente Web-Technologien - als eine informationstechnische Infrastruktur zur Bereitstellung und Verknüpfung von Applikationen für verschiedene Anwendungsgebiete. Die technologischen Lösungen zur Umsetzung des Semantic Web befinden sich noch in der Entwicklungsphase. Daher werden zunächst die grundlegenden Ideen der Vision des Semantic Web genauer erläutert und das antizipierte Architekturmodell zur Realisierung derselben vorgestellt, wobei insbesondere die darin angestrebte Rolle von Ontologien herausgearbeitet wird. Anschließend daran wird die formale Darstellung von Ontologien durch web-kompatible Sprachen erörtert, wodurch die Verwendung von Ontologien im Semantic Web ermöglicht werden soll. In diesem Zusammenhang sollen ferner die Beweggründe für die Verwendung von Ontologien als bedeutungsdefinierende Konstrukte im Semantic Web verdeutlicht sowie die auftretenden Herausforderungen hinsichtlich der Handhabung von Ontologien aufgezeigt werden. Dazu werden als dritter Aspekt des Kapitels entsprechende Lösungsansätze des Ontologie-Managements diskutiert. Abschließend wird auf die Implikationen für konkrete Anwendungen der Semantic Web - Technologien eingegangen, die aus der Verwendung von Ontologien im Semantic Web resultieren. Zum Abschluss der Ausführungen werden die Ergebnisse der Untersuchung zusammengefasst. Dabei soll auch eine kritische Betrachtung bezüglich der Notwendigkeit semantischer Web-Technologien sowie der Realisierbarkeit der Vision des Semantic Web vorgenommen werden.
    Content
    Magisterarbeit am Institut für Publizistik und Kommunikationswissenschaft, Arbeitsbereich Informationswissenschaft, Fachbereich Philosophie und Sozialwissenschaften, Freie Universität Berlin
    Imprint
    Berlin : Institut für Publizistik und Kommunikationswissenschaft
  19. Hermans, J.: Ontologiebasiertes Information Retrieval für das Wissensmanagement (2008) 0.01
    0.0070231725 = product of:
      0.05384432 = sum of:
        0.031841148 = weight(_text_:buch in 506) [ClassicSimilarity], result of:
          0.031841148 = score(doc=506,freq=4.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.29058564 = fieldWeight in 506, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.010232903 = weight(_text_:und in 506) [ClassicSimilarity], result of:
          0.010232903 = score(doc=506,freq=8.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.19590102 = fieldWeight in 506, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.011770271 = weight(_text_:im in 506) [ClassicSimilarity], result of:
          0.011770271 = score(doc=506,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.17667414 = fieldWeight in 506, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
      0.13043478 = coord(3/23)
    
    Abstract
    Unternehmen sehen sich heutzutage regelmäßig der Herausforderung gegenübergestellt, aus umfangreichen Mengen an Dokumenten schnell relevante Informationen zu identifizieren. Dabei zeigt sich jedoch, dass Suchverfahren, die lediglich syntaktische Abgleiche von Informationsbedarfen mit potenziell relevanten Dokumenten durchführen, häufig nicht die an sie gestellten Erwartungen erfüllen. Viel versprechendes Potenzial bietet hier der Einsatz von Ontologien für das Information Retrieval. Beim ontologiebasierten Information Retrieval werden Ontologien eingesetzt, um Wissen in einer Form abzubilden, die durch Informationssysteme verarbeitet werden kann. Eine Berücksichtigung des so explizierten Wissens durch Suchalgorithmen führt dann zu einer optimierten Deckung von Informationsbedarfen. Jan Hermans stellt in seinem Buch ein adaptives Referenzmodell für die Entwicklung von ontologiebasierten Information Retrieval-Systemen vor. Zentrales Element seines Modells ist die einsatzkontextspezifische Adaption des Retrievalprozesses durch bewährte Techniken, die ausgewählte Aspekte des ontologiebasierten Information Retrievals bereits effektiv und effizient unterstützen. Die Anwendung des Referenzmodells wird anhand eines Fallbeispiels illustriert, bei dem ein Information Retrieval-System für die Suche nach Open Source-Komponenten entwickelt wird. Das Buch richtet sich gleichermaßen an Dozenten und Studierende der Wirtschaftsinformatik, Informatik und Betriebswirtschaftslehre sowie an Praktiker, die die Informationssuche im Unternehmen verbessern möchten. Jan Hermans, Jahrgang 1978, studierte Wirtschaftsinformatik an der Westfälischen Wilhelms-Universität in Münster. Seit 2003 war er als Wissenschaftlicher Mitarbeiter am European Research Center for Information Systems der WWU Münster tätig. Seine Forschungsschwerpunkte lagen in den Bereichen Wissensmanagement und Information Retrieval. Im Mai 2008 erfolgte seine Promotion zum Doktor der Wirtschaftswissenschaften.
  20. Widhalm, R.; Mück, T.: Topic maps : Semantische Suche im Internet (2002) 0.01
    0.006520106 = product of:
      0.04998748 = sum of:
        0.022515094 = weight(_text_:buch in 4731) [ClassicSimilarity], result of:
          0.022515094 = score(doc=4731,freq=2.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.20547508 = fieldWeight in 4731, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
        0.008861954 = weight(_text_:und in 4731) [ClassicSimilarity], result of:
          0.008861954 = score(doc=4731,freq=6.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.16965526 = fieldWeight in 4731, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
        0.018610433 = weight(_text_:im in 4731) [ClassicSimilarity], result of:
          0.018610433 = score(doc=4731,freq=10.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.27934635 = fieldWeight in 4731, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
      0.13043478 = coord(3/23)
    
    Abstract
    Das Werk behandelt die aktuellen Entwicklungen zur inhaltlichen Erschließung von Informationsquellen im Internet. Topic Maps, semantische Modelle vernetzter Informationsressourcen unter Verwendung von XML bzw. HyTime, bieten alle notwendigen Modellierungskonstrukte, um Dokumente im Internet zu klassifizieren und ein assoziatives, semantisches Netzwerk über diese zu legen. Neben Einführungen in XML, XLink, XPointer sowie HyTime wird anhand von Einsatzszenarien gezeigt, wie diese neuartige Technologie für Content Management und Information Retrieval im Internet funktioniert. Der Entwurf einer Abfragesprache wird ebenso skizziert wie der Prototyp einer intelligenten Suchmaschine. Das Buch zeigt, wie Topic Maps den Weg zu semantisch gesteuerten Suchprozessen im Internet weisen.
    Content
    Topic Maps - Einführung in den ISO Standard (Topics, Associations, Scopes, Facets, Topic Maps).- Grundlagen von XML (Aufbau, Bestandteile, Element- und Attributdefinitionen, DTD, XLink, XPointer).- Wie entsteht ein Heringsschmaus? Konkretes Beispiel einer Topic Map.Topic Maps - Meta DTD. Die formale Beschreibung des Standards.- HyTime als zugrunde liegender Formalismus (Bounded Object Sets, Location Addressing, Hyperlinks in HyTime).- Prototyp eines Topic Map Repositories (Entwicklungsprozess für Topic Maps, Prototyp Spezifikation, technische Realisierung des Prototyps).- Semantisches Datenmodell zur Speicherung von Topic Maps.- Prototypische Abfragesprache für Topic Maps.- Erweiterungsvorschläge für den ISO Standard.

Authors

Languages

  • e 89
  • d 74

Types

  • a 99
  • el 49
  • m 16
  • x 15
  • r 5
  • s 5
  • n 4
  • More… Less…

Subjects

Classifications