Search (563 results, page 1 of 29)

  • × type_ss:"el"
  1. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.38
    0.37702146 = product of:
      0.7540429 = sum of:
        0.07219499 = product of:
          0.21658497 = sum of:
            0.21658497 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.21658497 = score(doc=1826,freq=2.0), product of:
                0.23122206 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02727315 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
        0.032093 = weight(_text_:web in 1826) [ClassicSimilarity], result of:
          0.032093 = score(doc=1826,freq=2.0), product of:
            0.08900621 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02727315 = queryNorm
            0.36057037 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.21658497 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.21658497 = score(doc=1826,freq=2.0), product of:
            0.23122206 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02727315 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.21658497 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.21658497 = score(doc=1826,freq=2.0), product of:
            0.23122206 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02727315 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.21658497 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.21658497 = score(doc=1826,freq=2.0), product of:
            0.23122206 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02727315 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
      0.5 = coord(5/10)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  2. Popper, K.R.: Three worlds : the Tanner lecture on human values. Deliverd at the University of Michigan, April 7, 1978 (1978) 0.23
    0.23102395 = product of:
      0.5775599 = sum of:
        0.057755988 = product of:
          0.17326796 = sum of:
            0.17326796 = weight(_text_:3a in 230) [ClassicSimilarity], result of:
              0.17326796 = score(doc=230,freq=2.0), product of:
                0.23122206 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02727315 = queryNorm
                0.7493574 = fieldWeight in 230, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=230)
          0.33333334 = coord(1/3)
        0.17326796 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.17326796 = score(doc=230,freq=2.0), product of:
            0.23122206 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02727315 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.17326796 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.17326796 = score(doc=230,freq=2.0), product of:
            0.23122206 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02727315 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.17326796 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.17326796 = score(doc=230,freq=2.0), product of:
            0.23122206 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02727315 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
      0.4 = coord(4/10)
    
    Source
    https%3A%2F%2Ftannerlectures.utah.edu%2F_documents%2Fa-to-z%2Fp%2Fpopper80.pdf&usg=AOvVaw3f4QRTEH-OEBmoYr2J_c7H
  3. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.19
    0.18851073 = product of:
      0.37702146 = sum of:
        0.036097497 = product of:
          0.10829248 = sum of:
            0.10829248 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.10829248 = score(doc=4388,freq=2.0), product of:
                0.23122206 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02727315 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.0160465 = weight(_text_:web in 4388) [ClassicSimilarity], result of:
          0.0160465 = score(doc=4388,freq=2.0), product of:
            0.08900621 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02727315 = queryNorm
            0.18028519 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.10829248 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.10829248 = score(doc=4388,freq=2.0), product of:
            0.23122206 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02727315 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.10829248 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.10829248 = score(doc=4388,freq=2.0), product of:
            0.23122206 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02727315 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.10829248 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.10829248 = score(doc=4388,freq=2.0), product of:
            0.23122206 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02727315 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.5 = coord(5/10)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  4. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.03
    0.0317019 = product of:
      0.1585095 = sum of:
        0.03335203 = weight(_text_:web in 4322) [ClassicSimilarity], result of:
          0.03335203 = score(doc=4322,freq=6.0), product of:
            0.08900621 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02727315 = queryNorm
            0.37471575 = fieldWeight in 4322, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.12515746 = weight(_text_:ontologie in 4322) [ClassicSimilarity], result of:
          0.12515746 = score(doc=4322,freq=4.0), product of:
            0.19081406 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.02727315 = queryNorm
            0.6559132 = fieldWeight in 4322, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
      0.2 = coord(2/10)
    
    Abstract
    Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
    Content
    Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit
    Series
    Ontoprise "Semantics for the Web" - Whitepaper series
    Theme
    Semantic Web
  5. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.03
    0.030927802 = product of:
      0.154639 = sum of:
        0.14601703 = weight(_text_:ontologie in 4324) [ClassicSimilarity], result of:
          0.14601703 = score(doc=4324,freq=4.0), product of:
            0.19081406 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.02727315 = queryNorm
            0.765232 = fieldWeight in 4324, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.008621982 = product of:
          0.025865946 = sum of:
            0.025865946 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.025865946 = score(doc=4324,freq=2.0), product of:
                0.09550592 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02727315 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.33333334 = coord(1/3)
      0.2 = coord(2/10)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:25
  6. Mayr, P.; Walter, A.-K.: Einsatzmöglichkeiten von Crosskonkordanzen (2007) 0.03
    0.02588937 = product of:
      0.12944685 = sum of:
        0.0256744 = weight(_text_:web in 162) [ClassicSimilarity], result of:
          0.0256744 = score(doc=162,freq=2.0), product of:
            0.08900621 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02727315 = queryNorm
            0.2884563 = fieldWeight in 162, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=162)
        0.103772454 = weight(_text_:kongress in 162) [ClassicSimilarity], result of:
          0.103772454 = score(doc=162,freq=2.0), product of:
            0.17894155 = queryWeight, product of:
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.02727315 = queryNorm
            0.57992375 = fieldWeight in 162, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.0625 = fieldNorm(doc=162)
      0.2 = coord(2/10)
    
    Abstract
    Der Beitrag stellt Einsatzmöglichkeiten und spezifische Problembereiche von Crosskonkordanzen (CK) im Projekt "Kompetenznetzwerk Modellbildung und Heterogenitätsbehand lung" (KoMoHe) so wie das Netz der bis dato entstandenen Terminologie-Überstiege vor. Die am IZ entstandenen CK sollen künftig über einen Terminologie-Service als Web Service genutzt werden, dieser wird im Beitrag exemplarisch vorgestellt. Des Weiteren wird ein Testszenario samt Evaluationsdesign beschrieben über das der Mehrwert von Crosskonkordanzen empirisch untersucht werden kann.
    Content
    Auch in: Lokal-Global: Vernetzung wissenschaftlicher Infrastrukturen; 12. Kongress der IuK-Initiative der Wissenschaftlichen Fachgesellschaft in Deutschland, Tagungsberichte, GESIS-IZ Sozialwissenschaft, Bonn, S.149-166.
  7. Hoffmann, P.; Médini and , L.; Ghodous, P.: Using context to improve semantic interoperability (2006) 0.03
    0.025142947 = product of:
      0.12571473 = sum of:
        0.022465102 = weight(_text_:web in 4434) [ClassicSimilarity], result of:
          0.022465102 = score(doc=4434,freq=2.0), product of:
            0.08900621 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02727315 = queryNorm
            0.25239927 = fieldWeight in 4434, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4434)
        0.10324963 = weight(_text_:ontologie in 4434) [ClassicSimilarity], result of:
          0.10324963 = score(doc=4434,freq=2.0), product of:
            0.19081406 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.02727315 = queryNorm
            0.54110074 = fieldWeight in 4434, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4434)
      0.2 = coord(2/10)
    
    Abstract
    This paper presents an approach to enhance interoperability between heterogeneous ontologies. It consists in adapting the ranking of concepts to the final users and their work context. The computations are based on an upper domain ontology, a task hierarchy and a user profile. As prerequisites, OWL ontologie have to be given, and an articulation ontology has to be built.
    Source
    Leading the Web in concurrent engineering: next generation concurrent engineering. Proceeding of the 2006 ISPE Conference on Concurrent Engineering. Edited by Parisa Ghodous, Rose Dieng-Kuntz, Geilson Loureiro
  8. Haffner, A.: Internationalisierung der GND durch das Semantic Web (2012) 0.02
    0.021705791 = product of:
      0.10852896 = sum of:
        0.035520446 = weight(_text_:web in 318) [ClassicSimilarity], result of:
          0.035520446 = score(doc=318,freq=20.0), product of:
            0.08900621 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02727315 = queryNorm
            0.39907828 = fieldWeight in 318, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.073008515 = weight(_text_:ontologie in 318) [ClassicSimilarity], result of:
          0.073008515 = score(doc=318,freq=4.0), product of:
            0.19081406 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.02727315 = queryNorm
            0.382616 = fieldWeight in 318, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
      0.2 = coord(2/10)
    
    Abstract
    Seit Bestehen der Menschheit sammelt der Mensch Informationen, seit Bestehen des Internets stellt der Mensch Informationen ins Web, seit Bestehen des Semantic Webs sollen auch Maschinen in die Lage versetzt werden mit diesen Informationen umzugehen. Das Bibliothekswesen ist einer der Sammler. Seit Jahrhunderten werden Kataloge und Bibliografien sowie Inventarnachweise geführt. Mit der Aufgabe des Zettelkatalogs hin zum Onlinekatalog wurde es Benutzern plötzlich möglich in Beständen komfortabel zu suchen. Durch die Bereitstellung von Daten aus dem Bibliothekswesen im Semantic Web sollen nicht nur die eigenen Katalogsysteme Zugriff auf diese Informationen erhalten, sondern jede beliebige Anwendung, die auf das Web zugreifen kann. Darüber hinaus ist die Vorstellung, dass sich die im Web befindenden Daten - in sofern möglich - miteinander verlinken und zu einem gigantischen semantischen Netz werden, das als ein großer Datenpool verwendet werden kann. Die Voraussetzung hierfür ist wie beim Übergang zum Onlinekatalog die Aufbereitung der Daten in einem passenden Format. Normdaten dienen im Bibliothekswesen bereits dazu eine Vernetzung der unterschiedlichen Bestände zu erlauben. Bei der Erschließung eines Buches wird nicht bloß gesagt, dass jemand, der Thomas Mann heißt, der Autor ist - es wird eine Verknüpfung vom Katalogisat zu dem Thomas Mann erzeugt, der am 6. Juni 1875 in Lübeck geboren und am 12. August 1955 in Zürich verstorben ist. Der Vorteil von Normdateneintragungen ist, dass sie zum eindeutigen Nachweis der Verfasserschaft oder Mitwirkung an einem Werk beitragen. Auch stehen Normdateneintragungen bereits allen Bibliotheken für die Nachnutzung bereit - der Schritt ins Semantic Web wäre somit die Öffnung der Normdaten für alle denkbaren Nutzergruppen.
    Die Gemeinsame Normdatei (GND) ist seit April 2012 die Datei, die die im deutschsprachigen Bibliothekswesen verwendeten Normdaten enthält. Folglich muss auf Basis dieser Daten eine Repräsentation für die Darstellung als Linked Data im Semantic Web etabliert werden. Neben der eigentlichen Bereitstellung von GND-Daten im Semantic Web sollen die Daten mit bereits als Linked Data vorhandenen Datenbeständen (DBpedia, VIAF etc.) verknüpft und nach Möglichkeit kompatibel sein, wodurch die GND einem internationalen und spartenübergreifenden Publikum zugänglich gemacht wird. Dieses Dokument dient vor allem zur Beschreibung, wie die GND-Linked-Data-Repräsentation entstand und dem Weg zur Spezifikation einer eignen Ontologie. Hierfür werden nach einer kurzen Einführung in die GND die Grundprinzipien und wichtigsten Standards für die Veröffentlichung von Linked Data im Semantic Web vorgestellt, um darauf aufbauend existierende Vokabulare und Ontologien des Bibliothekswesens betrachten zu können. Anschließend folgt ein Exkurs in das generelle Vorgehen für die Bereitstellung von Linked Data, wobei die so oft zitierte Open World Assumption kritisch hinterfragt und damit verbundene Probleme insbesondere in Hinsicht Interoperabilität und Nachnutzbarkeit aufgedeckt werden. Um Probleme der Interoperabilität zu vermeiden, wird den Empfehlungen der Library Linked Data Incubator Group [LLD11] gefolgt.
    Im Kapitel Anwendungsprofile als Basis für die Ontologieentwicklung wird die Spezifikation von Dublin Core Anwendungsprofilen kritisch betrachtet, um auszumachen wann und in welcher Form sich ihre Verwendung bei dem Vorhaben Bereitstellung von Linked Data anbietet. In den nachfolgenden Abschnitten wird die GND-Ontologie, welche als Standard für die Serialisierung von GND-Daten im Semantic Web dient, samt Modellierungsentscheidungen näher vorgestellt. Dabei wird insbesondere der Technik des Vocabulary Alignment eine prominente Position eingeräumt, da darin ein entscheidender Mechanismus zur Steigerung der Interoperabilität und Nachnutzbarkeit gesehen wird. Auch wird sich mit der Verlinkung zu externen Datensets intensiv beschäftigt. Hierfür wurden ausgewählte Datenbestände hinsichtlich ihrer Qualität und Aktualität untersucht und Empfehlungen für die Implementierung innerhalb des GND-Datenbestandes gegeben. Abschließend werden eine Zusammenfassung und ein Ausblick auf weitere Schritte gegeben.
  9. Proceedings of the 2nd International Workshop on Evaluation of Ontology-based Tools (2004) 0.02
    0.021168549 = product of:
      0.10584274 = sum of:
        0.032093 = weight(_text_:web in 3152) [ClassicSimilarity], result of:
          0.032093 = score(doc=3152,freq=8.0), product of:
            0.08900621 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02727315 = queryNorm
            0.36057037 = fieldWeight in 3152, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3152)
        0.073749736 = weight(_text_:ontologie in 3152) [ClassicSimilarity], result of:
          0.073749736 = score(doc=3152,freq=2.0), product of:
            0.19081406 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.02727315 = queryNorm
            0.38650054 = fieldWeight in 3152, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3152)
      0.2 = coord(2/10)
    
    Content
    Table of Contents Part I: Accepted Papers Christoph Tempich and Raphael Volz: Towards a benchmark for Semantic Web reasoners - an analysis of the DAML ontology library M. Carmen Suarez-Figueroa and Asuncion Gomez-Perez: Results of Taxonomic Evaluation of RDF(S) and DAML+OIL ontologies using RDF(S) and DAML+OIL Validation Tools and Ontology Platforms import services Volker Haarslev and Ralf Möller: Racer: A Core Inference Engine for the Semantic Web Mikhail Kazakov and Habib Abdulrab: DL-workbench: a metamodeling approach to ontology manipulation Thorsten Liebig and Olaf Noppens: OntoTrack: Fast Browsing and Easy Editing of Large Ontologie Frederic Fürst, Michel Leclere, and Francky Trichet: TooCoM : a Tool to Operationalize an Ontology with the Conceptual Graph Model Naoki Sugiura, Masaki Kurematsu, Naoki Fukuta, Noriaki Izumi, and Takahira Yamaguchi: A domain ontology engineering tool with general ontologies and text corpus Howard Goldberg, Alfredo Morales, David MacMillan, and Matthew Quinlan: An Ontology-Driven Application to Improve the Prescription of Educational Resources to Parents of Premature Infants Part II: Experiment Contributions Domain natural language description for the experiment Raphael Troncy, Antoine Isaac, and Veronique Malaise: Using XSLT for Interoperability: DOE and The Travelling Domain Experiment Christian Fillies: SemTalk EON2003 Semantic Web Export / Import Interface Test Óscar Corcho, Asunción Gómez-Pérez, Danilo José Guerrero-Rodríguez, David Pérez-Rey, Alberto Ruiz-Cristina, Teresa Sastre-Toral, M. Carmen Suárez-Figueroa: Evaluation experiment of ontology tools' interoperability with the WebODE ontology engineering workbench Holger Knublauch: Case Study: Using Protege to Convert the Travel Ontology to UML and OWL Franz Calvo and John Gennari: Interoperability of Protege 2.0 beta and OilEd 3.5 in the Domain Knowledge of Osteoporosis
    Theme
    Semantic Web
  10. Cazan, C.: Medizinische Ontologien : das Ende des MeSH (2006) 0.02
    0.016246896 = product of:
      0.08123448 = sum of:
        0.022234684 = weight(_text_:web in 132) [ClassicSimilarity], result of:
          0.022234684 = score(doc=132,freq=6.0), product of:
            0.08900621 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02727315 = queryNorm
            0.24981049 = fieldWeight in 132, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=132)
        0.05899979 = weight(_text_:ontologie in 132) [ClassicSimilarity], result of:
          0.05899979 = score(doc=132,freq=2.0), product of:
            0.19081406 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.02727315 = queryNorm
            0.30920044 = fieldWeight in 132, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.03125 = fieldNorm(doc=132)
      0.2 = coord(2/10)
    
    Abstract
    Die Komplexizität medizinischer Fragestellungen und des medizinischen Informationsmanagements war seit den Anfängen der Informatik immer ein besonders wichtiges Thema. Trotz des Scheiterns der Künstlichen Intelligenz in den 80er Jahren des vorigen Jahrhunderts haben deren Kernideen Früchte getragen. Durch kongruente Entwicklung einer Reihe anderer Wissenschaftsdisziplinen und der exponentiellen Entwicklung im Bereich Computerhardware konnten die gestellten, hohen Anforderungen bei der medizinischen Informationssuche doch noch erfüllt werden. Die programmatische Forderung von Tim Berners-Lee betreffend "Semantic Web" im Jahr 2000 hat dem Thema Ontologien für maschinenlesbare Repositorien in Allgemein- und Fachsprache breitere Aufmerksamkeit gewonnen. Da in der Medizin (PubMed) mit dem von NLM schon vor 20 Jahren entwickelten Unified Medical Language System (UMLS) eine funktionierende Ontologie in Form eines semantischen Netzes in Betrieb ist, ist es auch für Medizinbibliothekare und Medizindokumentare hoch an der Zeit, sich damit zu beschäftigen. Ontologien können im Wesen, trotz der informatisch vernebelnden Terminologie, als Werkzeuge der Klassifikation verstanden werden. Hier sind von seiten der Bibliotheks- und Dokumentationswissenschaft wesentliche Beiträge möglich. Der vorliegende Bericht bietet einen Einstieg in das Thema, erklärt wesentliche Elemente des UMLS und schließt mit einer kommentierten Anmerkungs- und Literaturliste für die weitere Beschäftigung mit Ontologien.
    Content
    Dieser Aufsatz ist kein Abgesang auf MeSH (= Medical Subject Headings in Medline/PubMed), wie man/frau vielleicht vermuten könnte. Vielmehr wird - ohne informatiklastiges Fachchinesisch - an Hand des von der National Library of Medicine entwickelten Unified Medical Language System erklärt, worin die Anforderungen an Ontologien bestehen, die im Zusammenhang mit dem Semantic Web allerorten eingefordert und herbeigewünscht werden. Eine Lektüre für Einsteigerinnen, die zum Vertiefen der gewonnenen Begriffssicherheit an Hand der weiterführenden Literaturhinweise anregt. Da das UMLS hier vor allem als Beispiel verwendet wird, werden auch Bibliothekarlnnen, Dokumentarlnnen und Informationsspezialistinnen anderer Fachbereiche den Aufsatz mit Gewinn lesen - und erfahren, dass unser Fachwissen aus der Sacherschließung und der Verwendung und Mitgestaltung von Normdateien und Thesauri bei der Entwicklung von Ontologien gefragt ist! (Eveline Pipp, Universitätsbibliothek Innsbruck). - Die elektronische Version dieses Artikels ist verfügbar unter: http://www.egms.de/en/journals/mbi/2006-6/mbi000049.shtml.
    Theme
    Semantic Web
  11. Andelfinger, U.; Wyssusek, B.; Kremberg, B.; Totzke, R.: Ontologies in knowledge management : panacea or mirage? 0.02
    0.015553164 = product of:
      0.07776582 = sum of:
        0.013896678 = weight(_text_:web in 4393) [ClassicSimilarity], result of:
          0.013896678 = score(doc=4393,freq=6.0), product of:
            0.08900621 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02727315 = queryNorm
            0.15613155 = fieldWeight in 4393, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4393)
        0.06386915 = weight(_text_:ontologie in 4393) [ClassicSimilarity], result of:
          0.06386915 = score(doc=4393,freq=6.0), product of:
            0.19081406 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.02727315 = queryNorm
            0.3347193 = fieldWeight in 4393, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4393)
      0.2 = coord(2/10)
    
    Content
    Vgl. auch Mitgliederbrief Ernst-Schröder-Zentrum, Nr.41: "Die aktuelle Entwicklung insbesondere der Internettechnologien führte in den letzten Jahren zu einem Wieder-Erwachen des Interesses von Forschern und Anwendern an (technischen) Ontologien. Typische Visionen in diesem Zusammenhang sind das ,Semantic Web' und das ,Internet der Dinge' (Web 3.0). Technische Ontologien sind formale, zeichenvermittelte symbolische Repräsentationen von lebensweltlichen Zusammenhängen, die notwendigerweise zu einem großen Teil von ihrem Kontextbezug gelöst werden und über die ursprünglichen lebensweltlichen Zusammenhänge hinaus computerverarbeitbar verfügbar werden. Häufig werden dafür XML-basierte Beschreibungssprachen eingesetzt wie z.B. der OWL-Standard. Trotz des großen Interesses sind jedoch umfangreiche und erfolgreiche Beispiele von in größerem Umfang praktisch eingesetzten (technischen) Ontologien eher die Ausnahme. Die zentrale Fragestellung unseres Beitrags ist daher, ob es eventuell grundlegendere (möglicherweise auch außertechnische) Hürden gibt auf dem Weg zu einer Verwirklichung der oft visionären Vorstellungen, wie z.B. zukünftig E-Commerce und E-Business und ,Wissensmanagement' durch technische Ontologien unterstützt werden könnten: Oder ist alles vielleicht ,nur' eine Frage der Zeit, bis wir durch ausreichend leistungsfähige Technologien für solche technischen Ontologien die Versprechungen des ,Internet der Dinge' verwirklichen können?
    Zusätzlich zu diesen Überlegungen treten sprachphilosophische Grundsatzüberlegungen: Jeder semantische Definitionsversuch einer technischen Ontologie muss durch Verwendung von Metasprachen erfolgen - letztlich kommt man hier wahrscheinlich nicht ohne die Verwendung natürlicher Sprache aus. Sehr schnell wird man also in einen unendlichen Regress verwiesen, wenn man versucht, technische Ontologien 'vollständig' durch weitere technische Ontologien zu beschreiben. Im Fortgang der Argumentation wird dann aufgezeigt, dass eine wesentliche Herausforderung bei technischen Ontologien also darin liegt, angesichts der Vielschichtigkeit menschlichen Wissens die Möglichkeiten (aber auch notwendigen Begrenzungen) symbolvermittelter Wissensrepräsentationen zu verbinden mit Formen der situativen und intersubjektiven Interpretation dieser symbolhaften Repräsentationen in sozialen Prozessen und in natürlicher Sprache. Nur so kann man auch dem Problem des skizzierten 'infiniten Regresses' begegnen, wonach die Bedeutung einer (technischen) Ontologie nie vollständig wieder selbst durch (technische) Ontologien beschrieben werden kann.
    In der Finanzwirtschaft mit ihren automatisierten Handelssystemen (auf Basis technischer Ontologien) wird beispielsweise inzwischen bei außergewöhnlichen Kursbewegungen der Börse der automatische Handel unterbrochen, so dass dann auf pragmatisch-natürlichsprachliche Weise nach den Gründen für die Ausschläge gesucht werden kann. Aus Sicht der technischen Ontologien wäre eine solche Unterbrechung des Computerhandels (zur Beruhigung der Märkte) nicht zwingend erforderlich, aber sie ist sehr sinnvoll aus einer außerhalb der technischen Ontologie stehenden Perspektive, die alleine nach Sinn und Bedeutung stabiler Kursverläufe zu fragen imstande ist. Der hier sich abzeichnende ,pragmatic turn' beim Einsatz technischer Ontologien ist auch in vielfältiger Weise in Trends wie z.B. Folksonomies, Sozialen Netzwerken und Open-SourceEntwicklergruppen zu erkennen. Diese Gemeinschaften zeichnen sich dadurch aus, dass sie zwar (technische) Ontologien einsetzen, diese jedoch in intensive soziale Austauschprozesse einbinden, in denen die formalen Wissensrepräsentationen mit situativer Bedeutung und Sinn versehen und angereichert werden. Dieser Trend zu ,weicheren' Formen der Nutzung von (technischen) Ontologien scheint nach aktuellem Wissensstand auf jeden Fall in der Praxis erfolgversprechender als die anfänglichen Hoffnungen des Semantic Web oder vollständiger (technischer) Ontologien - ganz abgesehen vom laufenden Pflegeaufwand 'vollständiger' technischer Ontologien.
  12. Braun, T.: Dokumentklassifikation durch Clustering (o.J.) 0.01
    0.014749947 = product of:
      0.14749947 = sum of:
        0.14749947 = weight(_text_:ontologie in 1671) [ClassicSimilarity], result of:
          0.14749947 = score(doc=1671,freq=2.0), product of:
            0.19081406 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.02727315 = queryNorm
            0.7730011 = fieldWeight in 1671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.078125 = fieldNorm(doc=1671)
      0.1 = coord(1/10)
    
    Abstract
    Beim Clustering werden Dokumente aufgrund von Ähnlichkeiten untereinander klassifiziert, im Gegensatz z.B. zur Klassifikation anhand einer Ontologie. Bei den gebräuchlichen Clusteringverfahren wird ein Dokument als die Menge seiner Wörter angesehen. Zur Bestimmung der Ähnlichkeit zwischen Dokumenten werden verschiedene Ähnlichkeitsmaße definiert.
  13. Honegger, B.D.: Beats Biblionetz (1996-) 0.01
    0.014749947 = product of:
      0.14749947 = sum of:
        0.14749947 = weight(_text_:ontologie in 2812) [ClassicSimilarity], result of:
          0.14749947 = score(doc=2812,freq=2.0), product of:
            0.19081406 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.02727315 = queryNorm
            0.7730011 = fieldWeight in 2812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.078125 = fieldNorm(doc=2812)
      0.1 = coord(1/10)
    
    Abstract
    Beats Biblionetz verknüpft alle oben genannten Sammlungen zu einem Hypernetzwerk mit ca. 600'000 internen Links. könnte man als je nach Herkunft/Vorliebe als Luhmannschen Zettelkasten, als eine Art Memex (Vannevar Bush), als persönliche Ontologie oder als Personal Infostructure bezeichnen. begann Ende 1996 als persönliches Arbeitsinstrument und Experiment von Beat Döbeli Honegger. Quelle: http://beat.doebe.li/bibliothek/index.html Bitte Quellenangabe nicht vergessen ;-)
  14. Information retrieval research : Proceedings of the 19th Annual BCS-IRSG Colloquium on IR Research, Aberdeen, Scotland, 8-9 April 1997 (1997) 0.01
    0.014675641 = product of:
      0.14675641 = sum of:
        0.14675641 = weight(_text_:kongress in 5393) [ClassicSimilarity], result of:
          0.14675641 = score(doc=5393,freq=4.0), product of:
            0.17894155 = queryWeight, product of:
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.02727315 = queryNorm
            0.8201361 = fieldWeight in 5393, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.0625 = fieldNorm(doc=5393)
      0.1 = coord(1/10)
    
    RSWK
    Information retrieval / Kongress / Aberdeen <1997>
    Subject
    Information retrieval / Kongress / Aberdeen <1997>
  15. Eckert, K.: SKOS: eine Sprache für die Übertragung von Thesauri ins Semantic Web (2011) 0.01
    0.013452681 = product of:
      0.0672634 = sum of:
        0.057409707 = weight(_text_:web in 4331) [ClassicSimilarity], result of:
          0.057409707 = score(doc=4331,freq=10.0), product of:
            0.08900621 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02727315 = queryNorm
            0.6450079 = fieldWeight in 4331, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=4331)
        0.009853695 = product of:
          0.029561082 = sum of:
            0.029561082 = weight(_text_:22 in 4331) [ClassicSimilarity], result of:
              0.029561082 = score(doc=4331,freq=2.0), product of:
                0.09550592 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02727315 = queryNorm
                0.30952093 = fieldWeight in 4331, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4331)
          0.33333334 = coord(1/3)
      0.2 = coord(2/10)
    
    Abstract
    Das Semantic Web - bzw. Linked Data - hat das Potenzial, die Verfügbarkeit von Daten und Wissen, sowie den Zugriff darauf zu revolutionieren. Einen großen Beitrag dazu können Wissensorganisationssysteme wie Thesauri leisten, die die Daten inhaltlich erschließen und strukturieren. Leider sind immer noch viele dieser Systeme lediglich in Buchform oder in speziellen Anwendungen verfügbar. Wie also lassen sie sich für das Semantic Web nutzen? Das Simple Knowledge Organization System (SKOS) bietet eine Möglichkeit, die Wissensorganisationssysteme in eine Form zu "übersetzen", die im Web zitiert und mit anderen Resourcen verknüpft werden kann.
    Date
    15. 3.2011 19:21:22
    Theme
    Semantic Web
  16. OWL Web Ontology Language Test Cases (2004) 0.01
    0.013452681 = product of:
      0.0672634 = sum of:
        0.057409707 = weight(_text_:web in 4685) [ClassicSimilarity], result of:
          0.057409707 = score(doc=4685,freq=10.0), product of:
            0.08900621 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02727315 = queryNorm
            0.6450079 = fieldWeight in 4685, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=4685)
        0.009853695 = product of:
          0.029561082 = sum of:
            0.029561082 = weight(_text_:22 in 4685) [ClassicSimilarity], result of:
              0.029561082 = score(doc=4685,freq=2.0), product of:
                0.09550592 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02727315 = queryNorm
                0.30952093 = fieldWeight in 4685, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4685)
          0.33333334 = coord(1/3)
      0.2 = coord(2/10)
    
    Abstract
    This document contains and presents test cases for the Web Ontology Language (OWL) approved by the Web Ontology Working Group. Many of the test cases illustrate the correct usage of the Web Ontology Language (OWL), and the formal meaning of its constructs. Other test cases illustrate the resolution of issues considered by the Working Group. Conformance for OWL documents and OWL document checkers is specified.
    Date
    14. 8.2011 13:33:22
    Theme
    Semantic Web
  17. Hollink, L.; Assem, M. van: Estimating the relevance of search results in the Culture-Web : a study of semantic distance measures (2010) 0.01
    0.013031534 = product of:
      0.06515767 = sum of:
        0.0577674 = weight(_text_:web in 4649) [ClassicSimilarity], result of:
          0.0577674 = score(doc=4649,freq=18.0), product of:
            0.08900621 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02727315 = queryNorm
            0.64902663 = fieldWeight in 4649, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4649)
        0.00739027 = product of:
          0.02217081 = sum of:
            0.02217081 = weight(_text_:22 in 4649) [ClassicSimilarity], result of:
              0.02217081 = score(doc=4649,freq=2.0), product of:
                0.09550592 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02727315 = queryNorm
                0.23214069 = fieldWeight in 4649, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4649)
          0.33333334 = coord(1/3)
      0.2 = coord(2/10)
    
    Abstract
    More and more cultural heritage institutions publish their collections, vocabularies and metadata on the Web. The resulting Web of linked cultural data opens up exciting new possibilities for searching and browsing through these cultural heritage collections. We report on ongoing work in which we investigate the estimation of relevance in this Web of Culture. We study existing measures of semantic distance and how they apply to two use cases. The use cases relate to the structured, multilingual and multimodal nature of the Culture Web. We distinguish between measures using the Web, such as Google distance and PMI, and measures using the Linked Data Web, i.e. the semantic structure of metadata vocabularies. We perform a small study in which we compare these semantic distance measures to human judgements of relevance. Although it is too early to draw any definitive conclusions, the study provides new insights into the applicability of semantic distance measures to the Web of Culture, and clear starting points for further research.
    Date
    26.12.2011 13:40:22
    Theme
    Semantic Web
  18. Endres-Niggemeyer, B.; Ziegert, C.: SummIt-BMT : (Summarize It in BMT) in Diagnose und Therapie, Abschlussbericht (2002) 0.01
    0.0127738295 = product of:
      0.1277383 = sum of:
        0.1277383 = weight(_text_:ontologie in 4497) [ClassicSimilarity], result of:
          0.1277383 = score(doc=4497,freq=6.0), product of:
            0.19081406 = queryWeight, product of:
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.02727315 = queryNorm
            0.6694386 = fieldWeight in 4497, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.996407 = idf(docFreq=109, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4497)
      0.1 = coord(1/10)
    
    Abstract
    SummIt-BMT (Summarize It in Bone Marrow Transplantation) - das Zielsystem des Projektes - soll Ärzten in der Knochenmarktransplantation durch kognitiv fundiertes Zusammenfassen (Endres-Niggemeyer, 1998) aus dem WWW eine schnelle Informationsaufnahme ermöglichen. Im bmbffinanzierten Teilprojekt, über das hier zu berichten ist, liegt der Schwerpunkt auf den klinischen Fragestellungen. SummIt-BMT hat als zentrale Komponente eine KMT-Ontologie. Den Systemablauf veranschaulicht Abb. 1: Benutzer geben ihren Informationsbedarf in ein strukturiertes Szenario ein. Sie ziehen dazu Begriffe aus der Ontologie heran. Aus dem Szenario werden Fragen an Suchmaschinen abgeleitet. Die Summit-BMT-Metasuchmaschine stößt Google an und sucht in Medline, der zentralen Literaturdatenbank der Medizin. Das Suchergebnis wird aufbereitet. Dabei werden Links zu Volltexten verfolgt und die Volltexte besorgt. Die beschafften Dokumente werden mit einem Schlüsselwortretrieval auf Passagen untersucht, in denen sich Suchkonzepte aus der Frage / Ontologie häufen. Diese Passagen werden zum Zusammenfassen vorgeschlagen. In ihnen werden die Aussagen syntaktisch analysiert. Die Systemagenten untersuchen sie. Lassen Aussagen sich mit einer semantischen Relation an die Frage anbinden, tragen also zur deren Beantwortung bei, werden sie in die Zusammenfassung aufgenommen, es sei denn, andere Agenten machen Hinderungsgründe geltend, z.B. Redundanz. Das Ergebnis der Zusammenfassung wird in das Frage/Antwort-Szenario integriert. Präsentiert werden Exzerpte aus den Quelldokumenten. Mit einem Link vermitteln sie einen sofortigen Rückgriff auf die Quelle. SummIt-BMT ist zum nächsten Durchgang von Informationssuche und Zusammenfassung bereit, sobald der Benutzer dies wünscht.
  19. Schneider, R.: Bibliothek 1.0, 2.0 oder 3.0? (2008) 0.01
    0.012730004 = product of:
      0.06365002 = sum of:
        0.055028036 = weight(_text_:web in 6122) [ClassicSimilarity], result of:
          0.055028036 = score(doc=6122,freq=12.0), product of:
            0.08900621 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02727315 = queryNorm
            0.6182494 = fieldWeight in 6122, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6122)
        0.008621982 = product of:
          0.025865946 = sum of:
            0.025865946 = weight(_text_:22 in 6122) [ClassicSimilarity], result of:
              0.025865946 = score(doc=6122,freq=2.0), product of:
                0.09550592 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02727315 = queryNorm
                0.2708308 = fieldWeight in 6122, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=6122)
          0.33333334 = coord(1/3)
      0.2 = coord(2/10)
    
    Abstract
    Noch ist nicht entschieden mit welcher Vehemenz das sogenannte Web 2.0 die Bibliotheken verändern wird. Allerdings wird hier und da bereits mit Bezugnahme auf das sogenannte Semantic Web von einer dritten und mancherorts von einer vierten Generation des Web gesprochen. Der Vortrag hinterfragt kritisch, welche Konzepte sich hinter diesen Bezeichnungen verbergen und geht der Frage nach, welche Herausforderungen eine Übernahme dieser Konzepte für die Bibliothekswelt mit sich bringen würde. Vgl. insbes. Folie 22 mit einer Darstellung von der Entwicklung vom Web 1.0 zum Web 4.0
    Object
    Web 2.0
  20. Mayfield, J.; Finin, T.: Information retrieval on the Semantic Web : integrating inference and retrieval 0.01
    0.012730004 = product of:
      0.06365002 = sum of:
        0.055028036 = weight(_text_:web in 4330) [ClassicSimilarity], result of:
          0.055028036 = score(doc=4330,freq=12.0), product of:
            0.08900621 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02727315 = queryNorm
            0.6182494 = fieldWeight in 4330, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4330)
        0.008621982 = product of:
          0.025865946 = sum of:
            0.025865946 = weight(_text_:22 in 4330) [ClassicSimilarity], result of:
              0.025865946 = score(doc=4330,freq=2.0), product of:
                0.09550592 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02727315 = queryNorm
                0.2708308 = fieldWeight in 4330, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4330)
          0.33333334 = coord(1/3)
      0.2 = coord(2/10)
    
    Abstract
    One vision of the Semantic Web is that it will be much like the Web we know today, except that documents will be enriched by annotations in machine understandable markup. These annotations will provide metadata about the documents as well as machine interpretable statements capturing some of the meaning of document content. We discuss how the information retrieval paradigm might be recast in such an environment. We suggest that retrieval can be tightly bound to inference. Doing so makes today's Web search engines useful to Semantic Web inference engines, and causes improvements in either retrieval or inference to lead directly to improvements in the other.
    Date
    12. 2.2011 17:35:22
    Theme
    Semantic Web

Years

Languages

  • e 380
  • d 163
  • a 5
  • el 2
  • f 2
  • i 2
  • m 1
  • nl 1
  • More… Less…

Types

  • a 227
  • i 17
  • r 15
  • n 13
  • x 11
  • m 10
  • s 10
  • b 2
  • p 1
  • More… Less…

Themes