Search (70 results, page 1 of 4)

  • × theme_ss:"Wissensrepräsentation"
  1. Zeng, Q.; Yu, M.; Yu, W.; Xiong, J.; Shi, Y.; Jiang, M.: Faceted hierarchy : a new graph type to organize scientific concepts and a construction method (2019) 0.14
    0.13530259 = product of:
      0.33825645 = sum of:
        0.24246866 = weight(_text_:3a in 400) [ClassicSimilarity], result of:
          0.24246866 = score(doc=400,freq=2.0), product of:
            0.43142503 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.05088753 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.0957878 = weight(_text_:link in 400) [ClassicSimilarity], result of:
          0.0957878 = score(doc=400,freq=2.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.35324624 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
      0.4 = coord(2/5)
    
    Abstract
    On a scientific concept hierarchy, a parent concept may have a few attributes, each of which has multiple values being a group of child concepts. We call these attributes facets: classification has a few facets such as application (e.g., face recognition), model (e.g., svm, knn), and metric (e.g., precision). In this work, we aim at building faceted concept hierarchies from scientific literature. Hierarchy construction methods heavily rely on hypernym detection, however, the faceted relations are parent-to-child links but the hypernym relation is a multi-hop, i.e., ancestor-to-descendent link with a specific facet "type-of". We use information extraction techniques to find synonyms, sibling concepts, and ancestor-descendent relations from a data science corpus. And we propose a hierarchy growth algorithm to infer the parent-child links from the three types of relationships. It resolves conflicts by maintaining the acyclic structure of a hierarchy.
    Content
    Vgl.: https%3A%2F%2Faclanthology.org%2FD19-5317.pdf&usg=AOvVaw0ZZFyq5wWTtNTvNkrvjlGA.
  2. Borchers, D.: Missing Link : Wenn der Kasten denkt - Niklas Luhmann und die Folgen (2017) 0.05
    0.045154806 = product of:
      0.22577402 = sum of:
        0.22577402 = weight(_text_:link in 2358) [ClassicSimilarity], result of:
          0.22577402 = score(doc=2358,freq=4.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.8326094 = fieldWeight in 2358, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.078125 = fieldNorm(doc=2358)
      0.2 = coord(1/5)
    
    Source
    https://www.heise.de/newsticker/meldung/Missing-Link-Wenn-der-Kasten-denkt-Niklas-Luhmann-und-die-Folgen-3919843.html
  3. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.03
    0.032329153 = product of:
      0.16164577 = sum of:
        0.16164577 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
          0.16164577 = score(doc=701,freq=2.0), product of:
            0.43142503 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.05088753 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.2 = coord(1/5)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  4. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.03
    0.032329153 = product of:
      0.16164577 = sum of:
        0.16164577 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
          0.16164577 = score(doc=5820,freq=2.0), product of:
            0.43142503 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.05088753 = queryNorm
            0.3746787 = fieldWeight in 5820, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.2 = coord(1/5)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  5. Breslin, J.G.: Social semantic information spaces (2009) 0.03
    0.027651558 = product of:
      0.13825779 = sum of:
        0.13825779 = weight(_text_:link in 3377) [ClassicSimilarity], result of:
          0.13825779 = score(doc=3377,freq=6.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.5098671 = fieldWeight in 3377, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3377)
      0.2 = coord(1/5)
    
    Abstract
    The structural and syntactic web put in place in the early 90s is still much the same as what we use today: resources (web pages, files, etc.) connected by untyped hyperlinks. By untyped, we mean that there is no easy way for a computer to figure out what a link between two pages means - for example, on the W3C website, there are hundreds of links to the various organisations that are registered members of the association, but there is nothing explicitly saying that the link is to an organisation that is a "member of" the W3C or what type of organisation is represented by the link. On John's work page, he links to many papers he has written, but it does not explicitly say that he is the author of those papers or that he wrote such-and-such when he was working at a particular university. In fact, the Web was envisaged to be much more, as one can see from the image in Fig. 1 which is taken from Tim Berners Lee's original outline for the Web in 1989, entitled "Information Management: A Proposal". In this, all the resources are connected by links describing the type of relationships, e.g. "wrote", "describe", "refers to", etc. This is a precursor to the Semantic Web which we will come back to later.
  6. Halpin, H.; Hayes, P.J.: When owl:sameAs isn't the same : an analysis of identity links on the Semantic Web (2010) 0.03
    0.027092883 = product of:
      0.13546441 = sum of:
        0.13546441 = weight(_text_:link in 4834) [ClassicSimilarity], result of:
          0.13546441 = score(doc=4834,freq=4.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.49956563 = fieldWeight in 4834, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.046875 = fieldNorm(doc=4834)
      0.2 = coord(1/5)
    
    Abstract
    In Linked Data, the use of owl:sameAs is ubiquitous in 'inter-linking' data-sets. However, there is a lurking suspicion within the Linked Data community that this use of owl:sameAs may be somehow incorrect, in particular with regards to its interactions with inference. In fact, owl:sameAs can be considered just one type of 'identity link', a link that declares two items to be identical in some fashion. After reviewing the definitions and history of the problem of identity in philosophy and knowledge representation, we outline four alternative readings of owl:sameAs, showing with examples how it is being (ab)used on the Web of data. Then we present possible solutions to this problem by introducing alternative identity links that rely on named graphs.
  7. Resource Description Framework (RDF) : Concepts and Abstract Syntax (2004) 0.03
    0.025543412 = product of:
      0.12771706 = sum of:
        0.12771706 = weight(_text_:link in 3067) [ClassicSimilarity], result of:
          0.12771706 = score(doc=3067,freq=2.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.47099498 = fieldWeight in 3067, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.0625 = fieldNorm(doc=3067)
      0.2 = coord(1/5)
    
    Abstract
    The Resource Description Framework (RDF) is a framework for representing information in the Web. RDF Concepts and Abstract Syntax defines an abstract syntax on which RDF is based, and which serves to link its concrete syntax to its formal semantics. It also includes discussion of design goals, key concepts, datatyping, character normalization and handling of URI references.
  8. Forscher erschließen Inhalte von Wiki-Webseiten (2006) 0.02
    0.022577403 = product of:
      0.11288701 = sum of:
        0.11288701 = weight(_text_:link in 55) [ClassicSimilarity], result of:
          0.11288701 = score(doc=55,freq=4.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.4163047 = fieldWeight in 55, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.0390625 = fieldNorm(doc=55)
      0.2 = coord(1/5)
    
    Content
    Das Konzept zur besseren Erschließung der Inhalte geht allerdings nur auf, wenn die WikiAutoren aktiv mitarbeiten. Die Karlsruher Forscher setzen auf eine Kombination aus sozialer und technischer Lösung: Sie hoffen, dass sich auf der Basis ihrer Software »Semantic MediaWiki« eine Art kollektive Indexierung der Wiki-Artikel durch die Autoren entwickelt. »Semantic MediaWiki« wird bereits auf mehreren Websites mit begrenztem Datenvolumen erfolgreich eingesetzt, unter anderen zur Erschließung der Bibel-Inhalte. Nun testen die Karlsruher Forscher, ob ihr Programm auch dem gewaltigen Volumen von Wikipedia gewachsen ist. Die Wikimedia Foundation Inc., Betreiber von Wikipedia, stellt ihnen für den Test rund 50 Gigabyte Inhalt der englischen Wikipedia-Ausgabe zur Verfügung und hat Interesse an einer Zusammenarbeit signalisiert. »Semantic MediaWiki« ist ein einfach zu bedienendes Werkzeug, das auf leistungsstarken semantischen Wissensmanagement-Technologien aufbaut. Die Autoren können mit dem Werkzeug die Querverweise, die sie in ihrem Text als Weiterleitung zu Hintergrundinformationen angeben, typisieren, also kurz erläutern, sowie Zahlenangaben und Fakten im Text als Attribute kennzeichnen. Bei dem Eintrag zu »Ägypten« steht dann zum Beispiel der typisierte Link »ist Land in Afrika«, ein Attribut könnte »Bevölkerung 76000000« sein. Dabei soll jeweils die Landessprache des Eintrags verwendet werden können. Die von den Autoren erzeugten, typisierten Links werden in einer Datenbank als Bezugsgruppen abgelegt; die gekennzeichneten Attribute als feststehende Werte gespeichert. Das versetzt Computer in die Lage, automatisch sinnvolle Antworten auf komplexere Anfragen zu geben; etwa eine Liste zu erzeugen, in der alle Länder Afrikas aufgeführt sind. Die Ländernamen führen als Link zurück zu dem Eintrag, in dem sie stehen."
  9. Guns, R.: Tracing the origins of the semantic web (2013) 0.02
    0.022577403 = product of:
      0.11288701 = sum of:
        0.11288701 = weight(_text_:link in 1093) [ClassicSimilarity], result of:
          0.11288701 = score(doc=1093,freq=4.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.4163047 = fieldWeight in 1093, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1093)
      0.2 = coord(1/5)
    
    Abstract
    The Semantic Web has been criticized for not being semantic. This article examines the questions of why and how the Web of Data, expressed in the Resource Description Framework (RDF), has come to be known as the Semantic Web. Contrary to previous papers, we deliberately take a descriptive stance and do not start from preconceived ideas about the nature of semantics. Instead, we mainly base our analysis on early design documents of the (Semantic) Web. The main determining factor is shown to be link typing, coupled with the influence of online metadata. Both factors already were present in early web standards and drafts. Our findings indicate that the Semantic Web is directly linked to older artificial intelligence work, despite occasional claims to the contrary. Because of link typing, the Semantic Web can be considered an example of a semantic network. Originally network representations of the meaning of natural language utterances, semantic networks have eventually come to refer to any networks with typed (usually directed) links. We discuss possible causes for this shift and suggest that it may be due to confounding paradigmatic and syntagmatic semantic relations.
  10. Semantic Media Wiki : Autoren sollen Wiki-Inhalte erschließen (2006) 0.02
    0.019356092 = product of:
      0.09678046 = sum of:
        0.09678046 = weight(_text_:link in 6027) [ClassicSimilarity], result of:
          0.09678046 = score(doc=6027,freq=6.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.35690695 = fieldWeight in 6027, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6027)
      0.2 = coord(1/5)
    
    Content
    "Mit einer semantischen Erweiterung der Software MediaWiki ist es dem Forschungsteam Wissensmanagement des Instituts für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) der Universität Karlsruhe (TH) gelungen, das Interesse der internationalen Fachwelt auf sich zu ziehen. Die jungen Forscher Denny Vrandecic und Markus Krötzsch aus dem Team von Professor Dr. Rudi Studer machen die Inhalte von Websites, die mit MediaWiki geschrieben sind, für Maschinen besser auswertbar. Ihr Konzept zur besseren Erschließung der Inhalte geht allerdings nur auf, wenn die Wiki-Autoren aktiv mitarbeiten. Die Karlsruher Forscher setzen auf eine Kombination aus sozialer und technischer Lösung: Sie hoffen, dass sich auf der Basis ihrer Wiki-PlugIn-Software "Semantic MediaWiki" eine Art kollektive Indexierung der Wiki-Artikel durch die Autoren entwickelt - und ernten für diese Idee viel Beifall. Semantic MediaWiki wird bereits auf mehreren Websites mit begrenztem Datenvolumen erfolgreich eingesetzt, unter anderen zur Erschließung der Bibel-Inhalte (URLs siehe Kasten). Nun testen die Karlsruher Forscher, ob ihr Programm auch den gigantischen Volumenanforderungen der freien Web-Enzyklopädie Wikipedia gewachsen ist. Die Wikimedia Foundation Inc., Betreiber von Wikipedia, stellt ihnen für den Test rund 50 Gigabyte Inhalt der englischen Wikipedia-Ausgabe zur Verfügung und hat Interesse an einer Zusammenarbeit signalisiert. Semantic MediaWiki steht als Open Source Software (PHP) auf der Website Sourceforge zur Verfügung. Semantic MediaWiki ist ein relativ einfach zu bedienendes Werkzeug, welches auf leistungsstarken semantischen Wissensmanagement-Technologien aufbaut. Die Autoren können mit dem Werkzeug die Querverweise (Links), die sie in ihrem Text als Weiterleitung zu Hintergrundinformationen angeben, bei der Eingabe als Link eines bestimmten Typs kennzeichnen (typed links) und Zahlenangaben und Fakten im Text als Attribute (attributes) markieren. Bei dem Eintrag zu "Ägypten" steht dann zum Bespiel der typisierte Link "[[ist Land von::Afrika]]" / "[[is country of::africa]]", ein Attribut könnte "[[Bevölkerung:=76,000,000]]" / "[[population:=76,000,000]]" sein. Die von den Autoren erzeugten, typisierten Links werden in einer Datenbank als Dreier-Bezugsgruppen (Triple) abgelegt; die gekennzeichneten Attribute als feststehende Werte gespeichert. Die Autoren können die Relationen zur Definition der Beziehungen zwischen den verlinkten Begriffen frei wählen, z.B. "ist ...von' / "is...of", "hat..." /"has ...". Eingeführte Relationen stehen als "bisher genutzte Relationen" den anderen Schreibern für deren Textindexierung zur Verfügung.
    Aus den so festgelegten Beziehungen zwischen den verlinkten Begriffen sollen Computer automatisch sinnvolle Antworten auf komplexere Anfragen generieren können; z.B. eine Liste erzeugen, in der alle Länder von Afrika aufgeführt sind. Die Ländernamen führen als Link zurück zu dem Eintrag, in dem sie stehen - dem Artikel zum Land, für das man sich interessiert. Aus informationswissenschaftlicher Sicht ist das Informationsergebnis, das die neue Technologie produziert, relativ simpel. Aus sozialwissenschaftlicher Sicht steckt darin aber ein riesiges Potential zur Verbesserung der Bereitstellung von enzyklopädischer Information und Wissen für Menschen auf der ganzen Welt. Spannend ist auch die durch Semantic MediaWiki gegebene Möglichkeit der automatischen Zusammenführung von Informationen, die in den verschiedenen Wiki-Einträgen verteilt sind, bei einer hohen Konsistenz der Ergebnisse. Durch die feststehenden Beziehungen zwischen den Links enthält die automatisch erzeugte Liste nach Angaben der Karlsruher Forscher immer die gleichen Daten, egal, von welcher Seite aus man sie abruft. Die Suchmaschine holt sich die Bevölkerungszahl von Ägypten immer vom festgelegten Ägypten-Eintrag, so dass keine unterschiedlichen Zahlen in der Wiki-Landschaft kursieren können. Ein mit Semantic MediaWiki erstellter Testeintrag zu Deutschland kann unter http://ontoworld.org/index.php/Germany eingesehen werden. Die Faktenbox im unteren Teil des Eintrags zeigt an, was der "Eintrag" der Suchmaschine an Wissen über Deutschland anbieten kann. Diese Ergebnisse werden auch in dem Datenbeschreibungsstandard RDF angeboten. Mehr als das, was in der Faktenbox steht, kann der Eintrag nicht an die Suchmaschine abgeben."
  11. Fischer, D.H.: From thesauri towards ontologies? (1998) 0.02
    0.01915756 = product of:
      0.0957878 = sum of:
        0.0957878 = weight(_text_:link in 2176) [ClassicSimilarity], result of:
          0.0957878 = score(doc=2176,freq=2.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.35324624 = fieldWeight in 2176, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.046875 = fieldNorm(doc=2176)
      0.2 = coord(1/5)
    
    Abstract
    The ISO 2788 guidelines for monolingual thesauri contain a differentiation of "the hierarchical relationship" into "generic", "partitive", and "instance", which, for purposes of document retrieval, was deemed adequate. However, ontologies, designed as language inventories for a wider scope of knowledge representation, are based on all these and some more logical differentiations. Rereading the ISO 2788 standard and inspecting the published Cyc Upper Ontology, it is argued that the adoption of the document-retrieval definition of subsumption generally prevents the conception or use of a thesaurus as a substructure of an ontology of the new kind as constructed for AI applications. When a thesaurus is used for fact description and inference on fact descriptions, the instance-of relationship too should be reconsidered: It may also link concepts and metaconcepts, and then its distinction from subsumption is needed. The treatment of the instance-of relationship in thesauri, the Cyc Upper Ontology, and WordNet is described from this perspective
  12. Mohr, J.W.; Bogdanov, P.: Topic models : what they are and why they matter (2013) 0.02
    0.01915756 = product of:
      0.0957878 = sum of:
        0.0957878 = weight(_text_:link in 1142) [ClassicSimilarity], result of:
          0.0957878 = score(doc=1142,freq=2.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.35324624 = fieldWeight in 1142, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.046875 = fieldNorm(doc=1142)
      0.2 = coord(1/5)
    
    Abstract
    We provide a brief, non-technical introduction to the text mining methodology known as "topic modeling." We summarize the theory and background of the method and discuss what kinds of things are found by topic models. Using a text corpus comprised of the eight articles from the special issue of Poetics on the subject of topic models, we run a topic model on these articles, both as a way to introduce the methodology and also to help summarize some of the ways in which social and cultural scientists are using topic models. We review some of the critiques and debates over the use of the method and finally, we link these developments back to some of the original innovations in the field of content analysis that were pioneered by Harold D. Lasswell and colleagues during and just after World War II.
  13. Endres-Niggemeyer, B.; Jauris-Heipke, S.; Pinsky, S.M.; Ulbricht, U.: Wissen gewinnen durch Wissen : Ontologiebasierte Informationsextraktion (2006) 0.02
    0.015964633 = product of:
      0.079823166 = sum of:
        0.079823166 = weight(_text_:link in 6016) [ClassicSimilarity], result of:
          0.079823166 = score(doc=6016,freq=2.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.29437187 = fieldWeight in 6016, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6016)
      0.2 = coord(1/5)
    
    Abstract
    Die ontologiebasierte Informationsextraktion, über die hier berichtet wird, ist Teil eines Systems zum automatischen Zusammenfassen, das sich am Vorgehen kompetenter Menschen orientiert. Dahinter steht die Annahme, dass Menschen die Ergebnisse eines Systems leichter übernehmen können, wenn sie mit Verfahren erarbeitet worden sind, die sie selbst auch benutzen. Das erste Anwendungsgebiet ist Knochenmarktransplantation (KMT). Im Kern des Systems Summit-BMT (Summarize It in Bone Marrow Transplantation) steht eine Ontologie des Fachgebietes. Sie ist als MySQL-Datenbank realisiert und versorgt menschliche Benutzer und Systemkomponenten mit Wissen. Summit-BMT unterstützt die Frageformulierung mit einem empirisch fundierten Szenario-Interface. Die Retrievalergebnisse werden durch ein Textpassagenretrieval vorselektiert und dann kognitiv fundierten Agenten unterbreitet, die unter Einsatz ihrer Wissensbasis / Ontologie genauer prüfen, ob die Propositionen aus der Benutzerfrage getroffen werden. Die relevanten Textclips aus dem Duelldokument werden in das Szenarioformular eingetragen und mit einem Link zu ihrem Vorkommen im Original präsentiert. In diesem Artikel stehen die Ontologie und ihr Gebrauch zur wissensbasierten Informationsextraktion im Mittelpunkt. Die Ontologiedatenbank hält unterschiedliche Wissenstypen so bereit, dass sie leicht kombiniert werden können: Konzepte, Propositionen und ihre syntaktisch-semantischen Schemata, Unifikatoren, Paraphrasen und Definitionen von Frage-Szenarios. Auf sie stützen sich die Systemagenten, welche von Menschen adaptierte Zusammenfassungsstrategien ausführen. Mängel in anderen Verarbeitungsschritten führen zu Verlusten, aber die eigentliche Qualität der Ergebnisse steht und fällt mit der Qualität der Ontologie. Erste Tests der Extraktionsleistung fallen verblüffend positiv aus.
  14. Soergel, D.: SemWeb: proposal for an open, multifunctional, multilingual system for integrated access to knowledge about concepts and terminology (1996) 0.02
    0.015964633 = product of:
      0.079823166 = sum of:
        0.079823166 = weight(_text_:link in 3575) [ClassicSimilarity], result of:
          0.079823166 = score(doc=3575,freq=2.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.29437187 = fieldWeight in 3575, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3575)
      0.2 = coord(1/5)
    
    Abstract
    Presents a proposal for the long-range development of an open, multifunctional, multilingual system for integrated access to many kinds of knowledge about concepts and terminology. The system would draw on existing knowledge bases that are accessible through the Internet or on CD-ROM and on a common integrated distributed knowledge base that would grow incrementally over time. Existing knowledge bases would be accessed througha common interface that would search several knowledge bases, collate the data into a common format, and present them to the user. The common integrated distributed knowldge base would provide an environment in which many contributors could carry out classification and terminological projects more efficiently, with the results available in a common format. Over time, data from other knowledge bases could be incorporated into the common knowledge base, either by actual transfer (provided the knowledge base producers are willing) or by reference through a link. Either way, such incorporation requires intellectual work but allows for tighter integration than common interface access to multiple knowledge bases. Each piece of information in the common knowledge base will have all its sources attached, providing an acknowledgment mechanism that gives due credit to all contributors. The whole system would be designed to be usable by many levels of users for improved information exchange.
  15. Soergel, D.: SemWeb: Proposal for an Open, multifunctional, multilingual system for integrated access to knowledge about concepts and terminology : exploration and development of the concept (1996) 0.02
    0.015964633 = product of:
      0.079823166 = sum of:
        0.079823166 = weight(_text_:link in 3576) [ClassicSimilarity], result of:
          0.079823166 = score(doc=3576,freq=2.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.29437187 = fieldWeight in 3576, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3576)
      0.2 = coord(1/5)
    
    Abstract
    This paper presents a proposal for the long-range development of an open, multifunctional, multilingual system for integrated access to many kinds of knowledge about concepts and terminology. The system would draw on existing knowledge bases that are accessible through the Internet or on CD-ROM an on a common integrated distributed knowledge base that would grow incrementally over time. Existing knowledge bases would be accessed through a common interface that would search several knowledge bases, collate the data into a common format, and present them to the user. The common integrated distributed knowledge base would provide an environment in which many contributors could carry out classification and terminological projects more efficiently, with the results available in a common format. Over time, data from other knowledge bases could be incorporated into the common knowledge base, either by actual transfer (provided the knowledge base producers are willing) or by reference through a link. Either way, such incorporation requires intellectual work but allows for tighter integration than common interface access to multiple knowledge bases. Each piece of information in the common knowledge base will have all its sources attached, providing an acknowledgment mechanism that gives due credit to all contributors. The whole system woul be designed to be usable by many levels of users for improved information exchange.
  16. Endres-Niggemeyer, B.; Ziegert, C.: SummIt-BMT : (Summarize It in BMT) in Diagnose und Therapie, Abschlussbericht (2002) 0.02
    0.015964633 = product of:
      0.079823166 = sum of:
        0.079823166 = weight(_text_:link in 4497) [ClassicSimilarity], result of:
          0.079823166 = score(doc=4497,freq=2.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.29437187 = fieldWeight in 4497, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4497)
      0.2 = coord(1/5)
    
    Abstract
    SummIt-BMT (Summarize It in Bone Marrow Transplantation) - das Zielsystem des Projektes - soll Ärzten in der Knochenmarktransplantation durch kognitiv fundiertes Zusammenfassen (Endres-Niggemeyer, 1998) aus dem WWW eine schnelle Informationsaufnahme ermöglichen. Im bmbffinanzierten Teilprojekt, über das hier zu berichten ist, liegt der Schwerpunkt auf den klinischen Fragestellungen. SummIt-BMT hat als zentrale Komponente eine KMT-Ontologie. Den Systemablauf veranschaulicht Abb. 1: Benutzer geben ihren Informationsbedarf in ein strukturiertes Szenario ein. Sie ziehen dazu Begriffe aus der Ontologie heran. Aus dem Szenario werden Fragen an Suchmaschinen abgeleitet. Die Summit-BMT-Metasuchmaschine stößt Google an und sucht in Medline, der zentralen Literaturdatenbank der Medizin. Das Suchergebnis wird aufbereitet. Dabei werden Links zu Volltexten verfolgt und die Volltexte besorgt. Die beschafften Dokumente werden mit einem Schlüsselwortretrieval auf Passagen untersucht, in denen sich Suchkonzepte aus der Frage / Ontologie häufen. Diese Passagen werden zum Zusammenfassen vorgeschlagen. In ihnen werden die Aussagen syntaktisch analysiert. Die Systemagenten untersuchen sie. Lassen Aussagen sich mit einer semantischen Relation an die Frage anbinden, tragen also zur deren Beantwortung bei, werden sie in die Zusammenfassung aufgenommen, es sei denn, andere Agenten machen Hinderungsgründe geltend, z.B. Redundanz. Das Ergebnis der Zusammenfassung wird in das Frage/Antwort-Szenario integriert. Präsentiert werden Exzerpte aus den Quelldokumenten. Mit einem Link vermitteln sie einen sofortigen Rückgriff auf die Quelle. SummIt-BMT ist zum nächsten Durchgang von Informationssuche und Zusammenfassung bereit, sobald der Benutzer dies wünscht.
  17. Schmitz-Esser, W.: Language of general communication and concept compatibility (1996) 0.01
    0.013789116 = product of:
      0.06894558 = sum of:
        0.06894558 = weight(_text_:22 in 6089) [ClassicSimilarity], result of:
          0.06894558 = score(doc=6089,freq=2.0), product of:
            0.17819946 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.05088753 = queryNorm
            0.38690117 = fieldWeight in 6089, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.078125 = fieldNorm(doc=6089)
      0.2 = coord(1/5)
    
    Pages
    S.11-22
  18. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.01
    0.013789116 = product of:
      0.06894558 = sum of:
        0.06894558 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
          0.06894558 = score(doc=5576,freq=2.0), product of:
            0.17819946 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.05088753 = queryNorm
            0.38690117 = fieldWeight in 5576, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.078125 = fieldNorm(doc=5576)
      0.2 = coord(1/5)
    
    Date
    13.12.2017 14:17:22
  19. Tudhope, D.; Hodge, G.: Terminology registries (2007) 0.01
    0.013789116 = product of:
      0.06894558 = sum of:
        0.06894558 = weight(_text_:22 in 539) [ClassicSimilarity], result of:
          0.06894558 = score(doc=539,freq=2.0), product of:
            0.17819946 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.05088753 = queryNorm
            0.38690117 = fieldWeight in 539, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.078125 = fieldNorm(doc=539)
      0.2 = coord(1/5)
    
    Date
    26.12.2011 13:22:07
  20. Haller, S.H.M.: Mappingverfahren zur Wissensorganisation (2002) 0.01
    0.013789116 = product of:
      0.06894558 = sum of:
        0.06894558 = weight(_text_:22 in 3406) [ClassicSimilarity], result of:
          0.06894558 = score(doc=3406,freq=2.0), product of:
            0.17819946 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.05088753 = queryNorm
            0.38690117 = fieldWeight in 3406, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.078125 = fieldNorm(doc=3406)
      0.2 = coord(1/5)
    
    Date
    30. 5.2010 16:22:35

Authors

Years

Languages

  • e 54
  • d 16

Types

  • a 52
  • el 19
  • x 5
  • m 2
  • r 2
  • n 1
  • s 1
  • More… Less…