Search (31 results, page 1 of 2)

  • × language_ss:"d"
  • × theme_ss:"Wissensrepräsentation"
  • × year_i:[2010 TO 2020}
  1. Semenova, E.: Ontologie als Begriffssystem : Theoretische Überlegungen und ihre praktische Umsetzung bei der Entwicklung einer Ontologie der Wissenschaftsdisziplinen (2010) 0.05
    0.053813234 = product of:
      0.08071985 = sum of:
        0.00625602 = weight(_text_:e in 4095) [ClassicSimilarity], result of:
          0.00625602 = score(doc=4095,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.09528506 = fieldWeight in 4095, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=4095)
        0.07446383 = sum of:
          0.0373316 = weight(_text_:von in 4095) [ClassicSimilarity], result of:
            0.0373316 = score(doc=4095,freq=6.0), product of:
              0.121865906 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045677755 = queryNorm
              0.30633342 = fieldWeight in 4095, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.046875 = fieldNorm(doc=4095)
          0.03713223 = weight(_text_:22 in 4095) [ClassicSimilarity], result of:
            0.03713223 = score(doc=4095,freq=2.0), product of:
              0.15995571 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045677755 = queryNorm
              0.23214069 = fieldWeight in 4095, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=4095)
      0.6666667 = coord(2/3)
    
    Abstract
    Das Konzept des Semantic Web befindet sich gegenwärtig auf dem Weg von der Vision zur Realisierung und ist "noch gestaltbar", ebenso wie eine seiner Grundkonzeptionen, die Ontologie. Trotz der stetig wachsenden Anzahl der Forschungsarbeiten werden Ontologien primär aus der Sicht semantischer Technologien untersucht, Probleme der Ontologie als Begriffssystem werden in der Ontologieforschung nur partiell angetastet - für die praktische Arbeit erweist sich dieses als bedeutender Mangel. In diesem Bericht wird die Notwendigkeit, eine Ontologie aus der Sicht der Dokumentationssprache zu erforschen, als Fragestellung formuliert, außerdem werden einige schon erarbeitete theoretische Ansätze skizzenhaft dargestellt. Als Beispiel aus der Praxis wird das Material des von der DFG geförderten und am Hermann von Helmholtz-Zentrum für Kulturtechnik der Humboldt Universität zu Berlin durchgeführten Projektes "Entwicklung einer Ontologie der Wissenschaftsdisziplinen" einbezogen.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  2. Dröge, E.: Leitfaden für das Verbinden von Ontologien (2010) 0.02
    0.02360825 = product of:
      0.035412375 = sum of:
        0.0072986903 = weight(_text_:e in 3507) [ClassicSimilarity], result of:
          0.0072986903 = score(doc=3507,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.1111659 = fieldWeight in 3507, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3507)
        0.028113684 = product of:
          0.056227367 = sum of:
            0.056227367 = weight(_text_:von in 3507) [ClassicSimilarity], result of:
              0.056227367 = score(doc=3507,freq=10.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.4613872 = fieldWeight in 3507, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3507)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    In Tim Berners Lees Vorstellung von einem Semantic Web wird das zur Zeit existierende Web um maschinenlesbare Metadaten, die in Form von Ontologien repräsentiert werden, erweitert und so mit semantischen Zusätzen versehen. Wie auch das WWW ist das Semantic Web dezentral aufgebaut, also werden Ontologien von unterschiedlichen Gruppen von Menschen zu den unterschiedlichsten Themengebieten erstellt. Um daraus ein Netz aus Informationen zu schaffen, müssen diese miteinander verbunden werden. Das geschieht über semantische oder syntaktische Matchingverfahren, denen ein Merging oder ein Mapping der Ontologien folgt. In dieser Arbeit wird genauer auf die einzelnen Methoden und die Zukunft des Semantic Webs eingegangen.
  3. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2010) 0.02
    0.022822194 = product of:
      0.06846658 = sum of:
        0.06846658 = sum of:
          0.025145644 = weight(_text_:von in 4792) [ClassicSimilarity], result of:
            0.025145644 = score(doc=4792,freq=2.0), product of:
              0.121865906 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045677755 = queryNorm
              0.20633863 = fieldWeight in 4792, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4792)
          0.043320935 = weight(_text_:22 in 4792) [ClassicSimilarity], result of:
            0.043320935 = score(doc=4792,freq=2.0), product of:
              0.15995571 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045677755 = queryNorm
              0.2708308 = fieldWeight in 4792, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4792)
      0.33333334 = coord(1/3)
    
    Abstract
    Moderne Verfahren des Information Retrieval verlangen nach aussagekräftigen und detailliert relationierten Dokumentationssprachen. Der selektive Transfer einzelner Modellierungsstrategien aus dem Bereich semantischer Technologien für die Gestaltung und Relationierung bestehender Dokumentationssprachen wird diskutiert. In Form einer Taxonomie wird ein hierarchisch strukturiertes Relationeninventar definiert, welches sowohl hinreichend allgemeine als auch zahlreiche spezifische Relationstypen enthält, die eine detaillierte und damit aussagekräftige Relationierung des Vokabulars ermöglichen. Das bringt einen Zugewinn an Übersichtlichkeit und Funktionalität. Im Gegensatz zu anderen Ansätzen und Überlegungen zur Schaffung von Relationeninventaren entwickelt der vorgestellte Vorschlag das Relationeninventar aus der Begriffsmenge eines bestehenden Gegenstandsbereichs heraus.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  4. Kless, D.: Erstellung eines allgemeinen Standards zur Wissensorganisation : Nutzen, Möglichkeiten, Herausforderungen, Wege (2010) 0.02
    0.022288626 = product of:
      0.06686588 = sum of:
        0.06686588 = sum of:
          0.03592235 = weight(_text_:von in 4422) [ClassicSimilarity], result of:
            0.03592235 = score(doc=4422,freq=8.0), product of:
              0.121865906 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045677755 = queryNorm
              0.29476947 = fieldWeight in 4422, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4422)
          0.030943526 = weight(_text_:22 in 4422) [ClassicSimilarity], result of:
            0.030943526 = score(doc=4422,freq=2.0), product of:
              0.15995571 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045677755 = queryNorm
              0.19345059 = fieldWeight in 4422, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4422)
      0.33333334 = coord(1/3)
    
    Abstract
    Zur Organisation und zum besseren Auffinden von Wissen werden häufig verschiedene Typen von Vokabularen verwendet. Aufgrund ihres Ursprungs in unterschiedlichen Communities werden die Vokabulare mit unterschiedlicher Terminologie sowie jeweils eigenen Methoden und Werkzeugen beschrieben und sind, wenn überhaupt, unterschiedlich stark und mit unterschiedlichem Fokus standardisiert. Um dieser Entwicklung zu entgegnen, müssen zum einen die Standards für die verschiedenen Vokabulartypen (weiter-)entwickelt werden und dabei auf gemeinsame, heute allgemein anerkannte Modellierungssprachen (z.B. UML) und XML-basierte Auszeichnungssprachen zurückgreifen. Zum anderen ist ein Meta-Standard nötig, der die Terminologie der verschiedenen Communities aufeinander abbildet und die Vokabulare vergleichbar macht. Dies würde nicht nur die qualifizierte Auswahl eines Vokabulartyps ermöglichen, sondern auch deren gegenseitiges Abbilden (Mappen) und allgemein der Wiederverwendung von Vokabularen nutzen. In Ansätzen wurde diese Strategie im jüngst veröffentlichten britischen Standard BS 8723 verfolgt, dessen Schwerpunkt (weiter) auf Thesauri liegt, der jedoch auch explizit Bezug zu anderen Vokabularen nimmt. Die im April 2007 begonnene Revision des Standards als internationale ISO-Norm 25964 erlaubt weitere, wenn auch vielleicht kleine Schritte hin zu einer langfristigen Vision von allgemeingültigen Standards zur Wissensorganisation.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  5. Ricci, F.; Schneider, R.: ¬Die Verwendung von SKOS-Daten zur semantischen Suchfragenerweiterung im Kontext des individualisierbaren Informationsportals RODIN (2010) 0.02
    0.01907835 = product of:
      0.028617524 = sum of:
        0.0058982326 = weight(_text_:e in 4261) [ClassicSimilarity], result of:
          0.0058982326 = score(doc=4261,freq=4.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.08983562 = fieldWeight in 4261, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=4261)
        0.02271929 = product of:
          0.04543858 = sum of:
            0.04543858 = weight(_text_:von in 4261) [ClassicSimilarity], result of:
              0.04543858 = score(doc=4261,freq=20.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.37285718 = fieldWeight in 4261, product of:
                  4.472136 = tf(freq=20.0), with freq of:
                    20.0 = termFreq=20.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4261)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    RODIN (ROue D'INformation) ist ein Projekt, das einen alternativen Ansatz in der Erstellung von Informationsportalen verfolgt, indem es dem Benutzer ermöglicht, selbständig oder in Zusammenarbeit mit einem Informationsspezialisten heterogene Informationsquellen, die für ihn eine Relevanz besitzen, als Aggregat miteinander zu verbinden. Das System gewährleistet eine simultane Suche in allen Komponenten des Aggregats und ermöglicht die Suchverfeinerung durch Anbindung an bibliografische und enzyklopädische Ontologien.
    Content
    "Im Projekt RODIN (Roue d'information) wird die Realisierung einer alternativen Portalidee im Rahmen der E-lib.ch-Initiative (www.e-lib.ch) angestrebt. Dahinter verbirgt sich die Idee eines personalisierbaren Informationsportals zur Aggregation heterogener Datenquellen unter Verwendung von SemanticWeb-Technologie. Das allgemeine wissenschaftliche Interesse von RODIN besteht darin, zu überprüfen, inwieweit bibliografische Ontologien als Bestandteil des SemanticWeb für die Informationssuche gewinnbringend eingesetzt werden können. Den Benutzern werden hierbei unterschiedliche Funktionalitäten zur Verfügung gestellt. So können sie zunächst aus unterschiedlichen Informationsquellen jene auswählen, die für ihre Recherche von Relevanz sind und diese in Form von Widgets auf der Startseite des Informationsportals zusammenstellen. Konkret handelt es sich hierbei um Informationsquellen, die im Kontext von E-lib.ch bereitgestellt werden (bspw. Swissbib.ch, Rero-Doc) sowie um allgemeine Webressourcen (etwa Delicious oder Google-Books). Anschließend besteht die Möglichkeit, simultan über alle spezifizierten Quellen eine parallele Suche anzustoßen und - nach Beendigung dieser Metasuche - die Ergebnisse zu verfeinern.
    Der Ausgangspunkt für die Suchverfeinerung ist ein Ergebnis aus der Treffermenge, für welches ein Ontologie-Mapping durchgeführt wird, d.h. dass ausgehend von den Daten und Metadaten des Suchergebnisses der semantische Kontext für dieses Dokument innerhalb einer Ontologie ermittelt wird. Bei diesen Ontologien handelt es sich um in SKOS-Daten überführte Thesauri und Taxonomien, die aus einem bibliothekswissenschaftlichen Umfeld stammen. Durch Ermittlung des ontologischen Kontexts stehen eine Reihe von Termen in Form von Synonymen, Hypernymen und Hyponymen zur Verfügung, die es dem Benutzer ermöglichen, seine Ergebnismenge gezielt einzuschränken, zu verallgemeinern oder auf ähnliche Begriffe auszuweiten. Nach der Bestimmung des weiteren Suchkontexts wird dann in allen vom Benutzer bereits ausgewählten Widgets eine neue Suche angestoßen und das zur Suchverfeinerung ausgewählte Dokument in seiner semantischen Ausrichtung zu den übrigen Informationsquellen kontextualisiert."
  6. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.01
    0.010314509 = product of:
      0.030943526 = sum of:
        0.030943526 = product of:
          0.061887052 = sum of:
            0.061887052 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
              0.061887052 = score(doc=5576,freq=2.0), product of:
                0.15995571 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045677755 = queryNorm
                0.38690117 = fieldWeight in 5576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5576)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    13.12.2017 14:17:22
  7. Nielsen, M.: Neuronale Netze : Alpha Go - Computer lernen Intuition (2018) 0.01
    0.010314509 = product of:
      0.030943526 = sum of:
        0.030943526 = product of:
          0.061887052 = sum of:
            0.061887052 = weight(_text_:22 in 4523) [ClassicSimilarity], result of:
              0.061887052 = score(doc=4523,freq=2.0), product of:
                0.15995571 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045677755 = queryNorm
                0.38690117 = fieldWeight in 4523, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4523)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Spektrum der Wissenschaft. 2018, H.1, S.22-27
  8. Gödert, W.: Semantische Wissensrepräsentation und Interoperabilität : Teil 2: Ein formales Modell semantischer Interoperabilität (2010) 0.01
    0.009579293 = product of:
      0.028737878 = sum of:
        0.028737878 = product of:
          0.057475757 = sum of:
            0.057475757 = weight(_text_:von in 1530) [ClassicSimilarity], result of:
              0.057475757 = score(doc=1530,freq=8.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.47163114 = fieldWeight in 1530, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1530)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    In diesem zweiten Teil wird ein formales Modell zur semantischen Interoperabilität als Brücke zwischen formaler Modellierung und intellektueller Interpretation vorgestellt, das ein besseres Verständnis der zentralen Begriffe von semantischer Ähnlichkeit und Verschiedenheit von Begriffen und Klassen, sowohl als elementare Inhaltsentitäten von Dokumentationssprachen als auch als synthetische Repräsentationen von Dokumentinhalten, ermöglichen soll.
  9. Gödert, W.: ¬Ein Ontologie basiertes Modell für Indexierung und Retrieval (2014) 0.01
    0.009579293 = product of:
      0.028737878 = sum of:
        0.028737878 = product of:
          0.057475757 = sum of:
            0.057475757 = weight(_text_:von in 1266) [ClassicSimilarity], result of:
              0.057475757 = score(doc=1266,freq=8.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.47163114 = fieldWeight in 1266, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1266)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    In diesem Beitrag wird ausgehend von einem ungelösten Problem der Informationserschließung ein Modell vorgestellt, das die Methoden und Erfahrungen zur inhaltlichen Dokumenterschließung mittels kognitiv zu interpretierender Dokumentationssprachen mit den Möglichkeiten formaler Wissensrepräsentation verbindet. Die Kernkomponente des Modells besteht aus der Nutzung von Inferenzen entlang der Pfade typisierter Relationen zwischen den in Facetten geordneten Entitäten innerhalb einer Wissensrepräsentation zur Bestimmung von Treffermengen im Rahmen von Retrievalprozessen. Es werden die möglichen Konsequenzen für das Indexieren und Retrieval diskutiert.
  10. Alvers, M.R.: Semantische wissensbasierte Suche in den Life Sciences am Beispiel von GoPubMed (2010) 0.01
    0.008960608 = product of:
      0.026881823 = sum of:
        0.026881823 = product of:
          0.053763647 = sum of:
            0.053763647 = weight(_text_:von in 4262) [ClassicSimilarity], result of:
              0.053763647 = score(doc=4262,freq=28.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.44117054 = fieldWeight in 4262, product of:
                  5.2915025 = tf(freq=28.0), with freq of:
                    28.0 = termFreq=28.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4262)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Nie zuvor war der Zugriff auf Informationen so einfach und schnell wie heute. Die Suchmaschine Google ist dabei mit einem Marktanteil von 95 Prozent in Deutschland führend. Aber reicht der heutige Status Quo aus? Wir meinen nein - andere meinen ja. Die Verwendung von Stichworten für die Suche ist sehr begrenzt, nicht intelligent und der Algorithmus zum ranking der Suchergebnisse fragwürdig. Wir zeigen neue Wege der semantischen Suche mittels der Verwendung von Hintergrundwissen. Die (semi)automatische Generierung von Ontologien wird ebenfalls als zentraler Bestandteil einer universellen Wissensplattform vorgestellt und gezeigt, wie Anwender mit dieser Technologie signifikant Zeit sparen und deutlich relevantere Informationen finden.
    Content
    "Im Vortrag werden Aspekte der Suche nach Informationen und Antworten aus dem breiten Spektrum von der Suche nach einer Telefonnummer bis zur Frage nach dem "Sinn des Lebens" (deren Antwort auch im Vortrag leider nicht gegeben werden kann) angesprochen. Die Verwendung von Hintergrundwissen in Form von semantischen Begriffsnetzwerken, sogenannten Ontologien, hilft enorm, der Beantwortung von Fragen näher zu kommen. Sie garantieren Vollständigkeit der Suchergebnisse und schnelles Fokussieren auf Relevantes. Das bedeutungs-getriebene Einsortieren oder das Klassifizieren von Informationen aus Dokumenten oder von Internetinhalten, ermöglicht die Disambiguierung von Begriffen wie Salz und 01, " Cyclooxygenase Inhibitoren" - eher bekannt als Aspirin - oder das Auffinden aller Dokumente, die zum Thema CO2 - Sequestrierung gehören - also auch solcher, in den Begriff CO2 - Sequestrierung nicht direkt enthalten aber solche, die für das Thema relevant sind. Die Technologie hinter GoPubMed automatisiert schwierige Analysen, die normaler Weise von Wissenschaftlern getätigt werden. Dabei werden die notwendigen Informationen, wie sie von ausgefeilten Algorithmen ([DS05]) vorausgesagt wurden, mit einer deutlich höheren Genauigkeit bereitgestellt. Transinsights semantische Suchtechnologien wurde als erstes Beispiel der nächsten Generation der Suche entwickelt. Die Stärke liegt in der Fähigkeit, große Textkorpora (> 500 Millionen Dokumente) mit großen Ontologien (> 15 Millionen Konzepte) zu verknüpfen. In GoPubMed wird die Gene Ontology und MeSH verwendet, die zusammen mit einer Geo-Ontologie und allen Autoren ca. 15 Millionen Konzepte beinhalten.m"
  11. Weller, K.: Ontologien (2013) 0.01
    0.0084669795 = product of:
      0.025400937 = sum of:
        0.025400937 = product of:
          0.050801873 = sum of:
            0.050801873 = weight(_text_:von in 715) [ClassicSimilarity], result of:
              0.050801873 = score(doc=715,freq=4.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.416867 = fieldWeight in 715, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.078125 = fieldNorm(doc=715)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
  12. Gödert, W.: Semantische Wissensrepräsentation und Interoperabilität : Teil 1: Interoperabilität als Weg zur Wissensexploration (2010) 0.01
    0.008381882 = product of:
      0.025145644 = sum of:
        0.025145644 = product of:
          0.05029129 = sum of:
            0.05029129 = weight(_text_:von in 3348) [ClassicSimilarity], result of:
              0.05029129 = score(doc=3348,freq=8.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.41267726 = fieldWeight in 3348, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3348)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Dieser aus zwei Teilen bestehende Beitrag setzt Methoden der semantischen Wissensrepräsentation in Verbindung zur Gestaltung von Retrievalszenarios für begriffliche Recherchen und insbesondere für die Wissensexploration. Ausgehend von heterogenen Erschließungssituationen werden Konzepte vorgestellt, wie durch Maßnahmen zur Herstellung von Interoperabilität ein Beitrag zur Lösung der Heterogenitätssituation geleistet werden soll. Basierend auf einem, im zweiten Teil vorgestellten, formalen Modell zum besseren Verständnis von semantischer Interoperabilität, wird ein Vorschlag für ein Gesamtsystem entwickelt, das aus einer Kernontologie und lokalisierten semantischen Netzen mit erweitertem Relationenumfang besteht. Die Möglichkeiten zur Recherche und Exploration in einem solchen Gesamtrahmen werden skizziert.
  13. Hoppe, T.: Semantische Filterung : ein Werkzeug zur Steigerung der Effizienz im Wissensmanagement (2013) 0.01
    0.008295912 = product of:
      0.024887735 = sum of:
        0.024887735 = product of:
          0.04977547 = sum of:
            0.04977547 = weight(_text_:von in 2245) [ClassicSimilarity], result of:
              0.04977547 = score(doc=2245,freq=6.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.40844458 = fieldWeight in 2245, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2245)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Dieser Artikel adressiert einen Randbereich des Wissensmanagements: die Schnittstelle zwischen Unternehmens-externen Informationen im Internet und den Leistungsprozessen eines Unternehmens. Diese Schnittstelle ist besonders für Unternehmen von Interesse, deren Leistungsprozesse von externen Informationen abhängen und die auf diese Prozesse angewiesen sind. Wir zeigen an zwei Fallbeispielen, dass die inhaltliche Filterung von Informationen beim Eintritt ins Unternehmen ein wichtiges Werkzeug darstellt, um daran anschließende Wissens- und Informationsmanagementprozesse effizient zu gestalten.
  14. Bauckhage, C.: Moderne Textanalyse : neues Wissen für intelligente Lösungen (2016) 0.01
    0.008295912 = product of:
      0.024887735 = sum of:
        0.024887735 = product of:
          0.04977547 = sum of:
            0.04977547 = weight(_text_:von in 2568) [ClassicSimilarity], result of:
              0.04977547 = score(doc=2568,freq=6.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.40844458 = fieldWeight in 2568, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2568)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Im Zuge der immer größeren Verfügbarkeit von Daten (Big Data) und rasanter Fortschritte im Daten-basierten maschinellen Lernen haben wir in den letzten Jahren Durchbrüche in der künstlichen Intelligenz erlebt. Dieser Vortrag beleuchtet diese Entwicklungen insbesondere im Hinblick auf die automatische Analyse von Textdaten. Anhand einfacher Beispiele illustrieren wir, wie moderne Textanalyse abläuft und zeigen wiederum anhand von Beispielen, welche praktischen Anwendungsmöglichkeiten sich heutzutage in Branchen wie dem Verlagswesen, der Finanzindustrie oder dem Consulting ergeben.
  15. Öttl, S.; Streiff, D.; Stettler, N.; Studer, M.: Aufbau einer Testumgebung zur Ermittlung signifikanter Parameter bei der Ontologieabfrage (2010) 0.01
    0.007920135 = product of:
      0.023760403 = sum of:
        0.023760403 = product of:
          0.047520805 = sum of:
            0.047520805 = weight(_text_:von in 4257) [ClassicSimilarity], result of:
              0.047520805 = score(doc=4257,freq=14.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.3899434 = fieldWeight in 4257, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4257)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Der Einsatz von semantischen Technologien ist mittlerweile ein etabliertes Mittel zur Optimierung von Information-Retrieval-Systemen. Obwohl der Einsatz von Ontologien für verschiedene Anwendungsbereiche wie beispielsweise zur Query-Expansion (Bhogal et al. 2007), zur Strukturierung von Benutzeroberflächen bzw. zur Dialoggestaltung (z. B. Garcia & Sicilia 2003; Liu et al. 2005; Lopez et al. 2006; Paulheim 2009; Paulheim & Probst 2010), in Recommendersystemen (z. B. Taehee et al. 2006; Cantador et al. 2008; Middleton et al. 2001; Middleton et al. 2009) usw. rege erforscht wird, gibt es noch kaum Bestrebungen, die einzelnen Abfragemethodiken für Ontologien systematisch zu untersuchen. Bei der Abfrage von Ontologien geht es in erster Linie darum, Zusammenhänge zwischen Begriffen zu ermitteln, indem hierarchische (Classes und Individuals), semantische (Object Properties) und ergänzende (Datatype Properties) Beziehungen abgefragt oder logische Verknüpfungen abgeleitet werden. Hierbei werden sogenannte Reasoner für die Ableitungen und als Abfragesprache SPARQL (seltener auch XPath) eingesetzt. Ein weiterer, weniger oft eingesetzter, vielversprechender Ansatz findet sich bei Hoser et al. (2006) und Weng & Chang (2008), die Techniken der Sozialen Netzwerkanalyse zur Auswertung von Ontologien miteinsetzen (Semantic Network Analysis). Um die Abfrage von Ontologien sowie Kombinationen der unterschiedlichen Abfragemöglichkeiten systematisch untersuchen zu können, wurde am SII eine entsprechende Testumgebung entwickelt, die in diesem Beitrag genauer vorgestellt werden soll.
  16. Werrmann, J.: Modellierung im Kontext : Ontologie-basiertes Information Retrieval (2011) 0.01
    0.006773583 = product of:
      0.020320749 = sum of:
        0.020320749 = product of:
          0.040641498 = sum of:
            0.040641498 = weight(_text_:von in 1141) [ClassicSimilarity], result of:
              0.040641498 = score(doc=1141,freq=4.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.3334936 = fieldWeight in 1141, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1141)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Heterogene Dokumentenlandschaften in Unternehmen bergen Wissen in Form von Verknüpfungspotentialen zwischen domänenspezifischen Dokumenten verschiedener Dokumentensysteme. Um dieses teils verborgene Wissen ableiten oder generieren zu können, entwickeln wir ein Entwurfsmuster für eine Ontologie, die eine homogene Zugriffsstruktur über einer heterogenen Dokumentenlandschaft etabliert. Weiterhin beschreiben wir ein Advanced Ontology-based Information Retrieval (AIRS) Verfahren, mit dessen Hilfe diese Meta-Ontologie zur Generierung von Anfragestrategien an Dokumentensysteme und für die Dokumentenrecherche in verschiedenen Anwendungskontexten genutzt werden können.
  17. Zeh, T.: Ontologien in den Informationswissenschaften (2011) 0.01
    0.006773583 = product of:
      0.020320749 = sum of:
        0.020320749 = product of:
          0.040641498 = sum of:
            0.040641498 = weight(_text_:von in 4981) [ClassicSimilarity], result of:
              0.040641498 = score(doc=4981,freq=4.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.3334936 = fieldWeight in 4981, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4981)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    "Seit etwa zwei Jahren gibt es im webbasieren sozialen Netzwerk XING (vormals openBC) die Arbeitsgruppe Ontologien in den Informationswissenschaften: Theorien, Methodologien, Technologien und Anwendungen. Die von Anatol Reibold initiierte Arbeitsgruppe mit inzwischen mehr als 800 Mitgliedern will vor allem das Thema Ontologien in den Informationswissenschaften voranbringen, ein Netzwerk von Ontologen autbauen und Wissen über das Thema austauschen. Im Forum werden grundsätzliche wie auch aktuelle Themen diskutiert, über neue Entwicklungen berichtet und Tipps zur Literatur gegeben."
  18. Meyer, A.: Begriffsrelationen im Kategoriensystem der Wikipedia : Entwicklung eines Relationeninventars zur kollaborativen Anwendung (2010) 0.01
    0.006693735 = product of:
      0.020081203 = sum of:
        0.020081203 = product of:
          0.040162407 = sum of:
            0.040162407 = weight(_text_:von in 4429) [ClassicSimilarity], result of:
              0.040162407 = score(doc=4429,freq=10.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.32956228 = fieldWeight in 4429, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4429)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Neben den bekannten Hyperlinks in Artikeltexten verfügt die Online-Enzyklopädie Wikipedia mit ihrem Kategoriensystem über ein weiteres Mittel zur Herstellung von Relationen zwischen Artikeln. Jeder Artikel ist einer oder mehreren Kategorien zugeordnet, die ihrerseits anderen Kategorien zugeordnet sind. Auf diese Weise entsteht eine systematische Ordnung von Artikeln und Kategorien. Betrachtet man nur die Artikel- und Kategoriennamen sowie diese Relationen, so stellt das Kategoriensystem ein gemeinschaftlich erstelltes Begriffssystem dar, das sämtliche von der Wikipedia abgedeckten Themenbereiche umfasst, jedoch - technisch betrachtet - ausschließlich hierarchische Relationen enthält. Aufgrund des Fehlens eines differenzierten Regelwerks zur Kategorisierung ist das Kategoriensystem derzeit jedoch inkonsistent, daneben sind, bedingt durch das Vorhandensein lediglich eines Relationstyps, viele Relationen wenig aussagekräftig. Dennoch besteht das Potenzial zur Schaffung eines stark und differenziert relationierten Begriffssystems aus dem bestehenden Kategoriensystem heraus. Die vorliegende Arbeit diskutiert die Anwendungsmöglichkeiten eines solchen Begriffssystems und die Option seiner gemeinschaftlichen Entwicklung aus dem bestehenden Vokabular des Kategoriensystems, mithin also der gemeinschaftlichen Relationierung von Begriffen anhand eines differenzierten Relationeninventars. Ausgehend von den Kategorien "Theater" und "Jagd" der deutschsprachigen Wikipedia wird ein hierarchisch strukturiertes Relationeninventar definiert, das sowohl spezifische als auch allgemeine Relationstypen enthält und damit die Möglichkeit zur Übertragung auf andere Gegenstandsbereiche bietet. Sämtliche Artikel- und Kategoriennamen, die unterhalb jener Kategorien erscheinen, werden unter Verwendung der neu entwickelten Relationstypen als Deskriptoren relationiert.
  19. Becker, H.-G.; Förster, F.: Vernetztes Wissen : Ereignisse in der bibliografischen Dokumentation (2010) 0.01
    0.0062219333 = product of:
      0.0186658 = sum of:
        0.0186658 = product of:
          0.0373316 = sum of:
            0.0373316 = weight(_text_:von in 3494) [ClassicSimilarity], result of:
              0.0373316 = score(doc=3494,freq=6.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.30633342 = fieldWeight in 3494, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3494)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Innerhalb der Gedächtnisinstitutionen Bibliothek, Museum und Archiv gibt es je eigene Beschreibungsmodelle der beherbergten Objekte und Materialien. Für eine genauere bibliografische Erschließung wurde im Bibliotheksbereich das von Benutzerbedürfnissen ausgehende, statische Modell "Functional Requirements for Bibliographic Records" (FRBR) geschaffen, dessen ungenauer »Werk«-Begriff ebenso thematisiert wird wie die schwer zu realisierende Übertragbarkeit des Modells auf Nicht-Buchmaterialien. Die Museumswelt orientiert die Darstellung ihrer Bestände am CIDOC Conceptual Reference Model (CRM), das sich hinsichtlich der Beschreibung heterogener Museumsobjekte, also Artefakten künstlerischer und intellektueller Gestaltung, als hilfreich erwiesen hat. In gegenseitigem Austausch zwischen IFLA und ICOM wurde FRBR mit CRM harmonisiert. Das Ergebnis, FRBRoo (objektorientiertes FRBR), zeigt seine Vorzüge zum einen in einer strengeren Interpretation der Entitäten der Gruppe 1 des FRBR-Modells und zum anderen in einer genaueren Abbildung von Prozessen bzw. Ereignissen. Beispiele zum Anwendungsbezug von FRBRoo zeigen dessen Zugewinn für die wissenschaftliche Erschließung hand-, druck- und online-schriftlicher Quellen, Werken der Darstellenden Kunst, Landkarten und Musikalien innerhalb einer CRM-basierten Datenbank.
  20. Hohmann, G.: ¬Die Anwendung des CIDOC-CRM für die semantische Wissensrepräsentation in den Kulturwissenschaften (2010) 0.01
    0.006188705 = product of:
      0.018566115 = sum of:
        0.018566115 = product of:
          0.03713223 = sum of:
            0.03713223 = weight(_text_:22 in 4011) [ClassicSimilarity], result of:
              0.03713223 = score(doc=4011,freq=2.0), product of:
                0.15995571 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045677755 = queryNorm
                0.23214069 = fieldWeight in 4011, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4011)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly