Search (122 results, page 2 of 7)

  • × language_ss:"d"
  • × theme_ss:"Wissensrepräsentation"
  1. Pichler, R.: Annäherung an die Bildsprache : Ontologien als Hilfsmittel für Bilderschliessung und Bildrecherche in Kunstbilddatenbanken (2007) 0.01
    0.011329176 = product of:
      0.08496881 = sum of:
        0.029840691 = weight(_text_:und in 4821) [ClassicSimilarity], result of:
          0.029840691 = score(doc=4821,freq=20.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.46462005 = fieldWeight in 4821, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4821)
        0.05512812 = weight(_text_:informationswissenschaft in 4821) [ClassicSimilarity], result of:
          0.05512812 = score(doc=4821,freq=4.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.42231607 = fieldWeight in 4821, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=4821)
      0.13333334 = coord(2/15)
    
    Abstract
    Der grundsätzliche Unterschied zwischen der verbalen Sprache und der so genannten Bildsprache führt zu erheblichen Schwierigkeiten bei der Bilderschliessung und der Bildrecherche. Die heute übliche inhaltliche Bilderschliessung mit einzelnen Schlagwörtern ist häufig unbefriedigend, insbesondere was die Erschliessung der verschiedenen Bildbedeutungen und -wirkungen betrifft. Um eine Annäherung an die Bildsprache erreichen zu können, wird in der vorliegenden Arbeit vorgeschlagen, Bilder als komplexe Zeichensysteme aus Motiv- und Bildelementen, Bedeutungen und Wirkungen zu verstehen. Diese Zeichensysteme werden in Ontologien festgehalten, womit die Relationen zwischen den verschiedenen Bildzeichen aufgezeigt werden. Dabei wird untersucht, inwiefern mit solchen Ontologien Bildbedeutungen und -wirkungen erschlossen werden können und wie mit Ontologien sowohl eine einheitliche als auch eine umfassende Bilderschliessung realisiert werden kann, die auch für die Bildrecherche grosse Vorteile bietet.
    Content
    Diese Publikation entstand im Rahmen einer Diplomarbeit zum Abschluss als dipl. Informations- und Dokumentationsspezialist FH. Vgl. unter: http://www.fh-htwchur.ch/uploads/media/CSI_34_Frei.pdf.
    Imprint
    Chur : Hochschule für Technik und Wirtschaft
    Series
    Churer Schriften zur Informationswissenschaft / Arbeitsbereich Informationswissenschaft; Schrift 18
  2. Semantische Technologien : Grundlagen - Konzepte - Anwendungen (2012) 0.01
    0.010815114 = product of:
      0.05407557 = sum of:
        0.024223149 = weight(_text_:buch in 167) [ClassicSimilarity], result of:
          0.024223149 = score(doc=167,freq=2.0), product of:
            0.13472971 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.028978055 = queryNorm
            0.17979069 = fieldWeight in 167, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
        0.026399128 = weight(_text_:und in 167) [ClassicSimilarity], result of:
          0.026399128 = score(doc=167,freq=46.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.41103485 = fieldWeight in 167, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
        0.00345329 = product of:
          0.00690658 = sum of:
            0.00690658 = weight(_text_:information in 167) [ClassicSimilarity], result of:
              0.00690658 = score(doc=167,freq=8.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.13576832 = fieldWeight in 167, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=167)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen, Potentiale und Anwendungen Semantischer Technologien. Es richtet sich an Studierende der Informatik und angrenzender Fächer sowie an Entwickler, die Semantische Technologien am Arbeitsplatz oder in verteilten Applikationen nutzen möchten. Mit seiner an praktischen Beispielen orientierten Darstellung gibt es aber auch Anwendern und Entscheidern in Unternehmen einen breiten Überblick über Nutzen und Möglichkeiten dieser Technologie. Semantische Technologien versetzen Computer in die Lage, Informationen nicht nur zu speichern und wieder zu finden, sondern sie ihrer Bedeutung entsprechend auszuwerten, zu verbinden, zu Neuem zu verknüpfen, und so flexibel und zielgerichtet nützliche Leistungen zu erbringen. Das vorliegende Buch stellt im ersten Teil die als Semantische Technologien bezeichneten Techniken, Sprachen und Repräsentationsformalismen vor. Diese Elemente erlauben es, das in Informationen enthaltene Wissen formal und damit für den Computer verarbeitbar zu beschreiben, Konzepte und Beziehungen darzustellen und schließlich Inhalte zu erfragen, zu erschließen und in Netzen zugänglich zu machen. Der zweite Teil beschreibt, wie mit Semantischen Technologien elementare Funktionen und umfassende Dienste der Informations- und Wissensverarbeitung realisiert werden können. Hierzu gehören etwa die Annotation und das Erschließen von Information, die Suche in den resultierenden Strukturen, das Erklären von Bedeutungszusammenhängen sowie die Integration einzelner Komponenten in komplexe Ablaufprozesse und Anwendungslösungen. Der dritte Teil beschreibt schließlich vielfältige Anwendungsbeispiele in unterschiedlichen Bereichen und illustriert so Mehrwert, Potenzial und Grenzen von Semantischen Technologien. Die dargestellten Systeme reichen von Werkzeugen für persönliches, individuelles Informationsmanagement über Unterstützungsfunktionen für Gruppen bis hin zu neuen Ansätzen im Internet der Dinge und Dienste, einschließlich der Integration verschiedener Medien und Anwendungen von Medizin bis Musik.
    Content
    Inhalt: 1. Einleitung (A. Dengel, A. Bernardi) 2. Wissensrepräsentation (A. Dengel, A. Bernardi, L. van Elst) 3. Semantische Netze, Thesauri und Topic Maps (O. Rostanin, G. Weber) 4. Das Ressource Description Framework (T. Roth-Berghofer) 5. Ontologien und Ontologie-Abgleich in verteilten Informationssystemen (L. van Elst) 6. Anfragesprachen und Reasoning (M. Sintek) 7. Linked Open Data, Semantic Web Datensätze (G.A. Grimnes, O. Hartig, M. Kiesel, M. Liwicki) 8. Semantik in der Informationsextraktion (B. Adrian, B. Endres-Niggemeyer) 9. Semantische Suche (K. Schumacher, B. Forcher, T. Tran) 10. Erklärungsfähigkeit semantischer Systeme (B. Forcher, T. Roth-Berghofer, S. Agne) 11. Semantische Webservices zur Steuerung von Prooduktionsprozessen (M. Loskyll, J. Schlick, S. Hodeck, L. Ollinger, C. Maxeiner) 12. Wissensarbeit am Desktop (S. Schwarz, H. Maus, M. Kiesel, L. Sauermann) 13. Semantische Suche für medizinische Bilder (MEDICO) (M. Möller, M. Sintek) 14. Semantische Musikempfehlungen (S. Baumann, A. Passant) 15. Optimierung von Instandhaltungsprozessen durch Semantische Technologien (P. Stephan, M. Loskyll, C. Stahl, J. Schlick)
    Footnote
    Auch als digitale Ausgabe verfügbar. Auf S. 5 befindet sich der Satz: "Wissen ist Information, die in Aktion umgesetzt wird".
    RSWK
    Semantic Web / Information Extraction / Suche / Wissensbasiertes System / Aufsatzsammlung
    Subject
    Semantic Web / Information Extraction / Suche / Wissensbasiertes System / Aufsatzsammlung
  3. Maier, A.; Peters, A.: Entwicklung eines interaktiven dynamischen semantischen Netzes mit multimedialen Informationsobjekten am Beispiel eines wissenschaftlichen digitalen Schriftarchivs (2004) 0.01
    0.009754768 = product of:
      0.07316075 = sum of:
        0.055367198 = weight(_text_:buch in 4732) [ClassicSimilarity], result of:
          0.055367198 = score(doc=4732,freq=2.0), product of:
            0.13472971 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.028978055 = queryNorm
            0.41095015 = fieldWeight in 4732, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0625 = fieldNorm(doc=4732)
        0.017793551 = weight(_text_:und in 4732) [ClassicSimilarity], result of:
          0.017793551 = score(doc=4732,freq=4.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.27704588 = fieldWeight in 4732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4732)
      0.13333334 = coord(2/15)
    
    Abstract
    Im ersten Teil wird eine Idee zur Darstellung von Informationen und deren Beziehungen in einem semantischen Netzwerk beschrieben. Eine mögliche Realisierung der Idee wird an einem Beispiel gezeigt. Im zweiten Teil wird beschrieben, wie die Informationsobjekte, die in einem Bild enthalten sind, mit zusätzlichen multimedialen Informationen versehen werden können. Als Informationsbestand diente ein digitales Schriftarchiv, das im Rahmen des Forschungsprojektes "Hebräische Typographie im deutschsprachigen Raum" entstanden wurde.
    Form
    Altes Buch
    Imprint
    Gummersbach : Fachhochschule Köln / Campus Gummersbach Fakultät für Informatik und Ingenieurwissenschaften
  4. Helbig, H.: Wissensverarbeitung und die Semantik der natürlichen Sprache : Wissensrepräsentation mit MultiNet (2008) 0.01
    0.009299143 = product of:
      0.06974357 = sum of:
        0.048938148 = weight(_text_:buch in 2731) [ClassicSimilarity], result of:
          0.048938148 = score(doc=2731,freq=4.0), product of:
            0.13472971 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.028978055 = queryNorm
            0.36323205 = fieldWeight in 2731, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
        0.020805428 = weight(_text_:und in 2731) [ClassicSimilarity], result of:
          0.020805428 = score(doc=2731,freq=14.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.32394084 = fieldWeight in 2731, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
      0.13333334 = coord(2/15)
    
    Abstract
    Das Buch gibt eine umfassende Darstellung einer Methodik zur Interpretation und Bedeutungsrepräsentation natürlichsprachlicher Ausdrücke. Diese Methodik der "Mehrschichtigen Erweiterten Semantischen Netze", das sogenannte MultiNet-Paradigma, ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Im ersten Teil des zweiteiligen Buches werden grundlegende Probleme der semantischen Repräsentation von Wissen bzw. der semantischen Interpretation natürlichsprachlicher Phänomene behandelt. Der zweite Teil enthält eine systematische Zusammenstellung des gesamten Repertoires von Darstellungsmitteln, die jeweils nach einem einheitlichen Schema beschrieben werden. Er dient als Kompendium der im Buch verwendeten formalen Beschreibungsmittel von MultiNet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation im Rahmen der automatischen Sprachverarbeitung sichern. Hierzu gehören: eine Werkbank für den Wissensingenieur, ein Übersetzungssystem zur automatischen Gewinnung von Bedeutungsdarstellungen natürlichsprachlicher Sätze und eine Werkbank für den Computerlexikographen. Der Inhalt des Buches beruht auf jahrzehntelanger Forschung auf dem Gebiet der automatischen Sprachverarbeitung und wurde mit Vorlesungen zur Künstlichen Intelligenz und Wissensverarbeitung an der TU Dresden und der FernUniversität Hagen wiederholt in der Hochschullehre eingesetzt. Als Vorkenntnisse werden beim Leser lediglich Grundlagen der traditionellen Grammatik und elementare Kenntnisse der Prädikatenlogik vorausgesetzt.
  5. Fenske, M.: Modell eines automatisierbaren syntaktischen Metathesaurus und seine Eignung für parlamentarische Thesauri im Internet (2006) 0.01
    0.00875624 = product of:
      0.065671794 = sum of:
        0.026690327 = weight(_text_:und in 32) [ClassicSimilarity], result of:
          0.026690327 = score(doc=32,freq=16.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.41556883 = fieldWeight in 32, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=32)
        0.038981467 = weight(_text_:informationswissenschaft in 32) [ClassicSimilarity], result of:
          0.038981467 = score(doc=32,freq=2.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.29862255 = fieldWeight in 32, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=32)
      0.13333334 = coord(2/15)
    
    Abstract
    Es werden Konzepte eines syntaktischen Metathesaurus, der identische Benennungen und deren Relationen aufeinander abbildet, vorgestellt und von semantischen Metathesauri abgegrenzt. Dieses aus mehreren Konzepten bestehende Modell bietet sich für die automatische Zusammenführung weit gehend übereinstimmender Thesauri zu einem virtuellen Metathesaurus an, den man in Internetportale und Suchmaschinen integrieren kann. Besondere Vorteile sind hierbei das günstige Kosten-Nutzen- Verhältnis und die geringen technischen Anforderungen eines syntaktischen Metathesaurus. Es werden die Inkonsistenzen bei der Zusammenführung inhomogener Thesauri ausführlich beschrieben und Möglichkeiten zur Konsistenzverbesserung angeboten. Ein syntaktisches Thesauruskonzept eignet sich für den Einsatz bei der Websuche in Parlamentsinformationssystemen, wie z. B. dem Parlamentsspiegel, einer Datenbank zum Nachweis der deutschen Parlamentsmaterialien.
    Series
    Beiträge zur Bibliotheks- und Informationswissenschaft; 1
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  6. Widhalm, R.; Mück, T.: Topic maps : Semantische Suche im Internet (2002) 0.01
    0.008598467 = product of:
      0.042992335 = sum of:
        0.027683599 = weight(_text_:buch in 4731) [ClassicSimilarity], result of:
          0.027683599 = score(doc=4731,freq=2.0), product of:
            0.13472971 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.028978055 = queryNorm
            0.20547508 = fieldWeight in 4731, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
        0.01089628 = weight(_text_:und in 4731) [ClassicSimilarity], result of:
          0.01089628 = score(doc=4731,freq=6.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.16965526 = fieldWeight in 4731, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
        0.004412452 = product of:
          0.008824904 = sum of:
            0.008824904 = weight(_text_:information in 4731) [ClassicSimilarity], result of:
              0.008824904 = score(doc=4731,freq=10.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.1734784 = fieldWeight in 4731, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4731)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Das Werk behandelt die aktuellen Entwicklungen zur inhaltlichen Erschließung von Informationsquellen im Internet. Topic Maps, semantische Modelle vernetzter Informationsressourcen unter Verwendung von XML bzw. HyTime, bieten alle notwendigen Modellierungskonstrukte, um Dokumente im Internet zu klassifizieren und ein assoziatives, semantisches Netzwerk über diese zu legen. Neben Einführungen in XML, XLink, XPointer sowie HyTime wird anhand von Einsatzszenarien gezeigt, wie diese neuartige Technologie für Content Management und Information Retrieval im Internet funktioniert. Der Entwurf einer Abfragesprache wird ebenso skizziert wie der Prototyp einer intelligenten Suchmaschine. Das Buch zeigt, wie Topic Maps den Weg zu semantisch gesteuerten Suchprozessen im Internet weisen.
    Content
    Topic Maps - Einführung in den ISO Standard (Topics, Associations, Scopes, Facets, Topic Maps).- Grundlagen von XML (Aufbau, Bestandteile, Element- und Attributdefinitionen, DTD, XLink, XPointer).- Wie entsteht ein Heringsschmaus? Konkretes Beispiel einer Topic Map.Topic Maps - Meta DTD. Die formale Beschreibung des Standards.- HyTime als zugrunde liegender Formalismus (Bounded Object Sets, Location Addressing, Hyperlinks in HyTime).- Prototyp eines Topic Map Repositories (Entwicklungsprozess für Topic Maps, Prototyp Spezifikation, technische Realisierung des Prototyps).- Semantisches Datenmodell zur Speicherung von Topic Maps.- Prototypische Abfragesprache für Topic Maps.- Erweiterungsvorschläge für den ISO Standard.
    RSWK
    Internet / Information Retrieval / Semantisches Netz / HyTime
    Internet / Information Retrieval / Semantisches Netz / XML
    Subject
    Internet / Information Retrieval / Semantisches Netz / HyTime
    Internet / Information Retrieval / Semantisches Netz / XML
  7. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie (2005) 0.01
    0.008180852 = product of:
      0.061356384 = sum of:
        0.026966918 = weight(_text_:und in 1852) [ClassicSimilarity], result of:
          0.026966918 = score(doc=1852,freq=12.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.41987535 = fieldWeight in 1852, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.034389466 = sum of:
          0.00690658 = weight(_text_:information in 1852) [ClassicSimilarity], result of:
            0.00690658 = score(doc=1852,freq=2.0), product of:
              0.050870337 = queryWeight, product of:
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.028978055 = queryNorm
              0.13576832 = fieldWeight in 1852, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1852)
          0.027482886 = weight(_text_:22 in 1852) [ClassicSimilarity], result of:
            0.027482886 = score(doc=1852,freq=2.0), product of:
              0.101476215 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.028978055 = queryNorm
              0.2708308 = fieldWeight in 1852, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1852)
      0.13333334 = coord(2/15)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:58
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.281-290
  8. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.01
    0.008180852 = product of:
      0.061356384 = sum of:
        0.026966918 = weight(_text_:und in 4324) [ClassicSimilarity], result of:
          0.026966918 = score(doc=4324,freq=12.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.41987535 = fieldWeight in 4324, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.034389466 = sum of:
          0.00690658 = weight(_text_:information in 4324) [ClassicSimilarity], result of:
            0.00690658 = score(doc=4324,freq=2.0), product of:
              0.050870337 = queryWeight, product of:
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.028978055 = queryNorm
              0.13576832 = fieldWeight in 4324, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4324)
          0.027482886 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
            0.027482886 = score(doc=4324,freq=2.0), product of:
              0.101476215 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.028978055 = queryNorm
              0.2708308 = fieldWeight in 4324, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4324)
      0.13333334 = coord(2/15)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:25
  9. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2010) 0.01
    0.008180852 = product of:
      0.061356384 = sum of:
        0.026966918 = weight(_text_:und in 4792) [ClassicSimilarity], result of:
          0.026966918 = score(doc=4792,freq=12.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.41987535 = fieldWeight in 4792, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4792)
        0.034389466 = sum of:
          0.00690658 = weight(_text_:information in 4792) [ClassicSimilarity], result of:
            0.00690658 = score(doc=4792,freq=2.0), product of:
              0.050870337 = queryWeight, product of:
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.028978055 = queryNorm
              0.13576832 = fieldWeight in 4792, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4792)
          0.027482886 = weight(_text_:22 in 4792) [ClassicSimilarity], result of:
            0.027482886 = score(doc=4792,freq=2.0), product of:
              0.101476215 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.028978055 = queryNorm
              0.2708308 = fieldWeight in 4792, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4792)
      0.13333334 = coord(2/15)
    
    Abstract
    Moderne Verfahren des Information Retrieval verlangen nach aussagekräftigen und detailliert relationierten Dokumentationssprachen. Der selektive Transfer einzelner Modellierungsstrategien aus dem Bereich semantischer Technologien für die Gestaltung und Relationierung bestehender Dokumentationssprachen wird diskutiert. In Form einer Taxonomie wird ein hierarchisch strukturiertes Relationeninventar definiert, welches sowohl hinreichend allgemeine als auch zahlreiche spezifische Relationstypen enthält, die eine detaillierte und damit aussagekräftige Relationierung des Vokabulars ermöglichen. Das bringt einen Zugewinn an Übersichtlichkeit und Funktionalität. Im Gegensatz zu anderen Ansätzen und Überlegungen zur Schaffung von Relationeninventaren entwickelt der vorgestellte Vorschlag das Relationeninventar aus der Begriffsmenge eines bestehenden Gegenstandsbereichs heraus.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  10. Alvers, M.R.: Semantische wissensbasierte Suche in den Life Sciences am Beispiel von GoPubMed (2010) 0.01
    0.00768225 = product of:
      0.05761687 = sum of:
        0.020864788 = weight(_text_:und in 4262) [ClassicSimilarity], result of:
          0.020864788 = score(doc=4262,freq=22.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.3248651 = fieldWeight in 4262, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4262)
        0.036752082 = weight(_text_:informationswissenschaft in 4262) [ClassicSimilarity], result of:
          0.036752082 = score(doc=4262,freq=4.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.28154406 = fieldWeight in 4262, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=4262)
      0.13333334 = coord(2/15)
    
    Abstract
    Nie zuvor war der Zugriff auf Informationen so einfach und schnell wie heute. Die Suchmaschine Google ist dabei mit einem Marktanteil von 95 Prozent in Deutschland führend. Aber reicht der heutige Status Quo aus? Wir meinen nein - andere meinen ja. Die Verwendung von Stichworten für die Suche ist sehr begrenzt, nicht intelligent und der Algorithmus zum ranking der Suchergebnisse fragwürdig. Wir zeigen neue Wege der semantischen Suche mittels der Verwendung von Hintergrundwissen. Die (semi)automatische Generierung von Ontologien wird ebenfalls als zentraler Bestandteil einer universellen Wissensplattform vorgestellt und gezeigt, wie Anwender mit dieser Technologie signifikant Zeit sparen und deutlich relevantere Informationen finden.
    Content
    "Im Vortrag werden Aspekte der Suche nach Informationen und Antworten aus dem breiten Spektrum von der Suche nach einer Telefonnummer bis zur Frage nach dem "Sinn des Lebens" (deren Antwort auch im Vortrag leider nicht gegeben werden kann) angesprochen. Die Verwendung von Hintergrundwissen in Form von semantischen Begriffsnetzwerken, sogenannten Ontologien, hilft enorm, der Beantwortung von Fragen näher zu kommen. Sie garantieren Vollständigkeit der Suchergebnisse und schnelles Fokussieren auf Relevantes. Das bedeutungs-getriebene Einsortieren oder das Klassifizieren von Informationen aus Dokumenten oder von Internetinhalten, ermöglicht die Disambiguierung von Begriffen wie Salz und 01, " Cyclooxygenase Inhibitoren" - eher bekannt als Aspirin - oder das Auffinden aller Dokumente, die zum Thema CO2 - Sequestrierung gehören - also auch solcher, in den Begriff CO2 - Sequestrierung nicht direkt enthalten aber solche, die für das Thema relevant sind. Die Technologie hinter GoPubMed automatisiert schwierige Analysen, die normaler Weise von Wissenschaftlern getätigt werden. Dabei werden die notwendigen Informationen, wie sie von ausgefeilten Algorithmen ([DS05]) vorausgesagt wurden, mit einer deutlich höheren Genauigkeit bereitgestellt. Transinsights semantische Suchtechnologien wurde als erstes Beispiel der nächsten Generation der Suche entwickelt. Die Stärke liegt in der Fähigkeit, große Textkorpora (> 500 Millionen Dokumente) mit großen Ontologien (> 15 Millionen Konzepte) zu verknüpfen. In GoPubMed wird die Gene Ontology und MeSH verwendet, die zusammen mit einer Geo-Ontologie und allen Autoren ca. 15 Millionen Konzepte beinhalten.m"
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  11. Ricci, F.; Schneider, R.: ¬Die Verwendung von SKOS-Daten zur semantischen Suchfragenerweiterung im Kontext des individualisierbaren Informationsportals RODIN (2010) 0.01
    0.007552784 = product of:
      0.056645878 = sum of:
        0.019893795 = weight(_text_:und in 4261) [ClassicSimilarity], result of:
          0.019893795 = score(doc=4261,freq=20.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.3097467 = fieldWeight in 4261, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4261)
        0.036752082 = weight(_text_:informationswissenschaft in 4261) [ClassicSimilarity], result of:
          0.036752082 = score(doc=4261,freq=4.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.28154406 = fieldWeight in 4261, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=4261)
      0.13333334 = coord(2/15)
    
    Abstract
    RODIN (ROue D'INformation) ist ein Projekt, das einen alternativen Ansatz in der Erstellung von Informationsportalen verfolgt, indem es dem Benutzer ermöglicht, selbständig oder in Zusammenarbeit mit einem Informationsspezialisten heterogene Informationsquellen, die für ihn eine Relevanz besitzen, als Aggregat miteinander zu verbinden. Das System gewährleistet eine simultane Suche in allen Komponenten des Aggregats und ermöglicht die Suchverfeinerung durch Anbindung an bibliografische und enzyklopädische Ontologien.
    Content
    "Im Projekt RODIN (Roue d'information) wird die Realisierung einer alternativen Portalidee im Rahmen der E-lib.ch-Initiative (www.e-lib.ch) angestrebt. Dahinter verbirgt sich die Idee eines personalisierbaren Informationsportals zur Aggregation heterogener Datenquellen unter Verwendung von SemanticWeb-Technologie. Das allgemeine wissenschaftliche Interesse von RODIN besteht darin, zu überprüfen, inwieweit bibliografische Ontologien als Bestandteil des SemanticWeb für die Informationssuche gewinnbringend eingesetzt werden können. Den Benutzern werden hierbei unterschiedliche Funktionalitäten zur Verfügung gestellt. So können sie zunächst aus unterschiedlichen Informationsquellen jene auswählen, die für ihre Recherche von Relevanz sind und diese in Form von Widgets auf der Startseite des Informationsportals zusammenstellen. Konkret handelt es sich hierbei um Informationsquellen, die im Kontext von E-lib.ch bereitgestellt werden (bspw. Swissbib.ch, Rero-Doc) sowie um allgemeine Webressourcen (etwa Delicious oder Google-Books). Anschließend besteht die Möglichkeit, simultan über alle spezifizierten Quellen eine parallele Suche anzustoßen und - nach Beendigung dieser Metasuche - die Ergebnisse zu verfeinern.
    Der Ausgangspunkt für die Suchverfeinerung ist ein Ergebnis aus der Treffermenge, für welches ein Ontologie-Mapping durchgeführt wird, d.h. dass ausgehend von den Daten und Metadaten des Suchergebnisses der semantische Kontext für dieses Dokument innerhalb einer Ontologie ermittelt wird. Bei diesen Ontologien handelt es sich um in SKOS-Daten überführte Thesauri und Taxonomien, die aus einem bibliothekswissenschaftlichen Umfeld stammen. Durch Ermittlung des ontologischen Kontexts stehen eine Reihe von Termen in Form von Synonymen, Hypernymen und Hyponymen zur Verfügung, die es dem Benutzer ermöglichen, seine Ergebnismenge gezielt einzuschränken, zu verallgemeinern oder auf ähnliche Begriffe auszuweiten. Nach der Bestimmung des weiteren Suchkontexts wird dann in allen vom Benutzer bereits ausgewählten Widgets eine neue Suche angestoßen und das zur Suchverfeinerung ausgewählte Dokument in seiner semantischen Ausrichtung zu den übrigen Informationsquellen kontextualisiert."
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  12. Stock, W.G.: Wissensrepräsentation (2010) 0.01
    0.0069300393 = product of:
      0.10395058 = sum of:
        0.10395058 = weight(_text_:informationswissenschaft in 3263) [ClassicSimilarity], result of:
          0.10395058 = score(doc=3263,freq=2.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.7963268 = fieldWeight in 3263, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.125 = fieldNorm(doc=3263)
      0.06666667 = coord(1/15)
    
    Source
    http://www.phil-fak.uni-duesseldorf.de/fileadmin/Redaktion/Institute/Informationswissenschaft/volkmar/1238412202wissensrep.pdf
  13. Roth, G.; Schwegler, H.: Kognitive Referenz und Selbstreferentialität des Gehirns : ein Beitrag zur Klärung des Verhältnisses zwischen Erkenntnistheorie und Hirnforschung (1992) 0.01
    0.005794326 = product of:
      0.04345744 = sum of:
        0.03852417 = weight(_text_:und in 4607) [ClassicSimilarity], result of:
          0.03852417 = score(doc=4607,freq=12.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.5998219 = fieldWeight in 4607, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4607)
        0.0049332716 = product of:
          0.009866543 = sum of:
            0.009866543 = weight(_text_:information in 4607) [ClassicSimilarity], result of:
              0.009866543 = score(doc=4607,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.19395474 = fieldWeight in 4607, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4607)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Series
    Philosophie und Geschichte der Wissenschaften; Bd.18
    Source
    Wirklichkeit und Wissen: Realismus, Antirealismus und Wirklichkeits-Konzeptionen in Philosophie und Wissenschaften. Hrsg.: H.J. Sandkühler
    Theme
    Information
  14. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.01
    0.0055830097 = product of:
      0.041872572 = sum of:
        0.022241939 = weight(_text_:und in 5576) [ClassicSimilarity], result of:
          0.022241939 = score(doc=5576,freq=4.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.34630734 = fieldWeight in 5576, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5576)
        0.019630633 = product of:
          0.039261267 = sum of:
            0.039261267 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
              0.039261267 = score(doc=5576,freq=2.0), product of:
                0.101476215 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028978055 = queryNorm
                0.38690117 = fieldWeight in 5576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5576)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Diese Publikation beschreibt die Zusammenhänge zwischen wissenshaltigen begriffsorientierten Terminologien, Ontologien, Big Data und künstliche Intelligenz.
    Date
    13.12.2017 14:17:22
  15. Haller, S.H.M.: Mappingverfahren zur Wissensorganisation (2002) 0.01
    0.0055830097 = product of:
      0.041872572 = sum of:
        0.022241939 = weight(_text_:und in 3406) [ClassicSimilarity], result of:
          0.022241939 = score(doc=3406,freq=4.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.34630734 = fieldWeight in 3406, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3406)
        0.019630633 = product of:
          0.039261267 = sum of:
            0.039261267 = weight(_text_:22 in 3406) [ClassicSimilarity], result of:
              0.039261267 = score(doc=3406,freq=2.0), product of:
                0.101476215 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028978055 = queryNorm
                0.38690117 = fieldWeight in 3406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3406)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Content
    Diplomarbeit, Freie Universität Berlin / Fachbereich Erziehungswissenschaft und Psychologie / Diplomstudiengang Psychologie; vgl.: http://heikohaller.de/literatur/diplomarbeit/ bzw. www.heikohaller.de/toolvergleich/.
    Date
    30. 5.2010 16:22:35
    Imprint
    Berlin : Freie Universität / Fachbereich Erziehungswissenschaft und Psychologie
  16. Stollberg, M.: Ontologiebasierte Wissensmodellierung : Verwendung als semantischer Grundbaustein des Semantic Web (2002) 0.01
    0.005352835 = product of:
      0.04014626 = sum of:
        0.01740707 = weight(_text_:und in 4495) [ClassicSimilarity], result of:
          0.01740707 = score(doc=4495,freq=20.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.27102837 = fieldWeight in 4495, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.02273919 = weight(_text_:informationswissenschaft in 4495) [ClassicSimilarity], result of:
          0.02273919 = score(doc=4495,freq=2.0), product of:
            0.13053758 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028978055 = queryNorm
            0.1741965 = fieldWeight in 4495, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
      0.13333334 = coord(2/15)
    
    Abstract
    In Kapitel A werden die Grundlagen von Ontologien als Verfahren der Wissensmodellierung erarbeitet. Dazu wird zunächst die definitorische Erfassung von Ontologien erläutert. Zur Erlangung eines fundierten Verständnisses von Wissensmodellierung und der Besonderheiten ontologiebasierter Verfahren ist die Eingliederung dieser in den relevanten wissenschaftlichen Kontext erforderlich. Die in diesem Zusammenhang betrachtete Art der Wissensmodellierung dient vornehmlich als konzeptionelle Grundlage für die Erstellung wissensverarbeitender Computersysteme. Die Entwicklung derartiger Systeme ist das Hauptanliegen der Künstlichen Intelligenz, weshalb eine Positionierung ontologiebasierter Verfahren in derselben vorgenommen wird. Dabei sind vor allem jene Ansätze interessant, auf denen ontologiebasierte Verfahren aufbauen. Zunächst werden daher die grundlegenden theoretischen Aspekte der Wissensrepräsentation erläutert und anschließend daran die Bedeutung von Ontologien im Knowledge Engineering aufgezeigt, um den Verwendungskontext derartiger Verfahren der Wissensmodellierung zu verdeutlichen. Aufbauend darauf werden die spezifischen Eigenschaften ontologiebasierter Verfahren der Wissensmodellierung erörtert, wodurch ein grundlegendes Verständnis dieser Methodik erreicht werden soll.
    Der in Kapitel B behandelte Schwerpunkt ist die Ontologie-Entwicklung. Nach der Erfassung der grundlegenden Charakteristika ontologiebasierter Wissensmodellierung stehen hier die Anforderungen bei der Erstellung einer Ontologie im Vordergrund. Dazu werden die wesentlichen diesbezüglichen Errungenschaften des sogenannten Ontology Engineering erörtert. Es werden zunächst methodologische Ansätze für den Entwicklungsprozess von Ontologien sowie für die einzelnen Aufgabengebiete entwickelter Techniken und Verfahren vorgestellt. Anschließend daran werden Design-Kriterien und ein Ansatz zur Meta-Modellierung besprochen, welche der Qualitätssicherung einer Ontologie dienen sollen. Diese Betrachtungen sollen eine Übersicht über den Erkenntnisstand des Ontology Engineering geben, womit ein wesentlicher Aspekt zur Nutzung ontologiebasierter Verfahren der Wissensmodellierung im Semantic Web abgedeckt wird. Als letzter Aspekt zur Erfassung der Charakteristika ontologiebasierter Wissensmodellierung wird in Kapitel C die Fragestellung bearbeitet, wie Ontologien in Informationssystemen eingesetzt werden können. Dazu werden zunächst die Verwendungsmöglichkeiten von Ontologien identifiziert. Dann werden Anwendungsgebiete von Ontologien vorgestellt, welche zum einen Beispiele für die aufgefundenen Einsatzmöglichkeiten darstellen und zum anderen im Hinblick auf die Untersuchung der Verwendung von Ontologien im Semantic Web grundlegende Aspekte desselben erörtern sollen. Im Anschluss daran werden die wesentlichen softwaretechnischen Herausforderungen besprochen, die sich durch die Verwendung von Ontologien in Informationssystemen ergeben. Damit wird die Erarbeitung der wesentlichen Charakteristika ontologiebasierter Verfahren der Wissensmodellierung als erstem Teil dieser Arbeit abgeschlossen.
    Basierend auf diesen Abhandlungen wird in Kapitel D die Verwendung von Ontologien im Semantic Web behandelt. Dabei ist das Semantic Web nicht als computergestützte Lösung für ein konkretes Anwendungsgebiet zu verstehen, sondern - ähnlich wie existente Web-Technologien - als eine informationstechnische Infrastruktur zur Bereitstellung und Verknüpfung von Applikationen für verschiedene Anwendungsgebiete. Die technologischen Lösungen zur Umsetzung des Semantic Web befinden sich noch in der Entwicklungsphase. Daher werden zunächst die grundlegenden Ideen der Vision des Semantic Web genauer erläutert und das antizipierte Architekturmodell zur Realisierung derselben vorgestellt, wobei insbesondere die darin angestrebte Rolle von Ontologien herausgearbeitet wird. Anschließend daran wird die formale Darstellung von Ontologien durch web-kompatible Sprachen erörtert, wodurch die Verwendung von Ontologien im Semantic Web ermöglicht werden soll. In diesem Zusammenhang sollen ferner die Beweggründe für die Verwendung von Ontologien als bedeutungsdefinierende Konstrukte im Semantic Web verdeutlicht sowie die auftretenden Herausforderungen hinsichtlich der Handhabung von Ontologien aufgezeigt werden. Dazu werden als dritter Aspekt des Kapitels entsprechende Lösungsansätze des Ontologie-Managements diskutiert. Abschließend wird auf die Implikationen für konkrete Anwendungen der Semantic Web - Technologien eingegangen, die aus der Verwendung von Ontologien im Semantic Web resultieren. Zum Abschluss der Ausführungen werden die Ergebnisse der Untersuchung zusammengefasst. Dabei soll auch eine kritische Betrachtung bezüglich der Notwendigkeit semantischer Web-Technologien sowie der Realisierbarkeit der Vision des Semantic Web vorgenommen werden.
    Content
    Magisterarbeit am Institut für Publizistik und Kommunikationswissenschaft, Arbeitsbereich Informationswissenschaft, Fachbereich Philosophie und Sozialwissenschaften, Freie Universität Berlin
    Imprint
    Berlin : Institut für Publizistik und Kommunikationswissenschaft
  17. Baumer, C.; Reichenberger, K.: Business Semantics - Praxis und Perspektiven (2006) 0.00
    0.004964707 = product of:
      0.0372353 = sum of:
        0.033288684 = weight(_text_:und in 6020) [ClassicSimilarity], result of:
          0.033288684 = score(doc=6020,freq=14.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.51830536 = fieldWeight in 6020, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6020)
        0.0039466172 = product of:
          0.0078932345 = sum of:
            0.0078932345 = weight(_text_:information in 6020) [ClassicSimilarity], result of:
              0.0078932345 = score(doc=6020,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.1551638 = fieldWeight in 6020, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6020)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Der Artikel führt in semantische Technologien ein und gewährt Einblick in unterschiedliche Entwicklungsrichtungen. Insbesondere werden Business Semantics vorgestellt und vom Semantic Web abgegrenzt. Die Stärken von Business Semantics werden speziell an den Praxisbeispielen des Knowledge Portals und dem Projekt "Knowledge Base" der Wienerberger AG veranschaulicht. So werden die Anforderungen - was brauchen Anwendungen in Unternehmen heute - und die Leistungsfähigkeit von Systemen - was bieten Business Semantics - konkretisiert und gegenübergestellt.
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.6/7, S.359-366
  18. Kunze, C.: Lexikalisch-semantische Wortnetze in Sprachwissenschaft und Sprachtechnologie (2006) 0.00
    0.004964707 = product of:
      0.0372353 = sum of:
        0.033288684 = weight(_text_:und in 6023) [ClassicSimilarity], result of:
          0.033288684 = score(doc=6023,freq=14.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.51830536 = fieldWeight in 6023, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6023)
        0.0039466172 = product of:
          0.0078932345 = sum of:
            0.0078932345 = weight(_text_:information in 6023) [ClassicSimilarity], result of:
              0.0078932345 = score(doc=6023,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.1551638 = fieldWeight in 6023, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6023)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Dieser Beitrag beschreibt die Strukturierungsprinzipien und Anwendungskontexte lexikalisch-semantischer Wortnetze, insbesondere des deutschen Wortnetzes GermaNet. Wortnetze sind zurzeit besonders populäre elektronische Lexikonressourcen, die große Abdeckungen semantisch strukturierter Datenfür verschiedene Sprachen und Sprachverbünde enthalten. In Wortnetzen sind die häufigsten und wichtigsten Konzepte einer Sprache mit ihren elementaren Bedeutungsrelationen repräsentiert. Zentrale Anwendungen für Wortnetze sind u.a. die Lesartendisambiguierung und die Informationserschließung. Der Artikel skizziert die neusten Szenarien, in denen GermaNet eingesetzt wird: die Semantische Informationserschließung und die Integration allgemeinsprachlicher Wortnetze mit terminologischen Ressourcen vordem Hintergrund der Datenkonvertierung in OWL.
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.6/7, S.309-314
  19. Lang, A.: OmniFind: eine Plattform für semantische Suche und Textanalyse in Unternehmen (2006) 0.00
    0.004681183 = product of:
      0.03510887 = sum of:
        0.0291276 = weight(_text_:und in 6025) [ClassicSimilarity], result of:
          0.0291276 = score(doc=6025,freq=14.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.4535172 = fieldWeight in 6025, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6025)
        0.005981274 = product of:
          0.011962548 = sum of:
            0.011962548 = weight(_text_:information in 6025) [ClassicSimilarity], result of:
              0.011962548 = score(doc=6025,freq=6.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.23515764 = fieldWeight in 6025, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=6025)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    WebSphere® Information Integrator OmniFind Edition ist die Plattform der IBM für Unternehmenssuche und Textanalyse. Zentraler Bestandteil ist hierbei die Unstructured Information Management Architecture (UIMA), eine offene Architektur, die Entwicklung und Einsatz von Textanalysetechnologie vereinheitlicht. Beschrieben wird das von OmniFind realisierte Konzept der semantischen Suche, die die durch UIMA-Komponenten erkannten Konzepte und Beziehungen für Suchbenutzer zugänglich macht. Um UIMA und OmniFind hat sich ein Netzwerk aus Partnern entwickelt, die Lösungen in Bereichen wie Automotive Quality Early Warning oder Public Image Monitoring anbieten. Im Kontext dieser Lösungen werden Ansätze, Prozesse und Technologien beschrieben, um das notwendige Domänenwissen aufzubauen.
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.6/7, S.351-358
  20. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.00
    0.004563906 = product of:
      0.034229293 = sum of:
        0.028309368 = weight(_text_:und in 4322) [ClassicSimilarity], result of:
          0.028309368 = score(doc=4322,freq=18.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.4407773 = fieldWeight in 4322, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.005919926 = product of:
          0.011839852 = sum of:
            0.011839852 = weight(_text_:information in 4322) [ClassicSimilarity], result of:
              0.011839852 = score(doc=4322,freq=8.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.23274569 = fieldWeight in 4322, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4322)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
    Content
    Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit

Years

Types

  • a 71
  • el 26
  • x 20
  • m 9
  • r 7
  • s 2
  • n 1
  • p 1
  • More… Less…