Search (25 results, page 1 of 2)

  • × language_ss:"d"
  • × theme_ss:"Wissensrepräsentation"
  1. Derntl, M.; Hampel, T.; Motschnig, R.; Pitner, T.: Social Tagging und Inclusive Universal Access (2008) 0.03
    0.028156668 = product of:
      0.11262667 = sum of:
        0.11262667 = weight(_text_:soziale in 2864) [ClassicSimilarity], result of:
          0.11262667 = score(doc=2864,freq=2.0), product of:
            0.2780798 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.045514934 = queryNorm
            0.40501565 = fieldWeight in 2864, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.046875 = fieldNorm(doc=2864)
      0.25 = coord(1/4)
    
    Abstract
    Der vorliegende Artikel beleuchtet und bewertet Social Tagging als aktuelles Phänomen des Web 2.0 im Kontext bekannter Techniken der semantischen Datenorganisation. Tagging wird in einen Raum verwandter Ordnungs- und Strukturierungsansätze eingeordnet, um die fundamentalen Grundlagen des Social Tagging zu identifizieren und zuzuweisen. Dabei wird Tagging anhand des Inclusive Universal Access Paradigmas bewertet, das technische als auch menschlich-soziale Kriterien für die inklusive und barrierefreie Bereitstellung und Nutzung von Diensten definiert. Anhand dieser Bewertung werden fundamentale Prinzipien des "Inclusive Social Tagging" hergeleitet, die der Charakterisierung und Bewertung gängiger Tagging-Funktionalitäten in verbreiteten Web-2.0-Diensten dienen. Aus der Bewertung werden insbesondere Entwicklungsmöglichkeiten von Social Tagging und unterstützenden Diensten erkennbar.
  2. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie (2005) 0.02
    0.024641784 = product of:
      0.098567136 = sum of:
        0.098567136 = sum of:
          0.055400617 = weight(_text_:software in 1852) [ClassicSimilarity], result of:
            0.055400617 = score(doc=1852,freq=2.0), product of:
              0.18056466 = queryWeight, product of:
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.045514934 = queryNorm
              0.30681872 = fieldWeight in 1852, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1852)
          0.04316652 = weight(_text_:22 in 1852) [ClassicSimilarity], result of:
            0.04316652 = score(doc=1852,freq=2.0), product of:
              0.15938555 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045514934 = queryNorm
              0.2708308 = fieldWeight in 1852, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1852)
      0.25 = coord(1/4)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:58
  3. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.02
    0.024641784 = product of:
      0.098567136 = sum of:
        0.098567136 = sum of:
          0.055400617 = weight(_text_:software in 4324) [ClassicSimilarity], result of:
            0.055400617 = score(doc=4324,freq=2.0), product of:
              0.18056466 = queryWeight, product of:
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.045514934 = queryNorm
              0.30681872 = fieldWeight in 4324, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4324)
          0.04316652 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
            0.04316652 = score(doc=4324,freq=2.0), product of:
              0.15938555 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045514934 = queryNorm
              0.2708308 = fieldWeight in 4324, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4324)
      0.25 = coord(1/4)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:25
  4. Andelfinger, U.; Wyssusek, B.; Kremberg, B.; Totzke, R.: Ontologies in knowledge management : panacea or mirage? 0.02
    0.016591476 = product of:
      0.066365905 = sum of:
        0.066365905 = weight(_text_:soziale in 4393) [ClassicSimilarity], result of:
          0.066365905 = score(doc=4393,freq=4.0), product of:
            0.2780798 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.045514934 = queryNorm
            0.23865776 = fieldWeight in 4393, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4393)
      0.25 = coord(1/4)
    
    Content
    Als theoretischen Ausgangspunkt wählen wir in unserem Beitrag eine medienphilosophische Perspektive, die von der Fragestellung ausgeht, inwieweit menschliches Wissen, das von Subjekten explizit oder implizit gewusst wird und Sinn und Bedeutungsbezüge hat, bereits dadurch prinzipiell verändert und möglicherweise um Wesentliches reduziert wird, wenn es in technischen Ontologien - notwendigerweise symbolhaft - repräsentiert wird. Zunächst wird dazu in unserem Beitrag historisch die jahrhundertelange Tradition insbesondere der abendländischen Kulturen seit dem Mittelalter nachgezeichnet, derzufolge zunehmend die epistemische Seite von ,Wissen' in den Vordergrund gestellt wurde, die sich besonders gut symbolisch, d.h. zeichenvermittelt darstellen lässt. Demgegenüber sind wissenschaftshistorisch andere Aspekte menschlichen Wissens wie z.B. die soziale Einbettung symbolvermittelten Wissens und Anteile ,impliziten Wissens' zunehmend in den Hintergrund getreten. Auch Fragen nach Sinn und Bedeutung bzw. reflektionsorientiertem Orientierungswissen sind teilweise davon betroffen.
    In der Finanzwirtschaft mit ihren automatisierten Handelssystemen (auf Basis technischer Ontologien) wird beispielsweise inzwischen bei außergewöhnlichen Kursbewegungen der Börse der automatische Handel unterbrochen, so dass dann auf pragmatisch-natürlichsprachliche Weise nach den Gründen für die Ausschläge gesucht werden kann. Aus Sicht der technischen Ontologien wäre eine solche Unterbrechung des Computerhandels (zur Beruhigung der Märkte) nicht zwingend erforderlich, aber sie ist sehr sinnvoll aus einer außerhalb der technischen Ontologie stehenden Perspektive, die alleine nach Sinn und Bedeutung stabiler Kursverläufe zu fragen imstande ist. Der hier sich abzeichnende ,pragmatic turn' beim Einsatz technischer Ontologien ist auch in vielfältiger Weise in Trends wie z.B. Folksonomies, Sozialen Netzwerken und Open-SourceEntwicklergruppen zu erkennen. Diese Gemeinschaften zeichnen sich dadurch aus, dass sie zwar (technische) Ontologien einsetzen, diese jedoch in intensive soziale Austauschprozesse einbinden, in denen die formalen Wissensrepräsentationen mit situativer Bedeutung und Sinn versehen und angereichert werden. Dieser Trend zu ,weicheren' Formen der Nutzung von (technischen) Ontologien scheint nach aktuellem Wissensstand auf jeden Fall in der Praxis erfolgversprechender als die anfänglichen Hoffnungen des Semantic Web oder vollständiger (technischer) Ontologien - ganz abgesehen vom laufenden Pflegeaufwand 'vollständiger' technischer Ontologien.
  5. Pfeiffer, S.: Entwicklung einer Ontologie für die wissensbasierte Erschließung des ISDC-Repository und die Visualisierung kontextrelevanter semantischer Zusammenhänge (2010) 0.02
    0.016424723 = product of:
      0.06569889 = sum of:
        0.06569889 = weight(_text_:soziale in 4658) [ClassicSimilarity], result of:
          0.06569889 = score(doc=4658,freq=2.0), product of:
            0.2780798 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.045514934 = queryNorm
            0.23625913 = fieldWeight in 4658, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4658)
      0.25 = coord(1/4)
    
    Abstract
    Um die Vernetzung von Daten, Informationen und Wissen imWWWzu verbessern, werden verschiedene Ansätze verfolgt. Neben dem Semantic Web mit seinen verschiedenen Ausprägungen gibt es auch andere Ideen und Konzepte, welche die Verknüpfung von Wissen unterstützen. Foren, soziale Netzwerke und Wikis sind eine Möglichkeit des Wissensaustausches. In Wikis wird Wissen in Form von Artikeln gebündelt, um es so einer breiten Masse zur Verfügung zu stellen. Hier angebotene Informationen sollten jedoch kritisch hinterfragt werden, da die Autoren der Artikel in den meisten Fällen keine Verantwortung für die dort veröffentlichten Inhalte übernehmen müssen. Ein anderer Weg Wissen zu vernetzen bietet das Web of Linked Data. Hierbei werden strukturierte Daten des WWWs durch Verweise auf andere Datenquellen miteinander verbunden. Der Nutzer wird so im Zuge der Suche auf themenverwandte und verlinkte Datenquellen verwiesen. Die geowissenschaftlichen Metadaten mit ihren Inhalten und Beziehungen untereinander, die beim GFZ unter anderem im Information System and Data Center (ISDC) gespeichert sind, sollen als Ontologie in dieser Arbeit mit den Sprachkonstrukten von OWL modelliert werden. Diese Ontologie soll die Repräsentation und Suche von ISDC-spezifischem Domänenwissen durch die semantische Vernetzung persistenter ISDC-Metadaten entscheidend verbessern. Die in dieser Arbeit aufgezeigten Modellierungsmöglichkeiten, zunächst mit der Extensible Markup Language (XML) und später mit OWL, bilden die existierenden Metadatenbestände auf einer semantischen Ebene ab (siehe Abbildung 2). Durch die definierte Nutzung der Semantik, die in OWL vorhanden ist, kann mittels Maschinen ein Mehrwert aus den Metadaten gewonnen und dem Nutzer zur Verfügung gestellt werden. Geowissenschaftliche Informationen, Daten und Wissen können in semantische Zusammenhänge gebracht und verständlich repräsentiert werden. Unterstützende Informationen können ebenfalls problemlos in die Ontologie eingebunden werden. Dazu gehören z.B. Bilder zu den im ISDC gespeicherten Instrumenten, Plattformen oder Personen. Suchanfragen bezüglich geowissenschaftlicher Phänomene können auch ohne Expertenwissen über Zusammenhänge und Begriffe gestellt und beantwortet werden. Die Informationsrecherche und -aufbereitung gewinnt an Qualität und nutzt die existierenden Ressourcen im vollen Umfang.
  6. Reimer, U.: Einführung in die Wissensrepräsentation : netzartige und schema-basierte Repräsentationsformate (1991) 0.01
    0.009793539 = product of:
      0.039174154 = sum of:
        0.039174154 = product of:
          0.07834831 = sum of:
            0.07834831 = weight(_text_:software in 1566) [ClassicSimilarity], result of:
              0.07834831 = score(doc=1566,freq=4.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.43390724 = fieldWeight in 1566, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1566)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Classification
    ST 285 Informatik / Monographien / Software und -entwicklung / Computer supported cooperative work (CSCW), Groupware
    RVK
    ST 285 Informatik / Monographien / Software und -entwicklung / Computer supported cooperative work (CSCW), Groupware
  7. Beßler, S.: Wissensrepräsentation musealer Bestände mittels semantischer Netze : Analyse und Annotation eines Teilbestands des Haus der Geschichte der BRD in Bonn (2010) 0.01
    0.008394462 = product of:
      0.03357785 = sum of:
        0.03357785 = product of:
          0.0671557 = sum of:
            0.0671557 = weight(_text_:software in 4024) [ClassicSimilarity], result of:
              0.0671557 = score(doc=4024,freq=4.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.3719205 = fieldWeight in 4024, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4024)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Semantische Netze unterstützen den Suchvorgang im Information Retrieval. Über ihre vielfältigen Relationen und Inferenzen unterstützen sie den Anwender und helfen Daten im Kontext zu präsentieren und zu erfassen. Die Relationen ermöglichen Suchanfragen die große Treffermengen produzieren zu verfeinern und so Treffermengen zu erreichen die möglichst genau das enthalten was gesucht wurde. Es wird, anhand eines Ausschnitts des Datenbestands des Haus der Geschichte der Bundesrepublik Deutschland in Bonn, aufgezeigt wie bestehende Datenbestände in semantische Netze überführt werden können und wie diese anschließend für das Retrieval eingesetzt werden können. Für die Modellierung des semantischen Netz wird die Open Source Software Protégé in den Versionen 3.4.4. und 4.1_beta eingesetzt, die Möglichkeiten des Retrieval werden anhand der Abfragesprachen DL Query und SPARQL sowie anhand der Software Ontology Browser und OntoGraf erläutert.
  8. Helbig, H.: ¬Die semantische Struktur natürlicher Sprache : Wissensrepräsentation mit MultiNet (2001) 0.01
    0.007914375 = product of:
      0.0316575 = sum of:
        0.0316575 = product of:
          0.063315 = sum of:
            0.063315 = weight(_text_:software in 7072) [ClassicSimilarity], result of:
              0.063315 = score(doc=7072,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.35064998 = fieldWeight in 7072, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0625 = fieldNorm(doc=7072)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Die Methodik der 'Mehrschichtigen Erweiterung Semantischer Netze' (MultiNet) ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation sichern
  9. Reif, G.: Semantische Annotation (2006) 0.01
    0.007914375 = product of:
      0.0316575 = sum of:
        0.0316575 = product of:
          0.063315 = sum of:
            0.063315 = weight(_text_:software in 5807) [ClassicSimilarity], result of:
              0.063315 = score(doc=5807,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.35064998 = fieldWeight in 5807, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5807)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Kapitel wird zuerst der Begriff Semantische Annotation eingeführt und es werden Techniken besprochen um die Annotationen mit dem ursprünglichen Dokument zu verknüpfen. Weiters wird auf Probleme eingegangen, die sich beim Erstellen der Annotationen ergeben. Im Anschluss daran werden Software Tools vorgestellt, die einen Benutzer beim Annotierungsprozess unterstützen. Zum Abschluss werden Methoden diskutiert, die den Annotierungsvorgang in den Entwicklungsprozess einer Web Applikation integrieren.
  10. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.01
    0.007708307 = product of:
      0.030833228 = sum of:
        0.030833228 = product of:
          0.061666455 = sum of:
            0.061666455 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
              0.061666455 = score(doc=5576,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.38690117 = fieldWeight in 5576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5576)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    13.12.2017 14:17:22
  11. Haller, S.H.M.: Mappingverfahren zur Wissensorganisation (2002) 0.01
    0.007708307 = product of:
      0.030833228 = sum of:
        0.030833228 = product of:
          0.061666455 = sum of:
            0.061666455 = weight(_text_:22 in 3406) [ClassicSimilarity], result of:
              0.061666455 = score(doc=3406,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.38690117 = fieldWeight in 3406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3406)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    30. 5.2010 16:22:35
  12. Nielsen, M.: Neuronale Netze : Alpha Go - Computer lernen Intuition (2018) 0.01
    0.007708307 = product of:
      0.030833228 = sum of:
        0.030833228 = product of:
          0.061666455 = sum of:
            0.061666455 = weight(_text_:22 in 4523) [ClassicSimilarity], result of:
              0.061666455 = score(doc=4523,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.38690117 = fieldWeight in 4523, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4523)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Spektrum der Wissenschaft. 2018, H.1, S.22-27
  13. Forscher erschließen Inhalte von Wiki-Webseiten (2006) 0.01
    0.006995385 = product of:
      0.02798154 = sum of:
        0.02798154 = product of:
          0.05596308 = sum of:
            0.05596308 = weight(_text_:software in 55) [ClassicSimilarity], result of:
              0.05596308 = score(doc=55,freq=4.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.30993375 = fieldWeight in 55, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=55)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Mit einer Erweiterung der Software MediaWiki macht das Forschungsteam Wissensmanagement des Instituts für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) der Universität Karlsruhe die Inhalte von Websites, die mit MediaWiki geschrieben sind, für Maschinen besser auswertbar.
    Content
    Das Konzept zur besseren Erschließung der Inhalte geht allerdings nur auf, wenn die WikiAutoren aktiv mitarbeiten. Die Karlsruher Forscher setzen auf eine Kombination aus sozialer und technischer Lösung: Sie hoffen, dass sich auf der Basis ihrer Software »Semantic MediaWiki« eine Art kollektive Indexierung der Wiki-Artikel durch die Autoren entwickelt. »Semantic MediaWiki« wird bereits auf mehreren Websites mit begrenztem Datenvolumen erfolgreich eingesetzt, unter anderen zur Erschließung der Bibel-Inhalte. Nun testen die Karlsruher Forscher, ob ihr Programm auch dem gewaltigen Volumen von Wikipedia gewachsen ist. Die Wikimedia Foundation Inc., Betreiber von Wikipedia, stellt ihnen für den Test rund 50 Gigabyte Inhalt der englischen Wikipedia-Ausgabe zur Verfügung und hat Interesse an einer Zusammenarbeit signalisiert. »Semantic MediaWiki« ist ein einfach zu bedienendes Werkzeug, das auf leistungsstarken semantischen Wissensmanagement-Technologien aufbaut. Die Autoren können mit dem Werkzeug die Querverweise, die sie in ihrem Text als Weiterleitung zu Hintergrundinformationen angeben, typisieren, also kurz erläutern, sowie Zahlenangaben und Fakten im Text als Attribute kennzeichnen. Bei dem Eintrag zu »Ägypten« steht dann zum Beispiel der typisierte Link »ist Land in Afrika«, ein Attribut könnte »Bevölkerung 76000000« sein. Dabei soll jeweils die Landessprache des Eintrags verwendet werden können. Die von den Autoren erzeugten, typisierten Links werden in einer Datenbank als Bezugsgruppen abgelegt; die gekennzeichneten Attribute als feststehende Werte gespeichert. Das versetzt Computer in die Lage, automatisch sinnvolle Antworten auf komplexere Anfragen zu geben; etwa eine Liste zu erzeugen, in der alle Länder Afrikas aufgeführt sind. Die Ländernamen führen als Link zurück zu dem Eintrag, in dem sie stehen."
  14. Kienreich, W.; Strohmaier, M.: Wissensmodellierung - Basis für die Anwendung semantischer Technologien (2006) 0.01
    0.006925077 = product of:
      0.027700309 = sum of:
        0.027700309 = product of:
          0.055400617 = sum of:
            0.055400617 = weight(_text_:software in 5804) [ClassicSimilarity], result of:
              0.055400617 = score(doc=5804,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.30681872 = fieldWeight in 5804, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5804)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Der Transfer und die Nutzung von Wissen stellen ein zentrales Thema hei der Anwendung semantischer Technologien dar. In diesem Zusammenhang befasst sich das Gebiet der Wissensmodellierung mit der Explizierung von Wissen in formale, sowohl von Menschen als auch von Maschinen interpretierbare, Form. Ziel dieses Beitrags ist es aufzuzeigen. wie Methoden der Wissensmodellierung die Grundlage für die Gestaltung von Anwendungen auf Basis semantischer Technologien bilden. Der Beitrag liefert eine Definition eines Wissensbegriffs, erklärt eine Reihe von Formen der abstrakten Wissensrepräsentation und führt ein Kategorisierungsschema für aktuelle Ansätze zur Modellierung ein. Anschließend wird ein Überblick über agenten- und prozessorientierte Modellierungsansätze gegeben. die sowohl auf die Abbildung der realen Welt als auch auf die Abbildung von Software eingehen.
  15. Hauff-Hartig, S.: Wissensrepräsentation durch RDF: Drei angewandte Forschungsbeispiele : Bitte recht vielfältig: Wie Wissensgraphen, Disco und FaBiO Struktur in Mangas und die Humanities bringen (2021) 0.01
    0.0061666453 = product of:
      0.024666581 = sum of:
        0.024666581 = product of:
          0.049333163 = sum of:
            0.049333163 = weight(_text_:22 in 318) [ClassicSimilarity], result of:
              0.049333163 = score(doc=318,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.30952093 = fieldWeight in 318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=318)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 5.2021 12:43:05
  16. Semantic Media Wiki : Autoren sollen Wiki-Inhalte erschließen (2006) 0.01
    0.005997293 = product of:
      0.023989173 = sum of:
        0.023989173 = product of:
          0.047978345 = sum of:
            0.047978345 = weight(_text_:software in 6027) [ClassicSimilarity], result of:
              0.047978345 = score(doc=6027,freq=6.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.26571283 = fieldWeight in 6027, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=6027)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Content
    "Mit einer semantischen Erweiterung der Software MediaWiki ist es dem Forschungsteam Wissensmanagement des Instituts für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) der Universität Karlsruhe (TH) gelungen, das Interesse der internationalen Fachwelt auf sich zu ziehen. Die jungen Forscher Denny Vrandecic und Markus Krötzsch aus dem Team von Professor Dr. Rudi Studer machen die Inhalte von Websites, die mit MediaWiki geschrieben sind, für Maschinen besser auswertbar. Ihr Konzept zur besseren Erschließung der Inhalte geht allerdings nur auf, wenn die Wiki-Autoren aktiv mitarbeiten. Die Karlsruher Forscher setzen auf eine Kombination aus sozialer und technischer Lösung: Sie hoffen, dass sich auf der Basis ihrer Wiki-PlugIn-Software "Semantic MediaWiki" eine Art kollektive Indexierung der Wiki-Artikel durch die Autoren entwickelt - und ernten für diese Idee viel Beifall. Semantic MediaWiki wird bereits auf mehreren Websites mit begrenztem Datenvolumen erfolgreich eingesetzt, unter anderen zur Erschließung der Bibel-Inhalte (URLs siehe Kasten). Nun testen die Karlsruher Forscher, ob ihr Programm auch den gigantischen Volumenanforderungen der freien Web-Enzyklopädie Wikipedia gewachsen ist. Die Wikimedia Foundation Inc., Betreiber von Wikipedia, stellt ihnen für den Test rund 50 Gigabyte Inhalt der englischen Wikipedia-Ausgabe zur Verfügung und hat Interesse an einer Zusammenarbeit signalisiert. Semantic MediaWiki steht als Open Source Software (PHP) auf der Website Sourceforge zur Verfügung. Semantic MediaWiki ist ein relativ einfach zu bedienendes Werkzeug, welches auf leistungsstarken semantischen Wissensmanagement-Technologien aufbaut. Die Autoren können mit dem Werkzeug die Querverweise (Links), die sie in ihrem Text als Weiterleitung zu Hintergrundinformationen angeben, bei der Eingabe als Link eines bestimmten Typs kennzeichnen (typed links) und Zahlenangaben und Fakten im Text als Attribute (attributes) markieren. Bei dem Eintrag zu "Ägypten" steht dann zum Bespiel der typisierte Link "[[ist Land von::Afrika]]" / "[[is country of::africa]]", ein Attribut könnte "[[Bevölkerung:=76,000,000]]" / "[[population:=76,000,000]]" sein. Die von den Autoren erzeugten, typisierten Links werden in einer Datenbank als Dreier-Bezugsgruppen (Triple) abgelegt; die gekennzeichneten Attribute als feststehende Werte gespeichert. Die Autoren können die Relationen zur Definition der Beziehungen zwischen den verlinkten Begriffen frei wählen, z.B. "ist ...von' / "is...of", "hat..." /"has ...". Eingeführte Relationen stehen als "bisher genutzte Relationen" den anderen Schreibern für deren Textindexierung zur Verfügung.
  17. Dirsch-Weigand, A.; Schmidt, I.: ConWeaver : Automatisierte Wissensnetze für die semantische Suche (2006) 0.01
    0.0059357807 = product of:
      0.023743123 = sum of:
        0.023743123 = product of:
          0.047486246 = sum of:
            0.047486246 = weight(_text_:software in 6026) [ClassicSimilarity], result of:
              0.047486246 = score(doc=6026,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.2629875 = fieldWeight in 6026, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6026)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Google ist zum Inbegriff einer Suchmaschine geworden. Doch ist in Fachkreisen klar, dass Volltexsuchtmaschinen wie Google auch deutliche Schwächen aufweisen und deshalb für die effiziente Suche in Fachportalen, Intranets und Enterprise-Content-Management-Systemen oft nicht ausreichen. Weil Volltextsuchmaschinen nur mit dem genauen Wortlaut suchen, finden sie einerseits Informationen nicht, die zwar dem Inhalt, nicht aber den genauen Formulierungen der Suchanfrage entsprechen. Bezeichnungsalternativen, sprachlichen Varianten sowie fremdsprachliche Benennungen werden nicht als bedeutungsgleich erkannt. Andererseits entstehen unpräzise Suchergebnisse, weil gleich lautende Bezeichnungen unterschiedlicher Bedeutung nicht unterschieden werden. Diese Probleme geht die semantische Suchmaschine ConWeaver an, die das Fraunhofer Institut Integrierte Informations- und Publikationssysteme (Fraunhofer IPSI) in Darmstadt entwickelt hat. An Stelle eines Volltextindexes setzt sie ein Wissensnetz als Suchindex ein. Im Unterschied zu den meisten anderen ontologiebasierten Softwareprodukten baut die Software ConWeaver dieses Wissensnetz automatisiert auf.
  18. Hunger, M.; Neubauer, P.: ¬Die vernetzte Welt : Abfragesprachen für Graphendatenbanken (2013) 0.01
    0.0059357807 = product of:
      0.023743123 = sum of:
        0.023743123 = product of:
          0.047486246 = sum of:
            0.047486246 = weight(_text_:software in 1101) [ClassicSimilarity], result of:
              0.047486246 = score(doc=1101,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.2629875 = fieldWeight in 1101, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1101)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Graphendatenbanken sind darauf optimiert, stark miteinander vernetzte Informationen effizient zu speichern und greifbar zu machen. Welchen Ansprüchen müssen Abfragesprachen genügen, damit sie für die Arbeit mit diesen Datenbanken geeignet sind? Bei der Aufarbeitung realer Informationen zeigt sich, dass ein hoher, aber unterschätzter Wert in den Beziehungen zwischen Elementen steckt. Seien es Ereignisse aus Geschichte und Politik, Personen in realen und virtuellen sozialen Netzen, Proteine und Gene, Abhängigkeiten in Märkten und Ökonomien oder Rechnernetze, Computer, Software und Anwender - alles ist miteinander verbunden. Der Graph ist ein Datenmodell, das solche Verbindungsgeflechte abbilden kann. Leider lässt sich das Modell mit relationalen und Aggregat-orientierten NoSQL-Datenbanken ab einer gewissen Komplexität jedoch schwer handhaben. Graphendatenbanken sind dagegen darauf optimiert, solche stark miteinander vernetzten Informationen effizient zu speichern und greifbar zu machen. Auch komplexe Fragen lassen sich durch ausgefeilte Abfragen schnell beantworten. Hierbei kommt es auf die geeignete Abfragesprache an.
  19. Hauer, M.: Mehrsprachige semantische Netze leichter entwickeln (2002) 0.01
    0.005596308 = product of:
      0.022385232 = sum of:
        0.022385232 = product of:
          0.044770464 = sum of:
            0.044770464 = weight(_text_:software in 3894) [ClassicSimilarity], result of:
              0.044770464 = score(doc=3894,freq=4.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.24794699 = fieldWeight in 3894, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3894)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    AGI - Information Management Consultants liefern seit nunmehr 16 Jahren eine Software zur Entwicklung von Thesauri und Klassifikationen, ehemals bezeichnet als INDEX, seit zweieinhalb Jahren als IC INDEX neu entwickelt. Solche Terminologien werden oft auch als Glossar, Lexikon, Topic Maps, RDF, semantisches Netz, Systematik, Aktenplan oder Nomenklatur bezeichnet. Die Software erlaubt zwar schon immer, dass solche terminologischen Werke mehrsprachig angelegt sind, doch es gab keine speziellen Werkzeuge, um die Übersetzung zu erleichtern. Die Globalisierung führt zunehmend auch zur Mehrsprachigkeit von Fachterminologien, wie laufende Projekte belegen. In IC INDEX 5.08 wurde deshalb ein spezieller Workflow für die Übersetzung implementiert, der Wortfelder bearbeitet und dabei weitgehend automatisch, aber vom Übersetzer kontrolliert, die richtigen Verbindungen zwischen den Termen in den anderen Sprachen erzeugt. Bereits dieser Workflow beschleunigt wesentlich die Übersetzungstätigkeit. Doch es geht noch schneller: der eTranslation Server von Linguatec generiert automatisch Übersetzungsvorschläge für Deutsch/English und Deutsch/Französisch. Demnächst auch Deutsch/Spanisch und Deutsch/Italienisch. Gerade bei Mehrwortbegriffen, Klassenbezeichnungen und Komposita spielt die automatische Übersetzung gegenüber dem Wörterbuch-Lookup ihre Stärke aus. Der Rückgriff ins Wörterbuch ist selbstverständlich auch implementiert, sowohl auf das Linguatec-Wörterbuch und zusätzlich jedes beliebige über eine URL adressierbare Wörterbuch. Jeder Übersetzungsvorschlag muss vom Terminologie-Entwickler bestätigt werden. Im Rahmen der Oualitätskontrolle haben wir anhand vorliegender mehrsprachiger Thesauri getestet mit dem Ergebnis, dass die automatischen Vorschläge oft gleich und fast immer sehr nahe an der gewünschten Übersetzung waren. Worte, die für durchschnittlich gebildete Menschen nicht mehr verständlich sind, bereiten auch der maschinellen Übersetzung Probleme, z.B. Fachbegriffe aus Medizin, Chemie und anderen Wissenschaften. Aber auch ein Humanübersetzer wäre hier ohne einschlägige Fachausbildung überfordert. Also, ohne Fach- und ohne Sprachkompetenz geht es nicht, aber mit geht es ziemlich flott. IC INDEX basiert auf Lotus Notes & Domino 5.08. Beliebige Relationen zwischen Termen sind zulässig, die ANSI-Normen sind implementiert und um zusätzliche Relationen ergänzt, 26 Relationen gehören zum Lieferumfang. Ausgaben gemäß Topic Maps oder RDF - zwei eng verwandte Normen-werden bei Nachfrage entwickelt. Ausgaben sind in HMTL, XML, eine ansprechende Druckversion unter MS Word 2000 und für verschiedene Search-Engines vorhanden. AGI - Information Management Consultants, Neustadt an der Weinstraße, beraten seit 1983 Unternehmen und Organisationen im dem heute als Knowledge Management bezeichneten Feld. Seit 1994 liefern sie eine umfassende, hochintegrative Lösung: "Information Center" - darin ist IC INDEX ein eigenständiges Modul zur Unterstützung von mehrsprachiger Indexierung und mehrsprachigem semantischem Retrieval. Linguatec, München, ist einstmals aus den linguistischen Forschungslabors von IBM hervorgegangen und ist über den Personal Translator weithin bekannt.
  20. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2010) 0.01
    0.005395815 = product of:
      0.02158326 = sum of:
        0.02158326 = product of:
          0.04316652 = sum of:
            0.04316652 = weight(_text_:22 in 4792) [ClassicSimilarity], result of:
              0.04316652 = score(doc=4792,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.2708308 = fieldWeight in 4792, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4792)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly

Years

Types