Search (23 results, page 1 of 2)

  • × language_ss:"d"
  • × theme_ss:"Wissensrepräsentation"
  1. Forscher erschließen Inhalte von Wiki-Webseiten (2006) 0.02
    0.017219359 = product of:
      0.08609679 = sum of:
        0.08609679 = weight(_text_:inc in 55) [ClassicSimilarity], result of:
          0.08609679 = score(doc=55,freq=2.0), product of:
            0.2573945 = queryWeight, product of:
              6.0549803 = idf(docFreq=281, maxDocs=44218)
              0.042509552 = queryNorm
            0.33449355 = fieldWeight in 55, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0549803 = idf(docFreq=281, maxDocs=44218)
              0.0390625 = fieldNorm(doc=55)
      0.2 = coord(1/5)
    
    Content
    Das Konzept zur besseren Erschließung der Inhalte geht allerdings nur auf, wenn die WikiAutoren aktiv mitarbeiten. Die Karlsruher Forscher setzen auf eine Kombination aus sozialer und technischer Lösung: Sie hoffen, dass sich auf der Basis ihrer Software »Semantic MediaWiki« eine Art kollektive Indexierung der Wiki-Artikel durch die Autoren entwickelt. »Semantic MediaWiki« wird bereits auf mehreren Websites mit begrenztem Datenvolumen erfolgreich eingesetzt, unter anderen zur Erschließung der Bibel-Inhalte. Nun testen die Karlsruher Forscher, ob ihr Programm auch dem gewaltigen Volumen von Wikipedia gewachsen ist. Die Wikimedia Foundation Inc., Betreiber von Wikipedia, stellt ihnen für den Test rund 50 Gigabyte Inhalt der englischen Wikipedia-Ausgabe zur Verfügung und hat Interesse an einer Zusammenarbeit signalisiert. »Semantic MediaWiki« ist ein einfach zu bedienendes Werkzeug, das auf leistungsstarken semantischen Wissensmanagement-Technologien aufbaut. Die Autoren können mit dem Werkzeug die Querverweise, die sie in ihrem Text als Weiterleitung zu Hintergrundinformationen angeben, typisieren, also kurz erläutern, sowie Zahlenangaben und Fakten im Text als Attribute kennzeichnen. Bei dem Eintrag zu »Ägypten« steht dann zum Beispiel der typisierte Link »ist Land in Afrika«, ein Attribut könnte »Bevölkerung 76000000« sein. Dabei soll jeweils die Landessprache des Eintrags verwendet werden können. Die von den Autoren erzeugten, typisierten Links werden in einer Datenbank als Bezugsgruppen abgelegt; die gekennzeichneten Attribute als feststehende Werte gespeichert. Das versetzt Computer in die Lage, automatisch sinnvolle Antworten auf komplexere Anfragen zu geben; etwa eine Liste zu erzeugen, in der alle Länder Afrikas aufgeführt sind. Die Ländernamen führen als Link zurück zu dem Eintrag, in dem sie stehen."
  2. Semantic Media Wiki : Autoren sollen Wiki-Inhalte erschließen (2006) 0.01
    0.012053552 = product of:
      0.06026776 = sum of:
        0.06026776 = weight(_text_:inc in 6027) [ClassicSimilarity], result of:
          0.06026776 = score(doc=6027,freq=2.0), product of:
            0.2573945 = queryWeight, product of:
              6.0549803 = idf(docFreq=281, maxDocs=44218)
              0.042509552 = queryNorm
            0.23414549 = fieldWeight in 6027, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0549803 = idf(docFreq=281, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6027)
      0.2 = coord(1/5)
    
    Content
    "Mit einer semantischen Erweiterung der Software MediaWiki ist es dem Forschungsteam Wissensmanagement des Instituts für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) der Universität Karlsruhe (TH) gelungen, das Interesse der internationalen Fachwelt auf sich zu ziehen. Die jungen Forscher Denny Vrandecic und Markus Krötzsch aus dem Team von Professor Dr. Rudi Studer machen die Inhalte von Websites, die mit MediaWiki geschrieben sind, für Maschinen besser auswertbar. Ihr Konzept zur besseren Erschließung der Inhalte geht allerdings nur auf, wenn die Wiki-Autoren aktiv mitarbeiten. Die Karlsruher Forscher setzen auf eine Kombination aus sozialer und technischer Lösung: Sie hoffen, dass sich auf der Basis ihrer Wiki-PlugIn-Software "Semantic MediaWiki" eine Art kollektive Indexierung der Wiki-Artikel durch die Autoren entwickelt - und ernten für diese Idee viel Beifall. Semantic MediaWiki wird bereits auf mehreren Websites mit begrenztem Datenvolumen erfolgreich eingesetzt, unter anderen zur Erschließung der Bibel-Inhalte (URLs siehe Kasten). Nun testen die Karlsruher Forscher, ob ihr Programm auch den gigantischen Volumenanforderungen der freien Web-Enzyklopädie Wikipedia gewachsen ist. Die Wikimedia Foundation Inc., Betreiber von Wikipedia, stellt ihnen für den Test rund 50 Gigabyte Inhalt der englischen Wikipedia-Ausgabe zur Verfügung und hat Interesse an einer Zusammenarbeit signalisiert. Semantic MediaWiki steht als Open Source Software (PHP) auf der Website Sourceforge zur Verfügung. Semantic MediaWiki ist ein relativ einfach zu bedienendes Werkzeug, welches auf leistungsstarken semantischen Wissensmanagement-Technologien aufbaut. Die Autoren können mit dem Werkzeug die Querverweise (Links), die sie in ihrem Text als Weiterleitung zu Hintergrundinformationen angeben, bei der Eingabe als Link eines bestimmten Typs kennzeichnen (typed links) und Zahlenangaben und Fakten im Text als Attribute (attributes) markieren. Bei dem Eintrag zu "Ägypten" steht dann zum Bespiel der typisierte Link "[[ist Land von::Afrika]]" / "[[is country of::africa]]", ein Attribut könnte "[[Bevölkerung:=76,000,000]]" / "[[population:=76,000,000]]" sein. Die von den Autoren erzeugten, typisierten Links werden in einer Datenbank als Dreier-Bezugsgruppen (Triple) abgelegt; die gekennzeichneten Attribute als feststehende Werte gespeichert. Die Autoren können die Relationen zur Definition der Beziehungen zwischen den verlinkten Begriffen frei wählen, z.B. "ist ...von' / "is...of", "hat..." /"has ...". Eingeführte Relationen stehen als "bisher genutzte Relationen" den anderen Schreibern für deren Textindexierung zur Verfügung.
  3. Fischer, D.H.: ¬Ein Lehrbeispiel für eine Ontologie : OpenCyc (2004) 0.01
    0.012053552 = product of:
      0.06026776 = sum of:
        0.06026776 = weight(_text_:inc in 4568) [ClassicSimilarity], result of:
          0.06026776 = score(doc=4568,freq=2.0), product of:
            0.2573945 = queryWeight, product of:
              6.0549803 = idf(docFreq=281, maxDocs=44218)
              0.042509552 = queryNorm
            0.23414549 = fieldWeight in 4568, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0549803 = idf(docFreq=281, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4568)
      0.2 = coord(1/5)
    
    Content
    Das Projekt Cyc ist im Jahre 1984 angetreten mit der Zielsetzung, im großen Maßstab Alltags- und enzyklopädisches Wissen in einem einheitlichen System zu formalisieren im Gegensatz zu den bisherigen Versuchen der jeweiligen Repräsentation sektoralen Expertenwissens. Nachdem man sich dem Mythos Cyc zunächst nur über Publikationen nähern konntet, wurde dann 1997 als Textdatei Cycs "Upper Ontology" durch die Firma Cycorp Inc. zugänglich gemacht. Sie enthielt aber einiges nicht, was beschrieben worden war: z.B. Regeln und die Bindung von Aussagen an "Mikrotheorien". Entsprechend dieser Beschränkung war es mir möglich, den Inhalt dieser Datei strukturell verlustfrei in mein objektorientiertes, generisches Thesaurussystem "TerminologyFramework" einzubringen. Im April 200z wurden dann unter dem Namen OpenCyc nicht nur der Inhalt eines Auszugs aus Cycorps Ontologie, sondern auch zugehörige Werkzeuge zum lesenden Stöbern, Ändern und Schließen in einem ersten Release 0.6 zugänglich. Dazu findet man reichlich tutorielles Material, jedoch ist es nicht exakt abgestimmt auf die aktuell vorliegende Wissensbasis, sowie allerhand Dokumentation; vor allem aber findet man zum Herunterladen das Softwarepaket samt Wissensbasis für Windows NT/2000/XP- oder für Linux-Systeme. In welchem Verhältnis das nun kostenlos mit einer "GNU Lesser General Public License" verfügbare OpenCyc zu dem kommerziellen "Full Cyc" der Firma Cycorp steht, darüber weiß ich nichts aus erster Hand; die von mir für OpenCyc ermittelten Zahlen (s.u.) stehen zu neueren Angaben für Cyc in einem Größenordnungsverhältnis von ca. 1 zu 10. Informationen über realisierte Anwendungen kann man der Firmenselbstdarstellung$ und den von dort erreichbaren "white papers" entnehmen. Auf der Firmeneingangsseite findet man in Gestalt einer Pyramide eine Inhaltsübersicht der Ontologie von Cyc (siehe Abbildung 1): Beim Darüberfahren mit der Maus wird das dort wie auch hier kaum leserliche Kleingedruckte im Feld links oben lesbar und durch Klicken wird eine Inhaltsbeschreibung des jeweiligen Begriffsbereichs im Feld unten gegeben. OpenCyc stellt wohl einen exemplarischen Auszug aus dem oberen Teil der Pyramide oberhalb "Domain-Specific Knowledge" dar.
  4. Gams, E.; Mitterdorfer, D.: Semantische Content Management Systeme (2009) 0.01
    0.006403102 = product of:
      0.03201551 = sum of:
        0.03201551 = product of:
          0.06403102 = sum of:
            0.06403102 = weight(_text_:management in 4865) [ClassicSimilarity], result of:
              0.06403102 = score(doc=4865,freq=8.0), product of:
                0.14328322 = queryWeight, product of:
                  3.3706124 = idf(docFreq=4130, maxDocs=44218)
                  0.042509552 = queryNorm
                0.44688427 = fieldWeight in 4865, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.3706124 = idf(docFreq=4130, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4865)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Abstract
    Content Management Systeme (CMS) sind in vielen Organisationen bereits seit längerer Zeit fester Bestandteil zur Verwaltung und kollaborativen Bearbeitung von Text- und Multimedia-Inhalten. Im Zuge der rasch ansteigenden Fülle an Informationen und somit auch Wissen wird die Überschaubarkeit der Datenbestände jedoch massiv eingeschränkt. Diese und zusätzliche Anforderungen, wie automatisch Datenquellen aus dem World Wide Web (WWW) zu extrahieren, lassen traditionelle CMS immer mehr an ihre Grenzen stoßen. Dieser Beitrag diskutiert die neuen Herausforderungen an traditionelle CMS und bietet Lösungsvorschläge, wie CMS kombiniert mit semantischen Technologien diesen Herausforderungen begegnen können. Die Autoren stellen eine generische Systemarchitektur für Content Management Systeme vor, die einerseits Inhalte für das Semantic Web generieren, andererseits Content aus dem Web 2.0 syndizieren können und bei der Aufbereitung des Content den User mittels semantischer Technologien wie Reasoning oder Informationsextraktion unterstützen. Dabei wird auf Erfahrungen bei der prototypischen Implementierung von semantischer Technologie in ein bestehendes CMS System zurückgegriffen.
    Theme
    Content Management System
  5. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.01
    0.005759458 = product of:
      0.02879729 = sum of:
        0.02879729 = product of:
          0.05759458 = sum of:
            0.05759458 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
              0.05759458 = score(doc=5576,freq=2.0), product of:
                0.14886121 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042509552 = queryNorm
                0.38690117 = fieldWeight in 5576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5576)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    13.12.2017 14:17:22
  6. Haller, S.H.M.: Mappingverfahren zur Wissensorganisation (2002) 0.01
    0.005759458 = product of:
      0.02879729 = sum of:
        0.02879729 = product of:
          0.05759458 = sum of:
            0.05759458 = weight(_text_:22 in 3406) [ClassicSimilarity], result of:
              0.05759458 = score(doc=3406,freq=2.0), product of:
                0.14886121 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042509552 = queryNorm
                0.38690117 = fieldWeight in 3406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3406)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    30. 5.2010 16:22:35
  7. Nielsen, M.: Neuronale Netze : Alpha Go - Computer lernen Intuition (2018) 0.01
    0.005759458 = product of:
      0.02879729 = sum of:
        0.02879729 = product of:
          0.05759458 = sum of:
            0.05759458 = weight(_text_:22 in 4523) [ClassicSimilarity], result of:
              0.05759458 = score(doc=4523,freq=2.0), product of:
                0.14886121 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042509552 = queryNorm
                0.38690117 = fieldWeight in 4523, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4523)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Source
    Spektrum der Wissenschaft. 2018, H.1, S.22-27
  8. Widhalm, R.; Mück, T.: Topic maps : Semantische Suche im Internet (2002) 0.00
    0.0047725905 = product of:
      0.023862952 = sum of:
        0.023862952 = product of:
          0.047725905 = sum of:
            0.047725905 = weight(_text_:management in 4731) [ClassicSimilarity], result of:
              0.047725905 = score(doc=4731,freq=10.0), product of:
                0.14328322 = queryWeight, product of:
                  3.3706124 = idf(docFreq=4130, maxDocs=44218)
                  0.042509552 = queryNorm
                0.3330879 = fieldWeight in 4731, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.3706124 = idf(docFreq=4130, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4731)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Abstract
    Das Werk behandelt die aktuellen Entwicklungen zur inhaltlichen Erschließung von Informationsquellen im Internet. Topic Maps, semantische Modelle vernetzter Informationsressourcen unter Verwendung von XML bzw. HyTime, bieten alle notwendigen Modellierungskonstrukte, um Dokumente im Internet zu klassifizieren und ein assoziatives, semantisches Netzwerk über diese zu legen. Neben Einführungen in XML, XLink, XPointer sowie HyTime wird anhand von Einsatzszenarien gezeigt, wie diese neuartige Technologie für Content Management und Information Retrieval im Internet funktioniert. Der Entwurf einer Abfragesprache wird ebenso skizziert wie der Prototyp einer intelligenten Suchmaschine. Das Buch zeigt, wie Topic Maps den Weg zu semantisch gesteuerten Suchprozessen im Internet weisen.
    RSWK
    Content Management / Semantisches Netz / HyTime
    Content Management / Semantisches Netz / XML
    Subject
    Content Management / Semantisches Netz / HyTime
    Content Management / Semantisches Netz / XML
  9. Hauff-Hartig, S.: Wissensrepräsentation durch RDF: Drei angewandte Forschungsbeispiele : Bitte recht vielfältig: Wie Wissensgraphen, Disco und FaBiO Struktur in Mangas und die Humanities bringen (2021) 0.00
    0.004607566 = product of:
      0.02303783 = sum of:
        0.02303783 = product of:
          0.04607566 = sum of:
            0.04607566 = weight(_text_:22 in 318) [ClassicSimilarity], result of:
              0.04607566 = score(doc=318,freq=2.0), product of:
                0.14886121 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042509552 = queryNorm
                0.30952093 = fieldWeight in 318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=318)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    22. 5.2021 12:43:05
  10. Hoppe, T.: Semantische Filterung : ein Werkzeug zur Steigerung der Effizienz im Wissensmanagement (2013) 0.00
    0.0042687347 = product of:
      0.021343673 = sum of:
        0.021343673 = product of:
          0.042687345 = sum of:
            0.042687345 = weight(_text_:management in 2245) [ClassicSimilarity], result of:
              0.042687345 = score(doc=2245,freq=2.0), product of:
                0.14328322 = queryWeight, product of:
                  3.3706124 = idf(docFreq=4130, maxDocs=44218)
                  0.042509552 = queryNorm
                0.29792285 = fieldWeight in 2245, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.3706124 = idf(docFreq=4130, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2245)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Source
    Open journal of knowledge management. 2013, Ausgabe VII = http://www.community-of-knowledge.de/beitrag/semantische-filterung-ein-werkzeug-zur-steigerung-der-effizienz-im-wissensmanagement/
  11. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie (2005) 0.00
    0.0040316205 = product of:
      0.0201581 = sum of:
        0.0201581 = product of:
          0.0403162 = sum of:
            0.0403162 = weight(_text_:22 in 1852) [ClassicSimilarity], result of:
              0.0403162 = score(doc=1852,freq=2.0), product of:
                0.14886121 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042509552 = queryNorm
                0.2708308 = fieldWeight in 1852, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1852)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    11. 2.2011 18:22:58
  12. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.00
    0.0040316205 = product of:
      0.0201581 = sum of:
        0.0201581 = product of:
          0.0403162 = sum of:
            0.0403162 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.0403162 = score(doc=4324,freq=2.0), product of:
                0.14886121 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042509552 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    11. 2.2011 18:22:25
  13. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2010) 0.00
    0.0040316205 = product of:
      0.0201581 = sum of:
        0.0201581 = product of:
          0.0403162 = sum of:
            0.0403162 = weight(_text_:22 in 4792) [ClassicSimilarity], result of:
              0.0403162 = score(doc=4792,freq=2.0), product of:
                0.14886121 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042509552 = queryNorm
                0.2708308 = fieldWeight in 4792, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4792)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  14. Lang, A.: OmniFind: eine Plattform für semantische Suche und Textanalyse in Unternehmen (2006) 0.00
    0.0037351425 = product of:
      0.018675713 = sum of:
        0.018675713 = product of:
          0.037351426 = sum of:
            0.037351426 = weight(_text_:management in 6025) [ClassicSimilarity], result of:
              0.037351426 = score(doc=6025,freq=2.0), product of:
                0.14328322 = queryWeight, product of:
                  3.3706124 = idf(docFreq=4130, maxDocs=44218)
                  0.042509552 = queryNorm
                0.2606825 = fieldWeight in 6025, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.3706124 = idf(docFreq=4130, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=6025)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Abstract
    WebSphere® Information Integrator OmniFind Edition ist die Plattform der IBM für Unternehmenssuche und Textanalyse. Zentraler Bestandteil ist hierbei die Unstructured Information Management Architecture (UIMA), eine offene Architektur, die Entwicklung und Einsatz von Textanalysetechnologie vereinheitlicht. Beschrieben wird das von OmniFind realisierte Konzept der semantischen Suche, die die durch UIMA-Komponenten erkannten Konzepte und Beziehungen für Suchbenutzer zugänglich macht. Um UIMA und OmniFind hat sich ein Netzwerk aus Partnern entwickelt, die Lösungen in Bereichen wie Automotive Quality Early Warning oder Public Image Monitoring anbieten. Im Kontext dieser Lösungen werden Ansätze, Prozesse und Technologien beschrieben, um das notwendige Domänenwissen aufzubauen.
  15. Hauer, M.: Mehrsprachige semantische Netze leichter entwickeln (2002) 0.00
    0.0036968328 = product of:
      0.018484164 = sum of:
        0.018484164 = product of:
          0.036968328 = sum of:
            0.036968328 = weight(_text_:management in 3894) [ClassicSimilarity], result of:
              0.036968328 = score(doc=3894,freq=6.0), product of:
                0.14328322 = queryWeight, product of:
                  3.3706124 = idf(docFreq=4130, maxDocs=44218)
                  0.042509552 = queryNorm
                0.25800878 = fieldWeight in 3894, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.3706124 = idf(docFreq=4130, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3894)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Abstract
    AGI - Information Management Consultants liefern seit nunmehr 16 Jahren eine Software zur Entwicklung von Thesauri und Klassifikationen, ehemals bezeichnet als INDEX, seit zweieinhalb Jahren als IC INDEX neu entwickelt. Solche Terminologien werden oft auch als Glossar, Lexikon, Topic Maps, RDF, semantisches Netz, Systematik, Aktenplan oder Nomenklatur bezeichnet. Die Software erlaubt zwar schon immer, dass solche terminologischen Werke mehrsprachig angelegt sind, doch es gab keine speziellen Werkzeuge, um die Übersetzung zu erleichtern. Die Globalisierung führt zunehmend auch zur Mehrsprachigkeit von Fachterminologien, wie laufende Projekte belegen. In IC INDEX 5.08 wurde deshalb ein spezieller Workflow für die Übersetzung implementiert, der Wortfelder bearbeitet und dabei weitgehend automatisch, aber vom Übersetzer kontrolliert, die richtigen Verbindungen zwischen den Termen in den anderen Sprachen erzeugt. Bereits dieser Workflow beschleunigt wesentlich die Übersetzungstätigkeit. Doch es geht noch schneller: der eTranslation Server von Linguatec generiert automatisch Übersetzungsvorschläge für Deutsch/English und Deutsch/Französisch. Demnächst auch Deutsch/Spanisch und Deutsch/Italienisch. Gerade bei Mehrwortbegriffen, Klassenbezeichnungen und Komposita spielt die automatische Übersetzung gegenüber dem Wörterbuch-Lookup ihre Stärke aus. Der Rückgriff ins Wörterbuch ist selbstverständlich auch implementiert, sowohl auf das Linguatec-Wörterbuch und zusätzlich jedes beliebige über eine URL adressierbare Wörterbuch. Jeder Übersetzungsvorschlag muss vom Terminologie-Entwickler bestätigt werden. Im Rahmen der Oualitätskontrolle haben wir anhand vorliegender mehrsprachiger Thesauri getestet mit dem Ergebnis, dass die automatischen Vorschläge oft gleich und fast immer sehr nahe an der gewünschten Übersetzung waren. Worte, die für durchschnittlich gebildete Menschen nicht mehr verständlich sind, bereiten auch der maschinellen Übersetzung Probleme, z.B. Fachbegriffe aus Medizin, Chemie und anderen Wissenschaften. Aber auch ein Humanübersetzer wäre hier ohne einschlägige Fachausbildung überfordert. Also, ohne Fach- und ohne Sprachkompetenz geht es nicht, aber mit geht es ziemlich flott. IC INDEX basiert auf Lotus Notes & Domino 5.08. Beliebige Relationen zwischen Termen sind zulässig, die ANSI-Normen sind implementiert und um zusätzliche Relationen ergänzt, 26 Relationen gehören zum Lieferumfang. Ausgaben gemäß Topic Maps oder RDF - zwei eng verwandte Normen-werden bei Nachfrage entwickelt. Ausgaben sind in HMTL, XML, eine ansprechende Druckversion unter MS Word 2000 und für verschiedene Search-Engines vorhanden. AGI - Information Management Consultants, Neustadt an der Weinstraße, beraten seit 1983 Unternehmen und Organisationen im dem heute als Knowledge Management bezeichneten Feld. Seit 1994 liefern sie eine umfassende, hochintegrative Lösung: "Information Center" - darin ist IC INDEX ein eigenständiges Modul zur Unterstützung von mehrsprachiger Indexierung und mehrsprachigem semantischem Retrieval. Linguatec, München, ist einstmals aus den linguistischen Forschungslabors von IBM hervorgegangen und ist über den Personal Translator weithin bekannt.
  16. Hohmann, G.: ¬Die Anwendung des CIDOC-CRM für die semantische Wissensrepräsentation in den Kulturwissenschaften (2010) 0.00
    0.0034556747 = product of:
      0.017278373 = sum of:
        0.017278373 = product of:
          0.034556746 = sum of:
            0.034556746 = weight(_text_:22 in 4011) [ClassicSimilarity], result of:
              0.034556746 = score(doc=4011,freq=2.0), product of:
                0.14886121 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042509552 = queryNorm
                0.23214069 = fieldWeight in 4011, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4011)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  17. Semenova, E.: Ontologie als Begriffssystem : Theoretische Überlegungen und ihre praktische Umsetzung bei der Entwicklung einer Ontologie der Wissenschaftsdisziplinen (2010) 0.00
    0.0034556747 = product of:
      0.017278373 = sum of:
        0.017278373 = product of:
          0.034556746 = sum of:
            0.034556746 = weight(_text_:22 in 4095) [ClassicSimilarity], result of:
              0.034556746 = score(doc=4095,freq=2.0), product of:
                0.14886121 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042509552 = queryNorm
                0.23214069 = fieldWeight in 4095, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4095)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  18. Sigel, A.: Was leisten Topic Maps? (2001) 0.00
    0.003201551 = product of:
      0.016007755 = sum of:
        0.016007755 = product of:
          0.03201551 = sum of:
            0.03201551 = weight(_text_:management in 5855) [ClassicSimilarity], result of:
              0.03201551 = score(doc=5855,freq=2.0), product of:
                0.14328322 = queryWeight, product of:
                  3.3706124 = idf(docFreq=4130, maxDocs=44218)
                  0.042509552 = queryNorm
                0.22344214 = fieldWeight in 5855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.3706124 = idf(docFreq=4130, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5855)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  19. Dirsch-Weigand, A.; Schmidt, I.: ConWeaver : Automatisierte Wissensnetze für die semantische Suche (2006) 0.00
    0.003201551 = product of:
      0.016007755 = sum of:
        0.016007755 = product of:
          0.03201551 = sum of:
            0.03201551 = weight(_text_:management in 6026) [ClassicSimilarity], result of:
              0.03201551 = score(doc=6026,freq=2.0), product of:
                0.14328322 = queryWeight, product of:
                  3.3706124 = idf(docFreq=4130, maxDocs=44218)
                  0.042509552 = queryNorm
                0.22344214 = fieldWeight in 6026, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.3706124 = idf(docFreq=4130, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6026)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Abstract
    Google ist zum Inbegriff einer Suchmaschine geworden. Doch ist in Fachkreisen klar, dass Volltexsuchtmaschinen wie Google auch deutliche Schwächen aufweisen und deshalb für die effiziente Suche in Fachportalen, Intranets und Enterprise-Content-Management-Systemen oft nicht ausreichen. Weil Volltextsuchmaschinen nur mit dem genauen Wortlaut suchen, finden sie einerseits Informationen nicht, die zwar dem Inhalt, nicht aber den genauen Formulierungen der Suchanfrage entsprechen. Bezeichnungsalternativen, sprachlichen Varianten sowie fremdsprachliche Benennungen werden nicht als bedeutungsgleich erkannt. Andererseits entstehen unpräzise Suchergebnisse, weil gleich lautende Bezeichnungen unterschiedlicher Bedeutung nicht unterschieden werden. Diese Probleme geht die semantische Suchmaschine ConWeaver an, die das Fraunhofer Institut Integrierte Informations- und Publikationssysteme (Fraunhofer IPSI) in Darmstadt entwickelt hat. An Stelle eines Volltextindexes setzt sie ein Wissensnetz als Suchindex ein. Im Unterschied zu den meisten anderen ontologiebasierten Softwareprodukten baut die Software ConWeaver dieses Wissensnetz automatisiert auf.
  20. Müller, T.: Wissensrepräsentation mit semantischen Netzen im Bereich Luftfahrt (2006) 0.00
    0.002879729 = product of:
      0.014398645 = sum of:
        0.014398645 = product of:
          0.02879729 = sum of:
            0.02879729 = weight(_text_:22 in 1670) [ClassicSimilarity], result of:
              0.02879729 = score(doc=1670,freq=2.0), product of:
                0.14886121 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042509552 = queryNorm
                0.19345059 = fieldWeight in 1670, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1670)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    26. 9.2006 21:00:22