Search (140 results, page 1 of 7)

  • × theme_ss:"Semantische Interoperabilität"
  1. Gödert, W.; Hubrich, J.; Boteram, F.: Thematische Recherche und Interoperabilität : Wege zur Optimierung des Zugriffs auf heterogen erschlossene Dokumente (2009) 0.18
    0.17530195 = sum of:
      0.069858156 = product of:
        0.27943262 = sum of:
          0.27943262 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
            0.27943262 = score(doc=193,freq=2.0), product of:
              0.47727308 = queryWeight, product of:
                10.598275 = idf(docFreq=2, maxDocs=44218)
                0.04503309 = queryNorm
              0.5854775 = fieldWeight in 193, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                10.598275 = idf(docFreq=2, maxDocs=44218)
                0.0390625 = fieldNorm(doc=193)
        0.25 = coord(1/4)
      0.03952162 = weight(_text_:f in 193) [ClassicSimilarity], result of:
        0.03952162 = score(doc=193,freq=2.0), product of:
          0.17949225 = queryWeight, product of:
            3.985786 = idf(docFreq=2232, maxDocs=44218)
            0.04503309 = queryNorm
          0.22018565 = fieldWeight in 193, product of:
            1.4142135 = tf(freq=2.0), with freq of:
              2.0 = termFreq=2.0
            3.985786 = idf(docFreq=2232, maxDocs=44218)
            0.0390625 = fieldNorm(doc=193)
      0.06592218 = sum of:
        0.035415366 = weight(_text_:von in 193) [ClassicSimilarity], result of:
          0.035415366 = score(doc=193,freq=8.0), product of:
            0.12014598 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04503309 = queryNorm
            0.29476947 = fieldWeight in 193, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.030506812 = weight(_text_:22 in 193) [ClassicSimilarity], result of:
          0.030506812 = score(doc=193,freq=2.0), product of:
            0.15769821 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04503309 = queryNorm
            0.19345059 = fieldWeight in 193, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
    
    Abstract
    Die Verwendung von Erschließungsinstrumenten zur Beschreibung von Informationsressourcen kann Effizienz und Effektivität thematischer Recherchen wesentlich steigern: standardisierte Begriffe unterstützen Recall und Precision begrifflicher Suchen; Ausweisung von Relationen bietet die Grundlage für explorative Suchprozesse. Eine zusätzliche Steigerung der Funktionalitäten des Retrievals kann mittels einer Ausdifferenzierung und Spezifizierung der in Normdaten enthaltenen semantischen Informationen erreicht werden, die über die in Thesauri und Klassifikationen verbreiteten grundlegenden Relationstypen (äquivalent, hierarchisch, assoziativ) hinausgehen. In modernen Informationsräumen, in denen Daten verschiedener Institutionen über eine Plattform zeit- und ortsunabhängig zugänglich gemacht werden, können einzelne Wissenssysteme indes nur unzureichend das Information Retrieval unterstützen. Zu unterschiedlich sind die für thematische Suchanfragen relevanten Indexierungsdaten. Eine Verbesserung kann mittels Herstellung von Interoperabilität zwischen den verschiedenen Dokumentationssprachen erreicht werden. Im Vortrag wird dargelegt, in welcher Art und Weise die in Wissenssystemen enthaltenen semantischen Informationen zur Unterstützung thematischer Recherchen optimiert werden können und inwiefern Interoperabilität zwischen Systemen geschaffen werden kann, die gleichwertige Funktionalitäten in heterogenen Informationsräumen gewährleisten. In diesem Zusammenhang wird auch auf aktuelle Mappingprojekte wie das DFG-Projekt CrissCross oder das RESEDA-Projekt, welches sich mit den Möglichkeiten der semantischen Anreicherung bestehender Dokumentationssprachen befasst, eingegangen.
    Source
    https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/searchtype/authorsearch/author/%22Hubrich%2C+Jessica%22/docId/703/start/0/rows/20
  2. Boteram, F.; Hubrich, J.: Towards a comprehensive international Knowledge Organization System (2008) 0.09
    0.08764004 = product of:
      0.13146006 = sum of:
        0.09485188 = weight(_text_:f in 4786) [ClassicSimilarity], result of:
          0.09485188 = score(doc=4786,freq=2.0), product of:
            0.17949225 = queryWeight, product of:
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.04503309 = queryNorm
            0.52844554 = fieldWeight in 4786, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.09375 = fieldNorm(doc=4786)
        0.03660817 = product of:
          0.07321634 = sum of:
            0.07321634 = weight(_text_:22 in 4786) [ClassicSimilarity], result of:
              0.07321634 = score(doc=4786,freq=2.0), product of:
                0.15769821 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04503309 = queryNorm
                0.46428138 = fieldWeight in 4786, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4786)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    22. 9.2008 19:30:41
  3. Celli, F. et al.: Enabling multilingual search through controlled vocabularies : the AGRIS approach (2016) 0.07
    0.07303337 = product of:
      0.10955005 = sum of:
        0.07904324 = weight(_text_:f in 3278) [ClassicSimilarity], result of:
          0.07904324 = score(doc=3278,freq=2.0), product of:
            0.17949225 = queryWeight, product of:
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.04503309 = queryNorm
            0.4403713 = fieldWeight in 3278, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.078125 = fieldNorm(doc=3278)
        0.030506812 = product of:
          0.061013624 = sum of:
            0.061013624 = weight(_text_:22 in 3278) [ClassicSimilarity], result of:
              0.061013624 = score(doc=3278,freq=2.0), product of:
                0.15769821 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04503309 = queryNorm
                0.38690117 = fieldWeight in 3278, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3278)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Source
    Metadata and semantics research: 10th International Conference, MTSR 2016, Göttingen, Germany, November 22-25, 2016, Proceedings. Eds.: E. Garoufallou
  4. Concepts in Context : Proceedings of the Cologne Conference on Interoperability and Semantics in Knowledge Organization July 19th - 20th, 2010 (2011) 0.05
    0.047430277 = product of:
      0.071145415 = sum of:
        0.05589201 = weight(_text_:f in 628) [ClassicSimilarity], result of:
          0.05589201 = score(doc=628,freq=4.0), product of:
            0.17949225 = queryWeight, product of:
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.04503309 = queryNorm
            0.31138954 = fieldWeight in 628, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.0390625 = fieldNorm(doc=628)
        0.015253406 = product of:
          0.030506812 = sum of:
            0.030506812 = weight(_text_:22 in 628) [ClassicSimilarity], result of:
              0.030506812 = score(doc=628,freq=2.0), product of:
                0.15769821 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04503309 = queryNorm
                0.19345059 = fieldWeight in 628, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=628)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    22. 2.2013 11:34:18
    Editor
    Boteram, F.
    Footnote
    Rez. in: ZfBB 59(2012) H.2, S.119-120 (F. Förster); KO 39(2012) no.6, S.461-463 (I. Dahlberg)
  5. Boteram, F.; Hubrich, J.: Specifying intersystem relations : requirements, strategies, and issues (2010) 0.04
    0.04382002 = product of:
      0.06573003 = sum of:
        0.04742594 = weight(_text_:f in 3691) [ClassicSimilarity], result of:
          0.04742594 = score(doc=3691,freq=2.0), product of:
            0.17949225 = queryWeight, product of:
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.04503309 = queryNorm
            0.26422277 = fieldWeight in 3691, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.046875 = fieldNorm(doc=3691)
        0.018304085 = product of:
          0.03660817 = sum of:
            0.03660817 = weight(_text_:22 in 3691) [ClassicSimilarity], result of:
              0.03660817 = score(doc=3691,freq=2.0), product of:
                0.15769821 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04503309 = queryNorm
                0.23214069 = fieldWeight in 3691, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3691)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    22. 7.2010 17:11:51
  6. Darstellung der CrissCross-Mappingrelationen im Rahmen des Semantic Web (2010) 0.04
    0.043631416 = product of:
      0.06544712 = sum of:
        0.047917414 = weight(_text_:f in 4285) [ClassicSimilarity], result of:
          0.047917414 = score(doc=4285,freq=6.0), product of:
            0.17949225 = queryWeight, product of:
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.04503309 = queryNorm
            0.26696092 = fieldWeight in 4285, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.017529711 = product of:
          0.035059422 = sum of:
            0.035059422 = weight(_text_:von in 4285) [ClassicSimilarity], result of:
              0.035059422 = score(doc=4285,freq=16.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.29180688 = fieldWeight in 4285, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4285)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Im Rahmen des CrissCross-Projekts wurde ein multilinguales, thesaurusbasiertes Recherchevokabular zu heterogen erschlossenen Dokumenten geschaffen. Dieses Recherchevokabular besteht unter anderem aus den Sachschlagwörtern der Schlagwortnormdatei (SWD) und den Notationen der Dewey-Dezimalklassifikation (DDC). Die Schlagwortnormdatei bietet einen normierten, terminologisch kontrollierten Wortschatz an. Sie enthält Schlagwörter aus allen Fachgebieten und Schlagwortkategorien, die durch die beteiligten Bibliotheken zur verbalen Inhaltserschließung genutzt und dabei täglich aktualisiert werden. Unter anderem wird die Schlagwortnormdatei auch zur verbalen Erschließung der Deutschen Nationalbibliografie verwendet. Während der verbalen Erschließung wird jedem Inhalt mindestens eine Schlagwortfolge zugewiesen. Schlagwortfolgen werden dazu benutzt, um die komplexen Themen eines Dokuments zu beschreiben. Zusätzlich wird für den Neuerscheinungsdienst der Deutschen Nationalbibliografie seit dem Jahrgang 2004 jeder Titel noch mindestens einer Sachgruppe zugewiesen. Die Strukturierung der Sachgruppen orientiert sich dabei weitestgehend an der zweiten Ebene der Dewey-Dezimalklassifikation. Die Dewey-Dezimalklassifikation ist eine international weit verbreitete Universalklassifikation. Von ihr existieren zahlreiche Übersetzungen, u. a. ins Deutsche. Seit Januar 2006 wird die DDC gemeinsam mit der SWD zur Inhaltserschließung in der Deutschen Nationalbibliografie verwendet. Bei der Inhaltserschließung mit Hilfe der DDC wird jedem Inhalt eine einzelne DDC-Notation zugewiesen. Komplexe Themen werden dabei durch die Synthese von zwei oder mehr Notationen zu einer neuen Notation dargestellt. Somit ist die DDC-Notation sowohl vergleichbar mit SWD-Schlagwörtern als auch mit ganzen Schlagwortfolgen.
    Um aus diesen beiden unabhangigen Systemen zur Inhaltserschlieung ein einheitliches, multilinguales Recherchevokabular zu bilden wurden im Rahmen des CrissCross Projekts unidirektionale Verbindungen von den einzelnen Sachschlagwortern der SWD zu den (teilweise) synthetisierten Notationen der DDC gescha en. Mittels dieser Verbindungen soll ein praziser und umfassender Zugang zu DDC-erschlossenen Dokumenten uber SWD-Schlagworter gewahrleistet werden. Da DDC-Notationen aber eher ihre Entsprechung in einer Kombination aus Schlagwortfolge und Sachgruppe haben, kann dieses Mapping in der Regel nur von SWD in Richtung DDC ausgewertet werden ohne dass ein groerer Informationsverlust auftritt. Deshalb haben die erstellten Mappings immer eine spezielle Verknupfungsrichtung, bei der die SWD als Ausgangsvokabular und die DDC als Zielvokabular dient. Das Dokument startet in Abschnitt 2 mit einem Uberblick uber die vier verschiedenen CrissCross-Mappingrelationen. Diese Mappingrelationen sollen im Rahmen einer Erweiterung fur die SKOS-Spezi kation4 semantisch reprasentiert werden. SKOS soll dabei sowohl benutzt werden, um die Konzepthierarchien der SWD und der DDC darzustellen als auch um die Mappings zwischen den beiden zu reprasentieren. Anhand von zwei konkreten Beispielen wird in Abschnitt 3 genauer erklart, welche Probleme insbesondere bei der Abbildung der CrissCross-Mappingrelationen mit Hilfe der SKOSSpezi kation auftreten. Insbesondere die Unidirektionalitat der ursprunglichen CrissCross-Mappings ist problematisch, da die in SKOS de nierten Mappingrelationen von einer Bidirektionalitat ausgehen. Das heit die Mappings mussen sowohl nutzbar sein fur die Suche in SWD-erschlossenen Bestanden als auch fur die Suche in DDC-erschlossenen Bestanden. Anhand der Beispiele in Abschnitt 3 wird deshalb auch eine initiale Losungsidee entwickelt, wie die Unidirektionalitat der CrissCross-Mappings aufgehoben werden kann.
    Basierend auf der Analyse und der initialen Losungsidee aus Abschnitt 3 werden anschlieend in Abschnitt 4 konkrete Losungsvorschlage unterbreitet, wie die Losungsidee im Rahmen einer SKOS-Erweiterung umgesetzt werden kann. Es werden mehrere Losungsvorschlage vorgestellt und miteinander verglichen. Ein wichtiger Teil der Losungsvorschlage ist die Repräsentation von koordinierten Konzepten. Der andere wichtige Teil ist die Herleitung der CrissCross-Mappingrelationen von den existierenden, bidirektionalen SKOS-Mappingrelationen. Diese beiden Erweiterungen der SKOSSpezifikation konnen zusammen dazu genutzt werden, die Mappings im Rahmen des Semantic Webs einem groeren Zielpublikum zur Verfugung zu stellen und nutzbar zu machen.
  7. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.04
    0.043000396 = product of:
      0.06450059 = sum of:
        0.0447028 = product of:
          0.1788112 = sum of:
            0.1788112 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.1788112 = score(doc=1000,freq=2.0), product of:
                0.38179103 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04503309 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.25 = coord(1/4)
        0.01979779 = product of:
          0.03959558 = sum of:
            0.03959558 = weight(_text_:von in 1000) [ClassicSimilarity], result of:
              0.03959558 = score(doc=1000,freq=10.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.32956228 = fieldWeight in 1000, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  8. Steeg, F.; Pohl, A.: ¬Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) (2021) 0.04
    0.036571287 = product of:
      0.054856926 = sum of:
        0.03952162 = weight(_text_:f in 367) [ClassicSimilarity], result of:
          0.03952162 = score(doc=367,freq=2.0), product of:
            0.17949225 = queryWeight, product of:
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.04503309 = queryNorm
            0.22018565 = fieldWeight in 367, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.0390625 = fieldNorm(doc=367)
        0.015335305 = product of:
          0.03067061 = sum of:
            0.03067061 = weight(_text_:von in 367) [ClassicSimilarity], result of:
              0.03067061 = score(doc=367,freq=6.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.25527787 = fieldWeight in 367, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=367)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Normdaten spielen speziell im Hinblick auf die Qualität der Inhaltserschließung bibliografischer und archivalischer Ressourcen eine wichtige Rolle. Ein konkretes Ziel der Inhaltserschließung ist z. B., dass alle Werke über Hermann Hesse einheitlich zu finden sind. Hier bieten Normdaten eine Lösung, indem z. B. bei der Erschließung einheitlich die GND-Nummer 11855042X für Hermann Hesse verwendet wird. Das Ergebnis ist eine höhere Qualität der Inhaltserschließung vor allem im Sinne von Einheitlichkeit und Eindeutigkeit und, daraus resultierend, eine bessere Auffindbarkeit. Werden solche Entitäten miteinander verknüpft, z. B. Hermann Hesse mit einem seiner Werke, entsteht ein Knowledge Graph, wie ihn etwa Google bei der Inhaltserschließung des Web verwendet (Singhal 2012). Die Entwicklung des Google Knowledge Graph und das hier vorgestellte Protokoll sind historisch miteinander verbunden: OpenRefine wurde ursprünglich als Google Refine entwickelt, und die Funktionalität zum Abgleich mit externen Datenquellen (Reconciliation) wurde ursprünglich zur Einbindung von Freebase entwickelt, einer der Datenquellen des Google Knowledge Graph. Freebase wurde später in Wikidata integriert. Schon Google Refine wurde zum Abgleich mit Normdaten verwendet, etwa den Library of Congress Subject Headings (Hooland et al. 2013).
  9. Garcia Marco, F.J.: Compatibility & heterogeneity in knowledge organization : some reflections around a case study in the field of consumer information (2008) 0.04
    0.036516685 = product of:
      0.054775026 = sum of:
        0.03952162 = weight(_text_:f in 1678) [ClassicSimilarity], result of:
          0.03952162 = score(doc=1678,freq=2.0), product of:
            0.17949225 = queryWeight, product of:
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.04503309 = queryNorm
            0.22018565 = fieldWeight in 1678, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1678)
        0.015253406 = product of:
          0.030506812 = sum of:
            0.030506812 = weight(_text_:22 in 1678) [ClassicSimilarity], result of:
              0.030506812 = score(doc=1678,freq=2.0), product of:
                0.15769821 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04503309 = queryNorm
                0.19345059 = fieldWeight in 1678, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1678)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    A case study in compatibility and heterogeneity of knowledge organization (KO) systems and processes is presented. It is based in the experience of the author in the field of information for consumer protection, a good example of the emerging transdisciplinary applied social sciences. The activities and knowledge organization problems and solutions of the Aragonian Consumers' Information and Documentation Centre are described and analyzed. Six assertions can be concluded: a) heterogeneity and compatibility are certainly an inherent problem in knowledge organization and also in practical domains; b) knowledge organization is also a social task, not only a lögical one; c) knowledge organization is affected by economical and efficiency considerations; d) knowledge organization is at the heart of Knowledge Management; e) identifying and maintaining the focus in interdisciplinary fields is a must; f the different knowledge organization tools of a institution must be considered as an integrated system, pursuing a unifying model.
    Date
    16. 3.2008 18:22:50
  10. Heel, F.: Abbildungen zwischen der Dewey-Dezimalklassifikation (DDC), der Regensburger Verbundklassifikation (RVK) und der Schlagwortnormdatei (SWD) für die Recherche in heterogen erschlossenen Datenbeständen : Möglichkeiten und Problembereiche (2007) 0.03
    0.03469523 = product of:
      0.052042842 = sum of:
        0.03952162 = weight(_text_:f in 4434) [ClassicSimilarity], result of:
          0.03952162 = score(doc=4434,freq=2.0), product of:
            0.17949225 = queryWeight, product of:
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.04503309 = queryNorm
            0.22018565 = fieldWeight in 4434, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4434)
        0.012521223 = product of:
          0.025042446 = sum of:
            0.025042446 = weight(_text_:von in 4434) [ClassicSimilarity], result of:
              0.025042446 = score(doc=4434,freq=4.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.2084335 = fieldWeight in 4434, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4434)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Eine einheitliche Sacherschließung in Deutschland wird durch die Vielzahl an vorhandenen und verwendeten Erschließungssystemen, Universal-, Fachklassifikationen und Fachthesauri erschwert. Den Benutzern von Bibliothekskatalogen oder Datenbanken fällt es daher schwer, themenspezifische Recherchen in heterogen erschlossenen Datenbeständen durchzuführen. In diesem Fall müssen die Nutzer derzeit nämlich den Umgang mit mehreren Erschließungsinstrumenten erlernen und verschiedene Suchanfragen anwenden, um das gewünschte Rechercheergebnis datenbankübergreifend zu erreichen. Um dem Benutzer einen einheitlichen Zugang zu heterogen erschlossenen Datenbeständen zu gewährleisten und gleichzeitig auch den Arbeitsaufwand für die Bibliothekare zu reduzieren, ist die Erstellung eines so genannten "Integrierten Retrievals" sinnvoll. Durch die Verknüpfung der unterschiedlichen Sacherschließungssysteme mit Hilfe von Konkordanzen wird es dem Nutzer ermöglicht, mit einem ihm vertrauten Vokabular eine sachliche Recherche in unterschiedlich erschlossenen Datenbeständen durchzuführen, ohne die spezifischen Besonderheiten der verschiedenen Erschließungsinstrumente kennen zu müssen. In dieser Arbeit sind exemplarisch drei Abbildungen für den Fachbereich der Bibliotheks- und Informationswissenschaften zwischen den für Deutschland wichtigsten Sacherschließungssystemen Dewey-Dezimalklassifikation (DDC), Regensburger Verbundklassifikation (RVK) und Schlagwortnormdatei (SWD) erstellt worden. Die Ergebnisse dieser Arbeit sollen einen ersten Überblick über spezifische Problemfelder und Möglichkeiten der hier erstellten Konkordanzen DDC - RVK, SWD - DDC und SWD - RVK liefern, um damit die Erstellung eines zukünftigen Recherchetools (und gegebenenfalls einer Klassifizierungshilfe) voranzutreiben. Die erstellten Konkordanzen liegen der Arbeit als Anhang bei.
  11. Hubrich, J.: CrissCross: SWD-DDC-Mapping (2008) 0.03
    0.02962627 = product of:
      0.08887881 = sum of:
        0.08887881 = sum of:
          0.040067915 = weight(_text_:von in 2175) [ClassicSimilarity], result of:
            0.040067915 = score(doc=2175,freq=4.0), product of:
              0.12014598 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.04503309 = queryNorm
              0.3334936 = fieldWeight in 2175, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0625 = fieldNorm(doc=2175)
          0.0488109 = weight(_text_:22 in 2175) [ClassicSimilarity], result of:
            0.0488109 = score(doc=2175,freq=2.0), product of:
              0.15769821 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04503309 = queryNorm
              0.30952093 = fieldWeight in 2175, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=2175)
      0.33333334 = coord(1/3)
    
    Abstract
    Mit zunehmender Nutzung netzwerkbasierter Systeme und steigender internationaler Zusammenarbeit werden Informationsräume geschaffen, in denen unterschiedlich indexierte Informationsressourcen aus verschiedenen Ländern über das Internet frei zugänglich gemacht werden. Bedingt durch die Unterschiedlichkeit der verwendeten Erschließungsinstrumente in Sprache und Struktur gestaltet sich die thematische Recherche in diesen Informationsräumen umständlich und langwierig. Im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten und von der Deutschen Nationalbibliothek (DNB) in Kooperation mit der Fachhochschule Köln durchgeführten Projekts CrissCross wird ein multilinguales, thesaurusbasiertes und benutzergerechtes Recherchevokabular erstellt, das einen wesentlich effizienteren Zugriff auf heterogen erschlossene Informationsressourcen ermöglicht.
    Date
    22. 8.2009 10:35:21
  12. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.03
    0.028549463 = product of:
      0.08564839 = sum of:
        0.08564839 = sum of:
          0.04293885 = weight(_text_:von in 4184) [ClassicSimilarity], result of:
            0.04293885 = score(doc=4184,freq=6.0), product of:
              0.12014598 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.04503309 = queryNorm
              0.357389 = fieldWeight in 4184, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4184)
          0.042709537 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
            0.042709537 = score(doc=4184,freq=2.0), product of:
              0.15769821 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04503309 = queryNorm
              0.2708308 = fieldWeight in 4184, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4184)
      0.33333334 = coord(1/3)
    
    Abstract
    Das Medium Internet ist im Wandel, und mit ihm ändern sich seine Publikations- und Rezeptionsbedingungen. Welche Chancen bieten die momentan parallel diskutierten Zukunftsentwürfe von Social Web und Semantic Web? Zur Beantwortung dieser Frage beschäftigt sich der Beitrag mit den Grundlagen beider Modelle unter den Aspekten Anwendungsbezug und Technologie, beleuchtet darüber hinaus jedoch auch deren Unzulänglichkeiten sowie den Mehrwert einer mediengerechten Kombination. Am Beispiel des grammatischen Online-Informationssystems grammis wird eine Strategie zur integrativen Nutzung der jeweiligen Stärken skizziert.
    Date
    22. 1.2011 10:38:28
    Imprint
    Köln : Herbert von Halem Verlag
  13. Lösse, M.; Svensson, L.: "Classification at a Crossroad" : Internationales UDC-Seminar 2009 in Den Haag, Niederlande (2010) 0.03
    0.02727424 = product of:
      0.081822716 = sum of:
        0.081822716 = sum of:
          0.030050935 = weight(_text_:von in 4379) [ClassicSimilarity], result of:
            0.030050935 = score(doc=4379,freq=4.0), product of:
              0.12014598 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.04503309 = queryNorm
              0.2501202 = fieldWeight in 4379, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.046875 = fieldNorm(doc=4379)
          0.05177178 = weight(_text_:22 in 4379) [ClassicSimilarity], result of:
            0.05177178 = score(doc=4379,freq=4.0), product of:
              0.15769821 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04503309 = queryNorm
              0.32829654 = fieldWeight in 4379, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=4379)
      0.33333334 = coord(1/3)
    
    Abstract
    Am 29. und 30. Oktober 2009 fand in der Königlichen Bibliothek in Den Haag das zweite internationale UDC-Seminar zum Thema "Classification at a Crossroad" statt. Organisiert wurde diese Konferenz - wie auch die erste Konferenz dieser Art im Jahr 2007 - vom UDC-Konsortium (UDCC). Im Mittelpunkt der diesjährigen Veranstaltung stand die Erschließung des World Wide Web unter besserer Nutzung von Klassifikationen (im Besonderen natürlich der UDC), einschließlich benutzerfreundlicher Repräsentationen von Informationen und Wissen. Standards, neue Technologien und Dienste, semantische Suche und der multilinguale Zugriff spielten ebenfalls eine Rolle. 135 Teilnehmer aus 35 Ländern waren dazu nach Den Haag gekommen. Das Programm umfasste mit 22 Vorträgen aus 14 verschiedenen Ländern eine breite Palette, wobei Großbritannien mit fünf Beiträgen am stärksten vertreten war. Die Tagesschwerpunkte wurden an beiden Konferenztagen durch die Eröffnungsvorträge gesetzt, die dann in insgesamt sechs thematischen Sitzungen weiter vertieft wurden.
    Date
    22. 1.2010 15:06:54
  14. Prongué, N.; Schneider, R.: Modelling library linked data in practice (2015) 0.03
    0.026347747 = product of:
      0.07904324 = sum of:
        0.07904324 = weight(_text_:f in 2985) [ClassicSimilarity], result of:
          0.07904324 = score(doc=2985,freq=2.0), product of:
            0.17949225 = queryWeight, product of:
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.04503309 = queryNorm
            0.4403713 = fieldWeight in 2985, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.078125 = fieldNorm(doc=2985)
      0.33333334 = coord(1/3)
    
    Source
    Re:inventing information science in the networked society: Proceedings of the 14th International Symposium on Information Science, Zadar/Croatia, 19th-21st May 2015. Eds.: F. Pehar, C. Schloegl u. C. Wolff
  15. Petras, V.: Heterogenitätsbehandlung und Terminology Mapping durch Crosskonkordanzen : eine Fallstudie (2010) 0.02
    0.022500098 = product of:
      0.06750029 = sum of:
        0.06750029 = sum of:
          0.024790756 = weight(_text_:von in 3730) [ClassicSimilarity], result of:
            0.024790756 = score(doc=3730,freq=2.0), product of:
              0.12014598 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.04503309 = queryNorm
              0.20633863 = fieldWeight in 3730, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3730)
          0.042709537 = weight(_text_:22 in 3730) [ClassicSimilarity], result of:
            0.042709537 = score(doc=3730,freq=2.0), product of:
              0.15769821 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04503309 = queryNorm
              0.2708308 = fieldWeight in 3730, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3730)
      0.33333334 = coord(1/3)
    
    Abstract
    Das BMBF hat bis Ende 2007 ein Projekt gefördert, dessen Aufgabe es war, die Erstellung und das Management von Crosskonkordanzen zwischen kontrollierten Vokabularen (Thesauri, Klassifikationen, Deskriptorenlisten) zu organisieren. In drei Jahren wurden 64 Crosskonkordanzen mit mehr als 500.000 Relationen zwischen kontrollierten Vokabularen aus den Sozialwissenschaften und anderen Fachgebieten umgesetzt. In der Schlussphase des Projekts wurde eine umfangreiche Evaluation durchgeführt, die die Effektivität der Crosskonkordanzen in unterschiedlichen Informationssystemen testen sollte. Der Artikel berichtet über die Anwendungsmöglichkeiten der Heterogenitätsbehandlung durch Crosskonkordanzen und die Ergebnisse der umfangreichen Analysen.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  16. Boteram, F.: Integrating semantic interoperability into FRSAD (2011) 0.02
    0.0223568 = product of:
      0.0670704 = sum of:
        0.0670704 = weight(_text_:f in 4791) [ClassicSimilarity], result of:
          0.0670704 = score(doc=4791,freq=4.0), product of:
            0.17949225 = queryWeight, product of:
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.04503309 = queryNorm
            0.37366742 = fieldWeight in 4791, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.046875 = fieldNorm(doc=4791)
      0.33333334 = coord(1/3)
    
    Source
    Concepts in context: Proceedings of the Cologne Conference on Interoperability and Semantics in Knowledge Organization July 19th - 20th, 2010. Eds.: F. Boteram, W. Gödert u. J. Hubrich
  17. Galinski, C.: Fragen der semantischen Interoperabilität brechen jetzt überall auf (o.J.) 0.02
    0.022219703 = product of:
      0.06665911 = sum of:
        0.06665911 = sum of:
          0.030050935 = weight(_text_:von in 4183) [ClassicSimilarity], result of:
            0.030050935 = score(doc=4183,freq=4.0), product of:
              0.12014598 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.04503309 = queryNorm
              0.2501202 = fieldWeight in 4183, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.046875 = fieldNorm(doc=4183)
          0.03660817 = weight(_text_:22 in 4183) [ClassicSimilarity], result of:
            0.03660817 = score(doc=4183,freq=2.0), product of:
              0.15769821 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04503309 = queryNorm
              0.23214069 = fieldWeight in 4183, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=4183)
      0.33333334 = coord(1/3)
    
    Content
    "Der Begriff der semantischen Interoperabilität ist aufgetreten mit dem Semantic Web, einer Konzeption von Tim Berners-Lee, der sagt, das zunehmend die Computer miteinander über hochstandardisierte Sprachen, die wenig mit Natürlichsprachlichkeit zu tun haben, kommunizieren werden. Was er nicht sieht, ist dass rein technische Interoperabilität nicht ausreicht, um die semantische Interoperabilität herzustellen." ... "Der Begriff der semantischen Interoperabilität ist aufgetreten mit dem Semantic Web, einer Konzeption von Tim Berners-Lee, der sagt, das zunehmend die Computer miteinander über hochstandardisierte Sprachen, die wenig mit Natürlichsprachlichkeit zu tun haben, kommunizieren werden. Was er nicht sieht, ist dass rein technische Interoperabilität nicht ausreicht, um die semantische Interoperabilität herzustellen."
    Date
    22. 1.2011 10:16:32
  18. Boteram, F.; Gödert, W.; Hubrich, J.: Semantic interoperability and retrieval paradigms (2010) 0.02
    0.021078197 = product of:
      0.06323459 = sum of:
        0.06323459 = weight(_text_:f in 3362) [ClassicSimilarity], result of:
          0.06323459 = score(doc=3362,freq=2.0), product of:
            0.17949225 = queryWeight, product of:
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.04503309 = queryNorm
            0.35229704 = fieldWeight in 3362, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.0625 = fieldNorm(doc=3362)
      0.33333334 = coord(1/3)
    
  19. Hubrich, J.: Intersystem relations : Characteristics and functionalities (2011) 0.02
    0.021078197 = product of:
      0.06323459 = sum of:
        0.06323459 = weight(_text_:f in 4780) [ClassicSimilarity], result of:
          0.06323459 = score(doc=4780,freq=2.0), product of:
            0.17949225 = queryWeight, product of:
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.04503309 = queryNorm
            0.35229704 = fieldWeight in 4780, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.0625 = fieldNorm(doc=4780)
      0.33333334 = coord(1/3)
    
    Source
    Concepts in context: Proceedings of the Cologne Conference on Interoperability and Semantics in Knowledge Organization July 19th - 20th, 2010. Eds.: F. Boteram, W. Gödert u. J. Hubrich
  20. Kempf, A.O.: ¬The need to interoperate : structural comparison of and methodological guidance on mapping discipline-specific subject authority data to wikidata (2018) 0.02
    0.021078197 = product of:
      0.06323459 = sum of:
        0.06323459 = weight(_text_:f in 4808) [ClassicSimilarity], result of:
          0.06323459 = score(doc=4808,freq=2.0), product of:
            0.17949225 = queryWeight, product of:
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.04503309 = queryNorm
            0.35229704 = fieldWeight in 4808, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.0625 = fieldNorm(doc=4808)
      0.33333334 = coord(1/3)
    
    Source
    Challenges and opportunities for knowledge organization in the digital age: proceedings of the Fifteenth International ISKO Conference, 9-11 July 2018, Porto, Portugal / organized by: International Society for Knowledge Organization (ISKO), ISKO Spain and Portugal Chapter, University of Porto - Faculty of Arts and Humanities, Research Centre in Communication, Information and Digital Culture (CIC.digital) - Porto. Eds.: F. Ribeiro u. M.E. Cerveira

Languages

  • d 71
  • e 66

Types

  • a 95
  • el 30
  • m 10
  • x 8
  • r 6
  • s 4
  • More… Less…