Search (54 results, page 1 of 3)

  • × theme_ss:"Semantische Interoperabilität"
  1. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.17
    0.1664331 = product of:
      0.3328662 = sum of:
        0.08321655 = product of:
          0.24964963 = sum of:
            0.24964963 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.24964963 = score(doc=306,freq=2.0), product of:
                0.3807447 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04490967 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.24964963 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.24964963 = score(doc=306,freq=2.0), product of:
            0.3807447 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.04490967 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.5 = coord(2/4)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  2. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.12
    0.11888078 = product of:
      0.23776156 = sum of:
        0.05944039 = product of:
          0.17832117 = sum of:
            0.17832117 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.17832117 = score(doc=1000,freq=2.0), product of:
                0.3807447 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04490967 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.17832117 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.17832117 = score(doc=1000,freq=2.0), product of:
            0.3807447 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.04490967 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.5 = coord(2/4)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  3. Stempfhuber, M.: Verbesserung der Zugänglichkeit heterogen erschlossener Informationen (2008) 0.03
    0.028608872 = product of:
      0.11443549 = sum of:
        0.11443549 = weight(_text_:kognitive in 1681) [ClassicSimilarity], result of:
          0.11443549 = score(doc=1681,freq=2.0), product of:
            0.3050091 = queryWeight, product of:
              6.7916126 = idf(docFreq=134, maxDocs=44218)
              0.04490967 = queryNorm
            0.37518713 = fieldWeight in 1681, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7916126 = idf(docFreq=134, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1681)
      0.25 = coord(1/4)
    
    Abstract
    Aufgrund der durch die Nutzer verstärkt geforderten Zusammenführung bislang verteilt vorliegender Informationssammlungen an einer Stelle tritt in der Praxis ein Phänomen zu Tage, das mit Blick auf die einzelne Informationssammlung in vielen Fällen bereits als gelöst betrachtet wurde: Heterogenität. Es zeigt sich, dass Standardisierungsansätze oft zu kurz greifen, da sie für die praktische Anwendung keine Modelle bieten, die trotz Standardisierungsbemühungen verbleibenden Unterschiede effizient und wirksam zu behandeln. Der Artikel stellt anhand zweier Beispiele aus dem Bereich der Fachinformation Lösungswege vor, wie in der Praxis Heterogenität zwischen Informationssammlungen auf semantischer Ebene behandelt werden kann. Sie tritt immer dann auf, wenn mehrere Quellen gleichzeitig durchsucht werden sollen, diese aber mit unterschiedlichen Indexierungsvokabularen erschlossen wurden. Am Beispiel statistischer Daten für die Marktforschung und wissenschaftlicher Literaturinformationssysteme werden Lösungen vorgestellt, mit dem Erschließungsvokabulare so aufeinander abgebildet werden können, dass sie Nutzer sowohl bei der Anfrageformulierung unterstützen können als auch bei der Suche eine für den Nutzer transparente und automatische Anfragetransformation ermöglichen. Ziel dieser Verfahren ist es, die kognitive Last beim Nutzer währender der Anfrageformulierung zu verringern und den Recall von Suchen in heterogen erschlossenen Informationssammlungen zu erhöhen.
  4. Semenova, E.; Stricker, M.: ¬Eine Ontologie der Wissenschaftsdisziplinen : Entwicklung eines Instrumentariums für die Wissenskommunikation (2007) 0.01
    0.010763792 = product of:
      0.04305517 = sum of:
        0.04305517 = product of:
          0.08611034 = sum of:
            0.08611034 = weight(_text_:entwicklung in 1889) [ClassicSimilarity], result of:
              0.08611034 = score(doc=1889,freq=6.0), product of:
                0.20103875 = queryWeight, product of:
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.04490967 = queryNorm
                0.42832708 = fieldWeight in 1889, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1889)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Interdisziplinarität als Kennzeichen des modernen Wissenschaftslebens setzt in Forschung und Lehre eine effiziente Wissenschaftskommunikation voraus, bei der sich die Partner über eine gemeinsame Sprache verständigen können. Klassifikationen und Thesauri übernehmen dabei eine wichtige Rolle. Zu beobachten ist, dass vorhandene Instrumente in ihrem Gefüge zu inflexibel sind, um die komplex ineinander verwobenen Felder der Wissenschaft in ihrer dynamischen Entwicklung adäquat abzubilden, zur (Selbst-)Verständigung über das Wesen und Struktur der Wissenschaftslandschaft sowie zum erfolgreichen Wissensaustausch beizutragen. Ontologien erschließen neue Wege zur Lösung dieser Aufgaben. In einigen Einzelwissenschaften und Teilgebieten ist diesbezüglich eine rege Tätigkeit zu beobachten, es fehlt allerdings noch ein fachübergreifendes Instrumentarium. Im Vortrag wird das von der DFG geförderte Projekt "Entwicklung einer Ontologie der Wissenschaftsdisziplinen" vorgestellt. Es gilt, die oben beschriebene Lücke zu schließen und eine umfassende Ontologie für Erschließung, Recherche und Datenaustausch bei der Wissenschaftskommunikation zu erstellen. Diese Ontologie soll dazu beitragen, eine effiziente Wissenskommunikation, besonders bei interdisziplinären Projekten, zu unterstützen, verfügbare Ressourcen auffindbar zu machen und mögliche Knotenstellen künftiger Kooperationen zu verdeutlichen. Ausgehend von der Kritik an vorhandenen Instrumenten wird derzeit ein Begriffsmodell für die Beschreibung von Wissenschaftsdisziplinen, ihrer zentralen Facetten sowie ihrer interdisziplinären Beziehungen untereinander entwickelt. Das Modell, inspiriert vom Topic Maps Paradigma, basiert auf einer überschaubaren Menge zentraler Konzepte sowie prinzipiell inverser Beziehungen. Eine entsprechende Ontologie wird in unterschiedlichen (technischen) Beschreibungsformaten formuliert werden können. Dies bildet den Grundstein für den Fokus des Projekts, flexible, verteilte, benutzer- wie pflegefreundliche technische Umsetzungen zu entwickeln und mit Kooperationspartnern zu implementieren.
  5. Hafner, R.; Schelling, B.: Automatisierung der Sacherschließung mit Semantic Web Technologie (2015) 0.01
    0.010648121 = product of:
      0.042592485 = sum of:
        0.042592485 = product of:
          0.08518497 = sum of:
            0.08518497 = weight(_text_:22 in 8365) [ClassicSimilarity], result of:
              0.08518497 = score(doc=8365,freq=2.0), product of:
                0.15726602 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04490967 = queryNorm
                0.5416616 = fieldWeight in 8365, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=8365)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 6.2015 16:08:38
  6. Krause, J.: Konkretes zur These, die Standardisierung von der Heterogenität her zu denken (2004) 0.01
    0.01054632 = product of:
      0.04218528 = sum of:
        0.04218528 = product of:
          0.08437056 = sum of:
            0.08437056 = weight(_text_:entwicklung in 2259) [ClassicSimilarity], result of:
              0.08437056 = score(doc=2259,freq=4.0), product of:
                0.20103875 = queryWeight, product of:
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.04490967 = queryNorm
                0.41967314 = fieldWeight in 2259, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2259)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Die Entwicklungsperspektive für den Bereich wissenschaftlicher Information sind innovative, integrierende Fachportale, die in einem Wissenschaftsportal zusammengefasst werden und die allgemeinen, fachübergreifenden Zugänge der Bibliotheken mit spezifischen Fachzugängen verbinden. In dieser Struktur kann der Kunde mit qualitativ hochwertigen Such- und Selektionsinstrumenten auf wissenschaftsrelevante Informationen (Literaturnachweise, Experten und Forschungsreferenzen, Volltexte, Materialien, Daten, Fakten, Linklisten etc.) zugreifen. Sowohl theoriegeleitete Analysen und Bestandsaufnahmen der wissenschaftlichen Informationslandschaft als auch die Ergebnisse der neueren Benutzerumfragen zum Informationsverhalten und zum -bedarf von Wissenschaftlern weisen auf die Wünschbarkeit solch einer Entwicklung hin. Heute ist ein weitgehender Konsens über das anzustrebende Ziel erreicht. Die Herausforderung für die Weiterentwicklung ist somit nicht die Akzeptanz der angestrebten Zielvorstellung, sondern die Frage, wie sie zu erreichen ist. Die im Folgenden diskutierte Entwicklung von bilateralen Transferkomponenten zur Behandlung semantischer Heterogenität zwischen Dokumentensammlungen mit unterschiedlicher Inhaltserschließung zeigt für einen wesentlichen Teil der Frage nach dem »Wie« der Zielerreichung eine tragfähige Lösungsstrategie auf. Sie wird theoretisch und praktisch konkretisiert, der Entwicklungsstand beschrieben und die konkreten Einsatzmöglichkeiten werden aufgezeigt.
  7. Balakrishnan, U.: DFG-Projekt: Coli-conc : das Mapping Tool "Cocoda" (2016) 0.01
    0.009943166 = product of:
      0.039772663 = sum of:
        0.039772663 = product of:
          0.07954533 = sum of:
            0.07954533 = weight(_text_:entwicklung in 3036) [ClassicSimilarity], result of:
              0.07954533 = score(doc=3036,freq=2.0), product of:
                0.20103875 = queryWeight, product of:
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.04490967 = queryNorm
                0.3956716 = fieldWeight in 3036, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3036)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Der Beitrag beschreibt das Projekt Coli-conc, das von der Verbundzentrale des Gemeinsamen Bibliotheksverbunds (GBV) betreut wird. Ziel ist die Entwicklung einer Infrastruktur für den Austausch, die Erstellung und die Wartung von Konkordanzen zwischen bibliothekarischen Wissensorganisationssystemen.
  8. Gabler, S.: Thesauri - a Toolbox for Information Retrieval (2023) 0.01
    0.009943166 = product of:
      0.039772663 = sum of:
        0.039772663 = product of:
          0.07954533 = sum of:
            0.07954533 = weight(_text_:entwicklung in 114) [ClassicSimilarity], result of:
              0.07954533 = score(doc=114,freq=2.0), product of:
                0.20103875 = queryWeight, product of:
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.04490967 = queryNorm
                0.3956716 = fieldWeight in 114, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.0625 = fieldNorm(doc=114)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Thesauri sind etablierte Instrumente der bibliothekarischen Sacherschließung. Durch die jüngste technologische Entwicklung und das Aufkommen künstlicher Intelligenz haben sie an Bedeutung gewonnen, da sie in der Lage sind, erklärbare Ergebnisse für die computergestützte Erschließungs- und Konkordanzarbeit mit anderen Datensätzen und Modellen sowie für die Datenvalidierung zu liefern. Ausgehend von bestehenden eigenen Recherchen für eine Masterarbeit wird der Aspekt der Qualitätssicherung in Bibliothekskatalogen anhand ausgewählter Beispiele vertieft.
  9. Dini, L.: CACAO : multilingual access to bibliographic records (2007) 0.01
    0.00912696 = product of:
      0.03650784 = sum of:
        0.03650784 = product of:
          0.07301568 = sum of:
            0.07301568 = weight(_text_:22 in 126) [ClassicSimilarity], result of:
              0.07301568 = score(doc=126,freq=2.0), product of:
                0.15726602 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04490967 = queryNorm
                0.46428138 = fieldWeight in 126, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=126)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Content
    Vortrag anlässlich des Workshops: "Extending the multilingual capacity of The European Library in the EDL project Stockholm, Swedish National Library, 22-23 November 2007".
  10. Boteram, F.; Hubrich, J.: Towards a comprehensive international Knowledge Organization System (2008) 0.01
    0.00912696 = product of:
      0.03650784 = sum of:
        0.03650784 = product of:
          0.07301568 = sum of:
            0.07301568 = weight(_text_:22 in 4786) [ClassicSimilarity], result of:
              0.07301568 = score(doc=4786,freq=2.0), product of:
                0.15726602 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04490967 = queryNorm
                0.46428138 = fieldWeight in 4786, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4786)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 9.2008 19:30:41
  11. Nentwig, L.: Semantische Interoperabilität : Bd.3: Qualitätssicherung von Spezifikationen (2010) 0.01
    0.008611035 = product of:
      0.03444414 = sum of:
        0.03444414 = product of:
          0.06888828 = sum of:
            0.06888828 = weight(_text_:entwicklung in 4849) [ClassicSimilarity], result of:
              0.06888828 = score(doc=4849,freq=6.0), product of:
                0.20103875 = queryWeight, product of:
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.04490967 = queryNorm
                0.34266168 = fieldWeight in 4849, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4849)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Ziel des »Semantic Interoperability Engineering« (SIE) ist es, Grundlagen für einen Organisationsgrenzen überschreitenden Datenaustausch zu schaffen, in dem Fehlinterpretationen und inhaltliche Missverständnisse von Begriffen, Datenstrukturen, Schreibkonventionen etc. ausgeschlossen sind und semantische Interoperabilität herrscht. Im Zentrum des vorliegenden Bands 3 »Qualitätssicherung von Spezifikationen« stehen die sogenannten Interoperabilitätsspezifikationen. Mit ihnen werden diejenigen Eigenschaften erfasst, die IT-Systeme aufweisen müssen, um an einem interoperablen Datenaustausch teilzunehmen. Nur Spezifikationen mit einer hohen Qualität gewährleisten eine durchgängig eindeutige und semantische Interoperabilität. Neben der systematischen Entwicklung der Interoperabilitätsspezifikationen selbst nimmt daher der begleitende Qualitätsmanagementprozess einen wichtigen Teil dieses White Papers ein.
    Das SIE-Vorgehen ist für viele Umfelder geeignet: Sowohl Unternehmen mit internen Spezifikationsaktivitäten als auch Organisationen, die Standards entwickeln, können wesentlich vom SIE profitieren. Ein zentraler Aspekt ist, dass das beschriebene Vorgehen auf eine gemeinschaftliche Entwicklung von Spezifikationen durch eine offene1 und gleichberechtigte Community ausgerichtet ist. »Community« bezeichnet die Gesamtheit aller an der Entwicklung einer Spezifikation beteiligten Personen und Organisationen. Die einzelnen beteiligten Personen und Organisationen werden wiederum durch verschiedene Rollen beschrieben. Durch ihre jeweiligen Sichten ergänzen sich ihre Beiträge und tragen so zur Steigerung der Qualität bei. Durch die aktive und kontinuierliche Einbindung der Community sowie den integrierten Qualitätsmanagementprozess werden die Risiken eines Scheiterns reduziert und gleichzeitig die Chancen auf eine qualitativ hochwertige, akzeptierte und nutzbare Spezifikation deutlich gesteigert. Dem SIE-Vorgehen liegen drei Stützpfeiler als Richtlinie zugrunde, welche von der Community unbedingt eingehalten und verinnerlicht werden sollten: Kooperation - Vertrauen - Offenheit.
  12. Landry, P.: MACS: multilingual access to subject and link management : Extending the Multilingual Capacity of TEL in the EDL Project (2007) 0.01
    0.007605801 = product of:
      0.030423203 = sum of:
        0.030423203 = product of:
          0.060846407 = sum of:
            0.060846407 = weight(_text_:22 in 1287) [ClassicSimilarity], result of:
              0.060846407 = score(doc=1287,freq=2.0), product of:
                0.15726602 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04490967 = queryNorm
                0.38690117 = fieldWeight in 1287, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1287)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Content
    Vortrag anlässlich des Workshops: "Extending the multilingual capacity of The European Library in the EDL project Stockholm, Swedish National Library, 22-23 November 2007".
  13. Celli, F. et al.: Enabling multilingual search through controlled vocabularies : the AGRIS approach (2016) 0.01
    0.007605801 = product of:
      0.030423203 = sum of:
        0.030423203 = product of:
          0.060846407 = sum of:
            0.060846407 = weight(_text_:22 in 3278) [ClassicSimilarity], result of:
              0.060846407 = score(doc=3278,freq=2.0), product of:
                0.15726602 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04490967 = queryNorm
                0.38690117 = fieldWeight in 3278, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3278)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Metadata and semantics research: 10th International Conference, MTSR 2016, Göttingen, Germany, November 22-25, 2016, Proceedings. Eds.: E. Garoufallou
  14. Staub, P.: Semantische Interoperabilität : Voraussetzung für Geodaten-Infrastrukturen (2009) 0.01
    0.007457374 = product of:
      0.029829497 = sum of:
        0.029829497 = product of:
          0.059658993 = sum of:
            0.059658993 = weight(_text_:entwicklung in 4181) [ClassicSimilarity], result of:
              0.059658993 = score(doc=4181,freq=2.0), product of:
                0.20103875 = queryWeight, product of:
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.04490967 = queryNorm
                0.2967537 = fieldWeight in 4181, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4181)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Die gemeinsame, integrierte Nutzung von verteilten, heterogenen Geodaten stellt eine grosse Herausforderung dar. Ein wichtiger Ansatz zur Datenintegration ist die Entwicklung von Geodaten-Infrastrukturen (GDI). Sie stellen auf regionaler, nationaler oder internationaler Ebene einen technisch-organisatorischen Rahmen zur interoperablen Nutzung von verteilten Geodaten bereit. GDI stellen an die Interoperabilität grosse Ansprüche, die über die «klassische» Interoperabilität mittels OGC-Webdiensten hinausgehen. Eines der Hauptprobleme ist dabei die semantische Heterogenität bestehender Datenmodelle. Um diese in einer GDI integriert nutzen zu können, müssen Modelltransformationen definiert und ausgeführt werden können. Ein aktueller Ansatz aus der Forschung zeigt dafür eine Lösung auf, indem OGC-Webdienste mit einem neuen Konzept für semantische Modelltransformationen kombiniert werden.
  15. Borst, T.: Repositorien auf ihrem Weg in das Semantic Web : semantisch hergeleitete Interoperabilität als Zielstellung für künftige Repository-Entwicklungen (2014) 0.01
    0.007457374 = product of:
      0.029829497 = sum of:
        0.029829497 = product of:
          0.059658993 = sum of:
            0.059658993 = weight(_text_:entwicklung in 1555) [ClassicSimilarity], result of:
              0.059658993 = score(doc=1555,freq=2.0), product of:
                0.20103875 = queryWeight, product of:
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.04490967 = queryNorm
                0.2967537 = fieldWeight in 1555, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1555)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Repositorien zählen mittlerweile zu den Standardanwendungen und -infrastrukturkomponenten im Bereich digitaler Bibliotheken und zielen mit ihrer durchgängigen Unterstützung des OAI-Protokolls seit jeher auf Interoperabilität, Austausch und Wiederverwendung ihrer Daten. In dem vorliegenden Artikel wird erläutert, warum das Protokoll in seiner bisherigen Form hierfür allerdings keine ausreichende Grundlage bietet. Demgegenüber bietet der Einsatz von Prinzipien und Techniken des Semantic Web die Aussicht, die Daten von Repositorien auf der Einzelebene nicht nur selbst besser wiederverwendbar und interoperabel mit anderen Repositorien zu publizieren, sondern durch die konsequente Verwendung von - teilweise bereits als Linked Open Data (LOD) vorliegenden - externen Daten in eine LOD-basierte Dateninfrastruktur zu integrieren. Vor diesem Hintergrund wird beschrieben, wie im Rahmen einer experimentellen Entwicklung die Metadaten eines großen Repositoriums für wirtschaftswissenschaftliche Literatur in ein Linked Dataset konvertiert wurden, und welche Folgearbeiten sich hieraus ergeben.
  16. Lösse, M.; Svensson, L.: "Classification at a Crossroad" : Internationales UDC-Seminar 2009 in Den Haag, Niederlande (2010) 0.01
    0.006453736 = product of:
      0.025814945 = sum of:
        0.025814945 = product of:
          0.05162989 = sum of:
            0.05162989 = weight(_text_:22 in 4379) [ClassicSimilarity], result of:
              0.05162989 = score(doc=4379,freq=4.0), product of:
                0.15726602 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04490967 = queryNorm
                0.32829654 = fieldWeight in 4379, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Am 29. und 30. Oktober 2009 fand in der Königlichen Bibliothek in Den Haag das zweite internationale UDC-Seminar zum Thema "Classification at a Crossroad" statt. Organisiert wurde diese Konferenz - wie auch die erste Konferenz dieser Art im Jahr 2007 - vom UDC-Konsortium (UDCC). Im Mittelpunkt der diesjährigen Veranstaltung stand die Erschließung des World Wide Web unter besserer Nutzung von Klassifikationen (im Besonderen natürlich der UDC), einschließlich benutzerfreundlicher Repräsentationen von Informationen und Wissen. Standards, neue Technologien und Dienste, semantische Suche und der multilinguale Zugriff spielten ebenfalls eine Rolle. 135 Teilnehmer aus 35 Ländern waren dazu nach Den Haag gekommen. Das Programm umfasste mit 22 Vorträgen aus 14 verschiedenen Ländern eine breite Palette, wobei Großbritannien mit fünf Beiträgen am stärksten vertreten war. Die Tagesschwerpunkte wurden an beiden Konferenztagen durch die Eröffnungsvorträge gesetzt, die dann in insgesamt sechs thematischen Sitzungen weiter vertieft wurden.
    Date
    22. 1.2010 15:06:54
  17. Mitchell, J.S.; Zeng, M.L.; Zumer, M.: Modeling classification systems in multicultural and multilingual contexts (2012) 0.01
    0.006453736 = product of:
      0.025814945 = sum of:
        0.025814945 = product of:
          0.05162989 = sum of:
            0.05162989 = weight(_text_:22 in 1967) [ClassicSimilarity], result of:
              0.05162989 = score(doc=1967,freq=4.0), product of:
                0.15726602 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04490967 = queryNorm
                0.32829654 = fieldWeight in 1967, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1967)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    This paper reports on the second part of an initiative of the authors on researching classification systems with the conceptual model defined by the Functional Requirements for Subject Authority Data (FRSAD) final report. In an earlier study, the authors explored whether the FRSAD conceptual model could be extended beyond subject authority data to model classification data. The focus of the current study is to determine if classification data modeled using FRSAD can be used to solve real-world discovery problems in multicultural and multilingual contexts. The paper discusses the relationships between entities (same type or different types) in the context of classification systems that involve multiple translations and /or multicultural implementations. Results of two case studies are presented in detail: (a) two instances of the DDC (DDC 22 in English, and the Swedish-English mixed translation of DDC 22), and (b) Chinese Library Classification. The use cases of conceptual models in practice are also discussed.
  18. Hubrich, J.: Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization : Internationale Fachtagung und Abschlussworkshop des DFGProjekts CrissCross in Köln (2010) 0.01
    0.0062144785 = product of:
      0.024857914 = sum of:
        0.024857914 = product of:
          0.04971583 = sum of:
            0.04971583 = weight(_text_:entwicklung in 4315) [ClassicSimilarity], result of:
              0.04971583 = score(doc=4315,freq=8.0), product of:
                0.20103875 = queryWeight, product of:
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.04490967 = queryNorm
                0.24729475 = fieldWeight in 4315, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4315)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Content
    "Am 19. und 20. Juli 2010 fand in der Fachhochschule Köln die internationale Tagung "Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization" statt. Ausgerichtet wurde sie mit finanzieller Unterstützung der Deutschen Forschungsgemeinschaft (DFG) vom Institut für Informationsmanagement (IIM) der Fachhochschule Köln in Kooperation mit der Deutschen Nationalbibliothek (DNB). Im Mittelpunkt der Veranstaltung standen Fragen der Modellierung von Interoperabilität und semantischen Informationen in der Wissensorganisation, die einen unmittelbaren thematischen Zusammenhang mit den am Institut für Informationsmanagement angesiedelten Projekten CrissCross und RESEDA aufweisen. Das Programm umfasste 11 Beiträge aus 5 verschiedenen Ländern sowohl zu praktischen als auch zu theoretischen Aspekten der Wissensorganisation unter besonderer Berücksichtigung moderner Technologien, aktueller Entwicklungen und zukunftsbezogener Perspektiven. Der erste Tag war als Abschlussworkshop für das CrissCross-Projekt konzipiert und bot in zwei Sessions neben einem umfassenden Überblick über das Projekt auch weitere Best-Practice-Beispiele für die Gestaltung von Interoperabilität vor allem im Rahmen von Ansätzen der Semantic-Web- und Linked-Data-Initiativen. Eine vertiefte Auseinandersetzung mit sich in der Entwicklung befindlichen oder auch erst kürzlich fertiggestellten Standards und Modellen der Interoperabilität und Wissensorganisation erfolgte am zweiten Tag, der mit einer Keynote von Dagobert Soergel von der University at Buffalo (USA) eröffnet wurde und in zwei weitere Sessions unterteilt war. Zu der Veranstaltung konnten Prof. Dr. Klaus-Dirk Schmitz, Leiter des Kölner Instituts für Informationsmanagement, sowie Ulrike Junger, Leiterin der Abteilung Sacherschließung der Deutschen Nationalbibliothek in Stellvertretung der Generaldirektorin, Dr. Elisabeth Niggemann, ca. 120 Teilnehmer aus insgesamt 16 Ländern begrüßen. Prof. Klaus-Dirk Schmitz stellte in seiner Eröffnungsrede die Fachhochschule Köln und insbesondere das Institut für Informationsmanagement vor und erörterte das Konferenzthema mit Beispielen aus Forschungsgebieten der Terminologiearbeit. Ulrike Junger ging auf die gelungene Zusammenarbeit zwischen der Fachhochschule Köln und der Deutschen Nationalbibliothek ein, die mit dem DFG-Projekt DDC Deutsch begonnen und in dem DFG-Projekt CrissCross eine Fortsetzung gefunden hatte. Eine Einführung in die spezifischen Konferenzinhalte gab schließlich Prof. Winfried Gödert, Leiter des RESEDA-Projekts sowie - seitens der Fachhochschule Köln - des CrissCross-Projekts.
    Der zweite Tag begann mit einer Keynote von Dagobert Soergel von der University at Buffalo mit dem Thema Conceptual Foundations for Semantic Mapping and Semantic Search. Im Zentrum stand die Idee eines Hubs, einer semantischen Verbindungsstruktur in Form einer Kernklassifikation, die elementare Begriffe sowie semantische Relationen enthält und über die ein Mapping zwischen unterschiedlichen Wissensorganisationssystemen erfolgen soll. Die Methode wurde durch zahlreiche Beispiele veranschaulicht. Die erste Session des zweiten Tages war dem Thema Interoperabilität und Standardisierung gewidmet. Stella Dextre Clarke aus Großbritannien berichtete - ausgehend von den in zentralen Mappingprojekten erstellten Relationen zwischen Begriffen unterschiedlicher Dokumentationssprachen - über Herausforderungen und Fragestellungen bei der Entwicklung des neuen ISO-Standards 25964-2, der als Leitfaden zur Herstellung von Interoperabilität zwischen Thesauri und anderen Vokabularien fungieren soll. In dem Folgevortrag von Philipp Mayr vom GESIS Leipniz-Institut für Sozialwissenschaften wurd mit KoMoHe (Kompetenzzentrum Modellbildung und Heterogenitätsbehandlung) ein bereits abgeschlossenes Projekt vorgestellt, dessen Mehrwert für das Retrieval in heterogen erschlossenen Informationsräumen mittels eines Information-Retrieval-Tests bestätigt werden konnte. Unpräzise Trefferresultate motivierten indes zu dem Nachfolgeprojekt IRM (Value-Added Services for Information Retrieval), in dem Möglichkeiten von Suchexpansion und Re-Ranking untersucht werden.
    Ein sehr aktuelles Thema mit hohem Potential für zukünftige Entwicklung wurde mit der letzten Session adressiert: die Functional Requirements for Bibliographic Records (FRBR), die Functional Requirements for Authority Data (FRAD) sowie die Functional Requirements for Subject Authority Data (FRSAD), wobei der Schwerpunkt auf den letzteren lag. Gordon Dunsire von der University of Strathclyde in Glasgow beschrieb aktuelle Ansätze für eine adäquate RDF-Repräsentation von FRBR, FRAD und FRSAD und diskutierte die dabei auftretenden Fragen der Interoperabilität, die mitunter dadurch bedingt sind, dass die RDF-Versionen von FRBR, FRAD und FRSAD mit eigenständigen Namensräumen erstellt werden. Auf FRSAD im Speziellen ging Maja Zumer von der Universität von Ljubljana ein. Sie berichtete von den Schwierigkeiten, die mit der Entwicklung des Modells einhergingen und stellte auch einige der zu dem Draft eingegangenen Kommentare vor. Die Zukunftsaufgabe liegt für sie in der Harmonisierung der Modelle der FRBR-Familie. Aus der Perspektive der Projekte CrissCross und RESEDA ist Interoperabilität indes in FRSAD bisher nur unzureichend berücksichtigt. Eine Erweiterung wird für notwendig gehalten. Zentrale Überlegungen hierzu wurden von Felix Boteram von der Fachhochschule Köln vorgestellt. Die Folien sowie zahlreiche mp3-Aufnahmen der Vorträge können auf der Konferenzhomepage unter http://linux2.fbi.fh-koeln.de/cisko2010/ programm.html eingesehen werden. Die Herausgabe eines Sammelbandes mit Artikeln zu den in der Konferenz behandelten Themen ist in Planung."
  19. Keil, S.: Terminologie Mapping : Grundlagen und aktuelle Normungsvorhaben (2012) 0.01
    0.0062144785 = product of:
      0.024857914 = sum of:
        0.024857914 = product of:
          0.04971583 = sum of:
            0.04971583 = weight(_text_:entwicklung in 29) [ClassicSimilarity], result of:
              0.04971583 = score(doc=29,freq=2.0), product of:
                0.20103875 = queryWeight, product of:
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.04490967 = queryNorm
                0.24729475 = fieldWeight in 29, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=29)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Der Artikel basiert auf einer Bachelorarbeit mit dem Titel "Terminologie Mapping: Grundlagen und aktuelle Standardisierung", die im Sommersemester 2011 an der Hochschule Darmstadt geschrieben wurde. Er befasst sich mit den Grundlagen des Terminologie Mappings, also der Erstellung von Querverbindungen zwischen verschiedenen kontrollierten Vokabularen und der Standardisierung der Mapping-Verfahren. Die Grundlagen sollen anhand der Erkenntnisse aus Doerrs zentraler Publikation aus dem Jahre 2001 (Doerr 2001) dargestellt werden. Darauf folgt ein Blick in den Bereich der Standardisierung, der gerade in den letzten Jahren eine starke Entwicklung durchlaufen hat, was dazu führt, dass immer mehr aktualisierte nationale und internationale Standards herausgegeben werden, die Terminologie Mapping in verschiedener Weise als Mittel zur Erlangung von Interoperabilität empfehlen. Ebenso soll das "Simple Knowledge Organization System" (SKOS), ein Standard des W3Cs zur Repräsentation von kontrollierten Vokabularen, thematisiert werden. Dieser hat das Ziel, kontrollierte Vokabulare im Semantic Web darzustellen. Obwohl sich bei der Modellierung von klassischen kontrollierten Vokabularen (überwiegend Thesauri) in SKOS noch einige Probleme abzeichnen, stellt dieser Standard einen wichtigen Schritt für kontrollierte Vokabulare aus der Fachinformation in das Semantic Web dar. Abschließend soll ein Fazit zur Standardisierung gezogen werden sowie ein Ausblick auf die Möglichkeiten der Einbindung von Terminologie Mapping im Semantic Web via SKOS geben werden.
  20. Steeg, F.; Pohl, A.: ¬Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) (2021) 0.01
    0.0062144785 = product of:
      0.024857914 = sum of:
        0.024857914 = product of:
          0.04971583 = sum of:
            0.04971583 = weight(_text_:entwicklung in 367) [ClassicSimilarity], result of:
              0.04971583 = score(doc=367,freq=2.0), product of:
                0.20103875 = queryWeight, product of:
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.04490967 = queryNorm
                0.24729475 = fieldWeight in 367, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4765134 = idf(docFreq=1366, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=367)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Normdaten spielen speziell im Hinblick auf die Qualität der Inhaltserschließung bibliografischer und archivalischer Ressourcen eine wichtige Rolle. Ein konkretes Ziel der Inhaltserschließung ist z. B., dass alle Werke über Hermann Hesse einheitlich zu finden sind. Hier bieten Normdaten eine Lösung, indem z. B. bei der Erschließung einheitlich die GND-Nummer 11855042X für Hermann Hesse verwendet wird. Das Ergebnis ist eine höhere Qualität der Inhaltserschließung vor allem im Sinne von Einheitlichkeit und Eindeutigkeit und, daraus resultierend, eine bessere Auffindbarkeit. Werden solche Entitäten miteinander verknüpft, z. B. Hermann Hesse mit einem seiner Werke, entsteht ein Knowledge Graph, wie ihn etwa Google bei der Inhaltserschließung des Web verwendet (Singhal 2012). Die Entwicklung des Google Knowledge Graph und das hier vorgestellte Protokoll sind historisch miteinander verbunden: OpenRefine wurde ursprünglich als Google Refine entwickelt, und die Funktionalität zum Abgleich mit externen Datenquellen (Reconciliation) wurde ursprünglich zur Einbindung von Freebase entwickelt, einer der Datenquellen des Google Knowledge Graph. Freebase wurde später in Wikidata integriert. Schon Google Refine wurde zum Abgleich mit Normdaten verwendet, etwa den Library of Congress Subject Headings (Hooland et al. 2013).

Languages

  • e 32
  • d 22

Types

  • a 39
  • el 13
  • m 3
  • s 2
  • x 2
  • r 1
  • More… Less…