Search (150 results, page 1 of 8)

  • × theme_ss:"Semantische Interoperabilität"
  1. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.22
    0.22037525 = product of:
      0.49584433 = sum of:
        0.03501003 = product of:
          0.10503008 = sum of:
            0.10503008 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.10503008 = score(doc=1000,freq=2.0), product of:
                0.22425632 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.026451524 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.10503008 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.10503008 = score(doc=1000,freq=2.0), product of:
            0.22425632 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026451524 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.012432823 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.012432823 = score(doc=1000,freq=6.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.10503008 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.10503008 = score(doc=1000,freq=2.0), product of:
            0.22425632 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026451524 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.10503008 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.10503008 = score(doc=1000,freq=2.0), product of:
            0.22425632 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026451524 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.012432823 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.012432823 = score(doc=1000,freq=6.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.10503008 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.10503008 = score(doc=1000,freq=2.0), product of:
            0.22425632 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026451524 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.015848318 = weight(_text_:des in 1000) [ClassicSimilarity], result of:
          0.015848318 = score(doc=1000,freq=4.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.21635216 = fieldWeight in 1000, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.44444445 = coord(8/18)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  2. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.18
    0.17699516 = product of:
      0.63718253 = sum of:
        0.049014043 = product of:
          0.14704213 = sum of:
            0.14704213 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.14704213 = score(doc=306,freq=2.0), product of:
                0.22425632 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.026451524 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.14704213 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.14704213 = score(doc=306,freq=2.0), product of:
            0.22425632 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026451524 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.14704213 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.14704213 = score(doc=306,freq=2.0), product of:
            0.22425632 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026451524 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.14704213 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.14704213 = score(doc=306,freq=2.0), product of:
            0.22425632 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026451524 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.14704213 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.14704213 = score(doc=306,freq=2.0), product of:
            0.22425632 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026451524 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.2777778 = coord(5/18)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  3. Gödert, W.; Hubrich, J.; Boteram, F.: Thematische Recherche und Interoperabilität : Wege zur Optimierung des Zugriffs auf heterogen erschlossene Dokumente (2009) 0.04
    0.04096662 = product of:
      0.14747982 = sum of:
        0.020302713 = weight(_text_:und in 193) [ClassicSimilarity], result of:
          0.020302713 = score(doc=193,freq=16.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.34630734 = fieldWeight in 193, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.08206653 = product of:
          0.16413306 = sum of:
            0.16413306 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.16413306 = score(doc=193,freq=2.0), product of:
                0.28034052 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.026451524 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.020302713 = weight(_text_:und in 193) [ClassicSimilarity], result of:
          0.020302713 = score(doc=193,freq=16.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.34630734 = fieldWeight in 193, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.015848318 = weight(_text_:des in 193) [ClassicSimilarity], result of:
          0.015848318 = score(doc=193,freq=4.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.21635216 = fieldWeight in 193, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.008959541 = product of:
          0.017919082 = sum of:
            0.017919082 = weight(_text_:22 in 193) [ClassicSimilarity], result of:
              0.017919082 = score(doc=193,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.19345059 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
      0.2777778 = coord(5/18)
    
    Abstract
    Die Verwendung von Erschließungsinstrumenten zur Beschreibung von Informationsressourcen kann Effizienz und Effektivität thematischer Recherchen wesentlich steigern: standardisierte Begriffe unterstützen Recall und Precision begrifflicher Suchen; Ausweisung von Relationen bietet die Grundlage für explorative Suchprozesse. Eine zusätzliche Steigerung der Funktionalitäten des Retrievals kann mittels einer Ausdifferenzierung und Spezifizierung der in Normdaten enthaltenen semantischen Informationen erreicht werden, die über die in Thesauri und Klassifikationen verbreiteten grundlegenden Relationstypen (äquivalent, hierarchisch, assoziativ) hinausgehen. In modernen Informationsräumen, in denen Daten verschiedener Institutionen über eine Plattform zeit- und ortsunabhängig zugänglich gemacht werden, können einzelne Wissenssysteme indes nur unzureichend das Information Retrieval unterstützen. Zu unterschiedlich sind die für thematische Suchanfragen relevanten Indexierungsdaten. Eine Verbesserung kann mittels Herstellung von Interoperabilität zwischen den verschiedenen Dokumentationssprachen erreicht werden. Im Vortrag wird dargelegt, in welcher Art und Weise die in Wissenssystemen enthaltenen semantischen Informationen zur Unterstützung thematischer Recherchen optimiert werden können und inwiefern Interoperabilität zwischen Systemen geschaffen werden kann, die gleichwertige Funktionalitäten in heterogenen Informationsräumen gewährleisten. In diesem Zusammenhang wird auch auf aktuelle Mappingprojekte wie das DFG-Projekt CrissCross oder das RESEDA-Projekt, welches sich mit den Möglichkeiten der semantischen Anreicherung bestehender Dokumentationssprachen befasst, eingegangen.
    Source
    https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/searchtype/authorsearch/author/%22Hubrich%2C+Jessica%22/docId/703/start/0/rows/20
  4. Woldering, B.: ¬Die Europäische Digitale Bibliothek nimmt Gestalt an (2007) 0.03
    0.028658964 = product of:
      0.103172265 = sum of:
        0.025896195 = weight(_text_:medien in 2439) [ClassicSimilarity], result of:
          0.025896195 = score(doc=2439,freq=2.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.20800565 = fieldWeight in 2439, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.025030866 = weight(_text_:und in 2439) [ClassicSimilarity], result of:
          0.025030866 = score(doc=2439,freq=38.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.42695636 = fieldWeight in 2439, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.025030866 = weight(_text_:und in 2439) [ClassicSimilarity], result of:
          0.025030866 = score(doc=2439,freq=38.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.42695636 = fieldWeight in 2439, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.020046711 = weight(_text_:des in 2439) [ClassicSimilarity], result of:
          0.020046711 = score(doc=2439,freq=10.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.27366623 = fieldWeight in 2439, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.0071676327 = product of:
          0.014335265 = sum of:
            0.014335265 = weight(_text_:22 in 2439) [ClassicSimilarity], result of:
              0.014335265 = score(doc=2439,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.15476047 = fieldWeight in 2439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2439)
          0.5 = coord(1/2)
      0.2777778 = coord(5/18)
    
    Abstract
    Der Aufbau der Europäischen Digitalen Bibliothek wurde im Herbst 2007 auf soliden Grund gestellt: Mit der European Digital Library Foundation steht eine geschäftsfähige Organisation als Trägerin der Europäischen Digitalen Bibliothek zur Verfügung. Sie fungiert zunächst als Steuerungsgremium für das EU-finanzierte Projekt EDLnet und übernimmt sukzessive die Aufgaben, die für den Aufbau und die Weiterentwicklung der Europäischen Digitalen Bibliothek notwendig sind. Die Gründungsmitglieder sind zehn europäische Dachorganisationen aus den Bereichen Bibliothek, Archiv, audiovisuelle Sammlungen und Museen. Vorstandsmitglieder sind die Vorsitzende Elisabeth Niggemann (CENL) die Vize-Vorsitzende Martine de Boisdeffre (EURBICA), der Schatzmeister Edwin van Huis (FIAT) sowie Wim van Drimmelen, der Generaldirektor der Koninklijke Bibliotheek, der Nationalbibliothek der Niederlande, welche die Europäische Digitale Bibliothek hostet. Der Prototyp für die Europäische Digitale Bibliothek wird im Rahmen des EDLnet-Projekts entwickelt. Die erste Version des Prototyps wurde auf der internationalen Konferenz »One more step towards the European Digital Library« vorgestellt, die am 31. Januar und 1. Februar 2008 in der Deutschen Nationalbibliothek (DNB) in Frankfurt am Main stattfand. Die endgültige Version des Prototyps wird im November 2008 von der EU-Kommissarin für Informationsgesellschaft und Medien, Viviane Reding, in Paris vorgestellt werden. Dieser Prototyp wird direkten Zugang zu mindestens zwei Mio. digitalisierten Büchern, Fotografien, Karten, Tonaufzeichnungen, Filmaufnahmen und Archivalien aus Bibliotheken, Archiven, audiovisuellen Sammlungen und Museen Europas bieten.
    Content
    Darin u.a. "Interoperabilität als Kernstück - Technische und semantische Interoperabilität bilden somit das Kernstück für das Funktionieren der Europäischen Digitalen Bibliothek. Doch bevor Wege gefunden werden können, wie etwas funktionieren kann, muss zunächst einmal festgelegt werden, was funktionieren soll. Hierfür sind die Nutzeranforderungen das Maß aller Dinge, weshalb sich ein ganzes Arbeitspaket in EDLnet mit der Nutzersicht, den Nutzeranforderungen und der Nutzbarkeit der Europäischen Digitalen Bibliothek befasst, Anforderungen formuliert und diese im Arbeitspaket »Interoperabilität« umgesetzt werden. Für die Entscheidung, welche Inhalte wie präsentiert werden, sind jedoch nicht allein technische und semantische Fragestellungen zu klären, sondern auch ein Geschäftsmodell zu entwickeln, das festlegt, was die beteiligten Institutionen und Organisationen in welcher Form zu welchen Bedingungen zur Europäischen Digitalen Bibliothek beitragen. Auch das Geschäftsmodell wird Auswirkungen auf technische und semantische Interoperabilität haben und liefert die daraus abgeleiteten Anforderungen zur Umsetzung an das entsprechende Arbeitspaket. Im EDLnet-Projekt ist somit ein ständiger Arbeitskreislauf installiert, in welchem die Anforderungen an die Europäische Digitale Bibliothek formuliert, an das Interoperabilitäts-Arbeitspaket weitergegeben und dort umgesetzt werden. Diese Lösung wird wiederum an die Arbeitspakete »Nutzersicht« und »Geschäftsmodell« zurückgemeldet, getestet, kommentiert und für die Kommentare wiederum technische Lösungen gesucht. Dies ist eine Form des »rapid prototyping«, das hier zur Anwendung kommt, d. h. die Funktionalitäten werden schrittweise gemäß des Feedbacks der zukünftigen Nutzer sowie der Projektpartner erweitert und gleichzeitig wird der Prototyp stets lauffähig gehalten und bis zur Produktreife weiterentwickelt. Hierdurch verspricht man sich ein schnelles Ergebnis bei geringem Risiko einer Fehlentwicklung durch das ständige Feedback."
    Date
    22. 2.2009 19:10:56
  5. Galinski, C.: Fragen der semantischen Interoperabilität brechen jetzt überall auf (o.J.) 0.03
    0.02707428 = product of:
      0.0974674 = sum of:
        0.014919387 = weight(_text_:und in 4183) [ClassicSimilarity], result of:
          0.014919387 = score(doc=4183,freq=6.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.2544829 = fieldWeight in 4183, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4183)
        0.014919387 = weight(_text_:und in 4183) [ClassicSimilarity], result of:
          0.014919387 = score(doc=4183,freq=6.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.2544829 = fieldWeight in 4183, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4183)
        0.043429427 = weight(_text_:technik in 4183) [ClassicSimilarity], result of:
          0.043429427 = score(doc=4183,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.3299095 = fieldWeight in 4183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.046875 = fieldNorm(doc=4183)
        0.013447743 = weight(_text_:des in 4183) [ClassicSimilarity], result of:
          0.013447743 = score(doc=4183,freq=2.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.18358089 = fieldWeight in 4183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4183)
        0.010751449 = product of:
          0.021502897 = sum of:
            0.021502897 = weight(_text_:22 in 4183) [ClassicSimilarity], result of:
              0.021502897 = score(doc=4183,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.23214069 = fieldWeight in 4183, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4183)
          0.5 = coord(1/2)
      0.2777778 = coord(5/18)
    
    Abstract
    Terminologienormung ist eine Grundbedingung für internationalen Handel und birgt große Einsparungspotenziale in der industriellen Produktion. Tassilo Pellegrini sprach mit Dr. Christian Galinski, Leiter des Internationalen Informationszentrums für Terminologie (Infoterm), über Probleme der Mehrsprachigkeit, di Wechselwirkung zwischen Technik und Terminologie und wie durch semantische Interoperabilität die Schnittstelle Mensch-Maschine verbessert werden kann.
    Date
    22. 1.2011 10:16:32
  6. Probstmeyer, J.: Analyse von maschinell generierten Korrelationen zwischen der Regensburger Verbundklassifikation (RVK) und der Schlagwortnormdatei (SWD) (2009) 0.02
    0.023756346 = product of:
      0.10690355 = sum of:
        0.054934125 = weight(_text_:medien in 3216) [ClassicSimilarity], result of:
          0.054934125 = score(doc=3216,freq=4.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.44124663 = fieldWeight in 3216, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.046875 = fieldNorm(doc=3216)
        0.019260846 = weight(_text_:und in 3216) [ClassicSimilarity], result of:
          0.019260846 = score(doc=3216,freq=10.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.328536 = fieldWeight in 3216, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3216)
        0.019260846 = weight(_text_:und in 3216) [ClassicSimilarity], result of:
          0.019260846 = score(doc=3216,freq=10.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.328536 = fieldWeight in 3216, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3216)
        0.013447743 = weight(_text_:des in 3216) [ClassicSimilarity], result of:
          0.013447743 = score(doc=3216,freq=2.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.18358089 = fieldWeight in 3216, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3216)
      0.22222222 = coord(4/18)
    
    Abstract
    Die Dokumente in Bibliothekskatalogen weisen neben den formalen meist auch inhaltliche Erschließungselemente auf. Im Katalog des Südwestverbunds besitzen zahlreiche Publikationen SWD-Schlagwörter und -ketten sowie Notationen der RVK. Im Anschluss an ein Projekt zur automatischen Vergabe von RVK-Notationen an der Universitätsbibliothek Mannheim wurden aus den SWD-Schlagwörtern und RVK-Notationen der Datensätze im Verbund automatische Korrelationen generiert. Die vorliegende Arbeit beinhaltet die Ergebnisse der Analyse dieser Korrelationen. Dabei wird sowohl auf die Konkordanz der beiden Dokumentationssprachen eingegangen, die über die SWD-gerechten Registerbegriffe der RVK ermöglicht wird, als auch auf Unterschiede, die etwa über Heterogenität entstehen. Nachdem zunächst nur die automatischen Korrelationen näher betrachtet wurden, konnten diese zudem mit den Notationen und Registerbegriffen der RVK-Online-Konkordanz verglichen werden. Abschließend werden verschiedene Möglichkeiten aufgezeigt, wie die RVK-SWD-Korrelationen in der Praxis angewandt werden können.
    Content
    Bachelorarbeit im Fach Wissensmanagement Studiengang Bibliotheks- und Informationsmanagement der Hochschule der Medien
    Imprint
    Stuttgart : Hochschule der Medien
  7. Panzer, M.: Semantische Integration heterogener und unterschiedlichsprachiger Wissensorganisationssysteme : CrissCross und jenseits (2008) 0.02
    0.020530181 = product of:
      0.09238581 = sum of:
        0.032370243 = weight(_text_:medien in 4335) [ClassicSimilarity], result of:
          0.032370243 = score(doc=4335,freq=2.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.26000705 = fieldWeight in 4335, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4335)
        0.020302713 = weight(_text_:und in 4335) [ClassicSimilarity], result of:
          0.020302713 = score(doc=4335,freq=16.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.34630734 = fieldWeight in 4335, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4335)
        0.020302713 = weight(_text_:und in 4335) [ClassicSimilarity], result of:
          0.020302713 = score(doc=4335,freq=16.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.34630734 = fieldWeight in 4335, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4335)
        0.019410145 = weight(_text_:des in 4335) [ClassicSimilarity], result of:
          0.019410145 = score(doc=4335,freq=6.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.2649762 = fieldWeight in 4335, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4335)
      0.22222222 = coord(4/18)
    
    Abstract
    Klassische bibliothekarische Indexierungswerkzeuge werden bis heute nur selten fürs Retrieval nutzbar gemacht; die Wichtigkeit, verschiedene dieser Vokabularien zu harmonisieren und integriert zu verwenden, ist noch immer keine Selbstverständlichkeit. Im Rahmen des DFG-Projektes "CrissCross" wird, ausgehend von der deutschen Ausgabe der Dewey-Dezimalklassifikation, eine Verknüpfung zwischen der DDC und der Schlagwortnormdatei (SWD) aufgebaut, um eine verbale Suche über klassifikatorisch erschlossene Bestände zu ermöglichen. Als Verbreiterung der Basis des verbalen Zugriffs wird außerdem das Mapping der amerikanischen LCSH und des französischen RAMEAU angestrebt. Nach einer kurzen Vorstellung von CrissCross und der Abgrenzung gegenüber ähnlichen Unterfangen werden Rückwirkungen semantischer Integration auf die verknüpften Vokabulare diskutiert. Wie müssen und können sich z.B. Thesauri verändern, wenn sie mit anderen (strukturheterologen) Systemen verknüpft sind? Dabei liegt ein Schwerpunkt der Analyse auf dem semantischen Verhältnis üblicher Mappingrelationen zu den verknüpften Begriffen (besonders im Hinblick auf Polysemie). Außerdem wird der Mehrwert fürs Retrieval auf der Basis solcher Wissensorganisationssysteme, z.B. durch automatisierten Zugriff über Ontologien, diskutiert.
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
  8. Hubrich, J.: CrissCross: SWD-DDC-Mapping (2008) 0.02
    0.01967336 = product of:
      0.08853012 = sum of:
        0.028132265 = weight(_text_:und in 2175) [ClassicSimilarity], result of:
          0.028132265 = score(doc=2175,freq=12.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.47985753 = fieldWeight in 2175, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.028132265 = weight(_text_:und in 2175) [ClassicSimilarity], result of:
          0.028132265 = score(doc=2175,freq=12.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.47985753 = fieldWeight in 2175, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.017930323 = weight(_text_:des in 2175) [ClassicSimilarity], result of:
          0.017930323 = score(doc=2175,freq=2.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.24477452 = fieldWeight in 2175, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.014335265 = product of:
          0.02867053 = sum of:
            0.02867053 = weight(_text_:22 in 2175) [ClassicSimilarity], result of:
              0.02867053 = score(doc=2175,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.30952093 = fieldWeight in 2175, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2175)
          0.5 = coord(1/2)
      0.22222222 = coord(4/18)
    
    Abstract
    Mit zunehmender Nutzung netzwerkbasierter Systeme und steigender internationaler Zusammenarbeit werden Informationsräume geschaffen, in denen unterschiedlich indexierte Informationsressourcen aus verschiedenen Ländern über das Internet frei zugänglich gemacht werden. Bedingt durch die Unterschiedlichkeit der verwendeten Erschließungsinstrumente in Sprache und Struktur gestaltet sich die thematische Recherche in diesen Informationsräumen umständlich und langwierig. Im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten und von der Deutschen Nationalbibliothek (DNB) in Kooperation mit der Fachhochschule Köln durchgeführten Projekts CrissCross wird ein multilinguales, thesaurusbasiertes und benutzergerechtes Recherchevokabular erstellt, das einen wesentlich effizienteren Zugriff auf heterogen erschlossene Informationsressourcen ermöglicht.
    Date
    22. 8.2009 10:35:21
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 61(2008) H.3, S.50-58
  9. Haffner, A.: Internationalisierung der GND durch das Semantic Web (2012) 0.02
    0.01854884 = product of:
      0.083469786 = sum of:
        0.019460445 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.019460445 = score(doc=318,freq=30.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.33194062 = fieldWeight in 318, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.019460445 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.019460445 = score(doc=318,freq=30.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.33194062 = fieldWeight in 318, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.025333833 = weight(_text_:technik in 318) [ClassicSimilarity], result of:
          0.025333833 = score(doc=318,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.19244722 = fieldWeight in 318, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.019215062 = weight(_text_:des in 318) [ClassicSimilarity], result of:
          0.019215062 = score(doc=318,freq=12.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.26231304 = fieldWeight in 318, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
      0.22222222 = coord(4/18)
    
    Abstract
    Seit Bestehen der Menschheit sammelt der Mensch Informationen, seit Bestehen des Internets stellt der Mensch Informationen ins Web, seit Bestehen des Semantic Webs sollen auch Maschinen in die Lage versetzt werden mit diesen Informationen umzugehen. Das Bibliothekswesen ist einer der Sammler. Seit Jahrhunderten werden Kataloge und Bibliografien sowie Inventarnachweise geführt. Mit der Aufgabe des Zettelkatalogs hin zum Onlinekatalog wurde es Benutzern plötzlich möglich in Beständen komfortabel zu suchen. Durch die Bereitstellung von Daten aus dem Bibliothekswesen im Semantic Web sollen nicht nur die eigenen Katalogsysteme Zugriff auf diese Informationen erhalten, sondern jede beliebige Anwendung, die auf das Web zugreifen kann. Darüber hinaus ist die Vorstellung, dass sich die im Web befindenden Daten - in sofern möglich - miteinander verlinken und zu einem gigantischen semantischen Netz werden, das als ein großer Datenpool verwendet werden kann. Die Voraussetzung hierfür ist wie beim Übergang zum Onlinekatalog die Aufbereitung der Daten in einem passenden Format. Normdaten dienen im Bibliothekswesen bereits dazu eine Vernetzung der unterschiedlichen Bestände zu erlauben. Bei der Erschließung eines Buches wird nicht bloß gesagt, dass jemand, der Thomas Mann heißt, der Autor ist - es wird eine Verknüpfung vom Katalogisat zu dem Thomas Mann erzeugt, der am 6. Juni 1875 in Lübeck geboren und am 12. August 1955 in Zürich verstorben ist. Der Vorteil von Normdateneintragungen ist, dass sie zum eindeutigen Nachweis der Verfasserschaft oder Mitwirkung an einem Werk beitragen. Auch stehen Normdateneintragungen bereits allen Bibliotheken für die Nachnutzung bereit - der Schritt ins Semantic Web wäre somit die Öffnung der Normdaten für alle denkbaren Nutzergruppen.
    Die Gemeinsame Normdatei (GND) ist seit April 2012 die Datei, die die im deutschsprachigen Bibliothekswesen verwendeten Normdaten enthält. Folglich muss auf Basis dieser Daten eine Repräsentation für die Darstellung als Linked Data im Semantic Web etabliert werden. Neben der eigentlichen Bereitstellung von GND-Daten im Semantic Web sollen die Daten mit bereits als Linked Data vorhandenen Datenbeständen (DBpedia, VIAF etc.) verknüpft und nach Möglichkeit kompatibel sein, wodurch die GND einem internationalen und spartenübergreifenden Publikum zugänglich gemacht wird. Dieses Dokument dient vor allem zur Beschreibung, wie die GND-Linked-Data-Repräsentation entstand und dem Weg zur Spezifikation einer eignen Ontologie. Hierfür werden nach einer kurzen Einführung in die GND die Grundprinzipien und wichtigsten Standards für die Veröffentlichung von Linked Data im Semantic Web vorgestellt, um darauf aufbauend existierende Vokabulare und Ontologien des Bibliothekswesens betrachten zu können. Anschließend folgt ein Exkurs in das generelle Vorgehen für die Bereitstellung von Linked Data, wobei die so oft zitierte Open World Assumption kritisch hinterfragt und damit verbundene Probleme insbesondere in Hinsicht Interoperabilität und Nachnutzbarkeit aufgedeckt werden. Um Probleme der Interoperabilität zu vermeiden, wird den Empfehlungen der Library Linked Data Incubator Group [LLD11] gefolgt.
    Im Kapitel Anwendungsprofile als Basis für die Ontologieentwicklung wird die Spezifikation von Dublin Core Anwendungsprofilen kritisch betrachtet, um auszumachen wann und in welcher Form sich ihre Verwendung bei dem Vorhaben Bereitstellung von Linked Data anbietet. In den nachfolgenden Abschnitten wird die GND-Ontologie, welche als Standard für die Serialisierung von GND-Daten im Semantic Web dient, samt Modellierungsentscheidungen näher vorgestellt. Dabei wird insbesondere der Technik des Vocabulary Alignment eine prominente Position eingeräumt, da darin ein entscheidender Mechanismus zur Steigerung der Interoperabilität und Nachnutzbarkeit gesehen wird. Auch wird sich mit der Verlinkung zu externen Datensets intensiv beschäftigt. Hierfür wurden ausgewählte Datenbestände hinsichtlich ihrer Qualität und Aktualität untersucht und Empfehlungen für die Implementierung innerhalb des GND-Datenbestandes gegeben. Abschließend werden eine Zusammenfassung und ein Ausblick auf weitere Schritte gegeben.
  10. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.02
    0.01721419 = product of:
      0.07746386 = sum of:
        0.024615733 = weight(_text_:und in 4184) [ClassicSimilarity], result of:
          0.024615733 = score(doc=4184,freq=12.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.41987535 = fieldWeight in 4184, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.024615733 = weight(_text_:und in 4184) [ClassicSimilarity], result of:
          0.024615733 = score(doc=4184,freq=12.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.41987535 = fieldWeight in 4184, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.015689032 = weight(_text_:des in 4184) [ClassicSimilarity], result of:
          0.015689032 = score(doc=4184,freq=2.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.2141777 = fieldWeight in 4184, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.012543357 = product of:
          0.025086714 = sum of:
            0.025086714 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
              0.025086714 = score(doc=4184,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.2708308 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.5 = coord(1/2)
      0.22222222 = coord(4/18)
    
    Abstract
    Das Medium Internet ist im Wandel, und mit ihm ändern sich seine Publikations- und Rezeptionsbedingungen. Welche Chancen bieten die momentan parallel diskutierten Zukunftsentwürfe von Social Web und Semantic Web? Zur Beantwortung dieser Frage beschäftigt sich der Beitrag mit den Grundlagen beider Modelle unter den Aspekten Anwendungsbezug und Technologie, beleuchtet darüber hinaus jedoch auch deren Unzulänglichkeiten sowie den Mehrwert einer mediengerechten Kombination. Am Beispiel des grammatischen Online-Informationssystems grammis wird eine Strategie zur integrativen Nutzung der jeweiligen Stärken skizziert.
    Date
    22. 1.2011 10:38:28
    Source
    Kommunikation, Partizipation und Wirkungen im Social Web, Band 1. Hrsg.: A. Zerfaß u.a
  11. Heel, F.: Abbildungen zwischen der Dewey-Dezimalklassifikation (DDC), der Regensburger Verbundklassifikation (RVK) und der Schlagwortnormdatei (SWD) für die Recherche in heterogen erschlossenen Datenbeständen : Möglichkeiten und Problembereiche (2007) 0.02
    0.016582396 = product of:
      0.09949437 = sum of:
        0.04577844 = weight(_text_:medien in 4434) [ClassicSimilarity], result of:
          0.04577844 = score(doc=4434,freq=4.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.36770552 = fieldWeight in 4434, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4434)
        0.026857967 = weight(_text_:und in 4434) [ClassicSimilarity], result of:
          0.026857967 = score(doc=4434,freq=28.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.45812157 = fieldWeight in 4434, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4434)
        0.026857967 = weight(_text_:und in 4434) [ClassicSimilarity], result of:
          0.026857967 = score(doc=4434,freq=28.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.45812157 = fieldWeight in 4434, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4434)
      0.16666667 = coord(3/18)
    
    Abstract
    Eine einheitliche Sacherschließung in Deutschland wird durch die Vielzahl an vorhandenen und verwendeten Erschließungssystemen, Universal-, Fachklassifikationen und Fachthesauri erschwert. Den Benutzern von Bibliothekskatalogen oder Datenbanken fällt es daher schwer, themenspezifische Recherchen in heterogen erschlossenen Datenbeständen durchzuführen. In diesem Fall müssen die Nutzer derzeit nämlich den Umgang mit mehreren Erschließungsinstrumenten erlernen und verschiedene Suchanfragen anwenden, um das gewünschte Rechercheergebnis datenbankübergreifend zu erreichen. Um dem Benutzer einen einheitlichen Zugang zu heterogen erschlossenen Datenbeständen zu gewährleisten und gleichzeitig auch den Arbeitsaufwand für die Bibliothekare zu reduzieren, ist die Erstellung eines so genannten "Integrierten Retrievals" sinnvoll. Durch die Verknüpfung der unterschiedlichen Sacherschließungssysteme mit Hilfe von Konkordanzen wird es dem Nutzer ermöglicht, mit einem ihm vertrauten Vokabular eine sachliche Recherche in unterschiedlich erschlossenen Datenbeständen durchzuführen, ohne die spezifischen Besonderheiten der verschiedenen Erschließungsinstrumente kennen zu müssen. In dieser Arbeit sind exemplarisch drei Abbildungen für den Fachbereich der Bibliotheks- und Informationswissenschaften zwischen den für Deutschland wichtigsten Sacherschließungssystemen Dewey-Dezimalklassifikation (DDC), Regensburger Verbundklassifikation (RVK) und Schlagwortnormdatei (SWD) erstellt worden. Die Ergebnisse dieser Arbeit sollen einen ersten Überblick über spezifische Problemfelder und Möglichkeiten der hier erstellten Konkordanzen DDC - RVK, SWD - DDC und SWD - RVK liefern, um damit die Erstellung eines zukünftigen Recherchetools (und gegebenenfalls einer Klassifizierungshilfe) voranzutreiben. Die erstellten Konkordanzen liegen der Arbeit als Anhang bei.
    Content
    Bachelorarbeit im Studiengang Bibliotheks- und Informationsmanagement, Fakultät Information und Kommunikation, Hochschule der Medien Stuttgart
    Imprint
    Stuttgart : Hochschule der Medien / Fakultät Information und Kommunikation
  12. Petras, V.: Heterogenitätsbehandlung und Terminology Mapping durch Crosskonkordanzen : eine Fallstudie (2010) 0.02
    0.015206603 = product of:
      0.068429716 = sum of:
        0.020098662 = weight(_text_:und in 3730) [ClassicSimilarity], result of:
          0.020098662 = score(doc=3730,freq=8.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.34282678 = fieldWeight in 3730, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.020098662 = weight(_text_:und in 3730) [ClassicSimilarity], result of:
          0.020098662 = score(doc=3730,freq=8.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.34282678 = fieldWeight in 3730, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.015689032 = weight(_text_:des in 3730) [ClassicSimilarity], result of:
          0.015689032 = score(doc=3730,freq=2.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.2141777 = fieldWeight in 3730, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.012543357 = product of:
          0.025086714 = sum of:
            0.025086714 = weight(_text_:22 in 3730) [ClassicSimilarity], result of:
              0.025086714 = score(doc=3730,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.2708308 = fieldWeight in 3730, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3730)
          0.5 = coord(1/2)
      0.22222222 = coord(4/18)
    
    Abstract
    Das BMBF hat bis Ende 2007 ein Projekt gefördert, dessen Aufgabe es war, die Erstellung und das Management von Crosskonkordanzen zwischen kontrollierten Vokabularen (Thesauri, Klassifikationen, Deskriptorenlisten) zu organisieren. In drei Jahren wurden 64 Crosskonkordanzen mit mehr als 500.000 Relationen zwischen kontrollierten Vokabularen aus den Sozialwissenschaften und anderen Fachgebieten umgesetzt. In der Schlussphase des Projekts wurde eine umfangreiche Evaluation durchgeführt, die die Effektivität der Crosskonkordanzen in unterschiedlichen Informationssystemen testen sollte. Der Artikel berichtet über die Anwendungsmöglichkeiten der Heterogenitätsbehandlung durch Crosskonkordanzen und die Ergebnisse der umfangreichen Analysen.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  13. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.01
    0.014755021 = product of:
      0.06639759 = sum of:
        0.021099199 = weight(_text_:und in 4408) [ClassicSimilarity], result of:
          0.021099199 = score(doc=4408,freq=12.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.35989314 = fieldWeight in 4408, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.021099199 = weight(_text_:und in 4408) [ClassicSimilarity], result of:
          0.021099199 = score(doc=4408,freq=12.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.35989314 = fieldWeight in 4408, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.013447743 = weight(_text_:des in 4408) [ClassicSimilarity], result of:
          0.013447743 = score(doc=4408,freq=2.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.18358089 = fieldWeight in 4408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.010751449 = product of:
          0.021502897 = sum of:
            0.021502897 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
              0.021502897 = score(doc=4408,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.23214069 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.5 = coord(1/2)
      0.22222222 = coord(4/18)
    
    Abstract
    Unser Projekt soll eine Kreuzkonkordanz zwischen den Universalklassifikationen wie der "Regensburger Verbundsklassifikation (RVK)" und der "Basisklassifikation (BK)" sowie den Fachklassifikationen "Mathematics Subject Classification (MSC2010)" und "Physics and Astronomy Classification Scheme (PACS2010)" in den Fachgebieten Mathematik und Physik herstellen. Fazit: "Die klassifikatorische Übereinstmmung zwischen Regensburger Verbundklassifikation und Physics and Astronomy Classification Scheme war in einzelnen Fachbereichen (z. B. Kernphysik) recht gut. Doch andere Fachbereiche (z.B. Polymerphysik, Mineralogie) stimmten sehr wenig überein. Insgesamt konnten wir 890 einfache Verbindungen erstellen. Mehrfachverbindungen wurden aus technischen Gründen nicht mitgezählt. Das Projekt war insgesamt sehr umfangreich, daher konnte es im Rahmen der zwanzig Projekttage nicht erschöpfend behandelt werden. Eine Weiterentwicklung, insbesondere hinsichtlich des kollektiven Zuganges in Form eines Webformulars und der automatischen Klassifizierung erscheint jedoch sinnvoll."
    Imprint
    Innsbruck : Universitäts- und Landesbibliothek Tirol
    Pages
    22 S
  14. Lösse, M.; Svensson, L.: "Classification at a Crossroad" : Internationales UDC-Seminar 2009 in Den Haag, Niederlande (2010) 0.01
    0.014023875 = product of:
      0.06310744 = sum of:
        0.017227424 = weight(_text_:und in 4379) [ClassicSimilarity], result of:
          0.017227424 = score(doc=4379,freq=8.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.29385152 = fieldWeight in 4379, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.017227424 = weight(_text_:und in 4379) [ClassicSimilarity], result of:
          0.017227424 = score(doc=4379,freq=8.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.29385152 = fieldWeight in 4379, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.013447743 = weight(_text_:des in 4379) [ClassicSimilarity], result of:
          0.013447743 = score(doc=4379,freq=2.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.18358089 = fieldWeight in 4379, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.015204846 = product of:
          0.030409692 = sum of:
            0.030409692 = weight(_text_:22 in 4379) [ClassicSimilarity], result of:
              0.030409692 = score(doc=4379,freq=4.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.32829654 = fieldWeight in 4379, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
          0.5 = coord(1/2)
      0.22222222 = coord(4/18)
    
    Abstract
    Am 29. und 30. Oktober 2009 fand in der Königlichen Bibliothek in Den Haag das zweite internationale UDC-Seminar zum Thema "Classification at a Crossroad" statt. Organisiert wurde diese Konferenz - wie auch die erste Konferenz dieser Art im Jahr 2007 - vom UDC-Konsortium (UDCC). Im Mittelpunkt der diesjährigen Veranstaltung stand die Erschließung des World Wide Web unter besserer Nutzung von Klassifikationen (im Besonderen natürlich der UDC), einschließlich benutzerfreundlicher Repräsentationen von Informationen und Wissen. Standards, neue Technologien und Dienste, semantische Suche und der multilinguale Zugriff spielten ebenfalls eine Rolle. 135 Teilnehmer aus 35 Ländern waren dazu nach Den Haag gekommen. Das Programm umfasste mit 22 Vorträgen aus 14 verschiedenen Ländern eine breite Palette, wobei Großbritannien mit fünf Beiträgen am stärksten vertreten war. Die Tagesschwerpunkte wurden an beiden Konferenztagen durch die Eröffnungsvorträge gesetzt, die dann in insgesamt sechs thematischen Sitzungen weiter vertieft wurden.
    Date
    22. 1.2010 15:06:54
  15. Dellschaft, K.; Hachenberg, C.: Repräsentation von Wissensorganisationssystemen im Semantic Web : ein Best Practice Guide (2011) 0.01
    0.013391711 = product of:
      0.080350265 = sum of:
        0.02658803 = weight(_text_:und in 4782) [ClassicSimilarity], result of:
          0.02658803 = score(doc=4782,freq=14.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.4535172 = fieldWeight in 4782, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
        0.02658803 = weight(_text_:und in 4782) [ClassicSimilarity], result of:
          0.02658803 = score(doc=4782,freq=14.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.4535172 = fieldWeight in 4782, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
        0.027174205 = weight(_text_:des in 4782) [ClassicSimilarity], result of:
          0.027174205 = score(doc=4782,freq=6.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.3709667 = fieldWeight in 4782, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
      0.16666667 = coord(3/18)
    
    Abstract
    In diesem Dokument sollen Begriffe, Prinzipien und Methoden vorgestellt werden, die sich als hilfreich bei der Erstellung von Semantic Web konformen Repräsentationen von Wissensorganisationssystemen (KOS) erwiesen haben, wie z. B. Thesauri und Klassifikationssysteme. Das Dokument richtet sich an Organisationen wie z. B. Bibliotheken, die ihre traditionellen Wissensorganisationssysteme im Rahmen des Semantic Web veröffentlichen wollen. Die in diesem Dokument beschriebenen Vorgehensweisen und Prinzipien sind nicht als normativ anzusehen. Sie sollen nur dabei helfen, von bisher gemachten Erfahrungen zu profitieren und einen leichteren Einstieg in die wichtigsten Begriffichkeiten und Techniken des Semantic Web zu bekommen. An vielen Stellen wird zudem auf weiterführende Literatur zum Thema und auf relevante Standards und Spezifikationen aus dem Bereich des Semantic Web hingewiesen.
  16. Kempf, A.O.; Zapilko, B.: Normdatenpflege in Zeiten der Automatisierung : Erstellung und Evaluation automatisch aufgebauter Thesaurus-Crosskonkordanzen (2013) 0.01
    0.013034231 = product of:
      0.05865404 = sum of:
        0.017227424 = weight(_text_:und in 1021) [ClassicSimilarity], result of:
          0.017227424 = score(doc=1021,freq=8.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.29385152 = fieldWeight in 1021, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1021)
        0.017227424 = weight(_text_:und in 1021) [ClassicSimilarity], result of:
          0.017227424 = score(doc=1021,freq=8.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.29385152 = fieldWeight in 1021, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1021)
        0.013447743 = weight(_text_:des in 1021) [ClassicSimilarity], result of:
          0.013447743 = score(doc=1021,freq=2.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.18358089 = fieldWeight in 1021, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1021)
        0.010751449 = product of:
          0.021502897 = sum of:
            0.021502897 = weight(_text_:22 in 1021) [ClassicSimilarity], result of:
              0.021502897 = score(doc=1021,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.23214069 = fieldWeight in 1021, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1021)
          0.5 = coord(1/2)
      0.22222222 = coord(4/18)
    
    Abstract
    Thesaurus-Crosskonkordanzen bilden eine wichtige Voraussetzung für die integrierte Suche in einer verteilten Datenstruktur. Ihr Aufbau erfordert allerdings erhebliche personelle Ressourcen. Der vorliegende Beitrag liefert Evaluationsergebnisse des Library Track 2012 der Ontology Alignment Evaluation Initiative (OAEI), in dem Crosskonkordanzen zwischen dem Thesaurus Sozialwissenschaften (TheSoz) und dem Standard Thesaurus Wirtschaft (STW) erstmals automatisch erstellt wurden. Die Evaluation weist auf deutliche Unterschiede in den getesteten Matching- Tools hin und stellt die qualitativen Unterschiede einer automatisch im Vergleich zu einer intellektuell erstellten Crosskonkordanz heraus. Die Ergebnisse sprechen für einen Einsatz automatisch generierter Thesaurus-Crosskonkordanzen, um Domänenexperten eine maschinell erzeugte Vorselektion von möglichen Äquivalenzrelationen anzubieten.
    Date
    18. 8.2013 12:53:22
    Source
    Information - Wissenschaft und Praxis. 64(2013) H.4, S.199-208
  17. Mayr, P.; Walter, A.-K.: Mapping Knowledge Organization Systems (2008) 0.01
    0.012894331 = product of:
      0.07736598 = sum of:
        0.03884429 = weight(_text_:medien in 1676) [ClassicSimilarity], result of:
          0.03884429 = score(doc=1676,freq=2.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.31200847 = fieldWeight in 1676, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.046875 = fieldNorm(doc=1676)
        0.019260846 = weight(_text_:und in 1676) [ClassicSimilarity], result of:
          0.019260846 = score(doc=1676,freq=10.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.328536 = fieldWeight in 1676, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1676)
        0.019260846 = weight(_text_:und in 1676) [ClassicSimilarity], result of:
          0.019260846 = score(doc=1676,freq=10.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.328536 = fieldWeight in 1676, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1676)
      0.16666667 = coord(3/18)
    
    Abstract
    Die Vernetzung der Informationssysteme und Datenbanken aus dem wissenschaftlichen Fachinformationsbereich lässt bislang den Aspekt der Kompatibilität und Konkordanz zwischen kontrollierten Vokabularen (semantische Heterogenität) weitgehend unberücksichtigt. Gerade aber für den inhaltlichen Zugang sachlich heterogen erschlössener Bestände spielen für den Nutzer die semantischen Querverbindungen (Mappings /Crosskonkordanzen) zwischen den zugrunde liegenden Knowledge Organization Systems (KOS) der Datenbanken eine entscheidende Rolle. Der Beitrag stellt Einsatzmöglichkeiten und Beispiele von Crosskonkordanzen (CK) im Projekt "Kompetenznetzwerk Modellbildung und Heterogenitätsbehandlung" (KoMoHe) sowie das Netz der bis dato entstandenen Terminolögie-Überstiege vor. Die am IZ entstandenen CK sollen künftig über einen Terminolögie-Service als Web Service genutzt werden, dieser wird im Beitrag exemplarisch vorgestellt.
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
  18. Garcia Marco, F.J.: Compatibility & heterogeneity in knowledge organization : some reflections around a case study in the field of consumer information (2008) 0.01
    0.012374661 = product of:
      0.055685975 = sum of:
        0.032370243 = weight(_text_:medien in 1678) [ClassicSimilarity], result of:
          0.032370243 = score(doc=1678,freq=2.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.26000705 = fieldWeight in 1678, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1678)
        0.0071780933 = weight(_text_:und in 1678) [ClassicSimilarity], result of:
          0.0071780933 = score(doc=1678,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.12243814 = fieldWeight in 1678, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1678)
        0.0071780933 = weight(_text_:und in 1678) [ClassicSimilarity], result of:
          0.0071780933 = score(doc=1678,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.12243814 = fieldWeight in 1678, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1678)
        0.008959541 = product of:
          0.017919082 = sum of:
            0.017919082 = weight(_text_:22 in 1678) [ClassicSimilarity], result of:
              0.017919082 = score(doc=1678,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.19345059 = fieldWeight in 1678, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1678)
          0.5 = coord(1/2)
      0.22222222 = coord(4/18)
    
    Date
    16. 3.2008 18:22:50
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
  19. Nentwig, L.: Semantische Interoperabilität : Bd.2: Semantische Konflikte (2010) 0.01
    0.012212178 = product of:
      0.07327306 = sum of:
        0.028712373 = weight(_text_:und in 4848) [ClassicSimilarity], result of:
          0.028712373 = score(doc=4848,freq=32.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.48975256 = fieldWeight in 4848, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4848)
        0.028712373 = weight(_text_:und in 4848) [ClassicSimilarity], result of:
          0.028712373 = score(doc=4848,freq=32.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.48975256 = fieldWeight in 4848, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4848)
        0.015848318 = weight(_text_:des in 4848) [ClassicSimilarity], result of:
          0.015848318 = score(doc=4848,freq=4.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.21635216 = fieldWeight in 4848, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4848)
      0.16666667 = coord(3/18)
    
    Abstract
    Prozessketten in der freien Wirtschaft oder Verwaltung sind zunehmend geprägt von einem intensiven Austausch von Dokumenten und Daten auch über die Grenzen der beteiligten Organisationen hinweg. Wie in Band 1 der White Paper-Reihe dargelegt, ist die Sicherstellung der semantischen Interoperabilität eine der zentralen Anforderungen für einen semantisch konsistenten und damit erfolgreichen Ablauf der Geschäftsprozesse. Grundlage für semantische Interoperabilität sind die technische und die syntaktische Interoperabilität: Die technische Interoperabilität umfasst die Möglichkeit der technischen Interaktion mit sowie des Transports von Inhalten und erfordert dafür die leitungstechnische Verbindbarkeit und Passbarkeit auf Protokollebene. Die syntaktische Interoperabilität wird durch einen homogenen Einsatz von Sprachen (wie z. B. XML) sichergestellt und gewährleistet den Austausch von Daten auf Basis von vordefinierten und exakt vereinbahrten syntaktischen Strukturen. Semantische Interoperabilität stellt die komplexeste unter den Stufen der Interoperabilität dar. Der wesentliche Grund dafür, dass die Anforderung der semantischen Interoperabilität nicht erfüllt wird, ist das Vorhandensein bzw. die fehlende Auflösung sogenannter semantischer Konflikte. Ein semantischer Konflikt wird hervorgerufen, wenn die am Datenaustausch beteiligten Sender und Empfänger unterschiedliche Datenstrukturen und Dateninhalte verwenden. Eine detaillierte Beschreibung der Konfliktarten und ihrer Behandlung zeigen die nächsten Abschnitte.
    Content
    Um zwischen Behörden, Wirtschaft und Bürgern durchgängige Prozessketten zu erreichen, wird heute weitgehend auf internetgestützte Kooperation gesetzt. Vielfach sind dabei Insellösungen und autarke IT-Fachanwendungen entstanden, die nicht ohne Weiteres interoperabel sind. Trotz eines syntaktisch korrekten Datenaustausches können die Nutzung unterschiedlicher Begriffe, Datenstrukturen und Schreibkonventionen zu Fehlinterpretationen führen. In der White Paper-Reihe »Semantische Interoperabilität« vermittelt das Fraunhofer ISST in verständlicher Weise Grundlagen und Lösungsansätze des »Semantic Interoperability Engineerings « (SIE). Die Reihe richtet sich an technisch interessierte Personenkreise mit und ohne fachliches Vorwissen (vom Projektleiter bis zum CIO). Vgl.: http://www.isst.fraunhofer.de/geschaeftsfelder/gfegovernment/referenzprojekte/sie/white-paper/index.jsp.
    Imprint
    Berlin : Fraunhofer-Institut für Software- und Systemtechnik ISST
  20. Balakrishnan, U.; Peters, S.; Voß, J.: Coli-conc : eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen (2021) 0.01
    0.012089439 = product of:
      0.07253663 = sum of:
        0.0284238 = weight(_text_:und in 368) [ClassicSimilarity], result of:
          0.0284238 = score(doc=368,freq=16.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.4848303 = fieldWeight in 368, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=368)
        0.0284238 = weight(_text_:und in 368) [ClassicSimilarity], result of:
          0.0284238 = score(doc=368,freq=16.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.4848303 = fieldWeight in 368, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=368)
        0.015689032 = weight(_text_:des in 368) [ClassicSimilarity], result of:
          0.015689032 = score(doc=368,freq=2.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.2141777 = fieldWeight in 368, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=368)
      0.16666667 = coord(3/18)
    
    Abstract
    coli-conc ist eine Dienstleistung der Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG). Sie stellt webbasierte Dienste für einen effektiveren Austausch von Wissensorganisationssystemen und für die effiziente Erstellung und Wartung von Mappings zur Verfügung. Der Schwerpunkt liegt auf den im deutschsprachigen Raum verbreiteten bibliothekarischen Klassifikationen und Normdateien, vor allem den bedeutenden Universalklassifikationen wie Dewey Dezimalklassifikation (DDC), Regensburger Verbundklassifikation (RVK), Basisklassifikation (BK) und den Sachgruppen der Deutschen Nationalbibliografie (SDNB). Dieser Bericht beschreibt den Hintergrund, die Architektur und die Funktionalitäten von coli-conc sowie das Herzstück der Infrastruktur - das Mapping-Tool Cocoda. Außerdem wird auf Maßnahmen zur Qualitätssicherung eingegangen und ein Einblick in das neue Mapping-Verfahren mit dem Konzept- Hub gewährt.
    Series
    Bibliotheks- und Informationspraxis; 70

Years

Languages

  • d 82
  • e 64
  • pt 1
  • More… Less…

Types

  • a 101
  • el 38
  • x 8
  • m 7
  • r 6
  • s 2
  • n 1
  • More… Less…