Search (302 results, page 1 of 16)

  • × theme_ss:"Semantische Interoperabilität"
  1. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.12
    0.1242733 = product of:
      0.53259987 = sum of:
        0.033210702 = product of:
          0.09963211 = sum of:
            0.09963211 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.09963211 = score(doc=306,freq=2.0), product of:
                0.15195054 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.017922899 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.09963211 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.09963211 = score(doc=306,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.09963211 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.09963211 = score(doc=306,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.09963211 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.09963211 = score(doc=306,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.09963211 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.09963211 = score(doc=306,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.09963211 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.09963211 = score(doc=306,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.00122861 = product of:
          0.00368583 = sum of:
            0.00368583 = weight(_text_:a in 306) [ClassicSimilarity], result of:
              0.00368583 = score(doc=306,freq=8.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.17835285 = fieldWeight in 306, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
      0.23333333 = coord(7/30)
    
    Abstract
    Although service-oriented architectures go a long way toward providing interoperability in distributed, heterogeneous environments, managing semantic differences in such environments remains a challenge. We give an overview of the issue of semantic interoperability (integration), provide a semantic characterization of services, and discuss the role of ontologies. Then we analyze four basic models of semantic interoperability that differ in respect to their mapping between service descriptions and ontologies and in respect to where the evaluation of the integration logic is performed. We also provide some guidelines for selecting one of the possible interoperability models.
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
    Type
    a
  2. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.09
    0.08962582 = product of:
      0.38411066 = sum of:
        0.023721932 = product of:
          0.07116579 = sum of:
            0.07116579 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.07116579 = score(doc=1000,freq=2.0), product of:
                0.15195054 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.017922899 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.07116579 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.07116579 = score(doc=1000,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.07116579 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.07116579 = score(doc=1000,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.07116579 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.07116579 = score(doc=1000,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.07116579 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.07116579 = score(doc=1000,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.07116579 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.07116579 = score(doc=1000,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.0045597646 = product of:
          0.009119529 = sum of:
            0.009119529 = weight(_text_:online in 1000) [ClassicSimilarity], result of:
              0.009119529 = score(doc=1000,freq=2.0), product of:
                0.05439423 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.017922899 = queryNorm
                0.16765618 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.5 = coord(1/2)
      0.23333333 = coord(7/30)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  3. Gödert, W.; Hubrich, J.; Boteram, F.: Thematische Recherche und Interoperabilität : Wege zur Optimierung des Zugriffs auf heterogen erschlossene Dokumente (2009) 0.05
    0.053139266 = product of:
      0.26569632 = sum of:
        0.03429938 = weight(_text_:einzelne in 193) [ClassicSimilarity], result of:
          0.03429938 = score(doc=193,freq=2.0), product of:
            0.10548963 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.017922899 = queryNorm
            0.3251446 = fieldWeight in 193, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.055606253 = product of:
          0.11121251 = sum of:
            0.11121251 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.11121251 = score(doc=193,freq=2.0), product of:
                0.1899518 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.017922899 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.055606253 = product of:
          0.11121251 = sum of:
            0.11121251 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.11121251 = score(doc=193,freq=2.0), product of:
                0.1899518 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.017922899 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.055606253 = product of:
          0.11121251 = sum of:
            0.11121251 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.11121251 = score(doc=193,freq=2.0), product of:
                0.1899518 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.017922899 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.055606253 = product of:
          0.11121251 = sum of:
            0.11121251 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.11121251 = score(doc=193,freq=2.0), product of:
                0.1899518 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.017922899 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.0089719305 = product of:
          0.013457895 = sum of:
            0.0013163678 = weight(_text_:a in 193) [ClassicSimilarity], result of:
              0.0013163678 = score(doc=193,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.06369744 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
            0.012141528 = weight(_text_:22 in 193) [ClassicSimilarity], result of:
              0.012141528 = score(doc=193,freq=2.0), product of:
                0.06276294 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.017922899 = queryNorm
                0.19345059 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.6666667 = coord(2/3)
      0.2 = coord(6/30)
    
    Abstract
    Die Verwendung von Erschließungsinstrumenten zur Beschreibung von Informationsressourcen kann Effizienz und Effektivität thematischer Recherchen wesentlich steigern: standardisierte Begriffe unterstützen Recall und Precision begrifflicher Suchen; Ausweisung von Relationen bietet die Grundlage für explorative Suchprozesse. Eine zusätzliche Steigerung der Funktionalitäten des Retrievals kann mittels einer Ausdifferenzierung und Spezifizierung der in Normdaten enthaltenen semantischen Informationen erreicht werden, die über die in Thesauri und Klassifikationen verbreiteten grundlegenden Relationstypen (äquivalent, hierarchisch, assoziativ) hinausgehen. In modernen Informationsräumen, in denen Daten verschiedener Institutionen über eine Plattform zeit- und ortsunabhängig zugänglich gemacht werden, können einzelne Wissenssysteme indes nur unzureichend das Information Retrieval unterstützen. Zu unterschiedlich sind die für thematische Suchanfragen relevanten Indexierungsdaten. Eine Verbesserung kann mittels Herstellung von Interoperabilität zwischen den verschiedenen Dokumentationssprachen erreicht werden. Im Vortrag wird dargelegt, in welcher Art und Weise die in Wissenssystemen enthaltenen semantischen Informationen zur Unterstützung thematischer Recherchen optimiert werden können und inwiefern Interoperabilität zwischen Systemen geschaffen werden kann, die gleichwertige Funktionalitäten in heterogenen Informationsräumen gewährleisten. In diesem Zusammenhang wird auch auf aktuelle Mappingprojekte wie das DFG-Projekt CrissCross oder das RESEDA-Projekt, welches sich mit den Möglichkeiten der semantischen Anreicherung bestehender Dokumentationssprachen befasst, eingegangen.
    Source
    https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/searchtype/authorsearch/author/%22Hubrich%2C+Jessica%22/docId/703/start/0/rows/20
    Type
    a
  4. Lösse, M.; Svensson, L.: "Classification at a Crossroad" : Internationales UDC-Seminar 2009 in Den Haag, Niederlande (2010) 0.02
    0.015721105 = product of:
      0.117908284 = sum of:
        0.0073510436 = product of:
          0.014702087 = sum of:
            0.014702087 = weight(_text_:29 in 4379) [ClassicSimilarity], result of:
              0.014702087 = score(doc=4379,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.23319192 = fieldWeight in 4379, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
          0.5 = coord(1/2)
        0.019722143 = weight(_text_:neue in 4379) [ClassicSimilarity], result of:
          0.019722143 = score(doc=4379,freq=2.0), product of:
            0.07302189 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.017922899 = queryNorm
            0.27008536 = fieldWeight in 4379, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.052792136 = sum of:
          0.010943435 = weight(_text_:online in 4379) [ClassicSimilarity], result of:
            0.010943435 = score(doc=4379,freq=2.0), product of:
              0.05439423 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.017922899 = queryNorm
              0.20118743 = fieldWeight in 4379, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.046875 = fieldNorm(doc=4379)
          0.0418487 = weight(_text_:dienste in 4379) [ClassicSimilarity], result of:
            0.0418487 = score(doc=4379,freq=2.0), product of:
              0.106369466 = queryWeight, product of:
                5.934836 = idf(docFreq=317, maxDocs=44218)
                0.017922899 = queryNorm
              0.39342776 = fieldWeight in 4379, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.934836 = idf(docFreq=317, maxDocs=44218)
                0.046875 = fieldNorm(doc=4379)
        0.038042963 = sum of:
          0.0027360192 = weight(_text_:a in 4379) [ClassicSimilarity], result of:
            0.0027360192 = score(doc=4379,freq=6.0), product of:
              0.020665944 = queryWeight, product of:
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.017922899 = queryNorm
              0.13239266 = fieldWeight in 4379, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.046875 = fieldNorm(doc=4379)
          0.014702087 = weight(_text_:29 in 4379) [ClassicSimilarity], result of:
            0.014702087 = score(doc=4379,freq=2.0), product of:
              0.063047156 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.017922899 = queryNorm
              0.23319192 = fieldWeight in 4379, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.046875 = fieldNorm(doc=4379)
          0.020604856 = weight(_text_:22 in 4379) [ClassicSimilarity], result of:
            0.020604856 = score(doc=4379,freq=4.0), product of:
              0.06276294 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.017922899 = queryNorm
              0.32829654 = fieldWeight in 4379, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=4379)
      0.13333334 = coord(4/30)
    
    Abstract
    Am 29. und 30. Oktober 2009 fand in der Königlichen Bibliothek in Den Haag das zweite internationale UDC-Seminar zum Thema "Classification at a Crossroad" statt. Organisiert wurde diese Konferenz - wie auch die erste Konferenz dieser Art im Jahr 2007 - vom UDC-Konsortium (UDCC). Im Mittelpunkt der diesjährigen Veranstaltung stand die Erschließung des World Wide Web unter besserer Nutzung von Klassifikationen (im Besonderen natürlich der UDC), einschließlich benutzerfreundlicher Repräsentationen von Informationen und Wissen. Standards, neue Technologien und Dienste, semantische Suche und der multilinguale Zugriff spielten ebenfalls eine Rolle. 135 Teilnehmer aus 35 Ländern waren dazu nach Den Haag gekommen. Das Programm umfasste mit 22 Vorträgen aus 14 verschiedenen Ländern eine breite Palette, wobei Großbritannien mit fünf Beiträgen am stärksten vertreten war. Die Tagesschwerpunkte wurden an beiden Konferenztagen durch die Eröffnungsvorträge gesetzt, die dann in insgesamt sechs thematischen Sitzungen weiter vertieft wurden.
    Date
    22. 1.2010 15:06:54
    Theme
    Klassifikationssysteme im Online-Retrieval
    Type
    a
  5. Stempfhuber, M.: Verbesserung der Zugänglichkeit heterogen erschlossener Informationen (2008) 0.01
    0.008971652 = product of:
      0.067287385 = sum of:
        0.03429938 = weight(_text_:einzelne in 1681) [ClassicSimilarity], result of:
          0.03429938 = score(doc=1681,freq=2.0), product of:
            0.10548963 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.017922899 = queryNorm
            0.3251446 = fieldWeight in 1681, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1681)
        0.021933276 = weight(_text_:medien in 1681) [ClassicSimilarity], result of:
          0.021933276 = score(doc=1681,freq=2.0), product of:
            0.084356464 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.017922899 = queryNorm
            0.26000705 = fieldWeight in 1681, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1681)
        0.010615941 = weight(_text_:u in 1681) [ClassicSimilarity], result of:
          0.010615941 = score(doc=1681,freq=2.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.1808892 = fieldWeight in 1681, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1681)
        4.3878925E-4 = product of:
          0.0013163678 = sum of:
            0.0013163678 = weight(_text_:a in 1681) [ClassicSimilarity], result of:
              0.0013163678 = score(doc=1681,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.06369744 = fieldWeight in 1681, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1681)
          0.33333334 = coord(1/3)
      0.13333334 = coord(4/30)
    
    Abstract
    Aufgrund der durch die Nutzer verstärkt geforderten Zusammenführung bislang verteilt vorliegender Informationssammlungen an einer Stelle tritt in der Praxis ein Phänomen zu Tage, das mit Blick auf die einzelne Informationssammlung in vielen Fällen bereits als gelöst betrachtet wurde: Heterogenität. Es zeigt sich, dass Standardisierungsansätze oft zu kurz greifen, da sie für die praktische Anwendung keine Modelle bieten, die trotz Standardisierungsbemühungen verbleibenden Unterschiede effizient und wirksam zu behandeln. Der Artikel stellt anhand zweier Beispiele aus dem Bereich der Fachinformation Lösungswege vor, wie in der Praxis Heterogenität zwischen Informationssammlungen auf semantischer Ebene behandelt werden kann. Sie tritt immer dann auf, wenn mehrere Quellen gleichzeitig durchsucht werden sollen, diese aber mit unterschiedlichen Indexierungsvokabularen erschlossen wurden. Am Beispiel statistischer Daten für die Marktforschung und wissenschaftlicher Literaturinformationssysteme werden Lösungen vorgestellt, mit dem Erschließungsvokabulare so aufeinander abgebildet werden können, dass sie Nutzer sowohl bei der Anfrageformulierung unterstützen können als auch bei der Suche eine für den Nutzer transparente und automatische Anfragetransformation ermöglichen. Ziel dieser Verfahren ist es, die kognitive Last beim Nutzer währender der Anfrageformulierung zu verringern und den Recall von Suchen in heterogen erschlossenen Informationssammlungen zu erhöhen.
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
    Type
    a
  6. Balakrishnan, U.; Peters, S.; Voß, J.: Coli-conc : eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen (2021) 0.01
    0.008386338 = product of:
      0.06289753 = sum of:
        0.023009168 = weight(_text_:neue in 368) [ClassicSimilarity], result of:
          0.023009168 = score(doc=368,freq=2.0), product of:
            0.07302189 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.017922899 = queryNorm
            0.3150996 = fieldWeight in 368, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.0546875 = fieldNorm(doc=368)
        0.024411742 = product of:
          0.048823483 = sum of:
            0.048823483 = weight(_text_:dienste in 368) [ClassicSimilarity], result of:
              0.048823483 = score(doc=368,freq=2.0), product of:
                0.106369466 = queryWeight, product of:
                  5.934836 = idf(docFreq=317, maxDocs=44218)
                  0.017922899 = queryNorm
                0.45899904 = fieldWeight in 368, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.934836 = idf(docFreq=317, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=368)
          0.5 = coord(1/2)
        0.014862318 = weight(_text_:u in 368) [ClassicSimilarity], result of:
          0.014862318 = score(doc=368,freq=2.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.25324488 = fieldWeight in 368, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0546875 = fieldNorm(doc=368)
        6.14305E-4 = product of:
          0.001842915 = sum of:
            0.001842915 = weight(_text_:a in 368) [ClassicSimilarity], result of:
              0.001842915 = score(doc=368,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.089176424 = fieldWeight in 368, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=368)
          0.33333334 = coord(1/3)
      0.13333334 = coord(4/30)
    
    Abstract
    coli-conc ist eine Dienstleistung der Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG). Sie stellt webbasierte Dienste für einen effektiveren Austausch von Wissensorganisationssystemen und für die effiziente Erstellung und Wartung von Mappings zur Verfügung. Der Schwerpunkt liegt auf den im deutschsprachigen Raum verbreiteten bibliothekarischen Klassifikationen und Normdateien, vor allem den bedeutenden Universalklassifikationen wie Dewey Dezimalklassifikation (DDC), Regensburger Verbundklassifikation (RVK), Basisklassifikation (BK) und den Sachgruppen der Deutschen Nationalbibliografie (SDNB). Dieser Bericht beschreibt den Hintergrund, die Architektur und die Funktionalitäten von coli-conc sowie das Herzstück der Infrastruktur - das Mapping-Tool Cocoda. Außerdem wird auf Maßnahmen zur Qualitätssicherung eingegangen und ein Einblick in das neue Mapping-Verfahren mit dem Konzept- Hub gewährt.
    Type
    a
  7. Hubrich, J.: Semantische Interoperabilität zwischen Klassifikationen und anderen Wissenssystemen (2018) 0.01
    0.007960221 = product of:
      0.079602204 = sum of:
        0.054879013 = weight(_text_:einzelne in 4272) [ClassicSimilarity], result of:
          0.054879013 = score(doc=4272,freq=2.0), product of:
            0.10548963 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.017922899 = queryNorm
            0.52023137 = fieldWeight in 4272, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0625 = fieldNorm(doc=4272)
        0.024021134 = weight(_text_:u in 4272) [ClassicSimilarity], result of:
          0.024021134 = score(doc=4272,freq=4.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.40930554 = fieldWeight in 4272, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0625 = fieldNorm(doc=4272)
        7.0206285E-4 = product of:
          0.0021061886 = sum of:
            0.0021061886 = weight(_text_:a in 4272) [ClassicSimilarity], result of:
              0.0021061886 = score(doc=4272,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.10191591 = fieldWeight in 4272, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4272)
          0.33333334 = coord(1/3)
      0.1 = coord(3/30)
    
    Abstract
    Heutzutage sind Informationsräume häufig durch die Heterogenität der in ihr enthaltenen Ressourcen geprägt, deren inhaltliche Beschreibungen aus unterschiedlichen Quellen stammen und auf der Basis verschiedener, sich strukturell und typologisch unterscheidender Erschließungsinstrumente erstellt wurden. Einzelne Klassifikationen können in solchen Räumen nur bedingt Suchunterstützung bieten, da sie stets nur auf einen Teilbestand zugreifen. Dieser Artikel beschreibt ausgehend von den Charakteristiken von Indexierungssprachen, wie durch semantische Interoperabilität eine Verbesserung der Retrievalsituation erreicht werden kann.
    Source
    Klassifikationen in Bibliotheken: Theorie - Anwendung - Nutzen. Hrsg. H. Alex, G. Bee u. U. Junger
    Type
    a
  8. Ehrig, M.; Studer, R.: Wissensvernetzung durch Ontologien (2006) 0.01
    0.006658327 = product of:
      0.04993745 = sum of:
        0.02226585 = product of:
          0.0445317 = sum of:
            0.0445317 = weight(_text_:industrie in 5901) [ClassicSimilarity], result of:
              0.0445317 = score(doc=5901,freq=2.0), product of:
                0.12019911 = queryWeight, product of:
                  6.7064548 = idf(docFreq=146, maxDocs=44218)
                  0.017922899 = queryNorm
                0.37048277 = fieldWeight in 5901, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.7064548 = idf(docFreq=146, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5901)
          0.5 = coord(1/2)
        0.01643512 = weight(_text_:neue in 5901) [ClassicSimilarity], result of:
          0.01643512 = score(doc=5901,freq=2.0), product of:
            0.07302189 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.017922899 = queryNorm
            0.22507115 = fieldWeight in 5901, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5901)
        0.010615941 = weight(_text_:u in 5901) [ClassicSimilarity], result of:
          0.010615941 = score(doc=5901,freq=2.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.1808892 = fieldWeight in 5901, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5901)
        6.205418E-4 = product of:
          0.0018616254 = sum of:
            0.0018616254 = weight(_text_:a in 5901) [ClassicSimilarity], result of:
              0.0018616254 = score(doc=5901,freq=4.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.090081796 = fieldWeight in 5901, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5901)
          0.33333334 = coord(1/3)
      0.13333334 = coord(4/30)
    
    Abstract
    In der Informatik sind Ontologien formale Modelle eines Anwendungsbereiches, die die Kommunikation zwischen menschlichen und/oder maschinellen Akteuren unterstützen und damit den Austausch und das Teilen von Wissen in Unternehmen erleichtern. Ontologien zur strukturierten Darstellung von Wissen zu nutzen hat deshalb in den letzten Jahren zunehmende Verbreitung gefunden. Schon heute existieren weltweit tausende Ontologien. Um Interoperabilität zwischen darauf aufbauenden Softwareagenten oder Webservices zu ermöglichen, ist die semantische Integration der Ontologien eine zwingendnotwendige Vorraussetzung. Wie man sieh leicht verdeutlichen kann, ist die rein manuelle Erstellung der Abbildungen ab einer bestimmten Größe. Komplexität und Veränderungsrate der Ontologien nicht mehr ohne weiteres möglich. Automatische oder semiautomatische Technologien müssen den Nutzer darin unterstützen. Das Integrationsproblem beschäftigt Forschung und Industrie schon seit vielen Jahren z. B. im Bereich der Datenbankintegration. Neu ist jedoch die Möglichkeit komplexe semantische Informationen. wie sie in Ontologien vorhanden sind, einzubeziehen. Zur Ontologieintegration wird in diesem Kapitel ein sechsstufiger genereller Prozess basierend auf den semantischen Strukturen eingeführt. Erweiterungen beschäftigen sich mit der Effizienz oder der optimalen Nutzereinbindung in diesen Prozess. Außerdem werden zwei Anwendungen vorgestellt, in denen dieser Prozess erfolgreich umgesetzt wurde. In einem abschließenden Fazit werden neue aktuelle Trends angesprochen. Da die Ansätze prinzipiell auf jedes Schema übertragbar sind, das eine semantische Basis enthält, geht der Einsatzbereich dieser Forschung weit über reine Ontologieanwendungen hinaus.
    Source
    Semantic Web: Wege zur vernetzten Wissensgesellschaft. Hrsg.: T. Pellegrini, u. A. Blumauer
    Type
    a
  9. Mayr, P.: Bradfordizing als Re-Ranking-Ansatz in Literaturinformationssystemen (2011) 0.01
    0.006611064 = product of:
      0.06611064 = sum of:
        0.047905106 = weight(_text_:wirtschaftswissenschaften in 4292) [ClassicSimilarity], result of:
          0.047905106 = score(doc=4292,freq=2.0), product of:
            0.11380646 = queryWeight, product of:
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.017922899 = queryNorm
            0.4209349 = fieldWeight in 4292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.0073510436 = product of:
          0.014702087 = sum of:
            0.014702087 = weight(_text_:29 in 4292) [ClassicSimilarity], result of:
              0.014702087 = score(doc=4292,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.23319192 = fieldWeight in 4292, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4292)
          0.5 = coord(1/2)
        0.010854486 = product of:
          0.01628173 = sum of:
            0.0015796415 = weight(_text_:a in 4292) [ClassicSimilarity], result of:
              0.0015796415 = score(doc=4292,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.07643694 = fieldWeight in 4292, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4292)
            0.014702087 = weight(_text_:29 in 4292) [ClassicSimilarity], result of:
              0.014702087 = score(doc=4292,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.23319192 = fieldWeight in 4292, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4292)
          0.6666667 = coord(2/3)
      0.1 = coord(3/30)
    
    Abstract
    In diesem Artikel wird ein Re-Ranking-Ansatz für Suchsysteme vorgestellt, der die Recherche nach wissenschaftlicher Literatur messbar verbessern kann. Das nichttextorientierte Rankingverfahren Bradfordizing wird eingeführt und anschließend im empirischen Teil des Artikels bzgl. der Effektivität für typische fachbezogene Recherche-Topics evaluiert. Dem Bradford Law of Scattering (BLS), auf dem Bradfordizing basiert, liegt zugrunde, dass sich die Literatur zu einem beliebigen Fachgebiet bzw. -thema in Zonen unterschiedlicher Dokumentenkonzentration verteilt. Dem Kernbereich mit hoher Konzentration der Literatur folgen Bereiche mit mittlerer und geringer Konzentration. Bradfordizing sortiert bzw. rankt eine Dokumentmenge damit nach den sogenannten Kernzeitschriften. Der Retrievaltest mit 164 intellektuell bewerteten Fragestellungen in Fachdatenbanken aus den Bereichen Sozial- und Politikwissenschaften, Wirtschaftswissenschaften, Psychologie und Medizin zeigt, dass die Dokumente der Kernzeitschriften signifikant häufiger relevant bewertet werden als Dokumente der zweiten Dokumentzone bzw. den Peripherie-Zeitschriften. Die Implementierung von Bradfordizing und weiteren Re-Rankingverfahren liefert unmittelbare Mehrwerte für den Nutzer.
    Date
    9. 2.2011 17:47:29
    Type
    a
  10. Darstellung der CrissCross-Mappingrelationen im Rahmen des Semantic Web (2010) 0.01
    0.0056080827 = product of:
      0.042060617 = sum of:
        0.024009569 = weight(_text_:einzelne in 4285) [ClassicSimilarity], result of:
          0.024009569 = score(doc=4285,freq=2.0), product of:
            0.10548963 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.017922899 = queryNorm
            0.22760123 = fieldWeight in 4285, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.0042881086 = product of:
          0.008576217 = sum of:
            0.008576217 = weight(_text_:29 in 4285) [ClassicSimilarity], result of:
              0.008576217 = score(doc=4285,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.13602862 = fieldWeight in 4285, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4285)
          0.5 = coord(1/2)
        0.007431159 = weight(_text_:u in 4285) [ClassicSimilarity], result of:
          0.007431159 = score(doc=4285,freq=2.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.12662244 = fieldWeight in 4285, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.006331783 = product of:
          0.009497674 = sum of:
            9.214575E-4 = weight(_text_:a in 4285) [ClassicSimilarity], result of:
              9.214575E-4 = score(doc=4285,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.044588212 = fieldWeight in 4285, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4285)
            0.008576217 = weight(_text_:29 in 4285) [ClassicSimilarity], result of:
              0.008576217 = score(doc=4285,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.13602862 = fieldWeight in 4285, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4285)
          0.6666667 = coord(2/3)
      0.13333334 = coord(4/30)
    
    Abstract
    Im Rahmen des CrissCross-Projekts wurde ein multilinguales, thesaurusbasiertes Recherchevokabular zu heterogen erschlossenen Dokumenten geschaffen. Dieses Recherchevokabular besteht unter anderem aus den Sachschlagwörtern der Schlagwortnormdatei (SWD) und den Notationen der Dewey-Dezimalklassifikation (DDC). Die Schlagwortnormdatei bietet einen normierten, terminologisch kontrollierten Wortschatz an. Sie enthält Schlagwörter aus allen Fachgebieten und Schlagwortkategorien, die durch die beteiligten Bibliotheken zur verbalen Inhaltserschließung genutzt und dabei täglich aktualisiert werden. Unter anderem wird die Schlagwortnormdatei auch zur verbalen Erschließung der Deutschen Nationalbibliografie verwendet. Während der verbalen Erschließung wird jedem Inhalt mindestens eine Schlagwortfolge zugewiesen. Schlagwortfolgen werden dazu benutzt, um die komplexen Themen eines Dokuments zu beschreiben. Zusätzlich wird für den Neuerscheinungsdienst der Deutschen Nationalbibliografie seit dem Jahrgang 2004 jeder Titel noch mindestens einer Sachgruppe zugewiesen. Die Strukturierung der Sachgruppen orientiert sich dabei weitestgehend an der zweiten Ebene der Dewey-Dezimalklassifikation. Die Dewey-Dezimalklassifikation ist eine international weit verbreitete Universalklassifikation. Von ihr existieren zahlreiche Übersetzungen, u. a. ins Deutsche. Seit Januar 2006 wird die DDC gemeinsam mit der SWD zur Inhaltserschließung in der Deutschen Nationalbibliografie verwendet. Bei der Inhaltserschließung mit Hilfe der DDC wird jedem Inhalt eine einzelne DDC-Notation zugewiesen. Komplexe Themen werden dabei durch die Synthese von zwei oder mehr Notationen zu einer neuen Notation dargestellt. Somit ist die DDC-Notation sowohl vergleichbar mit SWD-Schlagwörtern als auch mit ganzen Schlagwortfolgen.
    Pages
    29 S
  11. Dolud, L.; Kreis, C: ¬Die Crosskonkordanz Wirtschaft zwischen dem STW und der GND (2012) 0.01
    0.0055667097 = product of:
      0.08350064 = sum of:
        0.08297409 = weight(_text_:wirtschaftswissenschaften in 1716) [ClassicSimilarity], result of:
          0.08297409 = score(doc=1716,freq=6.0), product of:
            0.11380646 = queryWeight, product of:
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.017922899 = queryNorm
            0.7290807 = fieldWeight in 1716, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.046875 = fieldNorm(doc=1716)
        5.265472E-4 = product of:
          0.0015796415 = sum of:
            0.0015796415 = weight(_text_:a in 1716) [ClassicSimilarity], result of:
              0.0015796415 = score(doc=1716,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.07643694 = fieldWeight in 1716, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1716)
          0.33333334 = coord(1/3)
      0.06666667 = coord(2/30)
    
    Abstract
    Bibliotheken erarbeiten mit öffentlichen Mitteln unter hohem zeitlichem, personellem und finanziellem Aufwand wertvolle und nützliche Datenbestände. Was liegt im Sinne eines effizienten Ressourceneinsatzes näher, als solche Daten einer kooperativen Nutzung zuzuführen? Diese Frage mündete in den Jahren 2002 bis 2004 in einem DFG-finanzierten Projekt, an dem seinerzeit die Deutsche Bibliothek, das Hamburger Weltwirtschaftsarchiv, die Deutsche Zentralbibliothek für Wirtschaftswissenschaften Kiel (heute ZBW - Deutsche Zentralbibliothek für Wirtschaftswissenschaften - Leibniz-Informationszentrum Wirtschaft), der Gemeinsame Bibliotheksverbund und die Universitäts- und Stadtbibliothek Köln beteiligt waren. Ziel war es, den normierten Wortschatz des STW (Standard-Thesaurus Wirtschaft) mit dem wirtschaftswissenschaftlichen Teil der damaligen Schlagwortnormdatei (SWD) zu relationieren. Die Crosskonkordanz STW-GND bzw. Crosskonkordanz Wirtschaft wird mittlerweile durch die DNB und die ZBW in gemeinsamer Verantwortung weiterentwickelt und laufend gepflegt. Dabei han-delt es sich vor allem um die Anpassung der Crosskonkordanz nach redaktionellen Änderungen durch kontinuierliche Einarbeitung neuer bzw. geänderter oder gelöschter Deskriptoren.
    Field
    Wirtschaftswissenschaften
    Type
    a
  12. Ledl, A.: ¬The BAsel Register of Thesauri, Ontologies & Classifications (BARTOC) (2015) 0.01
    0.00528593 = product of:
      0.0528593 = sum of:
        0.01225174 = product of:
          0.02450348 = sum of:
            0.02450348 = weight(_text_:29 in 2308) [ClassicSimilarity], result of:
              0.02450348 = score(doc=2308,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.38865322 = fieldWeight in 2308, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2308)
          0.5 = coord(1/2)
        0.021231882 = weight(_text_:u in 2308) [ClassicSimilarity], result of:
          0.021231882 = score(doc=2308,freq=2.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.3617784 = fieldWeight in 2308, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.078125 = fieldNorm(doc=2308)
        0.019375676 = product of:
          0.029063514 = sum of:
            0.0045600324 = weight(_text_:a in 2308) [ClassicSimilarity], result of:
              0.0045600324 = score(doc=2308,freq=6.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.22065444 = fieldWeight in 2308, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2308)
            0.02450348 = weight(_text_:29 in 2308) [ClassicSimilarity], result of:
              0.02450348 = score(doc=2308,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.38865322 = fieldWeight in 2308, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2308)
          0.6666667 = coord(2/3)
      0.1 = coord(3/30)
    
    Source
    Classification and authority control: expanding resource discovery: proceedings of the International UDC Seminar 2015, 29-30 October 2015, Lisbon, Portugal. Eds.: Slavic, A. u. M.I. Cordeiro
    Type
    a
  13. Garcia Marco, F.J.: Compatibility & heterogeneity in knowledge organization : some reflections around a case study in the field of consumer information (2008) 0.00
    0.004341872 = product of:
      0.043418717 = sum of:
        0.021933276 = weight(_text_:medien in 1678) [ClassicSimilarity], result of:
          0.021933276 = score(doc=1678,freq=2.0), product of:
            0.084356464 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.017922899 = queryNorm
            0.26000705 = fieldWeight in 1678, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1678)
        0.010615941 = weight(_text_:u in 1678) [ClassicSimilarity], result of:
          0.010615941 = score(doc=1678,freq=2.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.1808892 = fieldWeight in 1678, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1678)
        0.010869498 = product of:
          0.016304247 = sum of:
            0.0041627204 = weight(_text_:a in 1678) [ClassicSimilarity], result of:
              0.0041627204 = score(doc=1678,freq=20.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.20142901 = fieldWeight in 1678, product of:
                  4.472136 = tf(freq=20.0), with freq of:
                    20.0 = termFreq=20.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1678)
            0.012141528 = weight(_text_:22 in 1678) [ClassicSimilarity], result of:
              0.012141528 = score(doc=1678,freq=2.0), product of:
                0.06276294 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.017922899 = queryNorm
                0.19345059 = fieldWeight in 1678, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1678)
          0.6666667 = coord(2/3)
      0.1 = coord(3/30)
    
    Abstract
    A case study in compatibility and heterogeneity of knowledge organization (KO) systems and processes is presented. It is based in the experience of the author in the field of information for consumer protection, a good example of the emerging transdisciplinary applied social sciences. The activities and knowledge organization problems and solutions of the Aragonian Consumers' Information and Documentation Centre are described and analyzed. Six assertions can be concluded: a) heterogeneity and compatibility are certainly an inherent problem in knowledge organization and also in practical domains; b) knowledge organization is also a social task, not only a lögical one; c) knowledge organization is affected by economical and efficiency considerations; d) knowledge organization is at the heart of Knowledge Management; e) identifying and maintaining the focus in interdisciplinary fields is a must; f the different knowledge organization tools of a institution must be considered as an integrated system, pursuing a unifying model.
    Date
    16. 3.2008 18:22:50
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
    Type
    a
  14. Woldering, B.: ¬Die Europäische Digitale Bibliothek nimmt Gestalt an (2007) 0.00
    0.004301503 = product of:
      0.043015026 = sum of:
        0.0049006958 = product of:
          0.0098013915 = sum of:
            0.0098013915 = weight(_text_:29 in 2439) [ClassicSimilarity], result of:
              0.0098013915 = score(doc=2439,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.15546128 = fieldWeight in 2439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2439)
          0.5 = coord(1/2)
        0.017546622 = weight(_text_:medien in 2439) [ClassicSimilarity], result of:
          0.017546622 = score(doc=2439,freq=2.0), product of:
            0.084356464 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.017922899 = queryNorm
            0.20800565 = fieldWeight in 2439, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.020567708 = sum of:
          0.0010530943 = weight(_text_:a in 2439) [ClassicSimilarity], result of:
            0.0010530943 = score(doc=2439,freq=2.0), product of:
              0.020665944 = queryWeight, product of:
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.017922899 = queryNorm
              0.050957955 = fieldWeight in 2439, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.03125 = fieldNorm(doc=2439)
          0.0098013915 = weight(_text_:29 in 2439) [ClassicSimilarity], result of:
            0.0098013915 = score(doc=2439,freq=2.0), product of:
              0.063047156 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.017922899 = queryNorm
              0.15546128 = fieldWeight in 2439, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.03125 = fieldNorm(doc=2439)
          0.009713221 = weight(_text_:22 in 2439) [ClassicSimilarity], result of:
            0.009713221 = score(doc=2439,freq=2.0), product of:
              0.06276294 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.017922899 = queryNorm
              0.15476047 = fieldWeight in 2439, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=2439)
      0.1 = coord(3/30)
    
    Abstract
    Der Aufbau der Europäischen Digitalen Bibliothek wurde im Herbst 2007 auf soliden Grund gestellt: Mit der European Digital Library Foundation steht eine geschäftsfähige Organisation als Trägerin der Europäischen Digitalen Bibliothek zur Verfügung. Sie fungiert zunächst als Steuerungsgremium für das EU-finanzierte Projekt EDLnet und übernimmt sukzessive die Aufgaben, die für den Aufbau und die Weiterentwicklung der Europäischen Digitalen Bibliothek notwendig sind. Die Gründungsmitglieder sind zehn europäische Dachorganisationen aus den Bereichen Bibliothek, Archiv, audiovisuelle Sammlungen und Museen. Vorstandsmitglieder sind die Vorsitzende Elisabeth Niggemann (CENL) die Vize-Vorsitzende Martine de Boisdeffre (EURBICA), der Schatzmeister Edwin van Huis (FIAT) sowie Wim van Drimmelen, der Generaldirektor der Koninklijke Bibliotheek, der Nationalbibliothek der Niederlande, welche die Europäische Digitale Bibliothek hostet. Der Prototyp für die Europäische Digitale Bibliothek wird im Rahmen des EDLnet-Projekts entwickelt. Die erste Version des Prototyps wurde auf der internationalen Konferenz »One more step towards the European Digital Library« vorgestellt, die am 31. Januar und 1. Februar 2008 in der Deutschen Nationalbibliothek (DNB) in Frankfurt am Main stattfand. Die endgültige Version des Prototyps wird im November 2008 von der EU-Kommissarin für Informationsgesellschaft und Medien, Viviane Reding, in Paris vorgestellt werden. Dieser Prototyp wird direkten Zugang zu mindestens zwei Mio. digitalisierten Büchern, Fotografien, Karten, Tonaufzeichnungen, Filmaufnahmen und Archivalien aus Bibliotheken, Archiven, audiovisuellen Sammlungen und Museen Europas bieten.
    Date
    22. 2.2009 19:10:56
    Source
    Dialog mit Bibliotheken. 20(2008) H.1, S.29-31
    Type
    a
  15. Siwecka, D.: Knowledge organization systems used in European national libraries towards interoperability of the semantic Web (2018) 0.00
    0.0041259546 = product of:
      0.041259546 = sum of:
        0.0098013915 = product of:
          0.019602783 = sum of:
            0.019602783 = weight(_text_:29 in 4815) [ClassicSimilarity], result of:
              0.019602783 = score(doc=4815,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.31092256 = fieldWeight in 4815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4815)
          0.5 = coord(1/2)
        0.016985506 = weight(_text_:u in 4815) [ClassicSimilarity], result of:
          0.016985506 = score(doc=4815,freq=2.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.28942272 = fieldWeight in 4815, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0625 = fieldNorm(doc=4815)
        0.014472648 = product of:
          0.02170897 = sum of:
            0.0021061886 = weight(_text_:a in 4815) [ClassicSimilarity], result of:
              0.0021061886 = score(doc=4815,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.10191591 = fieldWeight in 4815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4815)
            0.019602783 = weight(_text_:29 in 4815) [ClassicSimilarity], result of:
              0.019602783 = score(doc=4815,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.31092256 = fieldWeight in 4815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4815)
          0.6666667 = coord(2/3)
      0.1 = coord(3/30)
    
    Date
    18. 1.2019 18:46:29
    Source
    Challenges and opportunities for knowledge organization in the digital age: proceedings of the Fifteenth International ISKO Conference, 9-11 July 2018, Porto, Portugal / organized by: International Society for Knowledge Organization (ISKO), ISKO Spain and Portugal Chapter, University of Porto - Faculty of Arts and Humanities, Research Centre in Communication, Information and Digital Culture (CIC.digital) - Porto. Eds.: F. Ribeiro u. M.E. Cerveira
    Type
    a
  16. Niggemann, E.: Wer suchet, der findet? : Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek (2006) 0.00
    0.0040764348 = product of:
      0.040764347 = sum of:
        0.02503327 = product of:
          0.05006654 = sum of:
            0.05006654 = weight(_text_:dienstleistungen in 5812) [ClassicSimilarity], result of:
              0.05006654 = score(doc=5812,freq=2.0), product of:
                0.10771505 = queryWeight, product of:
                  6.009912 = idf(docFreq=294, maxDocs=44218)
                  0.017922899 = queryNorm
                0.46480542 = fieldWeight in 5812, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.009912 = idf(docFreq=294, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5812)
          0.5 = coord(1/2)
        0.014862318 = weight(_text_:u in 5812) [ClassicSimilarity], result of:
          0.014862318 = score(doc=5812,freq=2.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.25324488 = fieldWeight in 5812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        8.6875854E-4 = product of:
          0.0026062755 = sum of:
            0.0026062755 = weight(_text_:a in 5812) [ClassicSimilarity], result of:
              0.0026062755 = score(doc=5812,freq=4.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.12611452 = fieldWeight in 5812, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5812)
          0.33333334 = coord(1/3)
      0.1 = coord(3/30)
    
    Abstract
    Elektronische Bibliothekskataloge und Bibliografien haben ihr Monopol bei der Suche nach Büchern, Aufsätzen, musikalischen Werken u. a. verloren. Globale Suchmaschinen sind starke Konkurrenten, und Bibliotheken müssen heute so planen, dass ihre Dienstleistungen auch morgen noch interessant sind. Die Deutsche Bibliothek (DDB) wird ihre traditionelle Katalogrecherche zu einem globalen, netzbasierten Informationssystem erweitern, das die Vorteile der neutralen, qualitätsbasierten Katalogsuche mit den Vorteilen moderner Suchmaschinen zu verbinden sucht. Dieser Beitrag beschäftigt sich mit der Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek. Weitere Entwicklungsstränge sollen nur kurz im Ausblick angerissen werden.
    Type
    a
  17. Sieglerschmidt, J.: Convergence of internet services in the cultural heritage sector : the long way to common vocabularies, metadata formats, ontologies (2008) 0.00
    0.003997107 = product of:
      0.03997107 = sum of:
        0.026319932 = weight(_text_:medien in 1686) [ClassicSimilarity], result of:
          0.026319932 = score(doc=1686,freq=2.0), product of:
            0.084356464 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.017922899 = queryNorm
            0.31200847 = fieldWeight in 1686, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.046875 = fieldNorm(doc=1686)
        0.012739129 = weight(_text_:u in 1686) [ClassicSimilarity], result of:
          0.012739129 = score(doc=1686,freq=2.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.21706703 = fieldWeight in 1686, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.046875 = fieldNorm(doc=1686)
        9.120064E-4 = product of:
          0.0027360192 = sum of:
            0.0027360192 = weight(_text_:a in 1686) [ClassicSimilarity], result of:
              0.0027360192 = score(doc=1686,freq=6.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.13239266 = fieldWeight in 1686, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1686)
          0.33333334 = coord(1/3)
      0.1 = coord(3/30)
    
    Abstract
    Since several years it has been observed that information offered by different knowledge producing institutions on the internet is more and more interlinked. This tendency will increase, because the fragmented information offers on the internet make the retrieval of information difficult as even impossible. At the same time the quantity of information offered on the internet grows exponentially in Europe - and elsewhere - due to many digitization projects. Insofar as funding institutions base the acceptance of projects on the observation of certain documentation standards the knowledge created will be retrievable and will remain so for a longer time. Otherwise the retrieval of information will become a matter of chance due to the limits of fragmented, knowledge producing social groups.
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
    Type
    a
  18. Mayr, P.; Walter, A.-K.: Mapping Knowledge Organization Systems (2008) 0.00
    0.003980371 = product of:
      0.03980371 = sum of:
        0.026319932 = weight(_text_:medien in 1676) [ClassicSimilarity], result of:
          0.026319932 = score(doc=1676,freq=2.0), product of:
            0.084356464 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.017922899 = queryNorm
            0.31200847 = fieldWeight in 1676, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.046875 = fieldNorm(doc=1676)
        0.012739129 = weight(_text_:u in 1676) [ClassicSimilarity], result of:
          0.012739129 = score(doc=1676,freq=2.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.21706703 = fieldWeight in 1676, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.046875 = fieldNorm(doc=1676)
        7.446501E-4 = product of:
          0.0022339502 = sum of:
            0.0022339502 = weight(_text_:a in 1676) [ClassicSimilarity], result of:
              0.0022339502 = score(doc=1676,freq=4.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.10809815 = fieldWeight in 1676, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1676)
          0.33333334 = coord(1/3)
      0.1 = coord(3/30)
    
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
    Type
    a
  19. Mitchell, J.S.; Zeng, M.L.; Zumer, M.: Modeling classification systems in multicultural and multilingual contexts (2012) 0.00
    0.0036870055 = product of:
      0.05530508 = sum of:
        0.040079206 = weight(_text_:post in 1967) [ClassicSimilarity], result of:
          0.040079206 = score(doc=1967,freq=2.0), product of:
            0.10409636 = queryWeight, product of:
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.017922899 = queryNorm
            0.38502026 = fieldWeight in 1967, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.046875 = fieldNorm(doc=1967)
        0.0152258715 = product of:
          0.022838807 = sum of:
            0.0022339502 = weight(_text_:a in 1967) [ClassicSimilarity], result of:
              0.0022339502 = score(doc=1967,freq=4.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.10809815 = fieldWeight in 1967, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1967)
            0.020604856 = weight(_text_:22 in 1967) [ClassicSimilarity], result of:
              0.020604856 = score(doc=1967,freq=4.0), product of:
                0.06276294 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.017922899 = queryNorm
                0.32829654 = fieldWeight in 1967, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1967)
          0.6666667 = coord(2/3)
      0.06666667 = coord(2/30)
    
    Abstract
    This paper reports on the second part of an initiative of the authors on researching classification systems with the conceptual model defined by the Functional Requirements for Subject Authority Data (FRSAD) final report. In an earlier study, the authors explored whether the FRSAD conceptual model could be extended beyond subject authority data to model classification data. The focus of the current study is to determine if classification data modeled using FRSAD can be used to solve real-world discovery problems in multicultural and multilingual contexts. The paper discusses the relationships between entities (same type or different types) in the context of classification systems that involve multiple translations and /or multicultural implementations. Results of two case studies are presented in detail: (a) two instances of the DDC (DDC 22 in English, and the Swedish-English mixed translation of DDC 22), and (b) Chinese Library Classification. The use cases of conceptual models in practice are also discussed.
    Source
    Beyond libraries - subject metadata in the digital environment and semantic web. IFLA Satellite Post-Conference, 17-18 August 2012, Tallinn
    Type
    a
  20. Galinski, C.: Wozu Normen? : Wozu semantische Interoperabilität? (2006) 0.00
    0.003494087 = product of:
      0.03494087 = sum of:
        0.02145709 = product of:
          0.04291418 = sum of:
            0.04291418 = weight(_text_:dienstleistungen in 5811) [ClassicSimilarity], result of:
              0.04291418 = score(doc=5811,freq=2.0), product of:
                0.10771505 = queryWeight, product of:
                  6.009912 = idf(docFreq=294, maxDocs=44218)
                  0.017922899 = queryNorm
                0.39840466 = fieldWeight in 5811, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.009912 = idf(docFreq=294, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5811)
          0.5 = coord(1/2)
        0.012739129 = weight(_text_:u in 5811) [ClassicSimilarity], result of:
          0.012739129 = score(doc=5811,freq=2.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.21706703 = fieldWeight in 5811, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.046875 = fieldNorm(doc=5811)
        7.446501E-4 = product of:
          0.0022339502 = sum of:
            0.0022339502 = weight(_text_:a in 5811) [ClassicSimilarity], result of:
              0.0022339502 = score(doc=5811,freq=4.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.10809815 = fieldWeight in 5811, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5811)
          0.33333334 = coord(1/3)
      0.1 = coord(3/30)
    
    Abstract
    Das Internet beginnt sein volles Potential als Kommunikationsraum zu entfalten. Das betrifft vor allem auch die distribuierte dynamische Erstellung und Wartung von strukturiertem Content. Dabei handelt es sich um datenbankmäßig strukturierte Daten (basierend auf Metadaten, generischen Datenmodellen und Metamodellen), die über die Attribute verfügen, welche ihre Qualität und damit das Vertrauen der Nutzer bestimmen. Da Fachwissen hochgradig "selbstreferenziell" ist, muss "smart content" einen Teil seines Kontexts - zumindest in Form von Verweisen - mit sich führen. Hinzu kommen Anforderungen an Contenteinheiten, grundsätzlich mehrsprachig. multimodal, multimedia sein zu können und hochgradige Personalisierung, Barrierefreiheit und unterschiedlichste Ausgabeformate zu unterstützen. Die Großindustrie weiß, dass eBusiness vom Ansatz her mehrsprachig angelegt sein muss, um Produkte und Dienstleistungen in der Sprache und Kultur der Zielmärkte verkaufen zu können. Viele Normungsaktivitäten zielen auf die Methoden der entsprechenden Datenmodellierung ab. Die Methodennormen von ISO/TC 37 "Terminologie und andere Sprach-, sowie Contentressourcen" haben sich bislang als die "generischsten" für fachsprachliche Contenteinheiten erwiesen, und bewähren sich auch für nicht-wortsprachliche Contenteinheiten auf der Ebene der lexikalischen Semantik.
    Source
    Semantic Web: Wege zur vernetzten Wissensgesellschaft. Hrsg.: T. Pellegrini, u. A. Blumauer
    Type
    a

Years

Languages

  • e 225
  • d 71
  • no 1
  • pt 1
  • More… Less…

Types

  • a 219
  • el 88
  • m 15
  • x 9
  • s 6
  • r 5
  • p 2
  • n 1
  • More… Less…

Subjects