Search (208 results, page 1 of 11)

  • × theme_ss:"Semantische Interoperabilität"
  1. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.23
    0.22872917 = product of:
      0.5082871 = sum of:
        0.034482133 = product of:
          0.103446394 = sum of:
            0.103446394 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.103446394 = score(doc=1000,freq=2.0), product of:
                0.22087488 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.026052676 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.103446394 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.103446394 = score(doc=1000,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.012245354 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.012245354 = score(doc=1000,freq=6.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.015609349 = weight(_text_:des in 1000) [ClassicSimilarity], result of:
          0.015609349 = score(doc=1000,freq=4.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.21635216 = fieldWeight in 1000, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.103446394 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.103446394 = score(doc=1000,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.019919295 = weight(_text_:im in 1000) [ClassicSimilarity], result of:
          0.019919295 = score(doc=1000,freq=6.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.27047595 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.103446394 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.103446394 = score(doc=1000,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.103446394 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.103446394 = score(doc=1000,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.012245354 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.012245354 = score(doc=1000,freq=6.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.45 = coord(9/20)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  2. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.16
    0.1568937 = product of:
      0.6275748 = sum of:
        0.048274986 = product of:
          0.14482495 = sum of:
            0.14482495 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.14482495 = score(doc=306,freq=2.0), product of:
                0.22087488 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.026052676 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.14482495 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.14482495 = score(doc=306,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.14482495 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.14482495 = score(doc=306,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.14482495 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.14482495 = score(doc=306,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.14482495 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.14482495 = score(doc=306,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.25 = coord(5/20)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  3. Mayr, P.; Walter, A.-K.: Einsatzmöglichkeiten von Crosskonkordanzen (2007) 0.04
    0.041795917 = product of:
      0.13931972 = sum of:
        0.009923108 = product of:
          0.029769324 = sum of:
            0.029769324 = weight(_text_:p in 162) [ClassicSimilarity], result of:
              0.029769324 = score(doc=162,freq=2.0), product of:
                0.09367272 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.026052676 = queryNorm
                0.31780142 = fieldWeight in 162, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0625 = fieldNorm(doc=162)
          0.33333334 = coord(1/3)
        0.015997263 = weight(_text_:und in 162) [ClassicSimilarity], result of:
          0.015997263 = score(doc=162,freq=4.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.27704588 = fieldWeight in 162, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=162)
        0.017659962 = weight(_text_:des in 162) [ClassicSimilarity], result of:
          0.017659962 = score(doc=162,freq=2.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.24477452 = fieldWeight in 162, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=162)
        0.026022457 = weight(_text_:im in 162) [ClassicSimilarity], result of:
          0.026022457 = score(doc=162,freq=4.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.35334828 = fieldWeight in 162, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=162)
        0.015997263 = weight(_text_:und in 162) [ClassicSimilarity], result of:
          0.015997263 = score(doc=162,freq=4.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.27704588 = fieldWeight in 162, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=162)
        0.05371967 = weight(_text_:deutschland in 162) [ClassicSimilarity], result of:
          0.05371967 = score(doc=162,freq=2.0), product of:
            0.12583323 = queryWeight, product of:
              4.829954 = idf(docFreq=959, maxDocs=44218)
              0.026052676 = queryNorm
            0.42691165 = fieldWeight in 162, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.829954 = idf(docFreq=959, maxDocs=44218)
              0.0625 = fieldNorm(doc=162)
      0.3 = coord(6/20)
    
    Abstract
    Der Beitrag stellt Einsatzmöglichkeiten und spezifische Problembereiche von Crosskonkordanzen (CK) im Projekt "Kompetenznetzwerk Modellbildung und Heterogenitätsbehand lung" (KoMoHe) so wie das Netz der bis dato entstandenen Terminologie-Überstiege vor. Die am IZ entstandenen CK sollen künftig über einen Terminologie-Service als Web Service genutzt werden, dieser wird im Beitrag exemplarisch vorgestellt. Des Weiteren wird ein Testszenario samt Evaluationsdesign beschrieben über das der Mehrwert von Crosskonkordanzen empirisch untersucht werden kann.
    Content
    Auch in: Lokal-Global: Vernetzung wissenschaftlicher Infrastrukturen; 12. Kongress der IuK-Initiative der Wissenschaftlichen Fachgesellschaft in Deutschland, Tagungsberichte, GESIS-IZ Sozialwissenschaft, Bonn, S.149-166.
  4. Woldering, B.: ¬Die Europäische Digitale Bibliothek nimmt Gestalt an (2007) 0.04
    0.040212158 = product of:
      0.13404052 = sum of:
        0.024653438 = weight(_text_:und in 2439) [ClassicSimilarity], result of:
          0.024653438 = score(doc=2439,freq=38.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.42695636 = fieldWeight in 2439, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.019744437 = weight(_text_:des in 2439) [ClassicSimilarity], result of:
          0.019744437 = score(doc=2439,freq=10.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.27366623 = fieldWeight in 2439, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.02550572 = weight(_text_:medien in 2439) [ClassicSimilarity], result of:
          0.02550572 = score(doc=2439,freq=2.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            0.20800565 = fieldWeight in 2439, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.020572558 = weight(_text_:im in 2439) [ClassicSimilarity], result of:
          0.020572558 = score(doc=2439,freq=10.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.27934635 = fieldWeight in 2439, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.024653438 = weight(_text_:und in 2439) [ClassicSimilarity], result of:
          0.024653438 = score(doc=2439,freq=38.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.42695636 = fieldWeight in 2439, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.018910926 = product of:
          0.028366387 = sum of:
            0.014247275 = weight(_text_:29 in 2439) [ClassicSimilarity], result of:
              0.014247275 = score(doc=2439,freq=2.0), product of:
                0.09164517 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026052676 = queryNorm
                0.15546128 = fieldWeight in 2439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2439)
            0.014119112 = weight(_text_:22 in 2439) [ClassicSimilarity], result of:
              0.014119112 = score(doc=2439,freq=2.0), product of:
                0.09123203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026052676 = queryNorm
                0.15476047 = fieldWeight in 2439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2439)
          0.6666667 = coord(2/3)
      0.3 = coord(6/20)
    
    Abstract
    Der Aufbau der Europäischen Digitalen Bibliothek wurde im Herbst 2007 auf soliden Grund gestellt: Mit der European Digital Library Foundation steht eine geschäftsfähige Organisation als Trägerin der Europäischen Digitalen Bibliothek zur Verfügung. Sie fungiert zunächst als Steuerungsgremium für das EU-finanzierte Projekt EDLnet und übernimmt sukzessive die Aufgaben, die für den Aufbau und die Weiterentwicklung der Europäischen Digitalen Bibliothek notwendig sind. Die Gründungsmitglieder sind zehn europäische Dachorganisationen aus den Bereichen Bibliothek, Archiv, audiovisuelle Sammlungen und Museen. Vorstandsmitglieder sind die Vorsitzende Elisabeth Niggemann (CENL) die Vize-Vorsitzende Martine de Boisdeffre (EURBICA), der Schatzmeister Edwin van Huis (FIAT) sowie Wim van Drimmelen, der Generaldirektor der Koninklijke Bibliotheek, der Nationalbibliothek der Niederlande, welche die Europäische Digitale Bibliothek hostet. Der Prototyp für die Europäische Digitale Bibliothek wird im Rahmen des EDLnet-Projekts entwickelt. Die erste Version des Prototyps wurde auf der internationalen Konferenz »One more step towards the European Digital Library« vorgestellt, die am 31. Januar und 1. Februar 2008 in der Deutschen Nationalbibliothek (DNB) in Frankfurt am Main stattfand. Die endgültige Version des Prototyps wird im November 2008 von der EU-Kommissarin für Informationsgesellschaft und Medien, Viviane Reding, in Paris vorgestellt werden. Dieser Prototyp wird direkten Zugang zu mindestens zwei Mio. digitalisierten Büchern, Fotografien, Karten, Tonaufzeichnungen, Filmaufnahmen und Archivalien aus Bibliotheken, Archiven, audiovisuellen Sammlungen und Museen Europas bieten.
    Content
    Darin u.a. "Interoperabilität als Kernstück - Technische und semantische Interoperabilität bilden somit das Kernstück für das Funktionieren der Europäischen Digitalen Bibliothek. Doch bevor Wege gefunden werden können, wie etwas funktionieren kann, muss zunächst einmal festgelegt werden, was funktionieren soll. Hierfür sind die Nutzeranforderungen das Maß aller Dinge, weshalb sich ein ganzes Arbeitspaket in EDLnet mit der Nutzersicht, den Nutzeranforderungen und der Nutzbarkeit der Europäischen Digitalen Bibliothek befasst, Anforderungen formuliert und diese im Arbeitspaket »Interoperabilität« umgesetzt werden. Für die Entscheidung, welche Inhalte wie präsentiert werden, sind jedoch nicht allein technische und semantische Fragestellungen zu klären, sondern auch ein Geschäftsmodell zu entwickeln, das festlegt, was die beteiligten Institutionen und Organisationen in welcher Form zu welchen Bedingungen zur Europäischen Digitalen Bibliothek beitragen. Auch das Geschäftsmodell wird Auswirkungen auf technische und semantische Interoperabilität haben und liefert die daraus abgeleiteten Anforderungen zur Umsetzung an das entsprechende Arbeitspaket. Im EDLnet-Projekt ist somit ein ständiger Arbeitskreislauf installiert, in welchem die Anforderungen an die Europäische Digitale Bibliothek formuliert, an das Interoperabilitäts-Arbeitspaket weitergegeben und dort umgesetzt werden. Diese Lösung wird wiederum an die Arbeitspakete »Nutzersicht« und »Geschäftsmodell« zurückgemeldet, getestet, kommentiert und für die Kommentare wiederum technische Lösungen gesucht. Dies ist eine Form des »rapid prototyping«, das hier zur Anwendung kommt, d. h. die Funktionalitäten werden schrittweise gemäß des Feedbacks der zukünftigen Nutzer sowie der Projektpartner erweitert und gleichzeitig wird der Prototyp stets lauffähig gehalten und bis zur Produktreife weiterentwickelt. Hierdurch verspricht man sich ein schnelles Ergebnis bei geringem Risiko einer Fehlentwicklung durch das ständige Feedback."
    Date
    22. 2.2009 19:10:56
    Source
    Dialog mit Bibliotheken. 20(2008) H.1, S.29-31
  5. Heel, F.: Abbildungen zwischen der Dewey-Dezimalklassifikation (DDC), der Regensburger Verbundklassifikation (RVK) und der Schlagwortnormdatei (SWD) für die Recherche in heterogen erschlossenen Datenbeständen : Möglichkeiten und Problembereiche (2007) 0.04
    0.039244123 = product of:
      0.15697649 = sum of:
        0.026452988 = weight(_text_:und in 4434) [ClassicSimilarity], result of:
          0.026452988 = score(doc=4434,freq=28.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.45812157 = fieldWeight in 4434, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4434)
        0.04508817 = weight(_text_:medien in 4434) [ClassicSimilarity], result of:
          0.04508817 = score(doc=4434,freq=4.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            0.36770552 = fieldWeight in 4434, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4434)
        0.01150041 = weight(_text_:im in 4434) [ClassicSimilarity], result of:
          0.01150041 = score(doc=4434,freq=2.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.15615936 = fieldWeight in 4434, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4434)
        0.026452988 = weight(_text_:und in 4434) [ClassicSimilarity], result of:
          0.026452988 = score(doc=4434,freq=28.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.45812157 = fieldWeight in 4434, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4434)
        0.04748193 = weight(_text_:deutschland in 4434) [ClassicSimilarity], result of:
          0.04748193 = score(doc=4434,freq=4.0), product of:
            0.12583323 = queryWeight, product of:
              4.829954 = idf(docFreq=959, maxDocs=44218)
              0.026052676 = queryNorm
            0.37734017 = fieldWeight in 4434, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.829954 = idf(docFreq=959, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4434)
      0.25 = coord(5/20)
    
    Abstract
    Eine einheitliche Sacherschließung in Deutschland wird durch die Vielzahl an vorhandenen und verwendeten Erschließungssystemen, Universal-, Fachklassifikationen und Fachthesauri erschwert. Den Benutzern von Bibliothekskatalogen oder Datenbanken fällt es daher schwer, themenspezifische Recherchen in heterogen erschlossenen Datenbeständen durchzuführen. In diesem Fall müssen die Nutzer derzeit nämlich den Umgang mit mehreren Erschließungsinstrumenten erlernen und verschiedene Suchanfragen anwenden, um das gewünschte Rechercheergebnis datenbankübergreifend zu erreichen. Um dem Benutzer einen einheitlichen Zugang zu heterogen erschlossenen Datenbeständen zu gewährleisten und gleichzeitig auch den Arbeitsaufwand für die Bibliothekare zu reduzieren, ist die Erstellung eines so genannten "Integrierten Retrievals" sinnvoll. Durch die Verknüpfung der unterschiedlichen Sacherschließungssysteme mit Hilfe von Konkordanzen wird es dem Nutzer ermöglicht, mit einem ihm vertrauten Vokabular eine sachliche Recherche in unterschiedlich erschlossenen Datenbeständen durchzuführen, ohne die spezifischen Besonderheiten der verschiedenen Erschließungsinstrumente kennen zu müssen. In dieser Arbeit sind exemplarisch drei Abbildungen für den Fachbereich der Bibliotheks- und Informationswissenschaften zwischen den für Deutschland wichtigsten Sacherschließungssystemen Dewey-Dezimalklassifikation (DDC), Regensburger Verbundklassifikation (RVK) und Schlagwortnormdatei (SWD) erstellt worden. Die Ergebnisse dieser Arbeit sollen einen ersten Überblick über spezifische Problemfelder und Möglichkeiten der hier erstellten Konkordanzen DDC - RVK, SWD - DDC und SWD - RVK liefern, um damit die Erstellung eines zukünftigen Recherchetools (und gegebenenfalls einer Klassifizierungshilfe) voranzutreiben. Die erstellten Konkordanzen liegen der Arbeit als Anhang bei.
    Content
    Bachelorarbeit im Studiengang Bibliotheks- und Informationsmanagement, Fakultät Information und Kommunikation, Hochschule der Medien Stuttgart
    Imprint
    Stuttgart : Hochschule der Medien / Fakultät Information und Kommunikation
  6. Probstmeyer, J.: Analyse von maschinell generierten Korrelationen zwischen der Regensburger Verbundklassifikation (RVK) und der Schlagwortnormdatei (SWD) (2009) 0.03
    0.03322315 = product of:
      0.1328926 = sum of:
        0.01897042 = weight(_text_:und in 3216) [ClassicSimilarity], result of:
          0.01897042 = score(doc=3216,freq=10.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.328536 = fieldWeight in 3216, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3216)
        0.013244972 = weight(_text_:des in 3216) [ClassicSimilarity], result of:
          0.013244972 = score(doc=3216,freq=2.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.18358089 = fieldWeight in 3216, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3216)
        0.054105803 = weight(_text_:medien in 3216) [ClassicSimilarity], result of:
          0.054105803 = score(doc=3216,freq=4.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            0.44124663 = fieldWeight in 3216, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.046875 = fieldNorm(doc=3216)
        0.027600983 = weight(_text_:im in 3216) [ClassicSimilarity], result of:
          0.027600983 = score(doc=3216,freq=8.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.37478244 = fieldWeight in 3216, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=3216)
        0.01897042 = weight(_text_:und in 3216) [ClassicSimilarity], result of:
          0.01897042 = score(doc=3216,freq=10.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.328536 = fieldWeight in 3216, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3216)
      0.25 = coord(5/20)
    
    Abstract
    Die Dokumente in Bibliothekskatalogen weisen neben den formalen meist auch inhaltliche Erschließungselemente auf. Im Katalog des Südwestverbunds besitzen zahlreiche Publikationen SWD-Schlagwörter und -ketten sowie Notationen der RVK. Im Anschluss an ein Projekt zur automatischen Vergabe von RVK-Notationen an der Universitätsbibliothek Mannheim wurden aus den SWD-Schlagwörtern und RVK-Notationen der Datensätze im Verbund automatische Korrelationen generiert. Die vorliegende Arbeit beinhaltet die Ergebnisse der Analyse dieser Korrelationen. Dabei wird sowohl auf die Konkordanz der beiden Dokumentationssprachen eingegangen, die über die SWD-gerechten Registerbegriffe der RVK ermöglicht wird, als auch auf Unterschiede, die etwa über Heterogenität entstehen. Nachdem zunächst nur die automatischen Korrelationen näher betrachtet wurden, konnten diese zudem mit den Notationen und Registerbegriffen der RVK-Online-Konkordanz verglichen werden. Abschließend werden verschiedene Möglichkeiten aufgezeigt, wie die RVK-SWD-Korrelationen in der Praxis angewandt werden können.
    Content
    Bachelorarbeit im Fach Wissensmanagement Studiengang Bibliotheks- und Informationsmanagement der Hochschule der Medien
    Imprint
    Stuttgart : Hochschule der Medien
  7. Hubrich, J.: Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization : Internationale Fachtagung und Abschlussworkshop des DFGProjekts CrissCross in Köln (2010) 0.03
    0.033156935 = product of:
      0.13262774 = sum of:
        0.022356857 = weight(_text_:und in 4315) [ClassicSimilarity], result of:
          0.022356857 = score(doc=4315,freq=80.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.3871834 = fieldWeight in 4315, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.053211633 = weight(_text_:methodik in 4315) [ClassicSimilarity], result of:
          0.053211633 = score(doc=4315,freq=4.0), product of:
            0.18838635 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.026052676 = queryNorm
            0.28246012 = fieldWeight in 4315, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.017451784 = weight(_text_:des in 4315) [ClassicSimilarity], result of:
          0.017451784 = score(doc=4315,freq=20.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.24188907 = fieldWeight in 4315, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.017250614 = weight(_text_:im in 4315) [ClassicSimilarity], result of:
          0.017250614 = score(doc=4315,freq=18.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.23423903 = fieldWeight in 4315, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.022356857 = weight(_text_:und in 4315) [ClassicSimilarity], result of:
          0.022356857 = score(doc=4315,freq=80.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.3871834 = fieldWeight in 4315, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
      0.25 = coord(5/20)
    
    Content
    "Am 19. und 20. Juli 2010 fand in der Fachhochschule Köln die internationale Tagung "Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization" statt. Ausgerichtet wurde sie mit finanzieller Unterstützung der Deutschen Forschungsgemeinschaft (DFG) vom Institut für Informationsmanagement (IIM) der Fachhochschule Köln in Kooperation mit der Deutschen Nationalbibliothek (DNB). Im Mittelpunkt der Veranstaltung standen Fragen der Modellierung von Interoperabilität und semantischen Informationen in der Wissensorganisation, die einen unmittelbaren thematischen Zusammenhang mit den am Institut für Informationsmanagement angesiedelten Projekten CrissCross und RESEDA aufweisen. Das Programm umfasste 11 Beiträge aus 5 verschiedenen Ländern sowohl zu praktischen als auch zu theoretischen Aspekten der Wissensorganisation unter besonderer Berücksichtigung moderner Technologien, aktueller Entwicklungen und zukunftsbezogener Perspektiven. Der erste Tag war als Abschlussworkshop für das CrissCross-Projekt konzipiert und bot in zwei Sessions neben einem umfassenden Überblick über das Projekt auch weitere Best-Practice-Beispiele für die Gestaltung von Interoperabilität vor allem im Rahmen von Ansätzen der Semantic-Web- und Linked-Data-Initiativen. Eine vertiefte Auseinandersetzung mit sich in der Entwicklung befindlichen oder auch erst kürzlich fertiggestellten Standards und Modellen der Interoperabilität und Wissensorganisation erfolgte am zweiten Tag, der mit einer Keynote von Dagobert Soergel von der University at Buffalo (USA) eröffnet wurde und in zwei weitere Sessions unterteilt war. Zu der Veranstaltung konnten Prof. Dr. Klaus-Dirk Schmitz, Leiter des Kölner Instituts für Informationsmanagement, sowie Ulrike Junger, Leiterin der Abteilung Sacherschließung der Deutschen Nationalbibliothek in Stellvertretung der Generaldirektorin, Dr. Elisabeth Niggemann, ca. 120 Teilnehmer aus insgesamt 16 Ländern begrüßen. Prof. Klaus-Dirk Schmitz stellte in seiner Eröffnungsrede die Fachhochschule Köln und insbesondere das Institut für Informationsmanagement vor und erörterte das Konferenzthema mit Beispielen aus Forschungsgebieten der Terminologiearbeit. Ulrike Junger ging auf die gelungene Zusammenarbeit zwischen der Fachhochschule Köln und der Deutschen Nationalbibliothek ein, die mit dem DFG-Projekt DDC Deutsch begonnen und in dem DFG-Projekt CrissCross eine Fortsetzung gefunden hatte. Eine Einführung in die spezifischen Konferenzinhalte gab schließlich Prof. Winfried Gödert, Leiter des RESEDA-Projekts sowie - seitens der Fachhochschule Köln - des CrissCross-Projekts.
    Die erste Session der Veranstaltung war dem von der DFG geförderten Projekt CrissCross gewidmet, das von der Fachhochschule Köln in Kooperation mit der Deutschen Nationalbibliothek durchgeführt wird. Das Projekt, das 2006 begann und im Herbst diesen Jahres endet, verfolgt das Ziel, ein multilinguales, thesaurusbasiertes und nutzerfreundliches Recherchevokabular zu heterogen erschlossenen Informationsressourcen zu schaffen. Hierzu wird einerseits eine unidirektionale Verbindung zwischen Sachschlagwörtern der Schlagwortnormdatei (SWD) und Notationen der Dewey-Dezimalklassifikation hergestellt, andererseits werden - in Fortführung der in dem Projekt Multilingual Access to Subject Headings (MACS) entwickelten Methodik - häufig verwendete SWD-Schlagwörter mit ihren Äquivalenten in der englischen Schlagwortsprache Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache Répertoire d'autorité-matière encyclopédique et alphabétique unifié (RAMEAU) verknüpft. Jan-Helge Jacobs, Katrin Müller und Tina Mengel von der Fachhochschule Köln gaben einen Überblick über das für das Projekt spezifische SWD-DDC-Mapping. Sie erläuterten die zugrunde liegende Methodik und stellten den mit den Daten gegebenen möglichen Mehrwert sowohl zur Verbesserung des Zugangs zur DDC und zu DDC-erschlossenen Informationsressourcen im Allgemeinen als auch zur Unterstützung von explorativen Suchprozessen im Speziellen dar. Ergänzend präsentierten Yvonne Jahns und Helga Karg von der Deutschen Nationalbibliothek den im MACSProjekt praktizierten Ansatz zur Verbindung von Indexierungsinstrumenten verschiedener Sprachen und das damit gegebene Potential zur Unterstützung eines multilingualen Retrievals. Die adäquate Modellierung von Dokumentationssprachen und Relationen zur Gewährleistung von Interoperabilität und Verbesserung von Suchfunktionalitäten bei heterogen erschlossenen Dokumentbeständen besonders in Hinblick auf Semantic-Web-Applikationen war Thema der zweiten Session. Jessica Hubrich von der Fachhochschule Köln nahm theoretische Ergebnisse des CrissCross-Projektes auf und stellte ein gestuftes Interoperabilitätsmodell vor, in dem Methoden zur Erstellung von Links zwischen Begriffen verschiedener Wissenssysteme in Bezug gesetzt wurden zu spezifischen Suchfunktionalitäten in Retrievalszenarien. Im anschließenden Vortrag von Claudia Effenberger und Julia Hauser von der Deutschen Nationalbibliothek wurde von den bisherigen Ergebnissen eines an der Deutschen Nationalbibliothek angesiedelten Forschungsprojekts berichtet, in dem jeder Klasse der Dewey-Dezimalklassifikation ein eindeutiger Identifier zugeordnet wird, durch den verschiedene Versionen einer Klasse unterschieden werden können. Dies dient der Verbesserung des Zugriffs auf bibliografische Titeldaten, die auf der Basis unterschiedlicher DDC-Versionen erschlossen wurden. Der erste Tag schloss mit einer Präsentation von Antoine Isaac von der Vrije Universiteit in Amsterdam ab. In dieser wurde Interoperabilität als Teil eines semantischen Netzes von Linked Data diskutiert und ein Überblick über zentrale Linked-Data-Projekte gegeben.
    Der zweite Tag begann mit einer Keynote von Dagobert Soergel von der University at Buffalo mit dem Thema Conceptual Foundations for Semantic Mapping and Semantic Search. Im Zentrum stand die Idee eines Hubs, einer semantischen Verbindungsstruktur in Form einer Kernklassifikation, die elementare Begriffe sowie semantische Relationen enthält und über die ein Mapping zwischen unterschiedlichen Wissensorganisationssystemen erfolgen soll. Die Methode wurde durch zahlreiche Beispiele veranschaulicht. Die erste Session des zweiten Tages war dem Thema Interoperabilität und Standardisierung gewidmet. Stella Dextre Clarke aus Großbritannien berichtete - ausgehend von den in zentralen Mappingprojekten erstellten Relationen zwischen Begriffen unterschiedlicher Dokumentationssprachen - über Herausforderungen und Fragestellungen bei der Entwicklung des neuen ISO-Standards 25964-2, der als Leitfaden zur Herstellung von Interoperabilität zwischen Thesauri und anderen Vokabularien fungieren soll. In dem Folgevortrag von Philipp Mayr vom GESIS Leipniz-Institut für Sozialwissenschaften wurd mit KoMoHe (Kompetenzzentrum Modellbildung und Heterogenitätsbehandlung) ein bereits abgeschlossenes Projekt vorgestellt, dessen Mehrwert für das Retrieval in heterogen erschlossenen Informationsräumen mittels eines Information-Retrieval-Tests bestätigt werden konnte. Unpräzise Trefferresultate motivierten indes zu dem Nachfolgeprojekt IRM (Value-Added Services for Information Retrieval), in dem Möglichkeiten von Suchexpansion und Re-Ranking untersucht werden.
    Ein sehr aktuelles Thema mit hohem Potential für zukünftige Entwicklung wurde mit der letzten Session adressiert: die Functional Requirements for Bibliographic Records (FRBR), die Functional Requirements for Authority Data (FRAD) sowie die Functional Requirements for Subject Authority Data (FRSAD), wobei der Schwerpunkt auf den letzteren lag. Gordon Dunsire von der University of Strathclyde in Glasgow beschrieb aktuelle Ansätze für eine adäquate RDF-Repräsentation von FRBR, FRAD und FRSAD und diskutierte die dabei auftretenden Fragen der Interoperabilität, die mitunter dadurch bedingt sind, dass die RDF-Versionen von FRBR, FRAD und FRSAD mit eigenständigen Namensräumen erstellt werden. Auf FRSAD im Speziellen ging Maja Zumer von der Universität von Ljubljana ein. Sie berichtete von den Schwierigkeiten, die mit der Entwicklung des Modells einhergingen und stellte auch einige der zu dem Draft eingegangenen Kommentare vor. Die Zukunftsaufgabe liegt für sie in der Harmonisierung der Modelle der FRBR-Familie. Aus der Perspektive der Projekte CrissCross und RESEDA ist Interoperabilität indes in FRSAD bisher nur unzureichend berücksichtigt. Eine Erweiterung wird für notwendig gehalten. Zentrale Überlegungen hierzu wurden von Felix Boteram von der Fachhochschule Köln vorgestellt. Die Folien sowie zahlreiche mp3-Aufnahmen der Vorträge können auf der Konferenzhomepage unter http://linux2.fbi.fh-koeln.de/cisko2010/ programm.html eingesehen werden. Die Herausgabe eines Sammelbandes mit Artikeln zu den in der Konferenz behandelten Themen ist in Planung."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 63(2010) H.3/4, S.129-132
  8. Hubrich, J.: Multilinguale Wissensorganisation im Zeitalter der Globalisierung : das Projekt CrissCross (2010) 0.03
    0.033008676 = product of:
      0.1320347 = sum of:
        0.017317547 = weight(_text_:und in 4793) [ClassicSimilarity], result of:
          0.017317547 = score(doc=4793,freq=12.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.29991096 = fieldWeight in 4793, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.075252615 = weight(_text_:methodik in 4793) [ClassicSimilarity], result of:
          0.075252615 = score(doc=4793,freq=2.0), product of:
            0.18838635 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.026052676 = queryNorm
            0.39945894 = fieldWeight in 4793, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.016264034 = weight(_text_:im in 4793) [ClassicSimilarity], result of:
          0.016264034 = score(doc=4793,freq=4.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.22084267 = fieldWeight in 4793, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.017317547 = weight(_text_:und in 4793) [ClassicSimilarity], result of:
          0.017317547 = score(doc=4793,freq=12.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.29991096 = fieldWeight in 4793, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.0058829635 = product of:
          0.01764889 = sum of:
            0.01764889 = weight(_text_:22 in 4793) [ClassicSimilarity], result of:
              0.01764889 = score(doc=4793,freq=2.0), product of:
                0.09123203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026052676 = queryNorm
                0.19345059 = fieldWeight in 4793, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4793)
          0.33333334 = coord(1/3)
      0.25 = coord(5/20)
    
    Abstract
    Im Zuge zunehmender Globalisierung werden Wissensorganisationssysteme erforderlich, die ein sprachunabhängiges Retrieval ermöglichen, ohne dass dadurch bereits existierende und national bewährte Wissenssysteme obsolet werden. Das durch die Deutsche Forschungsgemeinschaft (DFG) geförderte und von der Deutschen Nationalbibliothek in Kooperation mit der Fachhochschule Köln durchgeführte Projekt CrissCross leistet einen wesentlichen Beitrag zur Schaffung eines solchen Wissensspeichers, indem es die Sachschlagwörter der deutschen Schlagwortnormdatei (SWD) mit Notationen der Dewey-Dezimalklassifikation sowie mit ihren Äquivalenten der Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache RAMEAU (Repertoire d'autorité-matière encyclopédique et alphabétique unifié) verknüpft. Ein erweitertes multilinguales und thesaurusbasiertes Recherchevokabular wird erstellt, das für die inhaltliche Suche nach Dokumenten in heterogen erschlossenen Beständen verwendet werden kann. In diesem Artikel wird die Problematik bei der Verknüpfung semantisch heterogener Systeme unter besonderer Berücksichtigung der Unterschiede zwischen der DDC und der SWD skizziert. Die in CrissCross gewählte Methodik bei der Verknüpfung von SWD und DDC wird vorgestellt. Abschließend wird der Nutzen der erstellten Daten für das Retrieval aufgezeigt.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  9. Lösse, M.; Svensson, L.: "Classification at a Crossroad" : Internationales UDC-Seminar 2009 in Den Haag, Niederlande (2010) 0.03
    0.027248997 = product of:
      0.10899599 = sum of:
        0.01696766 = weight(_text_:und in 4379) [ClassicSimilarity], result of:
          0.01696766 = score(doc=4379,freq=8.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.29385152 = fieldWeight in 4379, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.013244972 = weight(_text_:des in 4379) [ClassicSimilarity], result of:
          0.013244972 = score(doc=4379,freq=2.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.18358089 = fieldWeight in 4379, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.027600983 = weight(_text_:im in 4379) [ClassicSimilarity], result of:
          0.027600983 = score(doc=4379,freq=8.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.37478244 = fieldWeight in 4379, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.01696766 = weight(_text_:und in 4379) [ClassicSimilarity], result of:
          0.01696766 = score(doc=4379,freq=8.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.29385152 = fieldWeight in 4379, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.034214716 = product of:
          0.051322073 = sum of:
            0.021370912 = weight(_text_:29 in 4379) [ClassicSimilarity], result of:
              0.021370912 = score(doc=4379,freq=2.0), product of:
                0.09164517 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026052676 = queryNorm
                0.23319192 = fieldWeight in 4379, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
            0.02995116 = weight(_text_:22 in 4379) [ClassicSimilarity], result of:
              0.02995116 = score(doc=4379,freq=4.0), product of:
                0.09123203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026052676 = queryNorm
                0.32829654 = fieldWeight in 4379, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
          0.6666667 = coord(2/3)
      0.25 = coord(5/20)
    
    Abstract
    Am 29. und 30. Oktober 2009 fand in der Königlichen Bibliothek in Den Haag das zweite internationale UDC-Seminar zum Thema "Classification at a Crossroad" statt. Organisiert wurde diese Konferenz - wie auch die erste Konferenz dieser Art im Jahr 2007 - vom UDC-Konsortium (UDCC). Im Mittelpunkt der diesjährigen Veranstaltung stand die Erschließung des World Wide Web unter besserer Nutzung von Klassifikationen (im Besonderen natürlich der UDC), einschließlich benutzerfreundlicher Repräsentationen von Informationen und Wissen. Standards, neue Technologien und Dienste, semantische Suche und der multilinguale Zugriff spielten ebenfalls eine Rolle. 135 Teilnehmer aus 35 Ländern waren dazu nach Den Haag gekommen. Das Programm umfasste mit 22 Vorträgen aus 14 verschiedenen Ländern eine breite Palette, wobei Großbritannien mit fünf Beiträgen am stärksten vertreten war. Die Tagesschwerpunkte wurden an beiden Konferenztagen durch die Eröffnungsvorträge gesetzt, die dann in insgesamt sechs thematischen Sitzungen weiter vertieft wurden.
    Date
    22. 1.2010 15:06:54
    Theme
    Klassifikationssysteme im Online-Retrieval
  10. Panzer, M.: Semantische Integration heterogener und unterschiedlichsprachiger Wissensorganisationssysteme : CrissCross und jenseits (2008) 0.03
    0.026814202 = product of:
      0.10725681 = sum of:
        0.019996578 = weight(_text_:und in 4335) [ClassicSimilarity], result of:
          0.019996578 = score(doc=4335,freq=16.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.34630734 = fieldWeight in 4335, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4335)
        0.01911747 = weight(_text_:des in 4335) [ClassicSimilarity], result of:
          0.01911747 = score(doc=4335,freq=6.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.2649762 = fieldWeight in 4335, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4335)
        0.03188215 = weight(_text_:medien in 4335) [ClassicSimilarity], result of:
          0.03188215 = score(doc=4335,freq=2.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            0.26000705 = fieldWeight in 4335, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4335)
        0.016264034 = weight(_text_:im in 4335) [ClassicSimilarity], result of:
          0.016264034 = score(doc=4335,freq=4.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.22084267 = fieldWeight in 4335, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4335)
        0.019996578 = weight(_text_:und in 4335) [ClassicSimilarity], result of:
          0.019996578 = score(doc=4335,freq=16.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.34630734 = fieldWeight in 4335, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4335)
      0.25 = coord(5/20)
    
    Abstract
    Klassische bibliothekarische Indexierungswerkzeuge werden bis heute nur selten fürs Retrieval nutzbar gemacht; die Wichtigkeit, verschiedene dieser Vokabularien zu harmonisieren und integriert zu verwenden, ist noch immer keine Selbstverständlichkeit. Im Rahmen des DFG-Projektes "CrissCross" wird, ausgehend von der deutschen Ausgabe der Dewey-Dezimalklassifikation, eine Verknüpfung zwischen der DDC und der Schlagwortnormdatei (SWD) aufgebaut, um eine verbale Suche über klassifikatorisch erschlossene Bestände zu ermöglichen. Als Verbreiterung der Basis des verbalen Zugriffs wird außerdem das Mapping der amerikanischen LCSH und des französischen RAMEAU angestrebt. Nach einer kurzen Vorstellung von CrissCross und der Abgrenzung gegenüber ähnlichen Unterfangen werden Rückwirkungen semantischer Integration auf die verknüpften Vokabulare diskutiert. Wie müssen und können sich z.B. Thesauri verändern, wenn sie mit anderen (strukturheterologen) Systemen verknüpft sind? Dabei liegt ein Schwerpunkt der Analyse auf dem semantischen Verhältnis üblicher Mappingrelationen zu den verknüpften Begriffen (besonders im Hinblick auf Polysemie). Außerdem wird der Mehrwert fürs Retrieval auf der Basis solcher Wissensorganisationssysteme, z.B. durch automatisierten Zugriff über Ontologien, diskutiert.
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
  11. Mayr, P.: Thesauri, Klassifikationen & Co - die Renaissance der kontrollierten Vokabulare? (2006) 0.03
    0.0264898 = product of:
      0.1059592 = sum of:
        0.010525046 = product of:
          0.031575136 = sum of:
            0.031575136 = weight(_text_:p in 28) [ClassicSimilarity], result of:
              0.031575136 = score(doc=28,freq=4.0), product of:
                0.09367272 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.026052676 = queryNorm
                0.33707932 = fieldWeight in 28, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.046875 = fieldNorm(doc=28)
          0.33333334 = coord(1/3)
        0.022446105 = weight(_text_:und in 28) [ClassicSimilarity], result of:
          0.022446105 = score(doc=28,freq=14.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.38872904 = fieldWeight in 28, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
        0.022940965 = weight(_text_:des in 28) [ClassicSimilarity], result of:
          0.022940965 = score(doc=28,freq=6.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.31797147 = fieldWeight in 28, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
        0.027600983 = weight(_text_:im in 28) [ClassicSimilarity], result of:
          0.027600983 = score(doc=28,freq=8.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.37478244 = fieldWeight in 28, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
        0.022446105 = weight(_text_:und in 28) [ClassicSimilarity], result of:
          0.022446105 = score(doc=28,freq=14.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.38872904 = fieldWeight in 28, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
      0.25 = coord(5/20)
    
    Abstract
    Der Beitrag beschäftigt sich mit aktuellen Entwicklungen im Bereich des Terminologie Mapping zwischen kontrollierten Vokabularen. Die unterschiedlichen Typen und Ausprägungen von kontrollierten Vokabularen - Thesauri, Klassifikationen, Schlagwortnormdaten und kontrollierte Schlagwortlisten - dienen hauptsächlich der inhaltlichen Erschließung von Literatur und anderen Dokumenttypen und werden u. a. in Datenbanksystemen bei der Deskriptorensuche und zum Browsing angeboten. Die Zusammenführung der heterogenen Indexierungssprachen bei der übergreifenden Datenbankrecherche (crossdatabase retrieval) führt jedoch zu Problemen bei der semantischen Integration der zugrunde liegenden Bestände. Der Beitrag stellt in diesem Kontext den Ansatz sowie die bisherigen Ergebnisse des Projekts" Modellbildung und Heterogenitätsbehandlung" vor. Im Anschluss wird auf Bradford's Law of Scattering (BLS) sowie abgeleitete Einsatzmöglichkeiten des BLS im Projekt Bezug genommen: 1) BLS zur Untersuchung der Auswirkungen der Heterogenitätsbehandlung, 2) BLS bzw. Bradfordizing als alternativer, informationswissenschaftlich begründeter Zugangsmechanismus für Zeitschriftenartikel.
    Series
    Beiträge zur Bibliotheks- und Informationswissenschaft; 1
    Source
    Vom Wandel der Wissensorganisation im Informationszeitalter: Festschrift für Walther Umstätter zum 65. Geburtstag, hrsg. von P. Hauke u. K. Umlauf
  12. Mayr, P.; Walter, A.-K.: Mapping Knowledge Organization Systems (2008) 0.03
    0.025789648 = product of:
      0.10315859 = sum of:
        0.007442331 = product of:
          0.022326993 = sum of:
            0.022326993 = weight(_text_:p in 1676) [ClassicSimilarity], result of:
              0.022326993 = score(doc=1676,freq=2.0), product of:
                0.09367272 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.026052676 = queryNorm
                0.23835106 = fieldWeight in 1676, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1676)
          0.33333334 = coord(1/3)
        0.01897042 = weight(_text_:und in 1676) [ClassicSimilarity], result of:
          0.01897042 = score(doc=1676,freq=10.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.328536 = fieldWeight in 1676, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1676)
        0.03825858 = weight(_text_:medien in 1676) [ClassicSimilarity], result of:
          0.03825858 = score(doc=1676,freq=2.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            0.31200847 = fieldWeight in 1676, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.046875 = fieldNorm(doc=1676)
        0.019516842 = weight(_text_:im in 1676) [ClassicSimilarity], result of:
          0.019516842 = score(doc=1676,freq=4.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.26501122 = fieldWeight in 1676, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=1676)
        0.01897042 = weight(_text_:und in 1676) [ClassicSimilarity], result of:
          0.01897042 = score(doc=1676,freq=10.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.328536 = fieldWeight in 1676, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1676)
      0.25 = coord(5/20)
    
    Abstract
    Die Vernetzung der Informationssysteme und Datenbanken aus dem wissenschaftlichen Fachinformationsbereich lässt bislang den Aspekt der Kompatibilität und Konkordanz zwischen kontrollierten Vokabularen (semantische Heterogenität) weitgehend unberücksichtigt. Gerade aber für den inhaltlichen Zugang sachlich heterogen erschlössener Bestände spielen für den Nutzer die semantischen Querverbindungen (Mappings /Crosskonkordanzen) zwischen den zugrunde liegenden Knowledge Organization Systems (KOS) der Datenbanken eine entscheidende Rolle. Der Beitrag stellt Einsatzmöglichkeiten und Beispiele von Crosskonkordanzen (CK) im Projekt "Kompetenznetzwerk Modellbildung und Heterogenitätsbehandlung" (KoMoHe) sowie das Netz der bis dato entstandenen Terminolögie-Überstiege vor. Die am IZ entstandenen CK sollen künftig über einen Terminolögie-Service als Web Service genutzt werden, dieser wird im Beitrag exemplarisch vorgestellt.
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
  13. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.03
    0.025718844 = product of:
      0.102875374 = sum of:
        0.020781055 = weight(_text_:und in 4408) [ClassicSimilarity], result of:
          0.020781055 = score(doc=4408,freq=12.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.35989314 = fieldWeight in 4408, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.013244972 = weight(_text_:des in 4408) [ClassicSimilarity], result of:
          0.013244972 = score(doc=4408,freq=2.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.18358089 = fieldWeight in 4408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.013800492 = weight(_text_:im in 4408) [ClassicSimilarity], result of:
          0.013800492 = score(doc=4408,freq=2.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.18739122 = fieldWeight in 4408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.020781055 = weight(_text_:und in 4408) [ClassicSimilarity], result of:
          0.020781055 = score(doc=4408,freq=12.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.35989314 = fieldWeight in 4408, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.034267806 = product of:
          0.051401705 = sum of:
            0.030223036 = weight(_text_:29 in 4408) [ClassicSimilarity], result of:
              0.030223036 = score(doc=4408,freq=4.0), product of:
                0.09164517 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026052676 = queryNorm
                0.3297832 = fieldWeight in 4408, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
            0.021178667 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
              0.021178667 = score(doc=4408,freq=2.0), product of:
                0.09123203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026052676 = queryNorm
                0.23214069 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.6666667 = coord(2/3)
      0.25 = coord(5/20)
    
    Abstract
    Unser Projekt soll eine Kreuzkonkordanz zwischen den Universalklassifikationen wie der "Regensburger Verbundsklassifikation (RVK)" und der "Basisklassifikation (BK)" sowie den Fachklassifikationen "Mathematics Subject Classification (MSC2010)" und "Physics and Astronomy Classification Scheme (PACS2010)" in den Fachgebieten Mathematik und Physik herstellen. Fazit: "Die klassifikatorische Übereinstmmung zwischen Regensburger Verbundklassifikation und Physics and Astronomy Classification Scheme war in einzelnen Fachbereichen (z. B. Kernphysik) recht gut. Doch andere Fachbereiche (z.B. Polymerphysik, Mineralogie) stimmten sehr wenig überein. Insgesamt konnten wir 890 einfache Verbindungen erstellen. Mehrfachverbindungen wurden aus technischen Gründen nicht mitgezählt. Das Projekt war insgesamt sehr umfangreich, daher konnte es im Rahmen der zwanzig Projekttage nicht erschöpfend behandelt werden. Eine Weiterentwicklung, insbesondere hinsichtlich des kollektiven Zuganges in Form eines Webformulars und der automatischen Klassifizierung erscheint jedoch sinnvoll."
    Date
    29. 3.2011 10:47:10
    29. 3.2011 10:57:42
    Imprint
    Innsbruck : Universitäts- und Landesbibliothek Tirol
    Pages
    22 S
  14. Hubrich, J.: CrissCross: SWD-DDC-Mapping (2008) 0.03
    0.025222378 = product of:
      0.10088951 = sum of:
        0.027708072 = weight(_text_:und in 2175) [ClassicSimilarity], result of:
          0.027708072 = score(doc=2175,freq=12.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.47985753 = fieldWeight in 2175, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.017659962 = weight(_text_:des in 2175) [ClassicSimilarity], result of:
          0.017659962 = score(doc=2175,freq=2.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.24477452 = fieldWeight in 2175, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.018400656 = weight(_text_:im in 2175) [ClassicSimilarity], result of:
          0.018400656 = score(doc=2175,freq=2.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.24985497 = fieldWeight in 2175, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.027708072 = weight(_text_:und in 2175) [ClassicSimilarity], result of:
          0.027708072 = score(doc=2175,freq=12.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.47985753 = fieldWeight in 2175, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.009412741 = product of:
          0.028238224 = sum of:
            0.028238224 = weight(_text_:22 in 2175) [ClassicSimilarity], result of:
              0.028238224 = score(doc=2175,freq=2.0), product of:
                0.09123203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026052676 = queryNorm
                0.30952093 = fieldWeight in 2175, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2175)
          0.33333334 = coord(1/3)
      0.25 = coord(5/20)
    
    Abstract
    Mit zunehmender Nutzung netzwerkbasierter Systeme und steigender internationaler Zusammenarbeit werden Informationsräume geschaffen, in denen unterschiedlich indexierte Informationsressourcen aus verschiedenen Ländern über das Internet frei zugänglich gemacht werden. Bedingt durch die Unterschiedlichkeit der verwendeten Erschließungsinstrumente in Sprache und Struktur gestaltet sich die thematische Recherche in diesen Informationsräumen umständlich und langwierig. Im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten und von der Deutschen Nationalbibliothek (DNB) in Kooperation mit der Fachhochschule Köln durchgeführten Projekts CrissCross wird ein multilinguales, thesaurusbasiertes und benutzergerechtes Recherchevokabular erstellt, das einen wesentlich effizienteren Zugriff auf heterogen erschlossene Informationsressourcen ermöglicht.
    Date
    22. 8.2009 10:35:21
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 61(2008) H.3, S.50-58
  15. Mayr, P.: Bradfordizing als Re-Ranking-Ansatz in Literaturinformationssystemen (2011) 0.02
    0.024952063 = product of:
      0.08317354 = sum of:
        0.007442331 = product of:
          0.022326993 = sum of:
            0.022326993 = weight(_text_:p in 4292) [ClassicSimilarity], result of:
              0.022326993 = score(doc=4292,freq=2.0), product of:
                0.09367272 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.026052676 = queryNorm
                0.23835106 = fieldWeight in 4292, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4292)
          0.33333334 = coord(1/3)
        0.020781055 = weight(_text_:und in 4292) [ClassicSimilarity], result of:
          0.020781055 = score(doc=4292,freq=12.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.35989314 = fieldWeight in 4292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.013244972 = weight(_text_:des in 4292) [ClassicSimilarity], result of:
          0.013244972 = score(doc=4292,freq=2.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.18358089 = fieldWeight in 4292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.013800492 = weight(_text_:im in 4292) [ClassicSimilarity], result of:
          0.013800492 = score(doc=4292,freq=2.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.18739122 = fieldWeight in 4292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.020781055 = weight(_text_:und in 4292) [ClassicSimilarity], result of:
          0.020781055 = score(doc=4292,freq=12.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.35989314 = fieldWeight in 4292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.0071236375 = product of:
          0.021370912 = sum of:
            0.021370912 = weight(_text_:29 in 4292) [ClassicSimilarity], result of:
              0.021370912 = score(doc=4292,freq=2.0), product of:
                0.09164517 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026052676 = queryNorm
                0.23319192 = fieldWeight in 4292, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4292)
          0.33333334 = coord(1/3)
      0.3 = coord(6/20)
    
    Abstract
    In diesem Artikel wird ein Re-Ranking-Ansatz für Suchsysteme vorgestellt, der die Recherche nach wissenschaftlicher Literatur messbar verbessern kann. Das nichttextorientierte Rankingverfahren Bradfordizing wird eingeführt und anschließend im empirischen Teil des Artikels bzgl. der Effektivität für typische fachbezogene Recherche-Topics evaluiert. Dem Bradford Law of Scattering (BLS), auf dem Bradfordizing basiert, liegt zugrunde, dass sich die Literatur zu einem beliebigen Fachgebiet bzw. -thema in Zonen unterschiedlicher Dokumentenkonzentration verteilt. Dem Kernbereich mit hoher Konzentration der Literatur folgen Bereiche mit mittlerer und geringer Konzentration. Bradfordizing sortiert bzw. rankt eine Dokumentmenge damit nach den sogenannten Kernzeitschriften. Der Retrievaltest mit 164 intellektuell bewerteten Fragestellungen in Fachdatenbanken aus den Bereichen Sozial- und Politikwissenschaften, Wirtschaftswissenschaften, Psychologie und Medizin zeigt, dass die Dokumente der Kernzeitschriften signifikant häufiger relevant bewertet werden als Dokumente der zweiten Dokumentzone bzw. den Peripherie-Zeitschriften. Die Implementierung von Bradfordizing und weiteren Re-Rankingverfahren liefert unmittelbare Mehrwerte für den Nutzer.
    Date
    9. 2.2011 17:47:29
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.1, S.3-10
  16. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.02
    0.023736848 = product of:
      0.09494739 = sum of:
        0.024244564 = weight(_text_:und in 4184) [ClassicSimilarity], result of:
          0.024244564 = score(doc=4184,freq=12.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.41987535 = fieldWeight in 4184, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.015452466 = weight(_text_:des in 4184) [ClassicSimilarity], result of:
          0.015452466 = score(doc=4184,freq=2.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.2141777 = fieldWeight in 4184, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.02276965 = weight(_text_:im in 4184) [ClassicSimilarity], result of:
          0.02276965 = score(doc=4184,freq=4.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.30917975 = fieldWeight in 4184, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.024244564 = weight(_text_:und in 4184) [ClassicSimilarity], result of:
          0.024244564 = score(doc=4184,freq=12.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.41987535 = fieldWeight in 4184, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.008236148 = product of:
          0.024708444 = sum of:
            0.024708444 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
              0.024708444 = score(doc=4184,freq=2.0), product of:
                0.09123203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026052676 = queryNorm
                0.2708308 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.33333334 = coord(1/3)
      0.25 = coord(5/20)
    
    Abstract
    Das Medium Internet ist im Wandel, und mit ihm ändern sich seine Publikations- und Rezeptionsbedingungen. Welche Chancen bieten die momentan parallel diskutierten Zukunftsentwürfe von Social Web und Semantic Web? Zur Beantwortung dieser Frage beschäftigt sich der Beitrag mit den Grundlagen beider Modelle unter den Aspekten Anwendungsbezug und Technologie, beleuchtet darüber hinaus jedoch auch deren Unzulänglichkeiten sowie den Mehrwert einer mediengerechten Kombination. Am Beispiel des grammatischen Online-Informationssystems grammis wird eine Strategie zur integrativen Nutzung der jeweiligen Stärken skizziert.
    Date
    22. 1.2011 10:38:28
    Source
    Kommunikation, Partizipation und Wirkungen im Social Web, Band 1. Hrsg.: A. Zerfaß u.a
  17. Mayr, P.; Zapilko, B.; Sure, Y.: ¬Ein Mehr-Thesauri-Szenario auf Basis von SKOS und Crosskonkordanzen (2010) 0.02
    0.023145562 = product of:
      0.09258225 = sum of:
        0.007442331 = product of:
          0.022326993 = sum of:
            0.022326993 = weight(_text_:p in 3392) [ClassicSimilarity], result of:
              0.022326993 = score(doc=3392,freq=2.0), product of:
                0.09367272 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.026052676 = queryNorm
                0.23835106 = fieldWeight in 3392, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3392)
          0.33333334 = coord(1/3)
        0.023995897 = weight(_text_:und in 3392) [ClassicSimilarity], result of:
          0.023995897 = score(doc=3392,freq=16.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.41556883 = fieldWeight in 3392, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3392)
        0.013244972 = weight(_text_:des in 3392) [ClassicSimilarity], result of:
          0.013244972 = score(doc=3392,freq=2.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.18358089 = fieldWeight in 3392, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3392)
        0.023903154 = weight(_text_:im in 3392) [ClassicSimilarity], result of:
          0.023903154 = score(doc=3392,freq=6.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.32457113 = fieldWeight in 3392, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=3392)
        0.023995897 = weight(_text_:und in 3392) [ClassicSimilarity], result of:
          0.023995897 = score(doc=3392,freq=16.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.41556883 = fieldWeight in 3392, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3392)
      0.25 = coord(5/20)
    
    Abstract
    Im August 2009 wurde SKOS "Simple Knowledge Organization System" als neuer Standard für web-basierte kontrollierte Vokabulare durch das W3C veröffentlicht1. SKOS dient als Datenmodell, um kontrollierte Vokabulare über das Web anzubieten sowie technisch und semantisch interoperabel zu machen. Perspektivisch kann die heterogene Landschaft der Erschließungsvokabulare über SKOS vereinheitlicht und vor allem die Inhalte der klassischen Datenbanken (Bereich Fachinformation) für Anwendungen des Semantic Web, beispielsweise als Linked Open Data2 (LOD), zugänglich und stär-ker miteinander vernetzt werden. Vokabulare im SKOS-Format können dabei eine relevante Funktion einnehmen, indem sie als standardisiertes Brückenvokabular dienen und semantische Verlinkung zwischen erschlossenen, veröffentlichten Daten herstellen. Die folgende Fallstudie skizziert ein Szenario mit drei thematisch verwandten Thesauri, die ins SKOS-Format übertragen und inhaltlich über Crosskonkordanzen aus dem Projekt KoMoHe verbunden werden. Die Mapping Properties von SKOS bieten dazu standardisierte Relationen, die denen der Crosskonkordanzen entsprechen. Die beteiligten Thesauri der Fallstudie sind a) TheSoz (Thesaurus Sozialwissenschaften, GESIS), b) STW (Standard-Thesaurus Wirtschaft, ZBW) und c) IBLK-Thesaurus (SWP).
    Footnote
    Beitrag für: 25. Oberhofer Kolloquium 2010: Recherche im Google-Zeitalter - Vollständig und präzise!?.
  18. Gödert, W.: Multilingualität und Lokalisierung zur Wissenserkundung : oder vom Nutzen semantischer Netze für das Information Retrieval (2007) 0.02
    0.022290992 = product of:
      0.08916397 = sum of:
        0.022446105 = weight(_text_:und in 557) [ClassicSimilarity], result of:
          0.022446105 = score(doc=557,freq=14.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.38872904 = fieldWeight in 557, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=557)
        0.013244972 = weight(_text_:des in 557) [ClassicSimilarity], result of:
          0.013244972 = score(doc=557,freq=2.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.18358089 = fieldWeight in 557, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=557)
        0.023903154 = weight(_text_:im in 557) [ClassicSimilarity], result of:
          0.023903154 = score(doc=557,freq=6.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.32457113 = fieldWeight in 557, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=557)
        0.022446105 = weight(_text_:und in 557) [ClassicSimilarity], result of:
          0.022446105 = score(doc=557,freq=14.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.38872904 = fieldWeight in 557, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=557)
        0.0071236375 = product of:
          0.021370912 = sum of:
            0.021370912 = weight(_text_:29 in 557) [ClassicSimilarity], result of:
              0.021370912 = score(doc=557,freq=2.0), product of:
                0.09164517 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026052676 = queryNorm
                0.23319192 = fieldWeight in 557, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=557)
          0.33333334 = coord(1/3)
      0.25 = coord(5/20)
    
    Abstract
    Das CrissCross-Projekt verfolgt die Zielsetzung, ein erweitertes multilinguales und thesaurusbasiertes Registervokabular zur Dewey-Dezimalklassifikation (DDC Deutsch) zu erstellen, das als Recherchevokabulars zu heterogen erschlossenen Dokumenten verwendet werden kann und soll damit die Ausgangsbedingungen für die Gestaltung von OPAC-Retrievalumgebungen verbessern helfen. Im einzelnen soll jedes Sachschlagwort der Schlagwortnormdatei (SWD) eine DDC-Notation erhalten und es sollen die im Projekt MACS begonnen Arbeiten fortgesetzt werden, Links zwischen den Schlagwörtern der SWD, den Library of Congress Subject Headings (LCSH) und dem Répertoire d'autorité-matière encyclopédique et alphabétique unifé (Rameau) herzustellen. In diesem Beitrag wird der Vorschlag gemacht, die Zielsetzung des Projektes darin zu sehen, eine Kern-Ontologie mit universalen Relationen als Klassifikation zu benutzen und die beteiligten Normdateien als zugeordnete semantische Netze zu entwickeln, indem nicht-generische Relationen die Aufgabe der durch die Lokalisierung gestellten Anforderungen übernehmen. Generische Relationen im bekannten Thesaurussinn sind für derartige semantische Netze nicht mehr erforderlich, da sie sich aus den generischen Beziehungen der Kern-Ontologie vererben.
    Series
    Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
    Source
    Wa(h)re Information: 29. Österreichischer Bibliothekartag Bregenz, 19.-23.9.2006. Hrsg.: Harald Weigel
  19. Dunckel, P.: Zusammenführung mehrerer Thesauri zu einem gemeinsamen Begriffssystem : Probleme und Lösungsansätze (2017) 0.02
    0.022048986 = product of:
      0.08819594 = sum of:
        0.007442331 = product of:
          0.022326993 = sum of:
            0.022326993 = weight(_text_:p in 4233) [ClassicSimilarity], result of:
              0.022326993 = score(doc=4233,freq=2.0), product of:
                0.09367272 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.026052676 = queryNorm
                0.23835106 = fieldWeight in 4233, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4233)
          0.33333334 = coord(1/3)
        0.023995897 = weight(_text_:und in 4233) [ClassicSimilarity], result of:
          0.023995897 = score(doc=4233,freq=16.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.41556883 = fieldWeight in 4233, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4233)
        0.013244972 = weight(_text_:des in 4233) [ClassicSimilarity], result of:
          0.013244972 = score(doc=4233,freq=2.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.18358089 = fieldWeight in 4233, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4233)
        0.019516842 = weight(_text_:im in 4233) [ClassicSimilarity], result of:
          0.019516842 = score(doc=4233,freq=4.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.26501122 = fieldWeight in 4233, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4233)
        0.023995897 = weight(_text_:und in 4233) [ClassicSimilarity], result of:
          0.023995897 = score(doc=4233,freq=16.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.41556883 = fieldWeight in 4233, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4233)
      0.25 = coord(5/20)
    
    Abstract
    Im Zeitalter der digitalen Vernetzung und im Zuge zunehmend interdisziplinärer und internationaler Forschungsbestrebungen gewinnt die Interoperabilität von Informationssystemen stärker an Bedeutung. Ein wichtiger Schritt, um diese Interoperabilität zu erreichen und einen zentralen Zugang zu verteilten Systemen zu ermöglichen, liegt in der Zusammenführung der jeweiligen Erschließungsinstrumente der Informationssysteme. Eine Integration der verschiedenen kontrollierten Vokabulare erlaubt einen Datenaustausch zwischen den diversen Informationssystemen. Außerdem ermöglicht und vereinfacht sie eine systemübergreifende Recherche über mehrere Datenbanken, ohne dass eine Suchanfrage mehrmals formuliert oder umformuliert werden muss. Es existieren unterschiedliche Methoden und Instrumente sowie Strukturmodelle, mit denen eine Thesaurusintegration durchgeführt werden kann. Die am weitesten verbreitete Methode, das Mapping, ist sogar als ISO-Norm formuliert. Bei einer Thesauruszusammenführung können diverse Probleme auftreten. Jedoch gibt es Lösungsansätze, mit denen den Herausforderungen begegnet werden kann.
    Source
    Information - Wissenschaft und Praxis. 68(2017) H.4, S.253-262
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  20. Huckstorf, A.; Petras, V.: Mind the lexical gap : EuroVoc Building Block of the Semantic Web (2011) 0.02
    0.021956388 = product of:
      0.08782555 = sum of:
        0.026828226 = weight(_text_:und in 2782) [ClassicSimilarity], result of:
          0.026828226 = score(doc=2782,freq=20.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.46462005 = fieldWeight in 2782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.013244972 = weight(_text_:des in 2782) [ClassicSimilarity], result of:
          0.013244972 = score(doc=2782,freq=2.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.18358089 = fieldWeight in 2782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.013800492 = weight(_text_:im in 2782) [ClassicSimilarity], result of:
          0.013800492 = score(doc=2782,freq=2.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.18739122 = fieldWeight in 2782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.026828226 = weight(_text_:und in 2782) [ClassicSimilarity], result of:
          0.026828226 = score(doc=2782,freq=20.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.46462005 = fieldWeight in 2782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.0071236375 = product of:
          0.021370912 = sum of:
            0.021370912 = weight(_text_:29 in 2782) [ClassicSimilarity], result of:
              0.021370912 = score(doc=2782,freq=2.0), product of:
                0.09164517 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026052676 = queryNorm
                0.23319192 = fieldWeight in 2782, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2782)
          0.33333334 = coord(1/3)
      0.25 = coord(5/20)
    
    Abstract
    Ein Konferenzereignis der besonderen Art fand am 18. und 19. November 2010 in Luxemburg statt. Initiiert durch das Amt für Veröffentlichungen der Europäischen Union (http://publications.europa.eu) waren Bibliothekare und Information Professionals eingeladen, um über die Zukunft mehrsprachiger kontrollierter Vokabulare in Informationssystemen und insbesondere deren Beitrag zum Semantic Web zu diskutieren. Organisiert wurde die Konferenz durch das EuroVoc-Team, das den Thesaurus der Europäischen Union bearbeitet. Die letzte EuroVoc-Konferenz fand im Jahr 2006 statt. In der Zwischenzeit ist EuroVoc zu einem ontologie-basierten Thesaurusmanagementsystem übergegangen und hat systematisch begonnen, Semantic-Web-Technologien für die Bearbeitung und Repräsentation einzusetzen und sich mit anderen Vokabularen zu vernetzen. Ein produktiver Austausch fand mit den Produzenten anderer europäischer und internationaler Vokabulare (z.B. United Nations oder FAO) sowie Vertretern aus Projekten, die an Themen über automatische Indexierung (hier insbesondere parlamentarische und rechtliche Dokumente) sowie Interoperabilitiät zwischen Vokabularen arbeiten, statt.
    Date
    29. 3.2013 17:46:08
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.2/3, S.125-126
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus

Years

Languages

  • e 121
  • d 83
  • pt 1
  • More… Less…

Types

  • a 136
  • el 58
  • m 13
  • r 9
  • x 9
  • s 6
  • p 2
  • n 1
  • More… Less…