Search (160 results, page 1 of 8)

  • × theme_ss:"Semantische Interoperabilität"
  1. Gödert, W.; Hubrich, J.; Boteram, F.: Thematische Recherche und Interoperabilität : Wege zur Optimierung des Zugriffs auf heterogen erschlossene Dokumente (2009) 0.14
    0.14377177 = product of:
      0.31949282 = sum of:
        0.018586228 = weight(_text_:und in 193) [ClassicSimilarity], result of:
          0.018586228 = score(doc=193,freq=16.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34630734 = fieldWeight in 193, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.07512826 = product of:
          0.15025651 = sum of:
            0.15025651 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.15025651 = score(doc=193,freq=2.0), product of:
                0.25663927 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.024215192 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.018586228 = weight(_text_:und in 193) [ClassicSimilarity], result of:
          0.018586228 = score(doc=193,freq=16.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34630734 = fieldWeight in 193, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.07512826 = product of:
          0.15025651 = sum of:
            0.15025651 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.15025651 = score(doc=193,freq=2.0), product of:
                0.25663927 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.024215192 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.011561102 = weight(_text_:der in 193) [ClassicSimilarity], result of:
          0.011561102 = score(doc=193,freq=6.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.21373394 = fieldWeight in 193, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.018586228 = weight(_text_:und in 193) [ClassicSimilarity], result of:
          0.018586228 = score(doc=193,freq=16.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34630734 = fieldWeight in 193, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.07512826 = product of:
          0.15025651 = sum of:
            0.15025651 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.15025651 = score(doc=193,freq=2.0), product of:
                0.25663927 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.024215192 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.018586228 = weight(_text_:und in 193) [ClassicSimilarity], result of:
          0.018586228 = score(doc=193,freq=16.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34630734 = fieldWeight in 193, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.00820206 = product of:
          0.01640412 = sum of:
            0.01640412 = weight(_text_:22 in 193) [ClassicSimilarity], result of:
              0.01640412 = score(doc=193,freq=2.0), product of:
                0.08479747 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024215192 = queryNorm
                0.19345059 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
      0.45 = coord(9/20)
    
    Abstract
    Die Verwendung von Erschließungsinstrumenten zur Beschreibung von Informationsressourcen kann Effizienz und Effektivität thematischer Recherchen wesentlich steigern: standardisierte Begriffe unterstützen Recall und Precision begrifflicher Suchen; Ausweisung von Relationen bietet die Grundlage für explorative Suchprozesse. Eine zusätzliche Steigerung der Funktionalitäten des Retrievals kann mittels einer Ausdifferenzierung und Spezifizierung der in Normdaten enthaltenen semantischen Informationen erreicht werden, die über die in Thesauri und Klassifikationen verbreiteten grundlegenden Relationstypen (äquivalent, hierarchisch, assoziativ) hinausgehen. In modernen Informationsräumen, in denen Daten verschiedener Institutionen über eine Plattform zeit- und ortsunabhängig zugänglich gemacht werden, können einzelne Wissenssysteme indes nur unzureichend das Information Retrieval unterstützen. Zu unterschiedlich sind die für thematische Suchanfragen relevanten Indexierungsdaten. Eine Verbesserung kann mittels Herstellung von Interoperabilität zwischen den verschiedenen Dokumentationssprachen erreicht werden. Im Vortrag wird dargelegt, in welcher Art und Weise die in Wissenssystemen enthaltenen semantischen Informationen zur Unterstützung thematischer Recherchen optimiert werden können und inwiefern Interoperabilität zwischen Systemen geschaffen werden kann, die gleichwertige Funktionalitäten in heterogenen Informationsräumen gewährleisten. In diesem Zusammenhang wird auch auf aktuelle Mappingprojekte wie das DFG-Projekt CrissCross oder das RESEDA-Projekt, welches sich mit den Möglichkeiten der semantischen Anreicherung bestehender Dokumentationssprachen befasst, eingegangen.
    Source
    https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/searchtype/authorsearch/author/%22Hubrich%2C+Jessica%22/docId/703/start/0/rows/20
  2. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.12
    0.117199935 = product of:
      0.29299983 = sum of:
        0.03205012 = product of:
          0.09615036 = sum of:
            0.09615036 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.09615036 = score(doc=1000,freq=2.0), product of:
                0.20529667 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024215192 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.09615036 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09615036 = score(doc=1000,freq=2.0), product of:
            0.20529667 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024215192 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.011381695 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.011381695 = score(doc=1000,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.011381695 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.011381695 = score(doc=1000,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.023122204 = weight(_text_:der in 1000) [ClassicSimilarity], result of:
          0.023122204 = score(doc=1000,freq=24.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.42746788 = fieldWeight in 1000, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.09615036 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09615036 = score(doc=1000,freq=2.0), product of:
            0.20529667 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024215192 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.011381695 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.011381695 = score(doc=1000,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.011381695 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.011381695 = score(doc=1000,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.4 = coord(8/20)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  3. Rölke, H.; Weichselbraun, A.: Ontologien und Linked Open Data (2023) 0.06
    0.057349853 = product of:
      0.16385673 = sum of:
        0.017385824 = weight(_text_:und in 788) [ClassicSimilarity], result of:
          0.017385824 = score(doc=788,freq=14.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.32394084 = fieldWeight in 788, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=788)
        0.017385824 = weight(_text_:und in 788) [ClassicSimilarity], result of:
          0.017385824 = score(doc=788,freq=14.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.32394084 = fieldWeight in 788, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=788)
        0.021107588 = weight(_text_:der in 788) [ClassicSimilarity], result of:
          0.021107588 = score(doc=788,freq=20.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.390223 = fieldWeight in 788, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=788)
        0.017385824 = weight(_text_:und in 788) [ClassicSimilarity], result of:
          0.017385824 = score(doc=788,freq=14.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.32394084 = fieldWeight in 788, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=788)
        0.018776074 = product of:
          0.037552148 = sum of:
            0.037552148 = weight(_text_:philosophie in 788) [ClassicSimilarity], result of:
              0.037552148 = score(doc=788,freq=2.0), product of:
                0.12829916 = queryWeight, product of:
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.024215192 = queryNorm
                0.29269207 = fieldWeight in 788, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=788)
          0.5 = coord(1/2)
        0.054429762 = weight(_text_:erkenntnis in 788) [ClassicSimilarity], result of:
          0.054429762 = score(doc=788,freq=2.0), product of:
            0.15446307 = queryWeight, product of:
              6.378767 = idf(docFreq=203, maxDocs=44218)
              0.024215192 = queryNorm
            0.35238042 = fieldWeight in 788, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.378767 = idf(docFreq=203, maxDocs=44218)
              0.0390625 = fieldNorm(doc=788)
        0.017385824 = weight(_text_:und in 788) [ClassicSimilarity], result of:
          0.017385824 = score(doc=788,freq=14.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.32394084 = fieldWeight in 788, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=788)
      0.35 = coord(7/20)
    
    Abstract
    Der Begriff Ontologie stammt ursprünglich aus der Metaphysik, einem Teilbereich der Philosophie, welcher sich um die Erkenntnis der Grundstruktur und Prinzipien der Wirklichkeit bemüht. Ontologien befassen sich dabei mit der Frage, welche Dinge auf der fundamentalsten Ebene existieren, wie sich diese strukturieren lassen und in welchen Beziehungen diese zueinanderstehen. In der Informationswissenschaft hingegen werden Ontologien verwendet, um das Vokabular für die Beschreibung von Wissensbereichen zu formalisieren. Ziel ist es, dass alle Akteure, die in diesen Bereichen tätig sind, die gleichen Konzepte und Begrifflichkeiten verwenden, um eine reibungslose Zusammenarbeit ohne Missverständnisse zu ermöglichen. So definierte zum Beispiel die Dublin Core Metadaten Initiative 15 Kernelemente, die zur Beschreibung von elektronischen Ressourcen und Medien verwendet werden können. Jedes Element wird durch eine eindeutige Bezeichnung (zum Beispiel identifier) und eine zugehörige Konzeption, welche die Bedeutung dieser Bezeichnung möglichst exakt festlegt, beschrieben. Ein Identifier muss zum Beispiel laut der Dublin Core Ontologie ein Dokument basierend auf einem zugehörigen Katalog eindeutig identifizieren. Je nach Katalog kämen daher zum Beispiel eine ISBN (Katalog von Büchern), ISSN (Katalog von Zeitschriften), URL (Web), DOI (Publikationsdatenbank) etc. als Identifier in Frage.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  4. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.05
    0.04711368 = product of:
      0.31409118 = sum of:
        0.044870168 = product of:
          0.1346105 = sum of:
            0.1346105 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.1346105 = score(doc=306,freq=2.0), product of:
                0.20529667 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024215192 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.1346105 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.1346105 = score(doc=306,freq=2.0), product of:
            0.20529667 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024215192 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.1346105 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.1346105 = score(doc=306,freq=2.0), product of:
            0.20529667 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024215192 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.15 = coord(3/20)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  5. Hubrich, J.: CrissCross: SWD-DDC-Mapping (2008) 0.04
    0.042005748 = product of:
      0.14001915 = sum of:
        0.025753833 = weight(_text_:und in 2175) [ClassicSimilarity], result of:
          0.025753833 = score(doc=2175,freq=12.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.47985753 = fieldWeight in 2175, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.025753833 = weight(_text_:und in 2175) [ClassicSimilarity], result of:
          0.025753833 = score(doc=2175,freq=12.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.47985753 = fieldWeight in 2175, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.02388051 = weight(_text_:der in 2175) [ClassicSimilarity], result of:
          0.02388051 = score(doc=2175,freq=10.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.44148692 = fieldWeight in 2175, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.025753833 = weight(_text_:und in 2175) [ClassicSimilarity], result of:
          0.025753833 = score(doc=2175,freq=12.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.47985753 = fieldWeight in 2175, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.025753833 = weight(_text_:und in 2175) [ClassicSimilarity], result of:
          0.025753833 = score(doc=2175,freq=12.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.47985753 = fieldWeight in 2175, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.013123296 = product of:
          0.026246592 = sum of:
            0.026246592 = weight(_text_:22 in 2175) [ClassicSimilarity], result of:
              0.026246592 = score(doc=2175,freq=2.0), product of:
                0.08479747 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024215192 = queryNorm
                0.30952093 = fieldWeight in 2175, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2175)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Abstract
    Mit zunehmender Nutzung netzwerkbasierter Systeme und steigender internationaler Zusammenarbeit werden Informationsräume geschaffen, in denen unterschiedlich indexierte Informationsressourcen aus verschiedenen Ländern über das Internet frei zugänglich gemacht werden. Bedingt durch die Unterschiedlichkeit der verwendeten Erschließungsinstrumente in Sprache und Struktur gestaltet sich die thematische Recherche in diesen Informationsräumen umständlich und langwierig. Im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten und von der Deutschen Nationalbibliothek (DNB) in Kooperation mit der Fachhochschule Köln durchgeführten Projekts CrissCross wird ein multilinguales, thesaurusbasiertes und benutzergerechtes Recherchevokabular erstellt, das einen wesentlich effizienteren Zugriff auf heterogen erschlossene Informationsressourcen ermöglicht.
    Date
    22. 8.2009 10:35:21
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 61(2008) H.3, S.50-58
  6. Effenberger, C.: ¬Die Dewey Dezimalklassifikation als Erschließungsinstrument : optimiertes Retrieval durch eine Versionierung der DDC (2011) 0.04
    0.041756794 = product of:
      0.1391893 = sum of:
        0.020780036 = weight(_text_:und in 4321) [ClassicSimilarity], result of:
          0.020780036 = score(doc=4321,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3871834 = fieldWeight in 4321, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.030217743 = weight(_text_:geschichte in 4321) [ClassicSimilarity], result of:
          0.030217743 = score(doc=4321,freq=2.0), product of:
            0.11508996 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.024215192 = queryNorm
            0.2625576 = fieldWeight in 4321, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.020780036 = weight(_text_:und in 4321) [ClassicSimilarity], result of:
          0.020780036 = score(doc=4321,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3871834 = fieldWeight in 4321, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.025851412 = weight(_text_:der in 4321) [ClassicSimilarity], result of:
          0.025851412 = score(doc=4321,freq=30.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.47792363 = fieldWeight in 4321, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.020780036 = weight(_text_:und in 4321) [ClassicSimilarity], result of:
          0.020780036 = score(doc=4321,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3871834 = fieldWeight in 4321, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.020780036 = weight(_text_:und in 4321) [ClassicSimilarity], result of:
          0.020780036 = score(doc=4321,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3871834 = fieldWeight in 4321, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
      0.3 = coord(6/20)
    
    Abstract
    Unsere Welt ist voller Informationen. Diese werden seit jeher in eine systematische Ordnung gebracht. In der Geschichte der Wissensreprasentation spielen Bibliotheken und Bibliothekare eine grose Rolle. Bereits in der Antike gab es Kataloge. In der Bibliothek der Ptolemaer in Alexandria erarbeitete der Bibliothekar Kallimachos (ca. 305 . ca. 240 v.Chr.) die .Pinakes_g (Pinax: altgriechisch fur Tafel und Verzeichnis), die sehr wahrscheinlich gleichzeitig einen systematischen Katalog und eine Bibliographie verkorperten. Zusatzlich wurden die Dokumente rudimentar mittels eines vorgegebenen Ordnungssystems erschlossen und der Inhalt ruckte in den Mittelpunkt. Auch Philosophen hatten ihren Anteil an den Grundlagen der Wissensreprasentation. Aristoteles (384_]322 v.Chr.) arbeitete Kriterien aus, nach denen Begriffe voneinander zu differenzieren sind und nach denen Begriffe in eine hierarchische Ordnung gebracht werden. Das waren die Grundlagen fur Klassifikationen. Eine methodische Revolution erleben Klassifikationsforschung und .praxis mit der .Decimal Classification_g (1876) des amerikanischen Bibliothekars Melvil Dewey (1851_]1931). Die Grundidee der Klassifikation war einfach. Das Wissen wurde in maximal zehn Unterbegriffe unterteilt und durch Dezimalzeichen dargestellt. Die Aufstellung der Bucher in der Bibliothek folgte der Klassifikation, so dass thematisch verwandte Werke dicht beieinander standen. Die Dewey Dezimalklassifikation (DDC) wird auch heute noch haufig fur die inhaltliche Erschliesung genutzt und im Umkehrschluss um Dokumente aus einer Fulle von Informationen herausfinden zu konnen.
    Diese These, dass die Versionierung der DDC zu einer verbesserten Suche führt, soll in dieser Arbeit untersucht werden. Es soll geprüft werden, ob die vorgeschlagene Vorgehensweise zu einem besseren Retrievalergebnis führt. Die Arbeit wird zunächst einen Überblick über die theoretischen Hintergründe von inhaltlicher Erschließung und den technischen Methoden liefern, bevor das eigentliche Problem anhand einer Testdatenbank und entsprechender Suchanfragen behandelt wird.
  7. Woldering, B.: ¬Die Europäische Digitale Bibliothek nimmt Gestalt an (2007) 0.04
    0.03680714 = product of:
      0.122690454 = sum of:
        0.02291464 = weight(_text_:und in 2439) [ClassicSimilarity], result of:
          0.02291464 = score(doc=2439,freq=38.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.42695636 = fieldWeight in 2439, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.02291464 = weight(_text_:und in 2439) [ClassicSimilarity], result of:
          0.02291464 = score(doc=2439,freq=38.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.42695636 = fieldWeight in 2439, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.024470242 = weight(_text_:der in 2439) [ClassicSimilarity], result of:
          0.024470242 = score(doc=2439,freq=42.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.45238948 = fieldWeight in 2439, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.02291464 = weight(_text_:und in 2439) [ClassicSimilarity], result of:
          0.02291464 = score(doc=2439,freq=38.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.42695636 = fieldWeight in 2439, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.02291464 = weight(_text_:und in 2439) [ClassicSimilarity], result of:
          0.02291464 = score(doc=2439,freq=38.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.42695636 = fieldWeight in 2439, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.006561648 = product of:
          0.013123296 = sum of:
            0.013123296 = weight(_text_:22 in 2439) [ClassicSimilarity], result of:
              0.013123296 = score(doc=2439,freq=2.0), product of:
                0.08479747 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024215192 = queryNorm
                0.15476047 = fieldWeight in 2439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2439)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Abstract
    Der Aufbau der Europäischen Digitalen Bibliothek wurde im Herbst 2007 auf soliden Grund gestellt: Mit der European Digital Library Foundation steht eine geschäftsfähige Organisation als Trägerin der Europäischen Digitalen Bibliothek zur Verfügung. Sie fungiert zunächst als Steuerungsgremium für das EU-finanzierte Projekt EDLnet und übernimmt sukzessive die Aufgaben, die für den Aufbau und die Weiterentwicklung der Europäischen Digitalen Bibliothek notwendig sind. Die Gründungsmitglieder sind zehn europäische Dachorganisationen aus den Bereichen Bibliothek, Archiv, audiovisuelle Sammlungen und Museen. Vorstandsmitglieder sind die Vorsitzende Elisabeth Niggemann (CENL) die Vize-Vorsitzende Martine de Boisdeffre (EURBICA), der Schatzmeister Edwin van Huis (FIAT) sowie Wim van Drimmelen, der Generaldirektor der Koninklijke Bibliotheek, der Nationalbibliothek der Niederlande, welche die Europäische Digitale Bibliothek hostet. Der Prototyp für die Europäische Digitale Bibliothek wird im Rahmen des EDLnet-Projekts entwickelt. Die erste Version des Prototyps wurde auf der internationalen Konferenz »One more step towards the European Digital Library« vorgestellt, die am 31. Januar und 1. Februar 2008 in der Deutschen Nationalbibliothek (DNB) in Frankfurt am Main stattfand. Die endgültige Version des Prototyps wird im November 2008 von der EU-Kommissarin für Informationsgesellschaft und Medien, Viviane Reding, in Paris vorgestellt werden. Dieser Prototyp wird direkten Zugang zu mindestens zwei Mio. digitalisierten Büchern, Fotografien, Karten, Tonaufzeichnungen, Filmaufnahmen und Archivalien aus Bibliotheken, Archiven, audiovisuellen Sammlungen und Museen Europas bieten.
    Content
    Darin u.a. "Interoperabilität als Kernstück - Technische und semantische Interoperabilität bilden somit das Kernstück für das Funktionieren der Europäischen Digitalen Bibliothek. Doch bevor Wege gefunden werden können, wie etwas funktionieren kann, muss zunächst einmal festgelegt werden, was funktionieren soll. Hierfür sind die Nutzeranforderungen das Maß aller Dinge, weshalb sich ein ganzes Arbeitspaket in EDLnet mit der Nutzersicht, den Nutzeranforderungen und der Nutzbarkeit der Europäischen Digitalen Bibliothek befasst, Anforderungen formuliert und diese im Arbeitspaket »Interoperabilität« umgesetzt werden. Für die Entscheidung, welche Inhalte wie präsentiert werden, sind jedoch nicht allein technische und semantische Fragestellungen zu klären, sondern auch ein Geschäftsmodell zu entwickeln, das festlegt, was die beteiligten Institutionen und Organisationen in welcher Form zu welchen Bedingungen zur Europäischen Digitalen Bibliothek beitragen. Auch das Geschäftsmodell wird Auswirkungen auf technische und semantische Interoperabilität haben und liefert die daraus abgeleiteten Anforderungen zur Umsetzung an das entsprechende Arbeitspaket. Im EDLnet-Projekt ist somit ein ständiger Arbeitskreislauf installiert, in welchem die Anforderungen an die Europäische Digitale Bibliothek formuliert, an das Interoperabilitäts-Arbeitspaket weitergegeben und dort umgesetzt werden. Diese Lösung wird wiederum an die Arbeitspakete »Nutzersicht« und »Geschäftsmodell« zurückgemeldet, getestet, kommentiert und für die Kommentare wiederum technische Lösungen gesucht. Dies ist eine Form des »rapid prototyping«, das hier zur Anwendung kommt, d. h. die Funktionalitäten werden schrittweise gemäß des Feedbacks der zukünftigen Nutzer sowie der Projektpartner erweitert und gleichzeitig wird der Prototyp stets lauffähig gehalten und bis zur Produktreife weiterentwickelt. Hierdurch verspricht man sich ein schnelles Ergebnis bei geringem Risiko einer Fehlentwicklung durch das ständige Feedback."
    Date
    22. 2.2009 19:10:56
  8. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.03
    0.034451026 = product of:
      0.114836745 = sum of:
        0.022534605 = weight(_text_:und in 4184) [ClassicSimilarity], result of:
          0.022534605 = score(doc=4184,freq=12.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.41987535 = fieldWeight in 4184, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.022534605 = weight(_text_:und in 4184) [ClassicSimilarity], result of:
          0.022534605 = score(doc=4184,freq=12.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.41987535 = fieldWeight in 4184, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.013215441 = weight(_text_:der in 4184) [ClassicSimilarity], result of:
          0.013215441 = score(doc=4184,freq=4.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.24431825 = fieldWeight in 4184, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.022534605 = weight(_text_:und in 4184) [ClassicSimilarity], result of:
          0.022534605 = score(doc=4184,freq=12.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.41987535 = fieldWeight in 4184, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.022534605 = weight(_text_:und in 4184) [ClassicSimilarity], result of:
          0.022534605 = score(doc=4184,freq=12.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.41987535 = fieldWeight in 4184, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.011482884 = product of:
          0.022965768 = sum of:
            0.022965768 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
              0.022965768 = score(doc=4184,freq=2.0), product of:
                0.08479747 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024215192 = queryNorm
                0.2708308 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Abstract
    Das Medium Internet ist im Wandel, und mit ihm ändern sich seine Publikations- und Rezeptionsbedingungen. Welche Chancen bieten die momentan parallel diskutierten Zukunftsentwürfe von Social Web und Semantic Web? Zur Beantwortung dieser Frage beschäftigt sich der Beitrag mit den Grundlagen beider Modelle unter den Aspekten Anwendungsbezug und Technologie, beleuchtet darüber hinaus jedoch auch deren Unzulänglichkeiten sowie den Mehrwert einer mediengerechten Kombination. Am Beispiel des grammatischen Online-Informationssystems grammis wird eine Strategie zur integrativen Nutzung der jeweiligen Stärken skizziert.
    Date
    22. 1.2011 10:38:28
    Source
    Kommunikation, Partizipation und Wirkungen im Social Web, Band 1. Hrsg.: A. Zerfaß u.a
  9. Petras, V.: Heterogenitätsbehandlung und Terminology Mapping durch Crosskonkordanzen : eine Fallstudie (2010) 0.03
    0.03393444 = product of:
      0.1131148 = sum of:
        0.018399429 = weight(_text_:und in 3730) [ClassicSimilarity], result of:
          0.018399429 = score(doc=3730,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34282678 = fieldWeight in 3730, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.018399429 = weight(_text_:und in 3730) [ClassicSimilarity], result of:
          0.018399429 = score(doc=3730,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34282678 = fieldWeight in 3730, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.028034184 = weight(_text_:der in 3730) [ClassicSimilarity], result of:
          0.028034184 = score(doc=3730,freq=18.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.5182773 = fieldWeight in 3730, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.018399429 = weight(_text_:und in 3730) [ClassicSimilarity], result of:
          0.018399429 = score(doc=3730,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34282678 = fieldWeight in 3730, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.018399429 = weight(_text_:und in 3730) [ClassicSimilarity], result of:
          0.018399429 = score(doc=3730,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34282678 = fieldWeight in 3730, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.011482884 = product of:
          0.022965768 = sum of:
            0.022965768 = weight(_text_:22 in 3730) [ClassicSimilarity], result of:
              0.022965768 = score(doc=3730,freq=2.0), product of:
                0.08479747 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024215192 = queryNorm
                0.2708308 = fieldWeight in 3730, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3730)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Abstract
    Das BMBF hat bis Ende 2007 ein Projekt gefördert, dessen Aufgabe es war, die Erstellung und das Management von Crosskonkordanzen zwischen kontrollierten Vokabularen (Thesauri, Klassifikationen, Deskriptorenlisten) zu organisieren. In drei Jahren wurden 64 Crosskonkordanzen mit mehr als 500.000 Relationen zwischen kontrollierten Vokabularen aus den Sozialwissenschaften und anderen Fachgebieten umgesetzt. In der Schlussphase des Projekts wurde eine umfangreiche Evaluation durchgeführt, die die Effektivität der Crosskonkordanzen in unterschiedlichen Informationssystemen testen sollte. Der Artikel berichtet über die Anwendungsmöglichkeiten der Heterogenitätsbehandlung durch Crosskonkordanzen und die Ergebnisse der umfangreichen Analysen.
    Series
    Fortschritte in der Wissensorganisation; Bd.11
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  10. Nentwig, L.: Semantische Interoperabilität : Bd.2: Semantische Konflikte (2010) 0.03
    0.032065447 = product of:
      0.12826179 = sum of:
        0.026284898 = weight(_text_:und in 4848) [ClassicSimilarity], result of:
          0.026284898 = score(doc=4848,freq=32.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.48975256 = fieldWeight in 4848, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4848)
        0.026284898 = weight(_text_:und in 4848) [ClassicSimilarity], result of:
          0.026284898 = score(doc=4848,freq=32.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.48975256 = fieldWeight in 4848, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4848)
        0.023122204 = weight(_text_:der in 4848) [ClassicSimilarity], result of:
          0.023122204 = score(doc=4848,freq=24.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.42746788 = fieldWeight in 4848, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4848)
        0.026284898 = weight(_text_:und in 4848) [ClassicSimilarity], result of:
          0.026284898 = score(doc=4848,freq=32.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.48975256 = fieldWeight in 4848, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4848)
        0.026284898 = weight(_text_:und in 4848) [ClassicSimilarity], result of:
          0.026284898 = score(doc=4848,freq=32.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.48975256 = fieldWeight in 4848, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4848)
      0.25 = coord(5/20)
    
    Abstract
    Prozessketten in der freien Wirtschaft oder Verwaltung sind zunehmend geprägt von einem intensiven Austausch von Dokumenten und Daten auch über die Grenzen der beteiligten Organisationen hinweg. Wie in Band 1 der White Paper-Reihe dargelegt, ist die Sicherstellung der semantischen Interoperabilität eine der zentralen Anforderungen für einen semantisch konsistenten und damit erfolgreichen Ablauf der Geschäftsprozesse. Grundlage für semantische Interoperabilität sind die technische und die syntaktische Interoperabilität: Die technische Interoperabilität umfasst die Möglichkeit der technischen Interaktion mit sowie des Transports von Inhalten und erfordert dafür die leitungstechnische Verbindbarkeit und Passbarkeit auf Protokollebene. Die syntaktische Interoperabilität wird durch einen homogenen Einsatz von Sprachen (wie z. B. XML) sichergestellt und gewährleistet den Austausch von Daten auf Basis von vordefinierten und exakt vereinbahrten syntaktischen Strukturen. Semantische Interoperabilität stellt die komplexeste unter den Stufen der Interoperabilität dar. Der wesentliche Grund dafür, dass die Anforderung der semantischen Interoperabilität nicht erfüllt wird, ist das Vorhandensein bzw. die fehlende Auflösung sogenannter semantischer Konflikte. Ein semantischer Konflikt wird hervorgerufen, wenn die am Datenaustausch beteiligten Sender und Empfänger unterschiedliche Datenstrukturen und Dateninhalte verwenden. Eine detaillierte Beschreibung der Konfliktarten und ihrer Behandlung zeigen die nächsten Abschnitte.
    Content
    Um zwischen Behörden, Wirtschaft und Bürgern durchgängige Prozessketten zu erreichen, wird heute weitgehend auf internetgestützte Kooperation gesetzt. Vielfach sind dabei Insellösungen und autarke IT-Fachanwendungen entstanden, die nicht ohne Weiteres interoperabel sind. Trotz eines syntaktisch korrekten Datenaustausches können die Nutzung unterschiedlicher Begriffe, Datenstrukturen und Schreibkonventionen zu Fehlinterpretationen führen. In der White Paper-Reihe »Semantische Interoperabilität« vermittelt das Fraunhofer ISST in verständlicher Weise Grundlagen und Lösungsansätze des »Semantic Interoperability Engineerings « (SIE). Die Reihe richtet sich an technisch interessierte Personenkreise mit und ohne fachliches Vorwissen (vom Projektleiter bis zum CIO). Vgl.: http://www.isst.fraunhofer.de/geschaeftsfelder/gfegovernment/referenzprojekte/sie/white-paper/index.jsp.
    Imprint
    Berlin : Fraunhofer-Institut für Software- und Systemtechnik ISST
  11. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.03
    0.031504307 = product of:
      0.105014354 = sum of:
        0.019315375 = weight(_text_:und in 4408) [ClassicSimilarity], result of:
          0.019315375 = score(doc=4408,freq=12.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.35989314 = fieldWeight in 4408, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.019315375 = weight(_text_:und in 4408) [ClassicSimilarity], result of:
          0.019315375 = score(doc=4408,freq=12.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.35989314 = fieldWeight in 4408, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.017910382 = weight(_text_:der in 4408) [ClassicSimilarity], result of:
          0.017910382 = score(doc=4408,freq=10.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.3311152 = fieldWeight in 4408, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.019315375 = weight(_text_:und in 4408) [ClassicSimilarity], result of:
          0.019315375 = score(doc=4408,freq=12.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.35989314 = fieldWeight in 4408, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.019315375 = weight(_text_:und in 4408) [ClassicSimilarity], result of:
          0.019315375 = score(doc=4408,freq=12.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.35989314 = fieldWeight in 4408, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.009842472 = product of:
          0.019684944 = sum of:
            0.019684944 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
              0.019684944 = score(doc=4408,freq=2.0), product of:
                0.08479747 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024215192 = queryNorm
                0.23214069 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Abstract
    Unser Projekt soll eine Kreuzkonkordanz zwischen den Universalklassifikationen wie der "Regensburger Verbundsklassifikation (RVK)" und der "Basisklassifikation (BK)" sowie den Fachklassifikationen "Mathematics Subject Classification (MSC2010)" und "Physics and Astronomy Classification Scheme (PACS2010)" in den Fachgebieten Mathematik und Physik herstellen. Fazit: "Die klassifikatorische Übereinstmmung zwischen Regensburger Verbundklassifikation und Physics and Astronomy Classification Scheme war in einzelnen Fachbereichen (z. B. Kernphysik) recht gut. Doch andere Fachbereiche (z.B. Polymerphysik, Mineralogie) stimmten sehr wenig überein. Insgesamt konnten wir 890 einfache Verbindungen erstellen. Mehrfachverbindungen wurden aus technischen Gründen nicht mitgezählt. Das Projekt war insgesamt sehr umfangreich, daher konnte es im Rahmen der zwanzig Projekttage nicht erschöpfend behandelt werden. Eine Weiterentwicklung, insbesondere hinsichtlich des kollektiven Zuganges in Form eines Webformulars und der automatischen Klassifizierung erscheint jedoch sinnvoll."
    Imprint
    Innsbruck : Universitäts- und Landesbibliothek Tirol
    Pages
    22 S
  12. Hubrich, J.: Begriffliche Suche und Wissensexploration in heterogenen Informationsräumen : Kurzfassung (2009) 0.03
    0.0313487 = product of:
      0.1253948 = sum of:
        0.024340155 = weight(_text_:und in 3729) [ClassicSimilarity], result of:
          0.024340155 = score(doc=3729,freq=14.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.4535172 = fieldWeight in 3729, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3729)
        0.024340155 = weight(_text_:und in 3729) [ClassicSimilarity], result of:
          0.024340155 = score(doc=3729,freq=14.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.4535172 = fieldWeight in 3729, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3729)
        0.028034184 = weight(_text_:der in 3729) [ClassicSimilarity], result of:
          0.028034184 = score(doc=3729,freq=18.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.5182773 = fieldWeight in 3729, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3729)
        0.024340155 = weight(_text_:und in 3729) [ClassicSimilarity], result of:
          0.024340155 = score(doc=3729,freq=14.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.4535172 = fieldWeight in 3729, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3729)
        0.024340155 = weight(_text_:und in 3729) [ClassicSimilarity], result of:
          0.024340155 = score(doc=3729,freq=14.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.4535172 = fieldWeight in 3729, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3729)
      0.25 = coord(5/20)
    
    Abstract
    Erschließungsinstrumente erhöhen Effizienz und Effektivität thematischer Recherchen, indem sie standardisierte Zugänge zu Informationsressourcen bieten und mittels Ausweisung von Begriffsbeziehungen explorative Suchprozesse unterstützen. In heterogenen Informationsräumen ist ihre Funktionalität aufgrund der Unterschiedlichkeit der verwendeten Indexierungsdaten indes begrenzt. Die Herstellung von Verbindungen zwischen Dokumentationssprachen trägt dazu bei, dass das mit einem einzelnen Begriffssystem gegebene Potential über Teilmengen hinaus nutzbar wird. Welcher Mehrwert durch eine adäquate Einbindung derartiger Verknüpfungen in Retrievalapplikationen im Einzelnen erzielt werden kann, ist wesentlich abhängig von der zugrunde liegenden Methode der Heterogenitätsbehandlung und den berücksichtigten Charakteristika der jeweiligen Erschließungsinstrumente. Im Folgenden wird der vom DFG-Projekt CrissCross praktizierte Ansatz zur Herstellung von semantischer Interoperabilität zwischen der Schlagwortnormdatei (SWD) und der Dewey-Dezimalklassifikation (DDC) vorgestellt und sein Nutzen zur Unterstützung thematischer Suchprozesse aufgezeigt.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 62(2009) H.4, S.7-11
  13. Balakrishnan, U.; Peters, S.; Voß, J.: Coli-conc : eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen (2021) 0.03
    0.031244583 = product of:
      0.12497833 = sum of:
        0.02602072 = weight(_text_:und in 368) [ClassicSimilarity], result of:
          0.02602072 = score(doc=368,freq=16.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.4848303 = fieldWeight in 368, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=368)
        0.02602072 = weight(_text_:und in 368) [ClassicSimilarity], result of:
          0.02602072 = score(doc=368,freq=16.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.4848303 = fieldWeight in 368, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=368)
        0.020895448 = weight(_text_:der in 368) [ClassicSimilarity], result of:
          0.020895448 = score(doc=368,freq=10.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.38630107 = fieldWeight in 368, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=368)
        0.02602072 = weight(_text_:und in 368) [ClassicSimilarity], result of:
          0.02602072 = score(doc=368,freq=16.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.4848303 = fieldWeight in 368, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=368)
        0.02602072 = weight(_text_:und in 368) [ClassicSimilarity], result of:
          0.02602072 = score(doc=368,freq=16.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.4848303 = fieldWeight in 368, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=368)
      0.25 = coord(5/20)
    
    Abstract
    coli-conc ist eine Dienstleistung der Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG). Sie stellt webbasierte Dienste für einen effektiveren Austausch von Wissensorganisationssystemen und für die effiziente Erstellung und Wartung von Mappings zur Verfügung. Der Schwerpunkt liegt auf den im deutschsprachigen Raum verbreiteten bibliothekarischen Klassifikationen und Normdateien, vor allem den bedeutenden Universalklassifikationen wie Dewey Dezimalklassifikation (DDC), Regensburger Verbundklassifikation (RVK), Basisklassifikation (BK) und den Sachgruppen der Deutschen Nationalbibliografie (SDNB). Dieser Bericht beschreibt den Hintergrund, die Architektur und die Funktionalitäten von coli-conc sowie das Herzstück der Infrastruktur - das Mapping-Tool Cocoda. Außerdem wird auf Maßnahmen zur Qualitätssicherung eingegangen und ein Einblick in das neue Mapping-Verfahren mit dem Konzept- Hub gewährt.
    Series
    Bibliotheks- und Informationspraxis; 70
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a
  14. Hubrich, J.: Multilinguale Wissensorganisation im Zeitalter der Globalisierung : das Projekt CrissCross (2010) 0.03
    0.030271636 = product of:
      0.10090545 = sum of:
        0.016096147 = weight(_text_:und in 4793) [ClassicSimilarity], result of:
          0.016096147 = score(doc=4793,freq=12.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.29991096 = fieldWeight in 4793, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.016096147 = weight(_text_:und in 4793) [ClassicSimilarity], result of:
          0.016096147 = score(doc=4793,freq=12.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.29991096 = fieldWeight in 4793, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.028318804 = weight(_text_:der in 4793) [ClassicSimilarity], result of:
          0.028318804 = score(doc=4793,freq=36.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.5235391 = fieldWeight in 4793, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.016096147 = weight(_text_:und in 4793) [ClassicSimilarity], result of:
          0.016096147 = score(doc=4793,freq=12.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.29991096 = fieldWeight in 4793, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.016096147 = weight(_text_:und in 4793) [ClassicSimilarity], result of:
          0.016096147 = score(doc=4793,freq=12.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.29991096 = fieldWeight in 4793, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.00820206 = product of:
          0.01640412 = sum of:
            0.01640412 = weight(_text_:22 in 4793) [ClassicSimilarity], result of:
              0.01640412 = score(doc=4793,freq=2.0), product of:
                0.08479747 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024215192 = queryNorm
                0.19345059 = fieldWeight in 4793, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4793)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Abstract
    Im Zuge zunehmender Globalisierung werden Wissensorganisationssysteme erforderlich, die ein sprachunabhängiges Retrieval ermöglichen, ohne dass dadurch bereits existierende und national bewährte Wissenssysteme obsolet werden. Das durch die Deutsche Forschungsgemeinschaft (DFG) geförderte und von der Deutschen Nationalbibliothek in Kooperation mit der Fachhochschule Köln durchgeführte Projekt CrissCross leistet einen wesentlichen Beitrag zur Schaffung eines solchen Wissensspeichers, indem es die Sachschlagwörter der deutschen Schlagwortnormdatei (SWD) mit Notationen der Dewey-Dezimalklassifikation sowie mit ihren Äquivalenten der Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache RAMEAU (Repertoire d'autorité-matière encyclopédique et alphabétique unifié) verknüpft. Ein erweitertes multilinguales und thesaurusbasiertes Recherchevokabular wird erstellt, das für die inhaltliche Suche nach Dokumenten in heterogen erschlossenen Beständen verwendet werden kann. In diesem Artikel wird die Problematik bei der Verknüpfung semantisch heterogener Systeme unter besonderer Berücksichtigung der Unterschiede zwischen der DDC und der SWD skizziert. Die in CrissCross gewählte Methodik bei der Verknüpfung von SWD und DDC wird vorgestellt. Abschließend wird der Nutzen der erstellten Daten für das Retrieval aufgezeigt.
    Series
    Fortschritte in der Wissensorganisation; Bd.11
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  15. Heel, F.: Abbildungen zwischen der Dewey-Dezimalklassifikation (DDC), der Regensburger Verbundklassifikation (RVK) und der Schlagwortnormdatei (SWD) für die Recherche in heterogen erschlossenen Datenbeständen : Möglichkeiten und Problembereiche (2007) 0.03
    0.02986417 = product of:
      0.11945668 = sum of:
        0.02458727 = weight(_text_:und in 4434) [ClassicSimilarity], result of:
          0.02458727 = score(doc=4434,freq=28.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.45812157 = fieldWeight in 4434, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4434)
        0.02458727 = weight(_text_:und in 4434) [ClassicSimilarity], result of:
          0.02458727 = score(doc=4434,freq=28.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.45812157 = fieldWeight in 4434, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4434)
        0.021107588 = weight(_text_:der in 4434) [ClassicSimilarity], result of:
          0.021107588 = score(doc=4434,freq=20.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.390223 = fieldWeight in 4434, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4434)
        0.02458727 = weight(_text_:und in 4434) [ClassicSimilarity], result of:
          0.02458727 = score(doc=4434,freq=28.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.45812157 = fieldWeight in 4434, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4434)
        0.02458727 = weight(_text_:und in 4434) [ClassicSimilarity], result of:
          0.02458727 = score(doc=4434,freq=28.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.45812157 = fieldWeight in 4434, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4434)
      0.25 = coord(5/20)
    
    Abstract
    Eine einheitliche Sacherschließung in Deutschland wird durch die Vielzahl an vorhandenen und verwendeten Erschließungssystemen, Universal-, Fachklassifikationen und Fachthesauri erschwert. Den Benutzern von Bibliothekskatalogen oder Datenbanken fällt es daher schwer, themenspezifische Recherchen in heterogen erschlossenen Datenbeständen durchzuführen. In diesem Fall müssen die Nutzer derzeit nämlich den Umgang mit mehreren Erschließungsinstrumenten erlernen und verschiedene Suchanfragen anwenden, um das gewünschte Rechercheergebnis datenbankübergreifend zu erreichen. Um dem Benutzer einen einheitlichen Zugang zu heterogen erschlossenen Datenbeständen zu gewährleisten und gleichzeitig auch den Arbeitsaufwand für die Bibliothekare zu reduzieren, ist die Erstellung eines so genannten "Integrierten Retrievals" sinnvoll. Durch die Verknüpfung der unterschiedlichen Sacherschließungssysteme mit Hilfe von Konkordanzen wird es dem Nutzer ermöglicht, mit einem ihm vertrauten Vokabular eine sachliche Recherche in unterschiedlich erschlossenen Datenbeständen durchzuführen, ohne die spezifischen Besonderheiten der verschiedenen Erschließungsinstrumente kennen zu müssen. In dieser Arbeit sind exemplarisch drei Abbildungen für den Fachbereich der Bibliotheks- und Informationswissenschaften zwischen den für Deutschland wichtigsten Sacherschließungssystemen Dewey-Dezimalklassifikation (DDC), Regensburger Verbundklassifikation (RVK) und Schlagwortnormdatei (SWD) erstellt worden. Die Ergebnisse dieser Arbeit sollen einen ersten Überblick über spezifische Problemfelder und Möglichkeiten der hier erstellten Konkordanzen DDC - RVK, SWD - DDC und SWD - RVK liefern, um damit die Erstellung eines zukünftigen Recherchetools (und gegebenenfalls einer Klassifizierungshilfe) voranzutreiben. Die erstellten Konkordanzen liegen der Arbeit als Anhang bei.
    Content
    Bachelorarbeit im Studiengang Bibliotheks- und Informationsmanagement, Fakultät Information und Kommunikation, Hochschule der Medien Stuttgart
    Imprint
    Stuttgart : Hochschule der Medien / Fakultät Information und Kommunikation
  16. Huckstorf, A.; Petras, V.: Mind the lexical gap : EuroVoc Building Block of the Semantic Web (2011) 0.03
    0.028940925 = product of:
      0.1157637 = sum of:
        0.024936043 = weight(_text_:und in 2782) [ClassicSimilarity], result of:
          0.024936043 = score(doc=2782,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.46462005 = fieldWeight in 2782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.024936043 = weight(_text_:und in 2782) [ClassicSimilarity], result of:
          0.024936043 = score(doc=2782,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.46462005 = fieldWeight in 2782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.016019532 = weight(_text_:der in 2782) [ClassicSimilarity], result of:
          0.016019532 = score(doc=2782,freq=8.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.29615843 = fieldWeight in 2782, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.024936043 = weight(_text_:und in 2782) [ClassicSimilarity], result of:
          0.024936043 = score(doc=2782,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.46462005 = fieldWeight in 2782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.024936043 = weight(_text_:und in 2782) [ClassicSimilarity], result of:
          0.024936043 = score(doc=2782,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.46462005 = fieldWeight in 2782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
      0.25 = coord(5/20)
    
    Abstract
    Ein Konferenzereignis der besonderen Art fand am 18. und 19. November 2010 in Luxemburg statt. Initiiert durch das Amt für Veröffentlichungen der Europäischen Union (http://publications.europa.eu) waren Bibliothekare und Information Professionals eingeladen, um über die Zukunft mehrsprachiger kontrollierter Vokabulare in Informationssystemen und insbesondere deren Beitrag zum Semantic Web zu diskutieren. Organisiert wurde die Konferenz durch das EuroVoc-Team, das den Thesaurus der Europäischen Union bearbeitet. Die letzte EuroVoc-Konferenz fand im Jahr 2006 statt. In der Zwischenzeit ist EuroVoc zu einem ontologie-basierten Thesaurusmanagementsystem übergegangen und hat systematisch begonnen, Semantic-Web-Technologien für die Bearbeitung und Repräsentation einzusetzen und sich mit anderen Vokabularen zu vernetzen. Ein produktiver Austausch fand mit den Produzenten anderer europäischer und internationaler Vokabulare (z.B. United Nations oder FAO) sowie Vertretern aus Projekten, die an Themen über automatische Indexierung (hier insbesondere parlamentarische und rechtliche Dokumente) sowie Interoperabilitiät zwischen Vokabularen arbeiten, statt.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.2/3, S.125-126
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  17. Schleipen, M.: Adaptivität und semantische Interoperabilität von Manufacturing Execution Systemen (MES) (2013) 0.03
    0.028849771 = product of:
      0.115399085 = sum of:
        0.023509927 = weight(_text_:und in 1276) [ClassicSimilarity], result of:
          0.023509927 = score(doc=1276,freq=10.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.438048 = fieldWeight in 1276, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1276)
        0.023509927 = weight(_text_:und in 1276) [ClassicSimilarity], result of:
          0.023509927 = score(doc=1276,freq=10.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.438048 = fieldWeight in 1276, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1276)
        0.021359377 = weight(_text_:der in 1276) [ClassicSimilarity], result of:
          0.021359377 = score(doc=1276,freq=8.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.3948779 = fieldWeight in 1276, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1276)
        0.023509927 = weight(_text_:und in 1276) [ClassicSimilarity], result of:
          0.023509927 = score(doc=1276,freq=10.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.438048 = fieldWeight in 1276, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1276)
        0.023509927 = weight(_text_:und in 1276) [ClassicSimilarity], result of:
          0.023509927 = score(doc=1276,freq=10.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.438048 = fieldWeight in 1276, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1276)
      0.25 = coord(5/20)
    
    Abstract
    MES (Manufacturing Execution Systems) sind zwischen der Automatisierungs- und der Unternehmensleitebene von Änderungen in der Produktion betroffen. Darum ist ihre Adaptivität im Lebenszyklus der Produktionsanlagen erfolgskritisch. Zusätzlich agieren MES als Daten- und Informationsdrehscheibe. Daher müssen sie möglichst gut und nahtlos mit anderen Systemen zusammenarbeiten: MES müssen interoperabel werden und dabei die Semantik im Griff haben. Die vorliegende Arbeit begegnet beiden Aspekten.
  18. Sigel, A.: Wissensorganisation, Topic Maps und Ontology Engineering : Die Verbindung bewährter Begriffsstrukturen mit aktueller XML Technologie (2004) 0.03
    0.028698992 = product of:
      0.11479597 = sum of:
        0.023692887 = weight(_text_:und in 3236) [ClassicSimilarity], result of:
          0.023692887 = score(doc=3236,freq=26.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.441457 = fieldWeight in 3236, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
        0.023692887 = weight(_text_:und in 3236) [ClassicSimilarity], result of:
          0.023692887 = score(doc=3236,freq=26.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.441457 = fieldWeight in 3236, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
        0.020024417 = weight(_text_:der in 3236) [ClassicSimilarity], result of:
          0.020024417 = score(doc=3236,freq=18.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.37019804 = fieldWeight in 3236, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
        0.023692887 = weight(_text_:und in 3236) [ClassicSimilarity], result of:
          0.023692887 = score(doc=3236,freq=26.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.441457 = fieldWeight in 3236, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
        0.023692887 = weight(_text_:und in 3236) [ClassicSimilarity], result of:
          0.023692887 = score(doc=3236,freq=26.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.441457 = fieldWeight in 3236, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
      0.25 = coord(5/20)
    
    Abstract
    Wie können begriffliche Strukturen an Topic Maps angebunden werden? Allgemeiner. Wie kann die Wissensorganisation dazu beitragen, dass im Semantic Web eine begriffsbasierte Infrastruktur verfügbar ist? Dieser Frage hat sich die Wissensorganisation bislang noch nicht wirklich angenommen. Insgesamt ist die Berührung zwischen semantischen Wissenstechnologien und wissensorganisatorischen Fragestellungen noch sehr gering, obwohl Begriffsstrukturen, Ontologien und Topic Maps grundsätzlich gut zusammenpassen und ihre gemeinsame Betrachtung Erkenntnisse für zentrale wissensorganisatorische Fragestellungen wie z.B. semantische Interoperabilität und semantisches Retrieval erwarten lässt. Daher motiviert und skizziert dieser Beitrag die Grundidee, nach der es möglich sein müsste, eine Sprache zur Darstellung von Begriffsstrukturen in der Wissensorganisation geeignet mit Topic Maps zu verbinden. Eine genauere Untersuchung und Implementation stehen allerdings weiterhin aus. Speziell wird vermutet, dass sich der Concepto zugrunde liegende Formalismus CLF (Concept Language Formalism) mit Topic Maps vorteilhaft abbilden lässt 3 Damit können Begriffs- und Themennetze realisiert werden, die auf expliziten Begriffssystemen beruhen. Seitens der Wissensorganisation besteht die Notwendigkeit, sich mit aktuellen Entwicklungen auf dem Gebiet des Semantic Web und ontology engineering vertraut zu machen, aber auch die eigene Kompetenz stärker aktiv in diese Gebiete einzubringen. Damit dies geschehen kann, führt dieser Beitrag zum besseren Verständnis zunächst aus Sicht der Wissensorganisation knapp in Ontologien und Topic Maps ein und diskutiert wichtige Überschneidungsbereiche.
    Series
    Fortschritte in der Wissensorganisation; Bd.7
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  19. Galinski, C.: Wozu Normen? : Wozu semantische Interoperabilität? (2006) 0.03
    0.028561367 = product of:
      0.11424547 = sum of:
        0.023656407 = weight(_text_:und in 5811) [ClassicSimilarity], result of:
          0.023656407 = score(doc=5811,freq=18.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.4407773 = fieldWeight in 5811, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5811)
        0.023656407 = weight(_text_:und in 5811) [ClassicSimilarity], result of:
          0.023656407 = score(doc=5811,freq=18.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.4407773 = fieldWeight in 5811, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5811)
        0.019619841 = weight(_text_:der in 5811) [ClassicSimilarity], result of:
          0.019619841 = score(doc=5811,freq=12.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.36271852 = fieldWeight in 5811, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5811)
        0.023656407 = weight(_text_:und in 5811) [ClassicSimilarity], result of:
          0.023656407 = score(doc=5811,freq=18.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.4407773 = fieldWeight in 5811, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5811)
        0.023656407 = weight(_text_:und in 5811) [ClassicSimilarity], result of:
          0.023656407 = score(doc=5811,freq=18.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.4407773 = fieldWeight in 5811, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5811)
      0.25 = coord(5/20)
    
    Abstract
    Das Internet beginnt sein volles Potential als Kommunikationsraum zu entfalten. Das betrifft vor allem auch die distribuierte dynamische Erstellung und Wartung von strukturiertem Content. Dabei handelt es sich um datenbankmäßig strukturierte Daten (basierend auf Metadaten, generischen Datenmodellen und Metamodellen), die über die Attribute verfügen, welche ihre Qualität und damit das Vertrauen der Nutzer bestimmen. Da Fachwissen hochgradig "selbstreferenziell" ist, muss "smart content" einen Teil seines Kontexts - zumindest in Form von Verweisen - mit sich führen. Hinzu kommen Anforderungen an Contenteinheiten, grundsätzlich mehrsprachig. multimodal, multimedia sein zu können und hochgradige Personalisierung, Barrierefreiheit und unterschiedlichste Ausgabeformate zu unterstützen. Die Großindustrie weiß, dass eBusiness vom Ansatz her mehrsprachig angelegt sein muss, um Produkte und Dienstleistungen in der Sprache und Kultur der Zielmärkte verkaufen zu können. Viele Normungsaktivitäten zielen auf die Methoden der entsprechenden Datenmodellierung ab. Die Methodennormen von ISO/TC 37 "Terminologie und andere Sprach-, sowie Contentressourcen" haben sich bislang als die "generischsten" für fachsprachliche Contenteinheiten erwiesen, und bewähren sich auch für nicht-wortsprachliche Contenteinheiten auf der Ebene der lexikalischen Semantik.
  20. Fiala, S.: Deutscher Bibliothekartag Leipzig 2007 : Sacherschließung - Informationsdienstleistung nach Mass (2007) 0.03
    0.028313048 = product of:
      0.11325219 = sum of:
        0.022649286 = weight(_text_:und in 415) [ClassicSimilarity], result of:
          0.022649286 = score(doc=415,freq=66.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.42201215 = fieldWeight in 415, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=415)
        0.022649286 = weight(_text_:und in 415) [ClassicSimilarity], result of:
          0.022649286 = score(doc=415,freq=66.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.42201215 = fieldWeight in 415, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=415)
        0.022655042 = weight(_text_:der in 415) [ClassicSimilarity], result of:
          0.022655042 = score(doc=415,freq=64.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.4188313 = fieldWeight in 415, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=415)
        0.022649286 = weight(_text_:und in 415) [ClassicSimilarity], result of:
          0.022649286 = score(doc=415,freq=66.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.42201215 = fieldWeight in 415, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=415)
        0.022649286 = weight(_text_:und in 415) [ClassicSimilarity], result of:
          0.022649286 = score(doc=415,freq=66.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.42201215 = fieldWeight in 415, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=415)
      0.25 = coord(5/20)
    
    Content
    ""Sacherschließung - Informationsdienstleistung nach Maß": unter diesem Titel fand am 3. Leipziger Kongress für Information und Bibliothek ("Information und Ethik") eine sehr aufschlussreiche Vortragsreihe statt. Neue Projekte der Vernetzung unterschiedlichst erschlossener Bestände wurden vorgestellt. Auch die Frage, inwieweit man die Nutzerinnen und Nutzer in die Erschließung einbinden kann, wurde behandelt. Die Arbeit der Bibliothekare kann wertvolle Ausgangssituationen für alternative Methoden bieten. Das Zusammenwirken von intellektueller und maschineller Erschließung wird in Zukunft eine große Rolle spielen. Ein Ausweg, um die Erschließung der ständig wachsenden Informationsquellen zu ermöglichen, könnte eine arbeitsteilige Erschließung und eine Kooperation mit anderen Informationseinrichtungen darstellen. Im Mittelpunkt all dieser Überlegungen standen die Heterogenitätsprobleme, die sich durch unterschiedliche Erschließungsregeln, verschiedene Arbeitsinstrumente, verschiedene Sprachen und durch die unterschiedliche Bedeutung der Begriffe ergeben können. Der Nachmittag begann mit einem konkreten Beispiel: "Zum Stand der Heterogenitätsbehandlung in vascoda" (Philipp Mayr, Bonn und Anne-Kathrin Walter, Bonn). Das Wissenschaftsportal vascoda beinhaltet verschiedene Fachportale, und es kann entweder interdisziplinär oder fachspezifisch gesucht werden. Durch die verschiedenen Informationsangebote, die in einem Fachportal vorhanden sind und die in dem Wissenschaftsportal vascoda zusammengefasst sind, entsteht semantische Heterogenität. Oberstes Ziel ist somit die Heterogenitätsbehandlung. Die Erstellung von Crosskonkordanzen (zwischen Indexierungssprachen innerhalb eines Fachgebiets und zwischen Indexierungssprachen unterschiedlicher Fachgebiete) und dem sogenannten Heterogenitätsservice (Term-Umschlüsselungs-Dienst) wurden anhand dieses Wissenschaftsportals vorgestellt. "Crosskonkordanzen sind gerichtete, relevanzbewertete Relationen zwischen Termen zweier Thesauri, Klassifikationen oder auch anderer kontrollierter Vokabulare." Im Heterogenitätsservice soll die Suchanfrage so transformiert werden, dass sie alle relevanten Dokumente in den verschiedenen Datenbanken erreicht. Bei der Evaluierung der Crosskonkordanzen stellt sich die Frage der Zielgenauigkeit der Relationen, sowie die Frage nach der Relevanz der durch die Crosskonkordanz zusätzlich gefundenen Treffer. Drei Schritte der Evaluation werden durchgeführt: Zum einen mit natürlicher Sprache in der Freitextsuche, dann übersetzt in Deskriptoren in der Schlagwortsuche und zuletzt mit Deskriptoren in der Schlagwortsuche mit Einsatz der Crosskonkordanzen. Im Laufe des Sommers werden erste Ergebnisse der Evaluation der Crosskonkordanzen erwartet.
    Einen anderen sehr interessanten Ansatz bot der nächste Vortrag mit dem Titel: "Navigieren zwischen Schlagwort und Notation - Crisscross als Verbindung zwischen SWD und DDC" (Helga Karg, Frankfurt am Main und Guido Bee, Frankfurt am Main). Das Projekt Crisscross versucht durch Verbindung von SWD, LCSH, Rameau und DDC ein benutzergerechtes, multilinguales und thesaurusbasiertes Recherchevokabular zu erstellen. Es wurde eine Konkordanz zwischen SWD, LCSH und Rameau (Projekt MACS) erstellt und in den SWD-Sachschlagwörtern die DDCNotationen vermerkt. Durch die Angabe der Determiniertheit in der SWD kann zwischen "wesentlicher Übereinstimmung von SWD-Term und DDCKlasse", "SWD-Begriff spezifischer als die DDC-Klasse" und SWD-Begriff sowohl "nicht auf einen bestimmten Kontext beschränkt" als auch "SWDBegriff quer zur DDC-Hierarchie" unterschieden werden (siehe auch: Anzeige in MelviIClass).
    Der dritte Vortrag dieser Vortragsreihe mit dem Titel: "Anfragetransfers zur Integration von Internetquellen in digitalen Bibliotheken auf der Grundlage statistischer Termrelationen" (Robert Strötgen, Hildesheim) zeigte eine maschinelle Methode der Integration ausgewählter, inhaltlich aber nicht erschlossener Internetdokumentbestände in digitale Bibliotheken. Das Zusammentreffen inhaltlich gut erschlossener Fachdatenbanken mit Internetdokumenten steht im Mittelpunkt dieses Forschungsprojekts. "Sollen ausgewählte fachliche Internetdokumente zur Ausweitung einer Recherche in einer digitalen Bibliothek integriert werden, ist dies entweder durch eine Beschränkung auf hochwertige und aufwändig erstellte Clearinghouses oder durch eine "naive" Weiterleitung der Benutzeranfrage möglich." Weiter heißt es in der Projektbeschreibung: "Unter Anwendung von Methoden des maschinellen Lernens werden semantische Relationen zwischen Klassen verschiedener Ontologien erstellt, die Übergänge zwischen diesen Ontologien ermöglichen. Besondere Bedeutung für dieses Forschungsvorhaben hat der Transfer zwischen Ontologien und Freitexttermen." Ausgehend vom Projekt CARMEN werden in diesem Projekt automatisiert - durch statistisches maschinelles Lernen - semantische Relationen berechnet. So wird eine Benutzeranfrage, die mittels Thesaurus erfolgte, für eine Abfrage in Internetdokumentbeständen transformiert.
    Jan Lüth (Kiel) zeigte mit seinem Vortrag "Inhaltserschließung durch Nutzerinnen und Nutzer: Ergebnisse eines Tests mit Internetquellen der Virtuellen Fachbibliothek EconBiz" als letzter an diesem Nachmittag eine alternative neue Methode der Erschließung. Für diesen Test wurde eine Teilmenge der im EconBiz-Fachinformationsführer enthaltenen Internetquellen in Social-Bookmarking-Webseiten angeboten, und es wurde beobachtet, inwieweit diese Internetquellen nachgenutzt und durch Schlagworte (Tags) ergänzt wurden. Social-Bookmarking-Webseiten ermöglichen eine private, aber auch öffentliche Verwaltung von Lesezeichen im Internet, welche mit freien Schlagwörtern (Tags), einem Titel und/oder einer Beschreibung versehen werden können. Diese Inhalte werden indexiert und somit werden verschiedene Sprachen, Begriffe und Schreibweisen suchbar. Ziel des Tests sollen Ergebnisse über Potenzial und Einsatzmöglichkeiten von Social-Bookmarking-Systemen im Kontext einer virtuellen Fachbibliothek sein. Als Fazit lässt sich sagen, dass Social Bookmarking sehr aufschlussreich sein kann, um neue Quellen zu erschließen und auszuwählen, und dass ein sehr großes Potenzial vorhanden ist, wenn viele Anwender viele Inhalte einbringen."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 60(2007) H.2, S.44-46

Years

Languages

  • d 83
  • e 72
  • no 1
  • pt 1
  • More… Less…

Types

  • a 106
  • el 45
  • x 8
  • m 7
  • r 6
  • s 2
  • n 1
  • More… Less…