Search (76 results, page 1 of 4)

  • × theme_ss:"Semantische Interoperabilität"
  1. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.13
    0.13244961 = product of:
      0.5518734 = sum of:
        0.03449209 = product of:
          0.10347626 = sum of:
            0.10347626 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.10347626 = score(doc=306,freq=2.0), product of:
                0.15781333 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.018614428 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.10347626 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.10347626 = score(doc=306,freq=2.0), product of:
            0.15781333 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.018614428 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.10347626 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.10347626 = score(doc=306,freq=2.0), product of:
            0.15781333 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.018614428 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.10347626 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.10347626 = score(doc=306,freq=2.0), product of:
            0.15781333 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.018614428 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.10347626 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.10347626 = score(doc=306,freq=2.0), product of:
            0.15781333 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.018614428 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.10347626 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.10347626 = score(doc=306,freq=2.0), product of:
            0.15781333 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.018614428 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.24 = coord(6/25)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  2. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.09
    0.09460686 = product of:
      0.39419526 = sum of:
        0.024637206 = product of:
          0.073911615 = sum of:
            0.073911615 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.073911615 = score(doc=1000,freq=2.0), product of:
                0.15781333 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.018614428 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.073911615 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.073911615 = score(doc=1000,freq=2.0), product of:
            0.15781333 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.018614428 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.073911615 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.073911615 = score(doc=1000,freq=2.0), product of:
            0.15781333 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.018614428 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.073911615 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.073911615 = score(doc=1000,freq=2.0), product of:
            0.15781333 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.018614428 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.073911615 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.073911615 = score(doc=1000,freq=2.0), product of:
            0.15781333 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.018614428 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.073911615 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.073911615 = score(doc=1000,freq=2.0), product of:
            0.15781333 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.018614428 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.24 = coord(6/25)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  3. Gödert, W.; Hubrich, J.; Boteram, F.: Thematische Recherche und Interoperabilität : Wege zur Optimierung des Zugriffs auf heterogen erschlossene Dokumente (2009) 0.07
    0.065504335 = product of:
      0.27293473 = sum of:
        0.035622776 = weight(_text_:einzelne in 193) [ClassicSimilarity], result of:
          0.035622776 = score(doc=193,freq=2.0), product of:
            0.1095598 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.018614428 = queryNorm
            0.3251446 = fieldWeight in 193, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.057751738 = product of:
          0.115503475 = sum of:
            0.115503475 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.115503475 = score(doc=193,freq=2.0), product of:
                0.19728082 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.018614428 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.057751738 = product of:
          0.115503475 = sum of:
            0.115503475 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.115503475 = score(doc=193,freq=2.0), product of:
                0.19728082 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.018614428 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.057751738 = product of:
          0.115503475 = sum of:
            0.115503475 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.115503475 = score(doc=193,freq=2.0), product of:
                0.19728082 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.018614428 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.057751738 = product of:
          0.115503475 = sum of:
            0.115503475 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.115503475 = score(doc=193,freq=2.0), product of:
                0.19728082 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.018614428 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.006304995 = product of:
          0.01260999 = sum of:
            0.01260999 = weight(_text_:22 in 193) [ClassicSimilarity], result of:
              0.01260999 = score(doc=193,freq=2.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.19345059 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
      0.24 = coord(6/25)
    
    Abstract
    Die Verwendung von Erschließungsinstrumenten zur Beschreibung von Informationsressourcen kann Effizienz und Effektivität thematischer Recherchen wesentlich steigern: standardisierte Begriffe unterstützen Recall und Precision begrifflicher Suchen; Ausweisung von Relationen bietet die Grundlage für explorative Suchprozesse. Eine zusätzliche Steigerung der Funktionalitäten des Retrievals kann mittels einer Ausdifferenzierung und Spezifizierung der in Normdaten enthaltenen semantischen Informationen erreicht werden, die über die in Thesauri und Klassifikationen verbreiteten grundlegenden Relationstypen (äquivalent, hierarchisch, assoziativ) hinausgehen. In modernen Informationsräumen, in denen Daten verschiedener Institutionen über eine Plattform zeit- und ortsunabhängig zugänglich gemacht werden, können einzelne Wissenssysteme indes nur unzureichend das Information Retrieval unterstützen. Zu unterschiedlich sind die für thematische Suchanfragen relevanten Indexierungsdaten. Eine Verbesserung kann mittels Herstellung von Interoperabilität zwischen den verschiedenen Dokumentationssprachen erreicht werden. Im Vortrag wird dargelegt, in welcher Art und Weise die in Wissenssystemen enthaltenen semantischen Informationen zur Unterstützung thematischer Recherchen optimiert werden können und inwiefern Interoperabilität zwischen Systemen geschaffen werden kann, die gleichwertige Funktionalitäten in heterogenen Informationsräumen gewährleisten. In diesem Zusammenhang wird auch auf aktuelle Mappingprojekte wie das DFG-Projekt CrissCross oder das RESEDA-Projekt, welches sich mit den Möglichkeiten der semantischen Anreicherung bestehender Dokumentationssprachen befasst, eingegangen.
    Source
    https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/searchtype/authorsearch/author/%22Hubrich%2C+Jessica%22/docId/703/start/0/rows/20
  4. Mayr, P.: Bradfordizing als Re-Ranking-Ansatz in Literaturinformationssystemen (2011) 0.00
    0.0045910506 = product of:
      0.05738813 = sum of:
        0.049753457 = weight(_text_:wirtschaftswissenschaften in 4292) [ClassicSimilarity], result of:
          0.049753457 = score(doc=4292,freq=2.0), product of:
            0.118197516 = queryWeight, product of:
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.018614428 = queryNorm
            0.4209349 = fieldWeight in 4292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.0076346733 = product of:
          0.015269347 = sum of:
            0.015269347 = weight(_text_:29 in 4292) [ClassicSimilarity], result of:
              0.015269347 = score(doc=4292,freq=2.0), product of:
                0.06547974 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.018614428 = queryNorm
                0.23319192 = fieldWeight in 4292, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4292)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Abstract
    In diesem Artikel wird ein Re-Ranking-Ansatz für Suchsysteme vorgestellt, der die Recherche nach wissenschaftlicher Literatur messbar verbessern kann. Das nichttextorientierte Rankingverfahren Bradfordizing wird eingeführt und anschließend im empirischen Teil des Artikels bzgl. der Effektivität für typische fachbezogene Recherche-Topics evaluiert. Dem Bradford Law of Scattering (BLS), auf dem Bradfordizing basiert, liegt zugrunde, dass sich die Literatur zu einem beliebigen Fachgebiet bzw. -thema in Zonen unterschiedlicher Dokumentenkonzentration verteilt. Dem Kernbereich mit hoher Konzentration der Literatur folgen Bereiche mit mittlerer und geringer Konzentration. Bradfordizing sortiert bzw. rankt eine Dokumentmenge damit nach den sogenannten Kernzeitschriften. Der Retrievaltest mit 164 intellektuell bewerteten Fragestellungen in Fachdatenbanken aus den Bereichen Sozial- und Politikwissenschaften, Wirtschaftswissenschaften, Psychologie und Medizin zeigt, dass die Dokumente der Kernzeitschriften signifikant häufiger relevant bewertet werden als Dokumente der zweiten Dokumentzone bzw. den Peripherie-Zeitschriften. Die Implementierung von Bradfordizing und weiteren Re-Rankingverfahren liefert unmittelbare Mehrwerte für den Nutzer.
    Date
    9. 2.2011 17:47:29
  5. Mitchell, J.S.; Zeng, M.L.; Zumer, M.: Modeling classification systems in multicultural and multilingual contexts (2012) 0.00
    0.0041860426 = product of:
      0.052325536 = sum of:
        0.041625604 = weight(_text_:post in 1967) [ClassicSimilarity], result of:
          0.041625604 = score(doc=1967,freq=2.0), product of:
            0.10811277 = queryWeight, product of:
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.018614428 = queryNorm
            0.38502026 = fieldWeight in 1967, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.046875 = fieldNorm(doc=1967)
        0.010699932 = product of:
          0.021399865 = sum of:
            0.021399865 = weight(_text_:22 in 1967) [ClassicSimilarity], result of:
              0.021399865 = score(doc=1967,freq=4.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.32829654 = fieldWeight in 1967, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1967)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Abstract
    This paper reports on the second part of an initiative of the authors on researching classification systems with the conceptual model defined by the Functional Requirements for Subject Authority Data (FRSAD) final report. In an earlier study, the authors explored whether the FRSAD conceptual model could be extended beyond subject authority data to model classification data. The focus of the current study is to determine if classification data modeled using FRSAD can be used to solve real-world discovery problems in multicultural and multilingual contexts. The paper discusses the relationships between entities (same type or different types) in the context of classification systems that involve multiple translations and /or multicultural implementations. Results of two case studies are presented in detail: (a) two instances of the DDC (DDC 22 in English, and the Swedish-English mixed translation of DDC 22), and (b) Chinese Library Classification. The use cases of conceptual models in practice are also discussed.
    Source
    Beyond libraries - subject metadata in the digital environment and semantic web. IFLA Satellite Post-Conference, 17-18 August 2012, Tallinn
  6. Mitchell, J.S.; Zeng, M.L.; Zumer, M.: Modeling classification systems in multicultural and multilingual contexts (2014) 0.00
    0.0034883688 = product of:
      0.043604612 = sum of:
        0.034688003 = weight(_text_:post in 1962) [ClassicSimilarity], result of:
          0.034688003 = score(doc=1962,freq=2.0), product of:
            0.10811277 = queryWeight, product of:
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.018614428 = queryNorm
            0.3208502 = fieldWeight in 1962, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1962)
        0.00891661 = product of:
          0.01783322 = sum of:
            0.01783322 = weight(_text_:22 in 1962) [ClassicSimilarity], result of:
              0.01783322 = score(doc=1962,freq=4.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.27358043 = fieldWeight in 1962, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1962)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Abstract
    This article reports on the second part of an initiative of the authors on researching classification systems with the conceptual model defined by the Functional Requirements for Subject Authority Data (FRSAD) final report. In an earlier study, the authors explored whether the FRSAD conceptual model could be extended beyond subject authority data to model classification data. The focus of the current study is to determine if classification data modeled using FRSAD can be used to solve real-world discovery problems in multicultural and multilingual contexts. The article discusses the relationships between entities (same type or different types) in the context of classification systems that involve multiple translations and/or multicultural implementations. Results of two case studies are presented in detail: (a) two instances of the Dewey Decimal Classification [DDC] (DDC 22 in English, and the Swedish-English mixed translation of DDC 22), and (b) Chinese Library Classification. The use cases of conceptual models in practice are also discussed.
    Footnote
    Contribution in a special issue "Beyond libraries: Subject metadata in the digital environment and Semantic Web" - Enthält Beiträge der gleichnamigen IFLA Satellite Post-Conference, 17-18 August 2012, Tallinn.
  7. Galinski, C.: Fragen der semantischen Interoperabilität brechen jetzt überall auf (o.J.) 0.00
    0.003458161 = product of:
      0.043227013 = sum of:
        0.03566102 = product of:
          0.07132204 = sum of:
            0.07132204 = weight(_text_:handel in 4183) [ClassicSimilarity], result of:
              0.07132204 = score(doc=4183,freq=2.0), product of:
                0.14151698 = queryWeight, product of:
                  7.602543 = idf(docFreq=59, maxDocs=44218)
                  0.018614428 = queryNorm
                0.5039822 = fieldWeight in 4183, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.602543 = idf(docFreq=59, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4183)
          0.5 = coord(1/2)
        0.007565994 = product of:
          0.015131988 = sum of:
            0.015131988 = weight(_text_:22 in 4183) [ClassicSimilarity], result of:
              0.015131988 = score(doc=4183,freq=2.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.23214069 = fieldWeight in 4183, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4183)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Abstract
    Terminologienormung ist eine Grundbedingung für internationalen Handel und birgt große Einsparungspotenziale in der industriellen Produktion. Tassilo Pellegrini sprach mit Dr. Christian Galinski, Leiter des Internationalen Informationszentrums für Terminologie (Infoterm), über Probleme der Mehrsprachigkeit, di Wechselwirkung zwischen Technik und Terminologie und wie durch semantische Interoperabilität die Schnittstelle Mensch-Maschine verbessert werden kann.
    Date
    22. 1.2011 10:16:32
  8. Dolud, L.; Kreis, C: ¬Die Crosskonkordanz Wirtschaft zwischen dem STW und der GND (2012) 0.00
    0.003447021 = product of:
      0.08617552 = sum of:
        0.08617552 = weight(_text_:wirtschaftswissenschaften in 1716) [ClassicSimilarity], result of:
          0.08617552 = score(doc=1716,freq=6.0), product of:
            0.118197516 = queryWeight, product of:
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.018614428 = queryNorm
            0.7290807 = fieldWeight in 1716, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.046875 = fieldNorm(doc=1716)
      0.04 = coord(1/25)
    
    Abstract
    Bibliotheken erarbeiten mit öffentlichen Mitteln unter hohem zeitlichem, personellem und finanziellem Aufwand wertvolle und nützliche Datenbestände. Was liegt im Sinne eines effizienten Ressourceneinsatzes näher, als solche Daten einer kooperativen Nutzung zuzuführen? Diese Frage mündete in den Jahren 2002 bis 2004 in einem DFG-finanzierten Projekt, an dem seinerzeit die Deutsche Bibliothek, das Hamburger Weltwirtschaftsarchiv, die Deutsche Zentralbibliothek für Wirtschaftswissenschaften Kiel (heute ZBW - Deutsche Zentralbibliothek für Wirtschaftswissenschaften - Leibniz-Informationszentrum Wirtschaft), der Gemeinsame Bibliotheksverbund und die Universitäts- und Stadtbibliothek Köln beteiligt waren. Ziel war es, den normierten Wortschatz des STW (Standard-Thesaurus Wirtschaft) mit dem wirtschaftswissenschaftlichen Teil der damaligen Schlagwortnormdatei (SWD) zu relationieren. Die Crosskonkordanz STW-GND bzw. Crosskonkordanz Wirtschaft wird mittlerweile durch die DNB und die ZBW in gemeinsamer Verantwortung weiterentwickelt und laufend gepflegt. Dabei han-delt es sich vor allem um die Anpassung der Crosskonkordanz nach redaktionellen Änderungen durch kontinuierliche Einarbeitung neuer bzw. geänderter oder gelöschter Deskriptoren.
    Field
    Wirtschaftswissenschaften
  9. Darstellung der CrissCross-Mappingrelationen im Rahmen des Semantic Web (2010) 0.00
    0.0023511604 = product of:
      0.029389504 = sum of:
        0.024935944 = weight(_text_:einzelne in 4285) [ClassicSimilarity], result of:
          0.024935944 = score(doc=4285,freq=2.0), product of:
            0.1095598 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.018614428 = queryNorm
            0.22760123 = fieldWeight in 4285, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.0044535594 = product of:
          0.008907119 = sum of:
            0.008907119 = weight(_text_:29 in 4285) [ClassicSimilarity], result of:
              0.008907119 = score(doc=4285,freq=2.0), product of:
                0.06547974 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.018614428 = queryNorm
                0.13602862 = fieldWeight in 4285, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4285)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Abstract
    Im Rahmen des CrissCross-Projekts wurde ein multilinguales, thesaurusbasiertes Recherchevokabular zu heterogen erschlossenen Dokumenten geschaffen. Dieses Recherchevokabular besteht unter anderem aus den Sachschlagwörtern der Schlagwortnormdatei (SWD) und den Notationen der Dewey-Dezimalklassifikation (DDC). Die Schlagwortnormdatei bietet einen normierten, terminologisch kontrollierten Wortschatz an. Sie enthält Schlagwörter aus allen Fachgebieten und Schlagwortkategorien, die durch die beteiligten Bibliotheken zur verbalen Inhaltserschließung genutzt und dabei täglich aktualisiert werden. Unter anderem wird die Schlagwortnormdatei auch zur verbalen Erschließung der Deutschen Nationalbibliografie verwendet. Während der verbalen Erschließung wird jedem Inhalt mindestens eine Schlagwortfolge zugewiesen. Schlagwortfolgen werden dazu benutzt, um die komplexen Themen eines Dokuments zu beschreiben. Zusätzlich wird für den Neuerscheinungsdienst der Deutschen Nationalbibliografie seit dem Jahrgang 2004 jeder Titel noch mindestens einer Sachgruppe zugewiesen. Die Strukturierung der Sachgruppen orientiert sich dabei weitestgehend an der zweiten Ebene der Dewey-Dezimalklassifikation. Die Dewey-Dezimalklassifikation ist eine international weit verbreitete Universalklassifikation. Von ihr existieren zahlreiche Übersetzungen, u. a. ins Deutsche. Seit Januar 2006 wird die DDC gemeinsam mit der SWD zur Inhaltserschließung in der Deutschen Nationalbibliografie verwendet. Bei der Inhaltserschließung mit Hilfe der DDC wird jedem Inhalt eine einzelne DDC-Notation zugewiesen. Komplexe Themen werden dabei durch die Synthese von zwei oder mehr Notationen zu einer neuen Notation dargestellt. Somit ist die DDC-Notation sowohl vergleichbar mit SWD-Schlagwörtern als auch mit ganzen Schlagwortfolgen.
    Pages
    29 S
  10. Hubrich, J.: Semantische Interoperabilität zwischen Klassifikationen und anderen Wissenssystemen (2018) 0.00
    0.0022798576 = product of:
      0.056996442 = sum of:
        0.056996442 = weight(_text_:einzelne in 4272) [ClassicSimilarity], result of:
          0.056996442 = score(doc=4272,freq=2.0), product of:
            0.1095598 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.018614428 = queryNorm
            0.52023137 = fieldWeight in 4272, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0625 = fieldNorm(doc=4272)
      0.04 = coord(1/25)
    
    Abstract
    Heutzutage sind Informationsräume häufig durch die Heterogenität der in ihr enthaltenen Ressourcen geprägt, deren inhaltliche Beschreibungen aus unterschiedlichen Quellen stammen und auf der Basis verschiedener, sich strukturell und typologisch unterscheidender Erschließungsinstrumente erstellt wurden. Einzelne Klassifikationen können in solchen Räumen nur bedingt Suchunterstützung bieten, da sie stets nur auf einen Teilbestand zugreifen. Dieser Artikel beschreibt ausgehend von den Charakteristiken von Indexierungssprachen, wie durch semantische Interoperabilität eine Verbesserung der Retrievalsituation erreicht werden kann.
  11. Mayr, P.: Information Retrieval-Mehrwertdienste für Digitale Bibliotheken: : Crosskonkordanzen und Bradfordizing (2010) 0.00
    0.0019901383 = product of:
      0.049753457 = sum of:
        0.049753457 = weight(_text_:wirtschaftswissenschaften in 4910) [ClassicSimilarity], result of:
          0.049753457 = score(doc=4910,freq=2.0), product of:
            0.118197516 = queryWeight, product of:
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.018614428 = queryNorm
            0.4209349 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
      0.04 = coord(1/25)
    
    Abstract
    In dieser Arbeit werden zwei Mehrwertdienste für Suchsysteme vorgestellt, die typische Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden in diesem Buch ausführlich beschrieben und evaluiert. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Ergebnisse dieser Arbeit sind in das GESIS-Projekt IRM eingeflossen.
  12. Kempf, A.O.; Neubert, J.; Faden, M.: ¬The missing link : a vocabulary mapping effort in economics (2015) 0.00
    0.0016584485 = product of:
      0.041461214 = sum of:
        0.041461214 = weight(_text_:wirtschaftswissenschaften in 2251) [ClassicSimilarity], result of:
          0.041461214 = score(doc=2251,freq=2.0), product of:
            0.118197516 = queryWeight, product of:
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.018614428 = queryNorm
            0.35077906 = fieldWeight in 2251, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2251)
      0.04 = coord(1/25)
    
    Field
    Wirtschaftswissenschaften
  13. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.00
    0.0014690442 = product of:
      0.018363053 = sum of:
        0.010797059 = product of:
          0.021594118 = sum of:
            0.021594118 = weight(_text_:29 in 4408) [ClassicSimilarity], result of:
              0.021594118 = score(doc=4408,freq=4.0), product of:
                0.06547974 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.018614428 = queryNorm
                0.3297832 = fieldWeight in 4408, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.5 = coord(1/2)
        0.007565994 = product of:
          0.015131988 = sum of:
            0.015131988 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
              0.015131988 = score(doc=4408,freq=2.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.23214069 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Date
    29. 3.2011 10:47:10
    29. 3.2011 10:57:42
    Pages
    22 S
  14. Lösse, M.; Svensson, L.: "Classification at a Crossroad" : Internationales UDC-Seminar 2009 in Den Haag, Niederlande (2010) 0.00
    0.0014667683 = product of:
      0.018334605 = sum of:
        0.0076346733 = product of:
          0.015269347 = sum of:
            0.015269347 = weight(_text_:29 in 4379) [ClassicSimilarity], result of:
              0.015269347 = score(doc=4379,freq=2.0), product of:
                0.06547974 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.018614428 = queryNorm
                0.23319192 = fieldWeight in 4379, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
          0.5 = coord(1/2)
        0.010699932 = product of:
          0.021399865 = sum of:
            0.021399865 = weight(_text_:22 in 4379) [ClassicSimilarity], result of:
              0.021399865 = score(doc=4379,freq=4.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.32829654 = fieldWeight in 4379, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Abstract
    Am 29. und 30. Oktober 2009 fand in der Königlichen Bibliothek in Den Haag das zweite internationale UDC-Seminar zum Thema "Classification at a Crossroad" statt. Organisiert wurde diese Konferenz - wie auch die erste Konferenz dieser Art im Jahr 2007 - vom UDC-Konsortium (UDCC). Im Mittelpunkt der diesjährigen Veranstaltung stand die Erschließung des World Wide Web unter besserer Nutzung von Klassifikationen (im Besonderen natürlich der UDC), einschließlich benutzerfreundlicher Repräsentationen von Informationen und Wissen. Standards, neue Technologien und Dienste, semantische Suche und der multilinguale Zugriff spielten ebenfalls eine Rolle. 135 Teilnehmer aus 35 Ländern waren dazu nach Den Haag gekommen. Das Programm umfasste mit 22 Vorträgen aus 14 verschiedenen Ländern eine breite Palette, wobei Großbritannien mit fünf Beiträgen am stärksten vertreten war. Die Tagesschwerpunkte wurden an beiden Konferenztagen durch die Eröffnungsvorträge gesetzt, die dann in insgesamt sechs thematischen Sitzungen weiter vertieft wurden.
    Date
    22. 1.2010 15:06:54
  15. Stempfhuber, M.: Verbesserung der Zugänglichkeit heterogen erschlossener Informationen (2008) 0.00
    0.001424911 = product of:
      0.035622776 = sum of:
        0.035622776 = weight(_text_:einzelne in 1681) [ClassicSimilarity], result of:
          0.035622776 = score(doc=1681,freq=2.0), product of:
            0.1095598 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.018614428 = queryNorm
            0.3251446 = fieldWeight in 1681, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1681)
      0.04 = coord(1/25)
    
    Abstract
    Aufgrund der durch die Nutzer verstärkt geforderten Zusammenführung bislang verteilt vorliegender Informationssammlungen an einer Stelle tritt in der Praxis ein Phänomen zu Tage, das mit Blick auf die einzelne Informationssammlung in vielen Fällen bereits als gelöst betrachtet wurde: Heterogenität. Es zeigt sich, dass Standardisierungsansätze oft zu kurz greifen, da sie für die praktische Anwendung keine Modelle bieten, die trotz Standardisierungsbemühungen verbleibenden Unterschiede effizient und wirksam zu behandeln. Der Artikel stellt anhand zweier Beispiele aus dem Bereich der Fachinformation Lösungswege vor, wie in der Praxis Heterogenität zwischen Informationssammlungen auf semantischer Ebene behandelt werden kann. Sie tritt immer dann auf, wenn mehrere Quellen gleichzeitig durchsucht werden sollen, diese aber mit unterschiedlichen Indexierungsvokabularen erschlossen wurden. Am Beispiel statistischer Daten für die Marktforschung und wissenschaftlicher Literaturinformationssysteme werden Lösungen vorgestellt, mit dem Erschließungsvokabulare so aufeinander abgebildet werden können, dass sie Nutzer sowohl bei der Anfrageformulierung unterstützen können als auch bei der Suche eine für den Nutzer transparente und automatische Anfragetransformation ermöglichen. Ziel dieser Verfahren ist es, die kognitive Last beim Nutzer währender der Anfrageformulierung zu verringern und den Recall von Suchen in heterogen erschlossenen Informationssammlungen zu erhöhen.
  16. Mayr, P.: Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken (2009) 0.00
    0.0013267589 = product of:
      0.03316897 = sum of:
        0.03316897 = weight(_text_:wirtschaftswissenschaften in 4302) [ClassicSimilarity], result of:
          0.03316897 = score(doc=4302,freq=2.0), product of:
            0.118197516 = queryWeight, product of:
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.018614428 = queryNorm
            0.28062326 = fieldWeight in 4302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
      0.04 = coord(1/25)
    
    Abstract
    Trotz großer Dokumentmengen für datenbankübergreifende Literaturrecherchen erwarten akademische Nutzer einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, inzwischen eine entscheidende Rolle beim Design von Suchsystemen. Nutzer erwarten weiterhin flexible Informationssysteme, die es unter anderem zulassen, Einfluss auf das Ranking der Dokumente zu nehmen bzw. alternative Rankingverfahren zu verwenden. In dieser Arbeit werden zwei Mehrwertverfahren für Suchsysteme vorgestellt, die die typischen Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln und damit die Recherchesituation messbar verbessern können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden hier ausführlich beschrieben und im empirischen Teil der Arbeit bzgl. der Effektivität für typische fachbezogene Recherchen evaluiert. Vorrangiges Ziel der Promotion ist es, zu untersuchen, ob das hier vorgestellte alternative Re-Rankingverfahren Bradfordizing im Anwendungsbereich bibliographischer Datenbanken zum einen operabel ist und zum anderen voraussichtlich gewinnbringend in Informationssystemen eingesetzt und dem Nutzer angeboten werden kann. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben wissenschaftlichen Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Evaluation der Crosskonkordanzen (insgesamt 82 Fragestellungen) zeigt, dass sich die Retrievalergebnisse signifikant für alle Crosskonkordanzen verbessern; es zeigt sich zudem, dass interdisziplinäre Crosskonkordanzen den stärksten (positiven) Effekt auf die Suchergebnisse haben. Die Evaluation des Re-Ranking nach Bradfordizing (insgesamt 164 Fragestellungen) zeigt, dass die Dokumente der Kernzone (Kernzeitschriften) für die meisten Testreihen eine signifikant höhere Precision als Dokumente der Zone 2 und Zone 3 (Peripheriezeitschriften) ergeben. Sowohl für Zeitschriften als auch für Monographien kann dieser Relevanzvorteil nach Bradfordizing auf einer sehr breiten Basis von Themen und Fragestellungen an zwei unabhängigen Dokumentkorpora empirisch nachgewiesen werden.
  17. DC-2013: International Conference on Dublin Core and Metadata Applications : Online Proceedings (2013) 0.00
    0.0011100161 = product of:
      0.027750403 = sum of:
        0.027750403 = weight(_text_:post in 1076) [ClassicSimilarity], result of:
          0.027750403 = score(doc=1076,freq=2.0), product of:
            0.10811277 = queryWeight, product of:
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.018614428 = queryNorm
            0.25668016 = fieldWeight in 1076, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
      0.04 = coord(1/25)
    
    Abstract
    The collocated conferences for DC-2013 and iPRES-2013 in Lisbon attracted 392 participants from over 37 countries. In addition to the Tuesday through Thursday conference days comprised of peer-reviewed paper and special sessions, 223 participants attended pre-conference tutorials and 246 participated in post-conference workshops for the collocated events. The peer-reviewed papers and presentations are available on the conference website Presentation page (URLs above). In sum, it was a great conference. In addition to links to PDFs of papers, project reports and posters (and their associated presentations), the published proceedings include presentation PDFs for the following: KEYNOTES Darling, we need to talk - Gildas Illien TUTORIALS -- Ivan Herman: "Introduction to Linked Open Data (LOD)" -- Steven Miller: "Introduction to Ontology Concepts and Terminology" -- Kai Eckert: "Metadata Provenance" -- Daniel Garjio: "The W3C Provenance Ontology" SPECIAL SESSIONS -- "Application Profiles as an Alternative to OWL Ontologies" -- "Long-term Preservation and Governance of RDF Vocabularies (W3C Sponsored)" -- "Data Enrichment and Transformation in the LOD Context: Poor & Popular vs Rich & Lonely--Can't we achieve both?" -- "Why Schema.org?"
  18. Niggemann, E.: Wer suchet, der findet? : Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek (2006) 0.00
    0.0010399657 = product of:
      0.025999142 = sum of:
        0.025999142 = product of:
          0.051998284 = sum of:
            0.051998284 = weight(_text_:dienstleistungen in 5812) [ClassicSimilarity], result of:
              0.051998284 = score(doc=5812,freq=2.0), product of:
                0.11187108 = queryWeight, product of:
                  6.009912 = idf(docFreq=294, maxDocs=44218)
                  0.018614428 = queryNorm
                0.46480542 = fieldWeight in 5812, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.009912 = idf(docFreq=294, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5812)
          0.5 = coord(1/2)
      0.04 = coord(1/25)
    
    Abstract
    Elektronische Bibliothekskataloge und Bibliografien haben ihr Monopol bei der Suche nach Büchern, Aufsätzen, musikalischen Werken u. a. verloren. Globale Suchmaschinen sind starke Konkurrenten, und Bibliotheken müssen heute so planen, dass ihre Dienstleistungen auch morgen noch interessant sind. Die Deutsche Bibliothek (DDB) wird ihre traditionelle Katalogrecherche zu einem globalen, netzbasierten Informationssystem erweitern, das die Vorteile der neutralen, qualitätsbasierten Katalogsuche mit den Vorteilen moderner Suchmaschinen zu verbinden sucht. Dieser Beitrag beschäftigt sich mit der Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek. Weitere Entwicklungsstränge sollen nur kurz im Ausblick angerissen werden.
  19. Sigel, A.: Wissensorganisation, Topic Maps und Ontology Engineering : Die Verbindung bewährter Begriffsstrukturen mit aktueller XML Technologie (2004) 0.00
    9.2499773E-4 = product of:
      0.023124944 = sum of:
        0.023124944 = product of:
          0.04624989 = sum of:
            0.04624989 = weight(_text_:industrie in 3236) [ClassicSimilarity], result of:
              0.04624989 = score(doc=3236,freq=2.0), product of:
                0.12483682 = queryWeight, product of:
                  6.7064548 = idf(docFreq=146, maxDocs=44218)
                  0.018614428 = queryNorm
                0.37048277 = fieldWeight in 3236, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.7064548 = idf(docFreq=146, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3236)
          0.5 = coord(1/2)
      0.04 = coord(1/25)
    
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  20. Ehrig, M.; Studer, R.: Wissensvernetzung durch Ontologien (2006) 0.00
    9.2499773E-4 = product of:
      0.023124944 = sum of:
        0.023124944 = product of:
          0.04624989 = sum of:
            0.04624989 = weight(_text_:industrie in 5901) [ClassicSimilarity], result of:
              0.04624989 = score(doc=5901,freq=2.0), product of:
                0.12483682 = queryWeight, product of:
                  6.7064548 = idf(docFreq=146, maxDocs=44218)
                  0.018614428 = queryNorm
                0.37048277 = fieldWeight in 5901, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.7064548 = idf(docFreq=146, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5901)
          0.5 = coord(1/2)
      0.04 = coord(1/25)
    
    Abstract
    In der Informatik sind Ontologien formale Modelle eines Anwendungsbereiches, die die Kommunikation zwischen menschlichen und/oder maschinellen Akteuren unterstützen und damit den Austausch und das Teilen von Wissen in Unternehmen erleichtern. Ontologien zur strukturierten Darstellung von Wissen zu nutzen hat deshalb in den letzten Jahren zunehmende Verbreitung gefunden. Schon heute existieren weltweit tausende Ontologien. Um Interoperabilität zwischen darauf aufbauenden Softwareagenten oder Webservices zu ermöglichen, ist die semantische Integration der Ontologien eine zwingendnotwendige Vorraussetzung. Wie man sieh leicht verdeutlichen kann, ist die rein manuelle Erstellung der Abbildungen ab einer bestimmten Größe. Komplexität und Veränderungsrate der Ontologien nicht mehr ohne weiteres möglich. Automatische oder semiautomatische Technologien müssen den Nutzer darin unterstützen. Das Integrationsproblem beschäftigt Forschung und Industrie schon seit vielen Jahren z. B. im Bereich der Datenbankintegration. Neu ist jedoch die Möglichkeit komplexe semantische Informationen. wie sie in Ontologien vorhanden sind, einzubeziehen. Zur Ontologieintegration wird in diesem Kapitel ein sechsstufiger genereller Prozess basierend auf den semantischen Strukturen eingeführt. Erweiterungen beschäftigen sich mit der Effizienz oder der optimalen Nutzereinbindung in diesen Prozess. Außerdem werden zwei Anwendungen vorgestellt, in denen dieser Prozess erfolgreich umgesetzt wurde. In einem abschließenden Fazit werden neue aktuelle Trends angesprochen. Da die Ansätze prinzipiell auf jedes Schema übertragbar sind, das eine semantische Basis enthält, geht der Einsatzbereich dieser Forschung weit über reine Ontologieanwendungen hinaus.

Languages

  • e 50
  • d 26

Types

  • a 50
  • el 21
  • m 5
  • s 3
  • x 3
  • p 1
  • r 1
  • More… Less…