Search (129 results, page 2 of 7)

  • × theme_ss:"Multilinguale Probleme"
  1. Hudon, M.: Relationships in multilingual thesauri (2001) 0.23
    0.22779256 = product of:
      0.27335107 = sum of:
        0.015386774 = weight(_text_:und in 1147) [ClassicSimilarity], result of:
          0.015386774 = score(doc=1147,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.14692576 = fieldWeight in 1147, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1147)
        0.07342099 = weight(_text_:anwendung in 1147) [ClassicSimilarity], result of:
          0.07342099 = score(doc=1147,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 1147, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=1147)
        0.02402186 = weight(_text_:des in 1147) [ClassicSimilarity], result of:
          0.02402186 = score(doc=1147,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 1147, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1147)
        0.10259437 = weight(_text_:prinzips in 1147) [ClassicSimilarity], result of:
          0.10259437 = score(doc=1147,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.37939 = fieldWeight in 1147, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.046875 = fieldNorm(doc=1147)
        0.057927076 = product of:
          0.11585415 = sum of:
            0.11585415 = weight(_text_:thesaurus in 1147) [ClassicSimilarity], result of:
              0.11585415 = score(doc=1147,freq=6.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.5305915 = fieldWeight in 1147, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1147)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Because the multilingual thesaurus has a critical role to play in the global networked information world, its relational structure must come under close scrutiny. Traditionally, identity of relational structures has been sought for the different language versions of a multilingual thesaurus, often leading to the artificialization of all target languages. The various types of cross-lingual and intralingual relations found in thesauri are examined in the context of two questions: Are all types of thesaural relations transferable from one language to another? and Are the two members of a valid relation in a source language always the same in the target language(s)? Two options for resolving semantic conflicts in multilingual thesauri are presented.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  2. Jorna, K.; Davies, S.: Multilingual thesauri for the modern world : no ideal solution? (2001) 0.23
    0.22779256 = product of:
      0.27335107 = sum of:
        0.015386774 = weight(_text_:und in 4486) [ClassicSimilarity], result of:
          0.015386774 = score(doc=4486,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.14692576 = fieldWeight in 4486, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4486)
        0.07342099 = weight(_text_:anwendung in 4486) [ClassicSimilarity], result of:
          0.07342099 = score(doc=4486,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 4486, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=4486)
        0.02402186 = weight(_text_:des in 4486) [ClassicSimilarity], result of:
          0.02402186 = score(doc=4486,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 4486, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4486)
        0.10259437 = weight(_text_:prinzips in 4486) [ClassicSimilarity], result of:
          0.10259437 = score(doc=4486,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.37939 = fieldWeight in 4486, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.046875 = fieldNorm(doc=4486)
        0.057927076 = product of:
          0.11585415 = sum of:
            0.11585415 = weight(_text_:thesaurus in 4486) [ClassicSimilarity], result of:
              0.11585415 = score(doc=4486,freq=6.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.5305915 = fieldWeight in 4486, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4486)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    In the 21st century, multilingual tools are gaining importance as increasingly diverse user groups from different cultural and linguistic backgrounds seek access to equally diverse pieces of information. The authors of this paper believe that most current forms of multilingual information access are inadequate for this role, and that a new form of multilingual thesaurus is required. The core of this paper introduces their pilot thesaurus InfoDEFT as a possible model for new online thesauri, which are semantically structured, encyclopedic and multilingual. The authors conclude that while the manual construction of such thesauri is labour intensive and hence costly, pilot thesauri can be used as training sets for artificial learning programmes, thus increasing their volume considerably at relatively little extra cost.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  3. Landry, P.: Multilingual subject access : the linking approach of MACS (2004) 0.23
    0.22779256 = product of:
      0.27335107 = sum of:
        0.015386774 = weight(_text_:und in 5009) [ClassicSimilarity], result of:
          0.015386774 = score(doc=5009,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.14692576 = fieldWeight in 5009, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5009)
        0.07342099 = weight(_text_:anwendung in 5009) [ClassicSimilarity], result of:
          0.07342099 = score(doc=5009,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 5009, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=5009)
        0.02402186 = weight(_text_:des in 5009) [ClassicSimilarity], result of:
          0.02402186 = score(doc=5009,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 5009, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5009)
        0.10259437 = weight(_text_:prinzips in 5009) [ClassicSimilarity], result of:
          0.10259437 = score(doc=5009,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.37939 = fieldWeight in 5009, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.046875 = fieldNorm(doc=5009)
        0.057927076 = product of:
          0.11585415 = sum of:
            0.11585415 = weight(_text_:thesaurus in 5009) [ClassicSimilarity], result of:
              0.11585415 = score(doc=5009,freq=6.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.5305915 = fieldWeight in 5009, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5009)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    The MACS (Multilingual access to subjects) project is one of the many projects that are currently exploring solutions to multilingual subject access to online catalogs. Its strategy is to develop a Web based link and search interface through which equivalents between three Subject Heading Languages: SWD/RSWK (Schlagwortnormdatei/Regeln für den Schlagwortkatalog) for German, RAMEAU (Repertoire d'Autorite-Matière Encyclopedique et Alphabetique Unifie) for French and LCSH (Library of Congress Subject Headings) for English can be created and maintained, and by which users can access online databases in the language of their choice. Factors that have lead to this approach will be examined and the MACS linking strategy will be explained. The trend to using mapping or linking strategies between different controlled vocabularies to create multilingual access challenges the traditional view of the multilingual thesaurus.
    Footnote
    Auch in: The thesaurus: review, renaissance and revision. Ed. by S.K. Roe u. A.R. Thomas. Binghamton: Haworth 2004.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  4. Francu, V.: Building a multilingual thesaurus based on UDC (1996) 0.21
    0.20648976 = product of:
      0.24778771 = sum of:
        0.012822312 = weight(_text_:und in 7410) [ClassicSimilarity], result of:
          0.012822312 = score(doc=7410,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.12243814 = fieldWeight in 7410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=7410)
        0.061184157 = weight(_text_:anwendung in 7410) [ClassicSimilarity], result of:
          0.061184157 = score(doc=7410,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 7410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=7410)
        0.020018218 = weight(_text_:des in 7410) [ClassicSimilarity], result of:
          0.020018218 = score(doc=7410,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.15298408 = fieldWeight in 7410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=7410)
        0.08549531 = weight(_text_:prinzips in 7410) [ClassicSimilarity], result of:
          0.08549531 = score(doc=7410,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.31615835 = fieldWeight in 7410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0390625 = fieldNorm(doc=7410)
        0.06826771 = product of:
          0.13653542 = sum of:
            0.13653542 = weight(_text_:thesaurus in 7410) [ClassicSimilarity], result of:
              0.13653542 = score(doc=7410,freq=12.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.62530804 = fieldWeight in 7410, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=7410)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Once the library has been through a process of transition from traditional library procedures to automated ones, natural language searching became a necessity for both indexers and searchers. Therefore, aside from the precoordinated classified catalogue we started to build a dictionary of terms in order to make postcoordinate search possible in keeping with the UDC notations assigned to each bibliographic record. After a while we came to the conclusion that the dictionary needed a control of its terms so that synonymous concepts and semantic ambuguities be avoided. The project presented in this paper shows how reality imposed the improvement of the quality of indexing and hence of the searching possibilities. Is also shows the reasons why we consider a multilingual thesaurus based on UDC an ideal indexing and searching device. The experiment applied on class 8 of UDC illustrates the way the UDC tables can be quite successfully used in building a thesaurus due to their qulities and how their limitations can be overcome by a thesaurus. An appendix to the paper contains a sample of the multilingual thesaurus given in both alphabetical and systematic layouts
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  5. Chen, S.S.-J.: Methodological considerations for developing Art & Architecture Thesaurus in Chinese and its applications (2021) 0.20
    0.19605027 = product of:
      0.23526034 = sum of:
        0.012822312 = weight(_text_:und in 579) [ClassicSimilarity], result of:
          0.012822312 = score(doc=579,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.12243814 = fieldWeight in 579, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=579)
        0.061184157 = weight(_text_:anwendung in 579) [ClassicSimilarity], result of:
          0.061184157 = score(doc=579,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 579, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=579)
        0.020018218 = weight(_text_:des in 579) [ClassicSimilarity], result of:
          0.020018218 = score(doc=579,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.15298408 = fieldWeight in 579, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=579)
        0.08549531 = weight(_text_:prinzips in 579) [ClassicSimilarity], result of:
          0.08549531 = score(doc=579,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.31615835 = fieldWeight in 579, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0390625 = fieldNorm(doc=579)
        0.055740345 = product of:
          0.11148069 = sum of:
            0.11148069 = weight(_text_:thesaurus in 579) [ClassicSimilarity], result of:
              0.11148069 = score(doc=579,freq=8.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.5105618 = fieldWeight in 579, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=579)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    A multilingual thesaurus' development needs the appropriate methodological considerations not only for linguistics, but also cultural heterogeneity, as demonstrated in this report on the multilingual project of the Art & Architecture Thesaurus (AAT) in the Chinese language, which has been a collaboration between the Academia Sinica Center for Digital Culture and the Getty Research Institute for more than a decade. After a brief overview of the project, the paper will introduce a holistic methodology for considering how to enable Western art to be accessible to Chinese users and Chinese art accessible to Western users. The conceptual and structural issues will be discussed, especially the challenges of developing terminology in two different cultures. For instance, some terms shared by Western and Chinese cultures could be understood differently in each culture, which raises questions regarding their locations within the hierarchical structure of the AAT. Finally, the report will provide cases to demonstrate how the Chinese-Language AAT language supports online exhibitions, digital humanities and linking of digital art history content to the web of data.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  6. Ma, X.; Carranza, E.J.M.; Wu, C.; Meer, F.D. van der; Liu, G.: ¬A SKOS-based multilingual thesaurus of geological time scale for interoperability of online geological maps (2011) 0.17
    0.16883837 = product of:
      0.20260604 = sum of:
        0.01025785 = weight(_text_:und in 4800) [ClassicSimilarity], result of:
          0.01025785 = score(doc=4800,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.09795051 = fieldWeight in 4800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4800)
        0.048947323 = weight(_text_:anwendung in 4800) [ClassicSimilarity], result of:
          0.048947323 = score(doc=4800,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.21396513 = fieldWeight in 4800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.03125 = fieldNorm(doc=4800)
        0.016014574 = weight(_text_:des in 4800) [ClassicSimilarity], result of:
          0.016014574 = score(doc=4800,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.12238726 = fieldWeight in 4800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=4800)
        0.06839625 = weight(_text_:prinzips in 4800) [ClassicSimilarity], result of:
          0.06839625 = score(doc=4800,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.25292668 = fieldWeight in 4800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.03125 = fieldNorm(doc=4800)
        0.058990043 = product of:
          0.117980085 = sum of:
            0.117980085 = weight(_text_:thesaurus in 4800) [ClassicSimilarity], result of:
              0.117980085 = score(doc=4800,freq=14.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.5403279 = fieldWeight in 4800, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4800)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    The usefulness of online geological maps is hindered by linguistic barriers. Multilingual geoscience thesauri alleviate linguistic barriers of geological maps. However, the benefits of multilingual geoscience thesauri for online geological maps are less studied. In this regard, we developed a multilingual thesaurus of geological time scale (GTS) to alleviate linguistic barriers of GTS records among online geological maps. We extended the Simple Knowledge Organization System (SKOS) model to represent the ordinal hierarchical structure of GTS terms. We collected GTS terms in seven languages and encoded them into a thesaurus by using the extended SKOS model. We implemented methods of characteristic-oriented term retrieval in JavaScript programs for accessing Web Map Services (WMS), recognizing GTS terms, and making translations. With the developed thesaurus and programs, we set up a pilot system to test recognitions and translations of GTS terms in online geological maps. Results of this pilot system proved the accuracy of the developed thesaurus and the functionality of the developed programs. Therefore, with proper deployments, SKOS-based multilingual geoscience thesauri can be functional for alleviating linguistic barriers among online geological maps and, thus, improving their interoperability.
    Content
    Article Outline 1. Introduction 2. SKOS-based multilingual thesaurus of geological time scale 2.1. Addressing the insufficiency of SKOS in the context of the Semantic Web 2.2. Addressing semantics and syntax/lexicon in multilingual GTS terms 2.3. Extending SKOS model to capture GTS structure 2.4. Summary of building the SKOS-based MLTGTS 3. Recognizing and translating GTS terms retrieved from WMS 4. Pilot system, results, and evaluation 5. Discussion 6. Conclusions Vgl. unter: http://www.sciencedirect.com/science?_ob=MiamiImageURL&_cid=271720&_user=3865853&_pii=S0098300411000744&_check=y&_origin=&_coverDate=31-Oct-2011&view=c&wchp=dGLbVlt-zSkzS&_valck=1&md5=e2c1daf53df72d034d22278212578f42&ie=/sdarticle.pdf.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  7. Li, K.W.; Yang, C.C.: Automatic crosslingual thesaurus generated from the Hong Kong SAR Police Department Web Corpus for Crime Analysis (2005) 0.16
    0.16122639 = product of:
      0.19347167 = sum of:
        0.01025785 = weight(_text_:und in 3391) [ClassicSimilarity], result of:
          0.01025785 = score(doc=3391,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.09795051 = fieldWeight in 3391, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3391)
        0.048947323 = weight(_text_:anwendung in 3391) [ClassicSimilarity], result of:
          0.048947323 = score(doc=3391,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.21396513 = fieldWeight in 3391, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.03125 = fieldNorm(doc=3391)
        0.016014574 = weight(_text_:des in 3391) [ClassicSimilarity], result of:
          0.016014574 = score(doc=3391,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.12238726 = fieldWeight in 3391, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=3391)
        0.06839625 = weight(_text_:prinzips in 3391) [ClassicSimilarity], result of:
          0.06839625 = score(doc=3391,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.25292668 = fieldWeight in 3391, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.03125 = fieldNorm(doc=3391)
        0.049855687 = product of:
          0.09971137 = sum of:
            0.09971137 = weight(_text_:thesaurus in 3391) [ClassicSimilarity], result of:
              0.09971137 = score(doc=3391,freq=10.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.45666042 = fieldWeight in 3391, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3391)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    For the sake of national security, very large volumes of data and information are generated and gathered daily. Much of this data and information is written in different languages, stored in different locations, and may be seemingly unconnected. Crosslingual semantic interoperability is a major challenge to generate an overview of this disparate data and information so that it can be analyzed, shared, searched, and summarized. The recent terrorist attacks and the tragic events of September 11, 2001 have prompted increased attention an national security and criminal analysis. Many Asian countries and cities, such as Japan, Taiwan, and Singapore, have been advised that they may become the next targets of terrorist attacks. Semantic interoperability has been a focus in digital library research. Traditional information retrieval (IR) approaches normally require a document to share some common keywords with the query. Generating the associations for the related terms between the two term spaces of users and documents is an important issue. The problem can be viewed as the creation of a thesaurus. Apart from this, terrorists and criminals may communicate through letters, e-mails, and faxes in languages other than English. The translation ambiguity significantly exacerbates the retrieval problem. The problem is expanded to crosslingual semantic interoperability. In this paper, we focus an the English/Chinese crosslingual semantic interoperability problem. However, the developed techniques are not limited to English and Chinese languages but can be applied to many other languages. English and Chinese are popular languages in the Asian region. Much information about national security or crime is communicated in these languages. An efficient automatically generated thesaurus between these languages is important to crosslingual information retrieval between English and Chinese languages. To facilitate crosslingual information retrieval, a corpus-based approach uses the term co-occurrence statistics in parallel or comparable corpora to construct a statistical translation model to cross the language boundary. In this paper, the text based approach to align English/Chinese Hong Kong Police press release documents from the Web is first presented. We also introduce an algorithmic approach to generate a robust knowledge base based an statistical correlation analysis of the semantics (knowledge) embedded in the bilingual press release corpus. The research output consisted of a thesaurus-like, semantic network knowledge base, which can aid in semanticsbased crosslingual information management and retrieval.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  8. Schruff, R.; Dickhaus, C.: ¬Der multilinguale Thesaurus Ethik in den Biowissenschaften (2004) 0.08
    0.0835441 = product of:
      0.1670882 = sum of:
        0.0458745 = weight(_text_:und in 3045) [ClassicSimilarity], result of:
          0.0458745 = score(doc=3045,freq=10.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.438048 = fieldWeight in 3045, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3045)
        0.03202915 = weight(_text_:des in 3045) [ClassicSimilarity], result of:
          0.03202915 = score(doc=3045,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.24477452 = fieldWeight in 3045, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=3045)
        0.08918455 = product of:
          0.1783691 = sum of:
            0.1783691 = weight(_text_:thesaurus in 3045) [ClassicSimilarity], result of:
              0.1783691 = score(doc=3045,freq=8.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.81689894 = fieldWeight in 3045, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3045)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Das Deutsche Referenzzentrum für Ethik in den Biowissenschaften (DRZE) in Bonn veröffentlicht zusammen mit nationalen und internationalen Partnern den neuen, mehrsprachigen Thesaurus Ethik in den Biowissenschaften. Das Werkzeug zur Recherche und Verschlagwortung liegt derzeit in deutscher und englischer Sprache vor. Eine französische Version folgt 2005. Insbesondere die Online-Version des Thesaurus bietet komfortable Navigations- und Suchmöglichkeiten.
    Object
    Bioethik-Thesaurus
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.7, S.411-413
  9. Kutschekmanesch, S.; Lutes, B.; Moelle, K.; Thiel, U.; Tzeras, K.: Automated multilingual indexing : a synthesis of rule-based and thesaurus-based methods (1998) 0.07
    0.06704782 = product of:
      0.20114346 = sum of:
        0.025644625 = weight(_text_:und in 4157) [ClassicSimilarity], result of:
          0.025644625 = score(doc=4157,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.24487628 = fieldWeight in 4157, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4157)
        0.17549883 = sum of:
          0.11148069 = weight(_text_:thesaurus in 4157) [ClassicSimilarity], result of:
            0.11148069 = score(doc=4157,freq=2.0), product of:
              0.21834905 = queryWeight, product of:
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.04725067 = queryNorm
              0.5105618 = fieldWeight in 4157, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.078125 = fieldNorm(doc=4157)
          0.06401814 = weight(_text_:22 in 4157) [ClassicSimilarity], result of:
            0.06401814 = score(doc=4157,freq=2.0), product of:
              0.16546379 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04725067 = queryNorm
              0.38690117 = fieldWeight in 4157, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=4157)
      0.33333334 = coord(2/6)
    
    Source
    Information und Märkte: 50. Deutscher Dokumentartag 1998, Kongreß der Deutschen Gesellschaft für Dokumentation e.V. (DGD), Rheinische Friedrich-Wilhelms-Universität Bonn, 22.-24. September 1998. Hrsg. von Marlies Ockenfeld u. Gerhard J. Mantwill
  10. Luca, E.W. de; Dahlberg, I.: ¬Die Multilingual Lexical Linked Data Cloud : eine mögliche Zugangsoptimierung? (2014) 0.07
    0.065158084 = product of:
      0.13031617 = sum of:
        0.037689745 = weight(_text_:und in 1736) [ClassicSimilarity], result of:
          0.037689745 = score(doc=1736,freq=12.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.35989314 = fieldWeight in 1736, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1736)
        0.07342099 = weight(_text_:anwendung in 1736) [ClassicSimilarity], result of:
          0.07342099 = score(doc=1736,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 1736, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=1736)
        0.01920544 = product of:
          0.03841088 = sum of:
            0.03841088 = weight(_text_:22 in 1736) [ClassicSimilarity], result of:
              0.03841088 = score(doc=1736,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.23214069 = fieldWeight in 1736, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1736)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Sehr viele Informationen sind bereits im Web verfügbar oder können aus isolierten strukturierten Datenspeichern wie Informationssystemen und sozialen Netzwerken gewonnen werden. Datenintegration durch Nachbearbeitung oder durch Suchmechanismen (z. B. D2R) ist deshalb wichtig, um Informationen allgemein verwendbar zu machen. Semantische Technologien ermöglichen die Verwendung definierter Verbindungen (typisierter Links), durch die ihre Beziehungen zueinander festgehalten werden, was Vorteile für jede Anwendung bietet, die das in Daten enthaltene Wissen wieder verwenden kann. Um ­eine semantische Daten-Landkarte herzustellen, benötigen wir Wissen über die einzelnen Daten und ihre Beziehung zu anderen Daten. Dieser Beitrag stellt unsere Arbeit zur Benutzung von Lexical Linked Data (LLD) durch ein Meta-Modell vor, das alle Ressourcen enthält und zudem die Möglichkeit bietet sie unter unterschiedlichen Gesichtspunkten aufzufinden. Wir verbinden damit bestehende Arbeiten über Wissensgebiete (basierend auf der Information Coding Classification) mit der Multilingual Lexical Linked Data Cloud (basierend auf der RDF/OWL-Repräsentation von EuroWordNet und den ähnlichen integrierten lexikalischen Ressourcen MultiWordNet, MEMODATA und die Hamburg Metapher DB).
    Date
    22. 9.2014 19:00:13
    Source
    Information - Wissenschaft und Praxis. 65(2014) H.4/5, S.279-287
  11. Sandner, M.: Neues aus der Kommission für Sacherschliessung (2005) 0.05
    0.054989114 = product of:
      0.10997823 = sum of:
        0.03912381 = weight(_text_:und in 2183) [ClassicSimilarity], result of:
          0.03912381 = score(doc=2183,freq=38.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3735868 = fieldWeight in 2183, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2183)
        0.042828906 = weight(_text_:anwendung in 2183) [ClassicSimilarity], result of:
          0.042828906 = score(doc=2183,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.18721949 = fieldWeight in 2183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2183)
        0.028025504 = weight(_text_:des in 2183) [ClassicSimilarity], result of:
          0.028025504 = score(doc=2183,freq=8.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2141777 = fieldWeight in 2183, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2183)
      0.5 = coord(3/6)
    
    Content
    "Unsere Sitzung fand diesmal am 13. 9. 2005 in Bozen im Rahmen der ODOK statt. Es waren daher auch viele interessierte Südtiroler und italienische Sacherschließungskollegen/-innen zu Gast. Eine der beiden Konferenzsprachen war Englisch, und so konnten wir Mehrsprachigkeit, das Thema unserer Sitzung und der beiden Gastvorträge, gleich selbst praktizieren. Patrice LANDRY, der Leiter der Sacherschließung an derSLB in Bern, der seit kurzem den Vorsitz der IFLA-Sektion "Classification and Indexing" und der Arbeitsgruppe "Guidelines for subject access for national bibliographic agencies" übernommen hatte, referierte über den jüngsten Stand des Projekts MACS (Multilingual Access to Subjects) und ließ uns am Nachmittag in seinem Workshop hinter die Kulissen der bereits mit echten Titeldaten operierenden Suchoberfläche blicken. Er zeigte die verschiedenen Recherche- und Editier-Funktionen im Management Linking System und brachte Beispiele für die kooperative Bearbeitung an einigen Datensätzen der bisher bereits miteinander verzahnten Normdateien SWD, LCSH und RAMEAU. Schließlich eröffnete er Ausblicke auf die künftige Einbindung weiterer Sprachen, etwa des Italienischen durch den Soggetario und auf die Anreicherung der Daten, etwa mit DDC-Notationen durch die Nähe zum DDB-Projekt "CrissCross". Federica PARADISI, die in der Sacherschließungsabteilung der BNC in Florenz sowohl für die italienische Übersetzung der DDC und deren Anwendung in ganz Italien als auch für die Überarbeitung des seit 1956 existierenden italienischen Wortschatzes für die verbale Erschließung und für dessen Aufbereitung zu einer modernen, bald auch elektronischen Normdatei zuständig ist und an der Erstellung der italienischen Nationalbibliografie mitwirkt, hat zuletzt gemeinsam mit Anna Lucarelli den Prototyp des "Nuovo Soggetario" erarbeitet und stellte dieses umfangreiche Projekt vor. Der von ihr skizzierte Zeitplan gibt Anlass zur Hoffnung, dass MACS für die Auffindung beschlagworteter Literatur in Bibliothekskatalogen schon in einem Jahr um einen sprachlichen Zugang reicher sein könnte. Beide Gastreferenten/-innen standen dem Auditorium im Anschluss an die Präsentationen für Fragen zur Verfügung, und die neuen fachlichen Kontakte vertieften sich in den Pausengesprächen noch mehr. Vor der Führung durch die Dewey-Ausstellung im Lichthof der UB Bozen demonstrierte Margit SANDNER zum Abschluss dieses multilingualen Sacherschließungsnachmittags mit einigen Beispielen in deutscherSprache die Suchfunktionen in den beiden Webversionen von DDC Deutsch MelvilSearch (für OPACs) und MelvilClass (für das Klassifizieren) und kündigte an, dass ab Oktober bis Jahresende kostenlose Testaccounts vergeben werden. Wer daran interessiert ist, diese deutschsprachigen Webtools bereits auszuprobieren, wendet sich am besten direkt an Herrn Dr. Lars Svensson in Der Deutschen Bibliothek in Frankfurt: svensson@dbf.ddb.de. Die ab Jänner 2006 gültigen Lizenzbedingungen für "Melvil" entnehmen Sie bitte: http//www.ddc-deutsch.de/licence-melvil.html Noch zwei aktuelle Hinweise: - Informationstag der Arbeitsstelle für Standardisierung (DDB) über aktuelle Tendenzen in Sachen Regelwerke f. Formal- und Sacherschließung, Formate, Normdateien und Datentausch am 15. November in Wien. - Aufsatz über die Zukunft der SWD von Esther Scheven (BD 2005, H. 6, S. 748-773), in dem u. a. auch auf unsere seinerzeitige KofSE-Studie: Schlagwort "Benutzerforschung" ... (VÖB-Mitt. 1997, H. 3-4, S. 28-49) rekurriert wird."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.3, S.83-84
  12. Effektive Information Retrieval Verfahren in Theorie und Praxis : ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005 (2006) 0.05
    0.050879825 = product of:
      0.10175965 = sum of:
        0.039728485 = weight(_text_:und in 5973) [ClassicSimilarity], result of:
          0.039728485 = score(doc=5973,freq=120.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3793607 = fieldWeight in 5973, product of:
              10.954452 = tf(freq=120.0), with freq of:
                120.0 = termFreq=120.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
        0.024473662 = weight(_text_:anwendung in 5973) [ClassicSimilarity], result of:
          0.024473662 = score(doc=5973,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.10698257 = fieldWeight in 5973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
        0.037557505 = weight(_text_:des in 5973) [ClassicSimilarity], result of:
          0.037557505 = score(doc=5973,freq=44.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.28702357 = fieldWeight in 5973, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
      0.5 = coord(3/6)
    
    Abstract
    Information Retrieval hat sich zu einer Schlüsseltechnologie in der Wissensgesellschaft entwickelt. Die Anzahl der täglichen Anfragen an Internet-Suchmaschinen bildet nur einen Indikator für die große Bedeutung dieses Themas. Der Sammelbandband informiert über Themen wie Information Retrieval-Grundlagen, Retrieval Systeme, Digitale Bibliotheken, Evaluierung und Multilinguale Systeme, beschreibt Anwendungsszenarien und setzt sich mit neuen Herausforderungen an das Information Retrieval auseinander. Die Beiträge behandeln aktuelle Themen und neue Herausforderungen an das Information Retrieval. Die intensive Beteiligung der Informationswissenschaft der Universität Hildesheim am Cross Language Evaluation Forum (CLEF), einer europäischen Evaluierungsinitiative zur Erforschung mehrsprachiger Retrieval Systeme, berührt mehrere der Beiträge. Ebenso spielen Anwendungsszenarien und die Auseinandersetzung mit aktuellen und praktischen Fragestellungen eine große Rolle.
    Content
    Inhalt: Jan-Hendrik Scheufen: RECOIN: Modell offener Schnittstellen für Information-Retrieval-Systeme und -Komponenten Markus Nick, Klaus-Dieter Althoff: Designing Maintainable Experience-based Information Systems Gesine Quint, Steffen Weichert: Die benutzerzentrierte Entwicklung des Produkt- Retrieval-Systems EIKON der Blaupunkt GmbH Claus-Peter Klas, Sascha Kriewel, André Schaefer, Gudrun Fischer: Das DAFFODIL System - Strategische Literaturrecherche in Digitalen Bibliotheken Matthias Meiert: Entwicklung eines Modells zur Integration digitaler Dokumente in die Universitätsbibliothek Hildesheim Daniel Harbig, René Schneider: Ontology Learning im Rahmen von MyShelf Michael Kluck, Marco Winter: Topic-Entwicklung und Relevanzbewertung bei GIRT: ein Werkstattbericht Thomas Mandl: Neue Entwicklungen bei den Evaluierungsinitiativen im Information Retrieval Joachim Pfister: Clustering von Patent-Dokumenten am Beispiel der Datenbanken des Fachinformationszentrums Karlsruhe Ralph Kölle, Glenn Langemeier, Wolfgang Semar: Programmieren lernen in kollaborativen Lernumgebungen Olga Tartakovski, Margaryta Shramko: Implementierung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten Nina Kummer: Indexierungstechniken für das japanische Retrieval Suriya Na Nhongkai, Hans-Joachim Bentz: Bilinguale Suche mittels Konzeptnetzen Robert Strötgen, Thomas Mandl, René Schneider: Entwicklung und Evaluierung eines Question Answering Systems im Rahmen des Cross Language Evaluation Forum (CLEF) Niels Jensen: Evaluierung von mehrsprachigem Web-Retrieval: Experimente mit dem EuroGOV-Korpus im Rahmen des Cross Language Evaluation Forum (CLEF)
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 57(2006) H.5, S.290-291 (C. Schindler): "Weniger als ein Jahr nach dem "Vierten Hildesheimer Evaluierungs- und Retrievalworkshop" (HIER 2005) im Juli 2005 ist der dazugehörige Tagungsband erschienen. Eingeladen hatte die Hildesheimer Informationswissenschaft um ihre Forschungsergebnisse und die einiger externer Experten zum Thema Information Retrieval einem Fachpublikum zu präsentieren und zur Diskussion zu stellen. Unter dem Titel "Effektive Information Retrieval Verfahren in Theorie und Praxis" sind nahezu sämtliche Beiträge des Workshops in dem nun erschienenen, 15 Beiträge umfassenden Band gesammelt. Mit dem Schwerpunkt Information Retrieval (IR) wird ein Teilgebiet der Informationswissenschaft vorgestellt, das schon immer im Zentrum informationswissenschaftlicher Forschung steht. Ob durch den Leistungsanstieg von Prozessoren und Speichermedien, durch die Verbreitung des Internet über nationale Grenzen hinweg oder durch den stetigen Anstieg der Wissensproduktion, festzuhalten ist, dass in einer zunehmend wechselseitig vernetzten Welt die Orientierung und das Auffinden von Dokumenten in großen Wissensbeständen zu einer zentralen Herausforderung geworden sind. Aktuelle Verfahrensweisen zu diesem Thema, dem Information Retrieval, präsentiert der neue Band anhand von praxisbezogenen Projekten und theoretischen Diskussionen. Das Kernthema Information Retrieval wird in dem Sammelband in die Bereiche Retrieval-Systeme, Digitale Bibliothek, Evaluierung und Multilinguale Systeme untergliedert. Die Artikel der einzelnen Sektionen sind insgesamt recht heterogen und bieten daher keine Überschneidungen inhaltlicher Art. Jedoch ist eine vollkommene thematische Abdeckung der unterschiedlichen Bereiche ebenfalls nicht gegeben, was bei der Präsentation von Forschungsergebnissen eines Institutes und seiner Kooperationspartner auch nur bedingt erwartet werden kann. So lässt sich sowohl in der Gliederung als auch in den einzelnen Beiträgen eine thematische Verdichtung erkennen, die das spezielle Profil und die Besonderheit der Hildesheimer Informationswissenschaft im Feld des Information Retrieval wiedergibt. Teil davon ist die mehrsprachige und interdisziplinäre Ausrichtung, die die Schnittstellen zwischen Informationswissenschaft, Sprachwissenschaft und Informatik in ihrer praxisbezogenen und internationalen Forschung fokussiert.
    Im ersten Kapitel "Retrieval-Systeme" werden verschiedene Information RetrievalSysteme präsentiert und Verfahren zu deren Gestaltung diskutiert. Jan-Hendrik Scheufen stellt das Meta-Framework RECOIN zur Information Retrieval Forschung vor, das sich durch eine flexible Handhabung unterschiedlichster Applikationen auszeichnet und dadurch eine zentrierte Protokollierung und Steuerung von Retrieval-Prozessen ermöglicht. Dieses Konzept eines offenen, komponentenbasierten Systems wurde in Form eines Plug-Ins für die javabasierte Open-Source-Plattform Eclipse realisiert. Markus Nick und Klaus-Dieter Althoff erläutern in ihrem Beitrag, der übrigens der einzige englischsprachige Text im Buch ist, das Verfahren DILLEBIS zur Erhaltung und Pflege (Maintenance) von erfahrungsbasierten Informationssystemen. Sie bezeichnen dieses Verfahren als Maintainable Experience-based Information System und plädieren für eine Ausrichtung von erfahrungsbasierten Systemen entsprechend diesem Modell. Gesine Quint und Steffen Weichert stellen dagegen in ihrem Beitrag die benutzerzentrierte Entwicklung des Produkt-Retrieval-Systems EIKON vor, das in Kooperation mit der Blaupunkt GmbH realisiert wurde. In einem iterativen Designzyklus erfolgte die Gestaltung von gruppenspezifischen Interaktionsmöglichkeiten für ein Car-Multimedia-Zubehör-System. Im zweiten Kapitel setzen sich mehrere Autoren dezidierter mit dem Anwendungsgebiet "Digitale Bibliothek" auseinander. Claus-Peter Klas, Sascha Kriewel, Andre Schaefer und Gudrun Fischer von der Universität Duisburg-Essen stellen das System DAFFODIL vor, das durch eine Vielzahl an Werkzeugen zur strategischen Unterstützung bei Literaturrecherchen in digitalen Bibliotheken dient. Zusätzlich ermöglicht die Protokollierung sämtlicher Ereignisse den Einsatz des Systems als Evaluationsplattform. Der Aufsatz von Matthias Meiert erläutert die Implementierung von elektronischen Publikationsprozessen an Hochschulen am Beispiel von Abschlussarbeiten des Studienganges Internationales Informationsmanagement der Universität Hildesheim. Neben Rahmenbedingungen werden sowohl der Ist-Zustand als auch der Soll-Zustand des wissenschaftlichen elektronischen Publizierens in Form von gruppenspezifischen Empfehlungen dargestellt. Daniel Harbig und Rene Schneider beschreiben in ihrem Aufsatz zwei Verfahrensweisen zum maschinellen Erlernen von Ontologien, angewandt am virtuellen Bibliotheksregal MyShelf. Nach der Evaluation dieser beiden Ansätze plädieren die Autoren für ein semi-automatisiertes Verfahren zur Erstellung von Ontologien.
    "Evaluierung", das Thema des dritten Kapitels, ist in seiner Breite nicht auf das Information Retrieval beschränkt sondern beinhaltet ebenso einzelne Aspekte der Bereiche Mensch-Maschine-Interaktion sowie des E-Learning. Michael Muck und Marco Winter von der Stiftung Wissenschaft und Politik sowie dem Informationszentrum Sozialwissenschaften thematisieren in ihrem Beitrag den Einfluss der Fragestellung (Topic) auf die Bewertung von Relevanz und zeigen Verfahrensweisen für die Topic-Erstellung auf, die beim Cross Language Evaluation Forum (CLEF) Anwendung finden. Im darauf folgenden Aufsatz stellt Thomas Mandl verschiedene Evaluierungsinitiativen im Information Retrieval und aktuelle Entwicklungen dar. Joachim Pfister erläutert in seinem Beitrag das automatisierte Gruppieren, das sogenannte Clustering, von Patent-Dokumenten in den Datenbanken des Fachinformationszentrums Karlsruhe und evaluiert unterschiedliche Clusterverfahren auf Basis von Nutzerbewertungen. Ralph Kölle, Glenn Langemeier und Wolfgang Semar widmen sich dem kollaborativen Lernen unter den speziellen Bedingungen des Programmierens. Dabei werden das System VitaminL zur synchronen Bearbeitung von Programmieraufgaben und das Kennzahlensystem K-3 für die Bewertung kollaborativer Zusammenarbeit in einer Lehrveranstaltung angewendet. Der aktuelle Forschungsschwerpunkt der Hildesheimer Informationswissenschaft zeichnet sich im vierten Kapitel unter dem Thema "Multilinguale Systeme" ab. Hier finden sich die meisten Beiträge des Tagungsbandes wieder. Olga Tartakovski und Margaryta Shramko beschreiben und prüfen das System Langldent, das die Sprache von mono- und multilingualen Texten identifiziert. Die Eigenheiten der japanischen Schriftzeichen stellt Nina Kummer dar und vergleicht experimentell die unterschiedlichen Techniken der Indexierung. Suriya Na Nhongkai und Hans-Joachim Bentz präsentieren und prüfen eine bilinguale Suche auf Basis von Konzeptnetzen, wobei die Konzeptstruktur das verbindende Elemente der beiden Textsammlungen darstellt. Das Entwickeln und Evaluieren eines mehrsprachigen Question-Answering-Systems im Rahmen des Cross Language Evaluation Forum (CLEF), das die alltagssprachliche Formulierung von konkreten Fragestellungen ermöglicht, wird im Beitrag von Robert Strötgen, Thomas Mandl und Rene Schneider thematisiert. Den Schluss bildet der Aufsatz von Niels Jensen, der ein mehrsprachiges Web-Retrieval-System ebenfalls im Zusammenhang mit dem CLEF anhand des multilingualen EuroGOVKorpus evaluiert.
    Abschließend lässt sich sagen, dass der Tagungsband einen gelungenen Überblick über die Information Retrieval Projekte der Hildesheimer Informationswissenschaft und ihrer Kooperationspartner gibt. Die einzelnen Beiträge sind sehr anregend und auf einem hohen Niveau angesiedelt. Ein kleines Hindernis für den Leser stellt die inhaltliche und strukturelle Orientierung innerhalb des Bandes dar. Der Bezug der einzelnen Artikel zum Thema des Kapitels wird zwar im Vorwort kurz erläutert. Erschwert wird die Orientierung im Buch jedoch durch fehlende Kapitelüberschriften am Anfang der einzelnen Sektionen. Außerdem ist zu erwähnen, dass einer der Artikel einen anderen Titel als im Inhaltsverzeichnis angekündigt trägt. Sieht der Leser von diesen formalen Mängeln ab, wird er reichlich mit praxisbezogenen und theoretisch fundierten Projektdarstellungen und Forschungsergebnissen belohnt. Dies insbesondere, da nicht nur aktuelle Themen der Informationswissenschaft aufgegriffen, sondern ebenso weiterentwickelt und durch die speziellen interdisziplinären und internationalen Bedingungen in Hildesheim geformt werden. Dabei zeigt sich anhand der verschiedenen Projekte, wie gut die Hildesheimer Informationswissenschaft in die Community überregionaler Informationseinrichtungen und anderer deutscher informationswissenschaftlicher Forschungsgruppen eingebunden ist. Damit hat der Workshop bei einer weiteren Öffnung der Expertengruppe das Potential zu einer eigenständigen Institution im Bereich des Information Retrieval zu werden. In diesem Sinne lässt sich auf weitere fruchtbare Workshops und deren Veröffentlichungen hoffen. Ein nächster Workshop der Universität Hildesheim zum Thema Information Retrieval, organisiert mit der Fachgruppe Information Retrieval der Gesellschaft für Informatik, kündigt sich bereits für den 9. bis 13- Oktober 2006 an."
  13. Schlenkrich, C.: Aspekte neuer Regelwerksarbeit : Multimediales Datenmodell für ARD und ZDF (2003) 0.05
    0.04943315 = product of:
      0.0988663 = sum of:
        0.050252996 = weight(_text_:und in 1515) [ClassicSimilarity], result of:
          0.050252996 = score(doc=1515,freq=48.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.47985753 = fieldWeight in 1515, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.035809677 = weight(_text_:des in 1515) [ClassicSimilarity], result of:
          0.035809677 = score(doc=1515,freq=10.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.27366623 = fieldWeight in 1515, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.012803626 = product of:
          0.025607252 = sum of:
            0.025607252 = weight(_text_:22 in 1515) [ClassicSimilarity], result of:
              0.025607252 = score(doc=1515,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.15476047 = fieldWeight in 1515, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1515)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Wir sind mitten in der Arbeit, deshalb kann ich Ihnen nur Arbeitsstände weitergeben. Es ist im Fluss, und wir bemühen uns in der Tat, die "alten Regelwerke" fit zu machen und sie für den Multimediabereich aufzuarbeiten. Ganz kurz zur Arbeitsgruppe: Sie entstammt der AG Orgatec, der Schall- und Hörfunkarchivleiter- und der Fernseharchivleiterkonferenz zur Erstellung eines verbindlichen multimedialen Regelwerks. Durch die Digitalisierung haben sich die Aufgaben in den Archivbereichen eindeutig geändert. Wir versuchen, diese Prozesse abzufangen, und zwar vom Produktionsprozess bis hin zur Archivierung neu zu regeln und neu zu definieren. Wir haben mit unserer Arbeit begonnen im April letzten Jahres, sind also jetzt nahezu exakt ein Jahr zugange, und ich werde Ihnen im Laufe des kurzen Vortrages berichten können, wie wir unsere Arbeit gestaltet haben. Etwas zu den Mitgliedern der Arbeitsgruppe - ich denke, es ist ganz interessant, einfach mal zu sehen, aus welchen Bereichen und Spektren unsere Arbeitsgruppe sich zusammensetzt. Wir haben also Vertreter des Bayrischen Rundfunks, des Norddeutschen -, des Westdeutschen Rundfunks, des Mitteldeutschen von Ost nach West, von Süd nach Nord und aus den verschiedensten Arbeitsbereichen von Audio über Video bis hin zu Online- und Printbereichen. Es ist eine sehr bunt gemischte Truppe, aber auch eine hochspannenden Diskussion exakt eben aufgrund der Vielfalt, die wir abbilden wollen und abbilden müssen. Die Ziele: Wir wollen verbindlich ein multimediales Datenmodell entwickeln und verabschieden, was insbesondere den digitalen Produktionscenter und Archiv-Workflow von ARD und - da haben wir uns besonders gefreut - auch in guter alter Tradition in gemeinsamer Zusammenarbeit mit dem ZDF bildet. Wir wollen Erfassungs- und Erschließungsregeln definieren. Wir wollen Mittlerdaten generieren und bereitstellen, um den Produktions-Workflow abzubilden und zu gewährleisten, und das Datenmodell, das wir uns sozusagen als Zielstellung definiert haben, soll für den Programmaustausch Grundlagen schaffen, damit von System zu System intern und extern kommuniziert werden kann. Nun könnte man meinen, dass ein neues multimediales Datenmodell aus einem Mix der alten Regelwerke Fernsehen, Wort und Musik recht einfach zusammenzuführen sei. Man stellt einfach die Datenlisten der einzelnen Regelwerke synoptisch gegenüber, klärt Gemeinsames und Spezifisches ab, ergänzt Fehlendes, eliminiert eventuell nicht Benötigtes und stellt es einfach neu zusammen, fertig ist das neue Regelwerk. Leider ist es nicht ganz so einfach, denn es gibt dabei doch eine ganze Reihe von Aspekten zu berücksichtigen, die eine vorgelagerte Abstraktionsebene auch zwingend erforderlich machen.
    Date
    22. 4.2003 12:05:56
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  14. Timotin, A.: Multilingvism si tezaure de concepte (1994) 0.04
    0.038263936 = product of:
      0.2295836 = sum of:
        0.2295836 = sum of:
          0.1783691 = weight(_text_:thesaurus in 7887) [ClassicSimilarity], result of:
            0.1783691 = score(doc=7887,freq=8.0), product of:
              0.21834905 = queryWeight, product of:
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.04725067 = queryNorm
              0.81689894 = fieldWeight in 7887, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.0625 = fieldNorm(doc=7887)
          0.051214505 = weight(_text_:22 in 7887) [ClassicSimilarity], result of:
            0.051214505 = score(doc=7887,freq=2.0), product of:
              0.16546379 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04725067 = queryNorm
              0.30952093 = fieldWeight in 7887, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=7887)
      0.16666667 = coord(1/6)
    
    Abstract
    Discusses the importance and utility of a thesaurus of concepts to provide logical support for multilingualism. Deals in particular with the IEC (International Electrotechnical Commission) Thesaurus,a nd the work of the IEC Thesaurus Working Group, consisting of specialists of the Research Institute in Electrical Engineering (ICPE) and the University Politehnica of Bucharest. Describes how this group contributed to the thesaurus and implemented the multilingual database required by the editing and updating of multilingual database required by the editing and updating of multilingual dictionaries in electrical engineering
    Source
    Probleme de Informare si Documentare. 28(1994) no.1, S.13-22
  15. Strobel, S.: Englischsprachige Erweiterung des TIB / AV-Portals : Ein GND/DBpedia-Mapping zur Gewinnung eines englischen Begriffssystems (2014) 0.04
    0.037682526 = product of:
      0.07536505 = sum of:
        0.012822312 = weight(_text_:und in 2876) [ClassicSimilarity], result of:
          0.012822312 = score(doc=2876,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.12243814 = fieldWeight in 2876, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2876)
        0.03467257 = weight(_text_:des in 2876) [ClassicSimilarity], result of:
          0.03467257 = score(doc=2876,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2649762 = fieldWeight in 2876, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2876)
        0.027870173 = product of:
          0.055740345 = sum of:
            0.055740345 = weight(_text_:thesaurus in 2876) [ClassicSimilarity], result of:
              0.055740345 = score(doc=2876,freq=2.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.2552809 = fieldWeight in 2876, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2876)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Die Videos des TIB / AV-Portals werden mit insgesamt 63.356 GND-Sachbegriffen aus Naturwissenschaft und Technik automatisch verschlagwortet. Neben den deutschsprachigen Videos verfügt das TIB / AV-Portal auch über zahlreiche englischsprachige Videos. Die GND enthält zu den in der TIB / AV-Portal-Wissensbasis verwendeten Sachbegriffen nur sehr wenige englische Bezeichner. Es fehlt demnach ein englisches Indexierungsvokabular, mit dem die englischsprachigen Videos automatisch verschlagwortet werden können. Die Lösung dieses Problems sieht wie folgt aus: Die englischen Bezeichner sollen über ein Mapping der GND-Sachbegriffe auf andere Datensätze gewonnen werden, die eine englische Übersetzung der Begriffe enthalten. Die verwendeten Mappingstrategien nutzen die DBpedia, LCSH, MACS-Ergebnisse sowie den WTI-Thesaurus. Am Ende haben 35.025 GND-Sachbegriffe (mindestens) einen englischen Bezeichner ermittelt bekommen. Diese englischen Bezeichner können für die automatische Verschlagwortung der englischsprachigen Videos unmittelbar herangezogen werden. 11.694 GND-Sachbegriffe konnten zwar nicht ins Englische "übersetzt", aber immerhin mit einem Oberbegriff assoziiert werden, der eine englische Übersetzung hat. Diese Assoziation dient der Erweiterung der Suchergebnisse.
    Content
    Beitrag als ausgearbeitete Form eines Vortrages während des 103. Deutschen Bibliothekartages in Bremen. Vgl.: https://www.o-bib.de/article/view/2014H1S197-204.
  16. Francu, V.: Construirea unui tezaur multilingv bazat pr CZU (1997) 0.04
    0.035354 = product of:
      0.106061995 = sum of:
        0.028025504 = weight(_text_:des in 3221) [ClassicSimilarity], result of:
          0.028025504 = score(doc=3221,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2141777 = fieldWeight in 3221, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3221)
        0.07803649 = product of:
          0.15607297 = sum of:
            0.15607297 = weight(_text_:thesaurus in 3221) [ClassicSimilarity], result of:
              0.15607297 = score(doc=3221,freq=8.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.7147866 = fieldWeight in 3221, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3221)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    The automation of Bucharest University Central Library involved the compilation of a dictionary of terms to facilitate postcoordinated searching in accordance with the UDC notation attached to every bibliographic record. Describes the project and demonstrates why a multilingual UDC based thesaurus is considered as ideal indexing and searching tool. The experiment, which applied to Class 8 of UDC (Linguisitcs and Literature), illustrates how all UDC tables can be successfully used to build a thesaurus and the ways in which their limitations can be overcome by a thesaurus
    Footnote
    Übers. des Titels: Building a multilingual thesaurus based on UDC
  17. Scheufen, J.-H.: RECOIN: Modell offener Schnittstellen für Information-Retrieval-Systeme und -Komponenten (2006) 0.03
    0.034131773 = product of:
      0.10239531 = sum of:
        0.05385371 = weight(_text_:und in 4901) [ClassicSimilarity], result of:
          0.05385371 = score(doc=4901,freq=18.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.51424015 = fieldWeight in 4901, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4901)
        0.0485416 = weight(_text_:des in 4901) [ClassicSimilarity], result of:
          0.0485416 = score(doc=4901,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.3709667 = fieldWeight in 4901, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4901)
      0.33333334 = coord(2/6)
    
    Abstract
    Erfahrungen im Cross Language Evaluation Forum (CLEF) und die Beschäftigung mit Fragestellungen zum MIMOR-Modell haben den Bedarf für ein Framework zur Integration heterogener Retrieval-Komponenten aufgezeigt, mit dein sich einzelne Schritte des Retrieval-Prozesses individuell konfigurieren, untersuchen und optimieren lassen. RECOIN stellt ein Meta-Framework zur Verfügung, das den Programmieraufwand für die Integration neuer oder bereits existierender Retrieval-Bausteine minimiert und außerdem die Steuerung und Protokollierung verwendeter Objekte, Methoden und Parameter des Retrieval-Prozesses ermöglicht.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  18. Frâncu, V.; Sabo, C.-N.: Implementation of a UDC-based multilingual thesaurus in a library catalogue : the case of BiblioPhil (2010) 0.03
    0.031329658 = product of:
      0.18797794 = sum of:
        0.18797794 = sum of:
          0.14956705 = weight(_text_:thesaurus in 3697) [ClassicSimilarity], result of:
            0.14956705 = score(doc=3697,freq=10.0), product of:
              0.21834905 = queryWeight, product of:
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.04725067 = queryNorm
              0.68499064 = fieldWeight in 3697, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.046875 = fieldNorm(doc=3697)
          0.03841088 = weight(_text_:22 in 3697) [ClassicSimilarity], result of:
            0.03841088 = score(doc=3697,freq=2.0), product of:
              0.16546379 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04725067 = queryNorm
              0.23214069 = fieldWeight in 3697, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=3697)
      0.16666667 = coord(1/6)
    
    Abstract
    In order to enhance the use of Universal Decimal Classification (UDC) numbers in information retrieval, the authors have represented classification with multilingual thesaurus descriptors and implemented this solution in an automated way. The authors illustrate a solution implemented in a BiblioPhil library system. The standard formats used are UNIMARC for subject authority records (i.e. the UDC-based multilingual thesaurus) and MARC XML support for data transfer. The multilingual thesaurus was built according to existing standards, the constituent parts of the classification notations being used as the basis for search terms in the multilingual information retrieval. The verbal equivalents, descriptors and non-descriptors, are used to expand the number of concepts and are given in Romanian, English and French. This approach saves the time of the indexer and provides more user-friendly and easier access to the bibliographic information. The multilingual aspect of the thesaurus enhances information access for a greater number of online users
    Date
    22. 7.2010 20:40:56
  19. Jensen, N.: Evaluierung von mehrsprachigem Web-Retrieval : Experimente mit dem EuroGOV-Korpus im Rahmen des Cross Language Evaluation Forum (CLEF) (2006) 0.03
    0.030468088 = product of:
      0.09140426 = sum of:
        0.037689745 = weight(_text_:und in 5964) [ClassicSimilarity], result of:
          0.037689745 = score(doc=5964,freq=12.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.35989314 = fieldWeight in 5964, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
        0.05371451 = weight(_text_:des in 5964) [ClassicSimilarity], result of:
          0.05371451 = score(doc=5964,freq=10.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.41049933 = fieldWeight in 5964, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
      0.33333334 = coord(2/6)
    
    Abstract
    Der vorliegende Artikel beschreibt die Experimente der Universität Hildesheim im Rahmen des ersten Web Track der CLEF-Initiative (WebCLEF) im Jahr 2005. Bei der Teilnahme konnten Erfahrungen mit einem multilingualen Web-Korpus (EuroGOV) bei der Vorverarbeitung, der Topic- bzw. Query-Entwicklung, bei sprachunabhängigen Indexierungsmethoden und multilingualen Retrieval-Strategien gesammelt werden. Aufgrund des großen Um-fangs des Korpus und der zeitlichen Einschränkungen wurden multilinguale Indizes aufgebaut. Der Artikel beschreibt die Vorgehensweise bei der Teilnahme der Universität Hildesheim und die Ergebnisse der offiziell eingereichten sowie weiterer Experimente. Für den Multilingual Task konnte das beste Ergebnis in CLEF erzielt werden.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  20. Schubert, K.: Parameters for the design of an intermediate language for multilingual thesauri (1995) 0.03
    0.029995978 = product of:
      0.17997587 = sum of:
        0.17997587 = sum of:
          0.13516317 = weight(_text_:thesaurus in 2092) [ClassicSimilarity], result of:
            0.13516317 = score(doc=2092,freq=6.0), product of:
              0.21834905 = queryWeight, product of:
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.04725067 = queryNorm
              0.6190234 = fieldWeight in 2092, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2092)
          0.044812694 = weight(_text_:22 in 2092) [ClassicSimilarity], result of:
            0.044812694 = score(doc=2092,freq=2.0), product of:
              0.16546379 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04725067 = queryNorm
              0.2708308 = fieldWeight in 2092, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2092)
      0.16666667 = coord(1/6)
    
    Abstract
    The architecture of multilingual software systems is sometimes centred around an intermediate language. The question is analyzed to what extent this approach can be useful for multilingual thesauri, in particular regarding the functionality the thesaurus is designed to fulfil. Both the runtime use, and the construction and maintenance of the system is taken into consideration. Using the perspective of general language technology enables to draw on experience from a broader range of fields beyond thesaurus design itself as well as to consider the possibility of using a thesaurus as a knowledge module in various systems which process natural language. Therefore the features which thesauri and other natural-language processing systems have in common are emphasized, especially at the level of systems design and their core functionality
    Source
    Knowledge organization. 22(1995) nos.3/4, S.136-140

Years

Languages

  • e 74
  • d 46
  • f 6
  • ro 2
  • m 1
  • More… Less…

Types

  • a 109
  • el 13
  • m 4
  • x 4
  • n 2
  • p 2
  • s 2
  • r 1
  • More… Less…