Search (66 results, page 1 of 4)

  • × year_i:[2000 TO 2010}
  • × theme_ss:"Multilinguale Probleme"
  1. Widdra, M.: Besonderheiten eines multilingualen Thesaurus : Am Beispiel des "Europäischen Thesaurus Internationale Beziehungen und Länderkunde" (2004) 0.49
    0.49094188 = product of:
      0.5891303 = sum of:
        0.053301353 = weight(_text_:und in 4628) [ClassicSimilarity], result of:
          0.053301353 = score(doc=4628,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.5089658 = fieldWeight in 4628, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4628)
        0.14684197 = weight(_text_:anwendung in 4628) [ClassicSimilarity], result of:
          0.14684197 = score(doc=4628,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.6418954 = fieldWeight in 4628, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.09375 = fieldNorm(doc=4628)
        0.06794408 = weight(_text_:des in 4628) [ClassicSimilarity], result of:
          0.06794408 = score(doc=4628,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.51924515 = fieldWeight in 4628, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=4628)
        0.20518874 = weight(_text_:prinzips in 4628) [ClassicSimilarity], result of:
          0.20518874 = score(doc=4628,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.75878 = fieldWeight in 4628, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.09375 = fieldNorm(doc=4628)
        0.11585415 = product of:
          0.2317083 = sum of:
            0.2317083 = weight(_text_:thesaurus in 4628) [ClassicSimilarity], result of:
              0.2317083 = score(doc=4628,freq=6.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                1.061183 = fieldWeight in 4628, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4628)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Imprint
    Potsdam : Fachhochschule, Institut für Information und Dokumentation
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  2. Erstellung multilingualer Thesauri mit Hilfe moderner Softwaretools (2000) 0.44
    0.4378687 = product of:
      0.5254425 = sum of:
        0.030773548 = weight(_text_:und in 4910) [ClassicSimilarity], result of:
          0.030773548 = score(doc=4910,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.29385152 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4910)
        0.14684197 = weight(_text_:anwendung in 4910) [ClassicSimilarity], result of:
          0.14684197 = score(doc=4910,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.6418954 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.09375 = fieldNorm(doc=4910)
        0.04804372 = weight(_text_:des in 4910) [ClassicSimilarity], result of:
          0.04804372 = score(doc=4910,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.36716178 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=4910)
        0.20518874 = weight(_text_:prinzips in 4910) [ClassicSimilarity], result of:
          0.20518874 = score(doc=4910,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.75878 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.09375 = fieldNorm(doc=4910)
        0.09459451 = product of:
          0.18918902 = sum of:
            0.18918902 = weight(_text_:thesaurus in 4910) [ClassicSimilarity], result of:
              0.18918902 = score(doc=4910,freq=4.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.8664522 = fieldWeight in 4910, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4910)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Object
    UDK-Thesaurus
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  3. Retti, G.; Stehno, B.: ¬The Laurin thesaurus : a large, multilingual, electronic thesaurus for newspaper clipping archives (2004) 0.30
    0.2954671 = product of:
      0.35456055 = sum of:
        0.017951237 = weight(_text_:und in 4431) [ClassicSimilarity], result of:
          0.017951237 = score(doc=4431,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.17141339 = fieldWeight in 4431, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4431)
        0.08565781 = weight(_text_:anwendung in 4431) [ClassicSimilarity], result of:
          0.08565781 = score(doc=4431,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.37443897 = fieldWeight in 4431, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4431)
        0.028025504 = weight(_text_:des in 4431) [ClassicSimilarity], result of:
          0.028025504 = score(doc=4431,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2141777 = fieldWeight in 4431, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4431)
        0.11969343 = weight(_text_:prinzips in 4431) [ClassicSimilarity], result of:
          0.11969343 = score(doc=4431,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.44262168 = fieldWeight in 4431, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4431)
        0.10323257 = product of:
          0.20646514 = sum of:
            0.20646514 = weight(_text_:thesaurus in 4431) [ClassicSimilarity], result of:
              0.20646514 = score(doc=4431,freq=14.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.9455738 = fieldWeight in 4431, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4431)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    This paper describes the Laurin thesaurus, which is used for indexing and searching in the Laurin system, a software package for digital clipping archives. As a multilingual thesaurus it complies with the corresponding standards, though presenting some approaches going beyond some of the standards' recommendations. The Laurin thesaurus integrates all kind of indexing terms, not only keywords, but proper names as well. The system of categories and relationships is described in detail.
    Object
    Laurin-Thesaurus
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  4. Keränen, S.: Equivalence and focus of translation in multicultural thesaurus construction (2006) 0.27
    0.2744704 = product of:
      0.32936448 = sum of:
        0.017951237 = weight(_text_:und in 237) [ClassicSimilarity], result of:
          0.017951237 = score(doc=237,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.17141339 = fieldWeight in 237, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=237)
        0.08565781 = weight(_text_:anwendung in 237) [ClassicSimilarity], result of:
          0.08565781 = score(doc=237,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.37443897 = fieldWeight in 237, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=237)
        0.028025504 = weight(_text_:des in 237) [ClassicSimilarity], result of:
          0.028025504 = score(doc=237,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2141777 = fieldWeight in 237, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=237)
        0.11969343 = weight(_text_:prinzips in 237) [ClassicSimilarity], result of:
          0.11969343 = score(doc=237,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.44262168 = fieldWeight in 237, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0546875 = fieldNorm(doc=237)
        0.07803649 = product of:
          0.15607297 = sum of:
            0.15607297 = weight(_text_:thesaurus in 237) [ClassicSimilarity], result of:
              0.15607297 = score(doc=237,freq=8.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.7147866 = fieldWeight in 237, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=237)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    This paper reports a part of an on-going PhD study on problems related to multicultural social science thesaurus construction in the general frame of information science. The main analysis methods used are discourse analysis and co-word analysis. In theoretical framework the emphasis is on communicative equivalence theories and different aims of thesaurus translation are discussed. Some examples are given how co-word analysis can be used to study contextual equivalence.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  5. Riesthuis, G.J.A.: Multilingual subject access and the Guidelines for the establishment and development of multilingual thesauri : an experimental study (2000) 0.24
    0.23526035 = product of:
      0.28231242 = sum of:
        0.015386774 = weight(_text_:und in 131) [ClassicSimilarity], result of:
          0.015386774 = score(doc=131,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.14692576 = fieldWeight in 131, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=131)
        0.07342099 = weight(_text_:anwendung in 131) [ClassicSimilarity], result of:
          0.07342099 = score(doc=131,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 131, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=131)
        0.02402186 = weight(_text_:des in 131) [ClassicSimilarity], result of:
          0.02402186 = score(doc=131,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 131, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=131)
        0.10259437 = weight(_text_:prinzips in 131) [ClassicSimilarity], result of:
          0.10259437 = score(doc=131,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.37939 = fieldWeight in 131, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.046875 = fieldNorm(doc=131)
        0.06688842 = product of:
          0.13377684 = sum of:
            0.13377684 = weight(_text_:thesaurus in 131) [ClassicSimilarity], result of:
              0.13377684 = score(doc=131,freq=8.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.61267424 = fieldWeight in 131, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.046875 = fieldNorm(doc=131)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    In this paper, after an introduction about problems of multilingual information languages, the rules and recommendations of the Guidelines for the establishment and development of multilingual thesauri for non-equivalence and partial equivalence of terms in different languages are discussed. Artificial terms are not very useful in searching, because most users are not willing to use a thesaurus to find the right descriptor. On the other hand indexers need guidance on how to index and therefore need a thesaurus with all desirable and necessary relations. It is suggested that bibliographic online systems can take over some of the functions for the searcher from the thesaurus and that a few new relations could be helpful to an indexer
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  6. Hudon, M.: Relationships in multilingual thesauri (2001) 0.23
    0.22779256 = product of:
      0.27335107 = sum of:
        0.015386774 = weight(_text_:und in 1147) [ClassicSimilarity], result of:
          0.015386774 = score(doc=1147,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.14692576 = fieldWeight in 1147, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1147)
        0.07342099 = weight(_text_:anwendung in 1147) [ClassicSimilarity], result of:
          0.07342099 = score(doc=1147,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 1147, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=1147)
        0.02402186 = weight(_text_:des in 1147) [ClassicSimilarity], result of:
          0.02402186 = score(doc=1147,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 1147, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1147)
        0.10259437 = weight(_text_:prinzips in 1147) [ClassicSimilarity], result of:
          0.10259437 = score(doc=1147,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.37939 = fieldWeight in 1147, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.046875 = fieldNorm(doc=1147)
        0.057927076 = product of:
          0.11585415 = sum of:
            0.11585415 = weight(_text_:thesaurus in 1147) [ClassicSimilarity], result of:
              0.11585415 = score(doc=1147,freq=6.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.5305915 = fieldWeight in 1147, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1147)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Because the multilingual thesaurus has a critical role to play in the global networked information world, its relational structure must come under close scrutiny. Traditionally, identity of relational structures has been sought for the different language versions of a multilingual thesaurus, often leading to the artificialization of all target languages. The various types of cross-lingual and intralingual relations found in thesauri are examined in the context of two questions: Are all types of thesaural relations transferable from one language to another? and Are the two members of a valid relation in a source language always the same in the target language(s)? Two options for resolving semantic conflicts in multilingual thesauri are presented.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  7. Jorna, K.; Davies, S.: Multilingual thesauri for the modern world : no ideal solution? (2001) 0.23
    0.22779256 = product of:
      0.27335107 = sum of:
        0.015386774 = weight(_text_:und in 4486) [ClassicSimilarity], result of:
          0.015386774 = score(doc=4486,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.14692576 = fieldWeight in 4486, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4486)
        0.07342099 = weight(_text_:anwendung in 4486) [ClassicSimilarity], result of:
          0.07342099 = score(doc=4486,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 4486, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=4486)
        0.02402186 = weight(_text_:des in 4486) [ClassicSimilarity], result of:
          0.02402186 = score(doc=4486,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 4486, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4486)
        0.10259437 = weight(_text_:prinzips in 4486) [ClassicSimilarity], result of:
          0.10259437 = score(doc=4486,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.37939 = fieldWeight in 4486, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.046875 = fieldNorm(doc=4486)
        0.057927076 = product of:
          0.11585415 = sum of:
            0.11585415 = weight(_text_:thesaurus in 4486) [ClassicSimilarity], result of:
              0.11585415 = score(doc=4486,freq=6.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.5305915 = fieldWeight in 4486, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4486)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    In the 21st century, multilingual tools are gaining importance as increasingly diverse user groups from different cultural and linguistic backgrounds seek access to equally diverse pieces of information. The authors of this paper believe that most current forms of multilingual information access are inadequate for this role, and that a new form of multilingual thesaurus is required. The core of this paper introduces their pilot thesaurus InfoDEFT as a possible model for new online thesauri, which are semantically structured, encyclopedic and multilingual. The authors conclude that while the manual construction of such thesauri is labour intensive and hence costly, pilot thesauri can be used as training sets for artificial learning programmes, thus increasing their volume considerably at relatively little extra cost.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  8. Landry, P.: Multilingual subject access : the linking approach of MACS (2004) 0.23
    0.22779256 = product of:
      0.27335107 = sum of:
        0.015386774 = weight(_text_:und in 5009) [ClassicSimilarity], result of:
          0.015386774 = score(doc=5009,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.14692576 = fieldWeight in 5009, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5009)
        0.07342099 = weight(_text_:anwendung in 5009) [ClassicSimilarity], result of:
          0.07342099 = score(doc=5009,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 5009, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=5009)
        0.02402186 = weight(_text_:des in 5009) [ClassicSimilarity], result of:
          0.02402186 = score(doc=5009,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 5009, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5009)
        0.10259437 = weight(_text_:prinzips in 5009) [ClassicSimilarity], result of:
          0.10259437 = score(doc=5009,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.37939 = fieldWeight in 5009, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.046875 = fieldNorm(doc=5009)
        0.057927076 = product of:
          0.11585415 = sum of:
            0.11585415 = weight(_text_:thesaurus in 5009) [ClassicSimilarity], result of:
              0.11585415 = score(doc=5009,freq=6.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.5305915 = fieldWeight in 5009, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5009)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    The MACS (Multilingual access to subjects) project is one of the many projects that are currently exploring solutions to multilingual subject access to online catalogs. Its strategy is to develop a Web based link and search interface through which equivalents between three Subject Heading Languages: SWD/RSWK (Schlagwortnormdatei/Regeln für den Schlagwortkatalog) for German, RAMEAU (Repertoire d'Autorite-Matière Encyclopedique et Alphabetique Unifie) for French and LCSH (Library of Congress Subject Headings) for English can be created and maintained, and by which users can access online databases in the language of their choice. Factors that have lead to this approach will be examined and the MACS linking strategy will be explained. The trend to using mapping or linking strategies between different controlled vocabularies to create multilingual access challenges the traditional view of the multilingual thesaurus.
    Footnote
    Auch in: The thesaurus: review, renaissance and revision. Ed. by S.K. Roe u. A.R. Thomas. Binghamton: Haworth 2004.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  9. Li, K.W.; Yang, C.C.: Automatic crosslingual thesaurus generated from the Hong Kong SAR Police Department Web Corpus for Crime Analysis (2005) 0.16
    0.16122639 = product of:
      0.19347167 = sum of:
        0.01025785 = weight(_text_:und in 3391) [ClassicSimilarity], result of:
          0.01025785 = score(doc=3391,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.09795051 = fieldWeight in 3391, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3391)
        0.048947323 = weight(_text_:anwendung in 3391) [ClassicSimilarity], result of:
          0.048947323 = score(doc=3391,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.21396513 = fieldWeight in 3391, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.03125 = fieldNorm(doc=3391)
        0.016014574 = weight(_text_:des in 3391) [ClassicSimilarity], result of:
          0.016014574 = score(doc=3391,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.12238726 = fieldWeight in 3391, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=3391)
        0.06839625 = weight(_text_:prinzips in 3391) [ClassicSimilarity], result of:
          0.06839625 = score(doc=3391,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.25292668 = fieldWeight in 3391, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.03125 = fieldNorm(doc=3391)
        0.049855687 = product of:
          0.09971137 = sum of:
            0.09971137 = weight(_text_:thesaurus in 3391) [ClassicSimilarity], result of:
              0.09971137 = score(doc=3391,freq=10.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.45666042 = fieldWeight in 3391, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3391)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    For the sake of national security, very large volumes of data and information are generated and gathered daily. Much of this data and information is written in different languages, stored in different locations, and may be seemingly unconnected. Crosslingual semantic interoperability is a major challenge to generate an overview of this disparate data and information so that it can be analyzed, shared, searched, and summarized. The recent terrorist attacks and the tragic events of September 11, 2001 have prompted increased attention an national security and criminal analysis. Many Asian countries and cities, such as Japan, Taiwan, and Singapore, have been advised that they may become the next targets of terrorist attacks. Semantic interoperability has been a focus in digital library research. Traditional information retrieval (IR) approaches normally require a document to share some common keywords with the query. Generating the associations for the related terms between the two term spaces of users and documents is an important issue. The problem can be viewed as the creation of a thesaurus. Apart from this, terrorists and criminals may communicate through letters, e-mails, and faxes in languages other than English. The translation ambiguity significantly exacerbates the retrieval problem. The problem is expanded to crosslingual semantic interoperability. In this paper, we focus an the English/Chinese crosslingual semantic interoperability problem. However, the developed techniques are not limited to English and Chinese languages but can be applied to many other languages. English and Chinese are popular languages in the Asian region. Much information about national security or crime is communicated in these languages. An efficient automatically generated thesaurus between these languages is important to crosslingual information retrieval between English and Chinese languages. To facilitate crosslingual information retrieval, a corpus-based approach uses the term co-occurrence statistics in parallel or comparable corpora to construct a statistical translation model to cross the language boundary. In this paper, the text based approach to align English/Chinese Hong Kong Police press release documents from the Web is first presented. We also introduce an algorithmic approach to generate a robust knowledge base based an statistical correlation analysis of the semantics (knowledge) embedded in the bilingual press release corpus. The research output consisted of a thesaurus-like, semantic network knowledge base, which can aid in semanticsbased crosslingual information management and retrieval.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  10. Schruff, R.; Dickhaus, C.: ¬Der multilinguale Thesaurus Ethik in den Biowissenschaften (2004) 0.08
    0.0835441 = product of:
      0.1670882 = sum of:
        0.0458745 = weight(_text_:und in 3045) [ClassicSimilarity], result of:
          0.0458745 = score(doc=3045,freq=10.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.438048 = fieldWeight in 3045, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3045)
        0.03202915 = weight(_text_:des in 3045) [ClassicSimilarity], result of:
          0.03202915 = score(doc=3045,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.24477452 = fieldWeight in 3045, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=3045)
        0.08918455 = product of:
          0.1783691 = sum of:
            0.1783691 = weight(_text_:thesaurus in 3045) [ClassicSimilarity], result of:
              0.1783691 = score(doc=3045,freq=8.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.81689894 = fieldWeight in 3045, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3045)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Das Deutsche Referenzzentrum für Ethik in den Biowissenschaften (DRZE) in Bonn veröffentlicht zusammen mit nationalen und internationalen Partnern den neuen, mehrsprachigen Thesaurus Ethik in den Biowissenschaften. Das Werkzeug zur Recherche und Verschlagwortung liegt derzeit in deutscher und englischer Sprache vor. Eine französische Version folgt 2005. Insbesondere die Online-Version des Thesaurus bietet komfortable Navigations- und Suchmöglichkeiten.
    Object
    Bioethik-Thesaurus
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.7, S.411-413
  11. Sandner, M.: Neues aus der Kommission für Sacherschliessung (2005) 0.05
    0.054989114 = product of:
      0.10997823 = sum of:
        0.03912381 = weight(_text_:und in 2183) [ClassicSimilarity], result of:
          0.03912381 = score(doc=2183,freq=38.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3735868 = fieldWeight in 2183, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2183)
        0.042828906 = weight(_text_:anwendung in 2183) [ClassicSimilarity], result of:
          0.042828906 = score(doc=2183,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.18721949 = fieldWeight in 2183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2183)
        0.028025504 = weight(_text_:des in 2183) [ClassicSimilarity], result of:
          0.028025504 = score(doc=2183,freq=8.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2141777 = fieldWeight in 2183, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2183)
      0.5 = coord(3/6)
    
    Content
    "Unsere Sitzung fand diesmal am 13. 9. 2005 in Bozen im Rahmen der ODOK statt. Es waren daher auch viele interessierte Südtiroler und italienische Sacherschließungskollegen/-innen zu Gast. Eine der beiden Konferenzsprachen war Englisch, und so konnten wir Mehrsprachigkeit, das Thema unserer Sitzung und der beiden Gastvorträge, gleich selbst praktizieren. Patrice LANDRY, der Leiter der Sacherschließung an derSLB in Bern, der seit kurzem den Vorsitz der IFLA-Sektion "Classification and Indexing" und der Arbeitsgruppe "Guidelines for subject access for national bibliographic agencies" übernommen hatte, referierte über den jüngsten Stand des Projekts MACS (Multilingual Access to Subjects) und ließ uns am Nachmittag in seinem Workshop hinter die Kulissen der bereits mit echten Titeldaten operierenden Suchoberfläche blicken. Er zeigte die verschiedenen Recherche- und Editier-Funktionen im Management Linking System und brachte Beispiele für die kooperative Bearbeitung an einigen Datensätzen der bisher bereits miteinander verzahnten Normdateien SWD, LCSH und RAMEAU. Schließlich eröffnete er Ausblicke auf die künftige Einbindung weiterer Sprachen, etwa des Italienischen durch den Soggetario und auf die Anreicherung der Daten, etwa mit DDC-Notationen durch die Nähe zum DDB-Projekt "CrissCross". Federica PARADISI, die in der Sacherschließungsabteilung der BNC in Florenz sowohl für die italienische Übersetzung der DDC und deren Anwendung in ganz Italien als auch für die Überarbeitung des seit 1956 existierenden italienischen Wortschatzes für die verbale Erschließung und für dessen Aufbereitung zu einer modernen, bald auch elektronischen Normdatei zuständig ist und an der Erstellung der italienischen Nationalbibliografie mitwirkt, hat zuletzt gemeinsam mit Anna Lucarelli den Prototyp des "Nuovo Soggetario" erarbeitet und stellte dieses umfangreiche Projekt vor. Der von ihr skizzierte Zeitplan gibt Anlass zur Hoffnung, dass MACS für die Auffindung beschlagworteter Literatur in Bibliothekskatalogen schon in einem Jahr um einen sprachlichen Zugang reicher sein könnte. Beide Gastreferenten/-innen standen dem Auditorium im Anschluss an die Präsentationen für Fragen zur Verfügung, und die neuen fachlichen Kontakte vertieften sich in den Pausengesprächen noch mehr. Vor der Führung durch die Dewey-Ausstellung im Lichthof der UB Bozen demonstrierte Margit SANDNER zum Abschluss dieses multilingualen Sacherschließungsnachmittags mit einigen Beispielen in deutscherSprache die Suchfunktionen in den beiden Webversionen von DDC Deutsch MelvilSearch (für OPACs) und MelvilClass (für das Klassifizieren) und kündigte an, dass ab Oktober bis Jahresende kostenlose Testaccounts vergeben werden. Wer daran interessiert ist, diese deutschsprachigen Webtools bereits auszuprobieren, wendet sich am besten direkt an Herrn Dr. Lars Svensson in Der Deutschen Bibliothek in Frankfurt: svensson@dbf.ddb.de. Die ab Jänner 2006 gültigen Lizenzbedingungen für "Melvil" entnehmen Sie bitte: http//www.ddc-deutsch.de/licence-melvil.html Noch zwei aktuelle Hinweise: - Informationstag der Arbeitsstelle für Standardisierung (DDB) über aktuelle Tendenzen in Sachen Regelwerke f. Formal- und Sacherschließung, Formate, Normdateien und Datentausch am 15. November in Wien. - Aufsatz über die Zukunft der SWD von Esther Scheven (BD 2005, H. 6, S. 748-773), in dem u. a. auch auf unsere seinerzeitige KofSE-Studie: Schlagwort "Benutzerforschung" ... (VÖB-Mitt. 1997, H. 3-4, S. 28-49) rekurriert wird."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.3, S.83-84
  12. Effektive Information Retrieval Verfahren in Theorie und Praxis : ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005 (2006) 0.05
    0.050879825 = product of:
      0.10175965 = sum of:
        0.039728485 = weight(_text_:und in 5973) [ClassicSimilarity], result of:
          0.039728485 = score(doc=5973,freq=120.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3793607 = fieldWeight in 5973, product of:
              10.954452 = tf(freq=120.0), with freq of:
                120.0 = termFreq=120.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
        0.024473662 = weight(_text_:anwendung in 5973) [ClassicSimilarity], result of:
          0.024473662 = score(doc=5973,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.10698257 = fieldWeight in 5973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
        0.037557505 = weight(_text_:des in 5973) [ClassicSimilarity], result of:
          0.037557505 = score(doc=5973,freq=44.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.28702357 = fieldWeight in 5973, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
      0.5 = coord(3/6)
    
    Abstract
    Information Retrieval hat sich zu einer Schlüsseltechnologie in der Wissensgesellschaft entwickelt. Die Anzahl der täglichen Anfragen an Internet-Suchmaschinen bildet nur einen Indikator für die große Bedeutung dieses Themas. Der Sammelbandband informiert über Themen wie Information Retrieval-Grundlagen, Retrieval Systeme, Digitale Bibliotheken, Evaluierung und Multilinguale Systeme, beschreibt Anwendungsszenarien und setzt sich mit neuen Herausforderungen an das Information Retrieval auseinander. Die Beiträge behandeln aktuelle Themen und neue Herausforderungen an das Information Retrieval. Die intensive Beteiligung der Informationswissenschaft der Universität Hildesheim am Cross Language Evaluation Forum (CLEF), einer europäischen Evaluierungsinitiative zur Erforschung mehrsprachiger Retrieval Systeme, berührt mehrere der Beiträge. Ebenso spielen Anwendungsszenarien und die Auseinandersetzung mit aktuellen und praktischen Fragestellungen eine große Rolle.
    Content
    Inhalt: Jan-Hendrik Scheufen: RECOIN: Modell offener Schnittstellen für Information-Retrieval-Systeme und -Komponenten Markus Nick, Klaus-Dieter Althoff: Designing Maintainable Experience-based Information Systems Gesine Quint, Steffen Weichert: Die benutzerzentrierte Entwicklung des Produkt- Retrieval-Systems EIKON der Blaupunkt GmbH Claus-Peter Klas, Sascha Kriewel, André Schaefer, Gudrun Fischer: Das DAFFODIL System - Strategische Literaturrecherche in Digitalen Bibliotheken Matthias Meiert: Entwicklung eines Modells zur Integration digitaler Dokumente in die Universitätsbibliothek Hildesheim Daniel Harbig, René Schneider: Ontology Learning im Rahmen von MyShelf Michael Kluck, Marco Winter: Topic-Entwicklung und Relevanzbewertung bei GIRT: ein Werkstattbericht Thomas Mandl: Neue Entwicklungen bei den Evaluierungsinitiativen im Information Retrieval Joachim Pfister: Clustering von Patent-Dokumenten am Beispiel der Datenbanken des Fachinformationszentrums Karlsruhe Ralph Kölle, Glenn Langemeier, Wolfgang Semar: Programmieren lernen in kollaborativen Lernumgebungen Olga Tartakovski, Margaryta Shramko: Implementierung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten Nina Kummer: Indexierungstechniken für das japanische Retrieval Suriya Na Nhongkai, Hans-Joachim Bentz: Bilinguale Suche mittels Konzeptnetzen Robert Strötgen, Thomas Mandl, René Schneider: Entwicklung und Evaluierung eines Question Answering Systems im Rahmen des Cross Language Evaluation Forum (CLEF) Niels Jensen: Evaluierung von mehrsprachigem Web-Retrieval: Experimente mit dem EuroGOV-Korpus im Rahmen des Cross Language Evaluation Forum (CLEF)
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 57(2006) H.5, S.290-291 (C. Schindler): "Weniger als ein Jahr nach dem "Vierten Hildesheimer Evaluierungs- und Retrievalworkshop" (HIER 2005) im Juli 2005 ist der dazugehörige Tagungsband erschienen. Eingeladen hatte die Hildesheimer Informationswissenschaft um ihre Forschungsergebnisse und die einiger externer Experten zum Thema Information Retrieval einem Fachpublikum zu präsentieren und zur Diskussion zu stellen. Unter dem Titel "Effektive Information Retrieval Verfahren in Theorie und Praxis" sind nahezu sämtliche Beiträge des Workshops in dem nun erschienenen, 15 Beiträge umfassenden Band gesammelt. Mit dem Schwerpunkt Information Retrieval (IR) wird ein Teilgebiet der Informationswissenschaft vorgestellt, das schon immer im Zentrum informationswissenschaftlicher Forschung steht. Ob durch den Leistungsanstieg von Prozessoren und Speichermedien, durch die Verbreitung des Internet über nationale Grenzen hinweg oder durch den stetigen Anstieg der Wissensproduktion, festzuhalten ist, dass in einer zunehmend wechselseitig vernetzten Welt die Orientierung und das Auffinden von Dokumenten in großen Wissensbeständen zu einer zentralen Herausforderung geworden sind. Aktuelle Verfahrensweisen zu diesem Thema, dem Information Retrieval, präsentiert der neue Band anhand von praxisbezogenen Projekten und theoretischen Diskussionen. Das Kernthema Information Retrieval wird in dem Sammelband in die Bereiche Retrieval-Systeme, Digitale Bibliothek, Evaluierung und Multilinguale Systeme untergliedert. Die Artikel der einzelnen Sektionen sind insgesamt recht heterogen und bieten daher keine Überschneidungen inhaltlicher Art. Jedoch ist eine vollkommene thematische Abdeckung der unterschiedlichen Bereiche ebenfalls nicht gegeben, was bei der Präsentation von Forschungsergebnissen eines Institutes und seiner Kooperationspartner auch nur bedingt erwartet werden kann. So lässt sich sowohl in der Gliederung als auch in den einzelnen Beiträgen eine thematische Verdichtung erkennen, die das spezielle Profil und die Besonderheit der Hildesheimer Informationswissenschaft im Feld des Information Retrieval wiedergibt. Teil davon ist die mehrsprachige und interdisziplinäre Ausrichtung, die die Schnittstellen zwischen Informationswissenschaft, Sprachwissenschaft und Informatik in ihrer praxisbezogenen und internationalen Forschung fokussiert.
    Im ersten Kapitel "Retrieval-Systeme" werden verschiedene Information RetrievalSysteme präsentiert und Verfahren zu deren Gestaltung diskutiert. Jan-Hendrik Scheufen stellt das Meta-Framework RECOIN zur Information Retrieval Forschung vor, das sich durch eine flexible Handhabung unterschiedlichster Applikationen auszeichnet und dadurch eine zentrierte Protokollierung und Steuerung von Retrieval-Prozessen ermöglicht. Dieses Konzept eines offenen, komponentenbasierten Systems wurde in Form eines Plug-Ins für die javabasierte Open-Source-Plattform Eclipse realisiert. Markus Nick und Klaus-Dieter Althoff erläutern in ihrem Beitrag, der übrigens der einzige englischsprachige Text im Buch ist, das Verfahren DILLEBIS zur Erhaltung und Pflege (Maintenance) von erfahrungsbasierten Informationssystemen. Sie bezeichnen dieses Verfahren als Maintainable Experience-based Information System und plädieren für eine Ausrichtung von erfahrungsbasierten Systemen entsprechend diesem Modell. Gesine Quint und Steffen Weichert stellen dagegen in ihrem Beitrag die benutzerzentrierte Entwicklung des Produkt-Retrieval-Systems EIKON vor, das in Kooperation mit der Blaupunkt GmbH realisiert wurde. In einem iterativen Designzyklus erfolgte die Gestaltung von gruppenspezifischen Interaktionsmöglichkeiten für ein Car-Multimedia-Zubehör-System. Im zweiten Kapitel setzen sich mehrere Autoren dezidierter mit dem Anwendungsgebiet "Digitale Bibliothek" auseinander. Claus-Peter Klas, Sascha Kriewel, Andre Schaefer und Gudrun Fischer von der Universität Duisburg-Essen stellen das System DAFFODIL vor, das durch eine Vielzahl an Werkzeugen zur strategischen Unterstützung bei Literaturrecherchen in digitalen Bibliotheken dient. Zusätzlich ermöglicht die Protokollierung sämtlicher Ereignisse den Einsatz des Systems als Evaluationsplattform. Der Aufsatz von Matthias Meiert erläutert die Implementierung von elektronischen Publikationsprozessen an Hochschulen am Beispiel von Abschlussarbeiten des Studienganges Internationales Informationsmanagement der Universität Hildesheim. Neben Rahmenbedingungen werden sowohl der Ist-Zustand als auch der Soll-Zustand des wissenschaftlichen elektronischen Publizierens in Form von gruppenspezifischen Empfehlungen dargestellt. Daniel Harbig und Rene Schneider beschreiben in ihrem Aufsatz zwei Verfahrensweisen zum maschinellen Erlernen von Ontologien, angewandt am virtuellen Bibliotheksregal MyShelf. Nach der Evaluation dieser beiden Ansätze plädieren die Autoren für ein semi-automatisiertes Verfahren zur Erstellung von Ontologien.
    "Evaluierung", das Thema des dritten Kapitels, ist in seiner Breite nicht auf das Information Retrieval beschränkt sondern beinhaltet ebenso einzelne Aspekte der Bereiche Mensch-Maschine-Interaktion sowie des E-Learning. Michael Muck und Marco Winter von der Stiftung Wissenschaft und Politik sowie dem Informationszentrum Sozialwissenschaften thematisieren in ihrem Beitrag den Einfluss der Fragestellung (Topic) auf die Bewertung von Relevanz und zeigen Verfahrensweisen für die Topic-Erstellung auf, die beim Cross Language Evaluation Forum (CLEF) Anwendung finden. Im darauf folgenden Aufsatz stellt Thomas Mandl verschiedene Evaluierungsinitiativen im Information Retrieval und aktuelle Entwicklungen dar. Joachim Pfister erläutert in seinem Beitrag das automatisierte Gruppieren, das sogenannte Clustering, von Patent-Dokumenten in den Datenbanken des Fachinformationszentrums Karlsruhe und evaluiert unterschiedliche Clusterverfahren auf Basis von Nutzerbewertungen. Ralph Kölle, Glenn Langemeier und Wolfgang Semar widmen sich dem kollaborativen Lernen unter den speziellen Bedingungen des Programmierens. Dabei werden das System VitaminL zur synchronen Bearbeitung von Programmieraufgaben und das Kennzahlensystem K-3 für die Bewertung kollaborativer Zusammenarbeit in einer Lehrveranstaltung angewendet. Der aktuelle Forschungsschwerpunkt der Hildesheimer Informationswissenschaft zeichnet sich im vierten Kapitel unter dem Thema "Multilinguale Systeme" ab. Hier finden sich die meisten Beiträge des Tagungsbandes wieder. Olga Tartakovski und Margaryta Shramko beschreiben und prüfen das System Langldent, das die Sprache von mono- und multilingualen Texten identifiziert. Die Eigenheiten der japanischen Schriftzeichen stellt Nina Kummer dar und vergleicht experimentell die unterschiedlichen Techniken der Indexierung. Suriya Na Nhongkai und Hans-Joachim Bentz präsentieren und prüfen eine bilinguale Suche auf Basis von Konzeptnetzen, wobei die Konzeptstruktur das verbindende Elemente der beiden Textsammlungen darstellt. Das Entwickeln und Evaluieren eines mehrsprachigen Question-Answering-Systems im Rahmen des Cross Language Evaluation Forum (CLEF), das die alltagssprachliche Formulierung von konkreten Fragestellungen ermöglicht, wird im Beitrag von Robert Strötgen, Thomas Mandl und Rene Schneider thematisiert. Den Schluss bildet der Aufsatz von Niels Jensen, der ein mehrsprachiges Web-Retrieval-System ebenfalls im Zusammenhang mit dem CLEF anhand des multilingualen EuroGOVKorpus evaluiert.
    Abschließend lässt sich sagen, dass der Tagungsband einen gelungenen Überblick über die Information Retrieval Projekte der Hildesheimer Informationswissenschaft und ihrer Kooperationspartner gibt. Die einzelnen Beiträge sind sehr anregend und auf einem hohen Niveau angesiedelt. Ein kleines Hindernis für den Leser stellt die inhaltliche und strukturelle Orientierung innerhalb des Bandes dar. Der Bezug der einzelnen Artikel zum Thema des Kapitels wird zwar im Vorwort kurz erläutert. Erschwert wird die Orientierung im Buch jedoch durch fehlende Kapitelüberschriften am Anfang der einzelnen Sektionen. Außerdem ist zu erwähnen, dass einer der Artikel einen anderen Titel als im Inhaltsverzeichnis angekündigt trägt. Sieht der Leser von diesen formalen Mängeln ab, wird er reichlich mit praxisbezogenen und theoretisch fundierten Projektdarstellungen und Forschungsergebnissen belohnt. Dies insbesondere, da nicht nur aktuelle Themen der Informationswissenschaft aufgegriffen, sondern ebenso weiterentwickelt und durch die speziellen interdisziplinären und internationalen Bedingungen in Hildesheim geformt werden. Dabei zeigt sich anhand der verschiedenen Projekte, wie gut die Hildesheimer Informationswissenschaft in die Community überregionaler Informationseinrichtungen und anderer deutscher informationswissenschaftlicher Forschungsgruppen eingebunden ist. Damit hat der Workshop bei einer weiteren Öffnung der Expertengruppe das Potential zu einer eigenständigen Institution im Bereich des Information Retrieval zu werden. In diesem Sinne lässt sich auf weitere fruchtbare Workshops und deren Veröffentlichungen hoffen. Ein nächster Workshop der Universität Hildesheim zum Thema Information Retrieval, organisiert mit der Fachgruppe Information Retrieval der Gesellschaft für Informatik, kündigt sich bereits für den 9. bis 13- Oktober 2006 an."
  13. Schlenkrich, C.: Aspekte neuer Regelwerksarbeit : Multimediales Datenmodell für ARD und ZDF (2003) 0.05
    0.04943315 = product of:
      0.0988663 = sum of:
        0.050252996 = weight(_text_:und in 1515) [ClassicSimilarity], result of:
          0.050252996 = score(doc=1515,freq=48.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.47985753 = fieldWeight in 1515, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.035809677 = weight(_text_:des in 1515) [ClassicSimilarity], result of:
          0.035809677 = score(doc=1515,freq=10.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.27366623 = fieldWeight in 1515, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.012803626 = product of:
          0.025607252 = sum of:
            0.025607252 = weight(_text_:22 in 1515) [ClassicSimilarity], result of:
              0.025607252 = score(doc=1515,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.15476047 = fieldWeight in 1515, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1515)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Wir sind mitten in der Arbeit, deshalb kann ich Ihnen nur Arbeitsstände weitergeben. Es ist im Fluss, und wir bemühen uns in der Tat, die "alten Regelwerke" fit zu machen und sie für den Multimediabereich aufzuarbeiten. Ganz kurz zur Arbeitsgruppe: Sie entstammt der AG Orgatec, der Schall- und Hörfunkarchivleiter- und der Fernseharchivleiterkonferenz zur Erstellung eines verbindlichen multimedialen Regelwerks. Durch die Digitalisierung haben sich die Aufgaben in den Archivbereichen eindeutig geändert. Wir versuchen, diese Prozesse abzufangen, und zwar vom Produktionsprozess bis hin zur Archivierung neu zu regeln und neu zu definieren. Wir haben mit unserer Arbeit begonnen im April letzten Jahres, sind also jetzt nahezu exakt ein Jahr zugange, und ich werde Ihnen im Laufe des kurzen Vortrages berichten können, wie wir unsere Arbeit gestaltet haben. Etwas zu den Mitgliedern der Arbeitsgruppe - ich denke, es ist ganz interessant, einfach mal zu sehen, aus welchen Bereichen und Spektren unsere Arbeitsgruppe sich zusammensetzt. Wir haben also Vertreter des Bayrischen Rundfunks, des Norddeutschen -, des Westdeutschen Rundfunks, des Mitteldeutschen von Ost nach West, von Süd nach Nord und aus den verschiedensten Arbeitsbereichen von Audio über Video bis hin zu Online- und Printbereichen. Es ist eine sehr bunt gemischte Truppe, aber auch eine hochspannenden Diskussion exakt eben aufgrund der Vielfalt, die wir abbilden wollen und abbilden müssen. Die Ziele: Wir wollen verbindlich ein multimediales Datenmodell entwickeln und verabschieden, was insbesondere den digitalen Produktionscenter und Archiv-Workflow von ARD und - da haben wir uns besonders gefreut - auch in guter alter Tradition in gemeinsamer Zusammenarbeit mit dem ZDF bildet. Wir wollen Erfassungs- und Erschließungsregeln definieren. Wir wollen Mittlerdaten generieren und bereitstellen, um den Produktions-Workflow abzubilden und zu gewährleisten, und das Datenmodell, das wir uns sozusagen als Zielstellung definiert haben, soll für den Programmaustausch Grundlagen schaffen, damit von System zu System intern und extern kommuniziert werden kann. Nun könnte man meinen, dass ein neues multimediales Datenmodell aus einem Mix der alten Regelwerke Fernsehen, Wort und Musik recht einfach zusammenzuführen sei. Man stellt einfach die Datenlisten der einzelnen Regelwerke synoptisch gegenüber, klärt Gemeinsames und Spezifisches ab, ergänzt Fehlendes, eliminiert eventuell nicht Benötigtes und stellt es einfach neu zusammen, fertig ist das neue Regelwerk. Leider ist es nicht ganz so einfach, denn es gibt dabei doch eine ganze Reihe von Aspekten zu berücksichtigen, die eine vorgelagerte Abstraktionsebene auch zwingend erforderlich machen.
    Date
    22. 4.2003 12:05:56
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  14. Scheufen, J.-H.: RECOIN: Modell offener Schnittstellen für Information-Retrieval-Systeme und -Komponenten (2006) 0.03
    0.034131773 = product of:
      0.10239531 = sum of:
        0.05385371 = weight(_text_:und in 4901) [ClassicSimilarity], result of:
          0.05385371 = score(doc=4901,freq=18.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.51424015 = fieldWeight in 4901, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4901)
        0.0485416 = weight(_text_:des in 4901) [ClassicSimilarity], result of:
          0.0485416 = score(doc=4901,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.3709667 = fieldWeight in 4901, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4901)
      0.33333334 = coord(2/6)
    
    Abstract
    Erfahrungen im Cross Language Evaluation Forum (CLEF) und die Beschäftigung mit Fragestellungen zum MIMOR-Modell haben den Bedarf für ein Framework zur Integration heterogener Retrieval-Komponenten aufgezeigt, mit dein sich einzelne Schritte des Retrieval-Prozesses individuell konfigurieren, untersuchen und optimieren lassen. RECOIN stellt ein Meta-Framework zur Verfügung, das den Programmieraufwand für die Integration neuer oder bereits existierender Retrieval-Bausteine minimiert und außerdem die Steuerung und Protokollierung verwendeter Objekte, Methoden und Parameter des Retrieval-Prozesses ermöglicht.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  15. Jensen, N.: Evaluierung von mehrsprachigem Web-Retrieval : Experimente mit dem EuroGOV-Korpus im Rahmen des Cross Language Evaluation Forum (CLEF) (2006) 0.03
    0.030468088 = product of:
      0.09140426 = sum of:
        0.037689745 = weight(_text_:und in 5964) [ClassicSimilarity], result of:
          0.037689745 = score(doc=5964,freq=12.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.35989314 = fieldWeight in 5964, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
        0.05371451 = weight(_text_:des in 5964) [ClassicSimilarity], result of:
          0.05371451 = score(doc=5964,freq=10.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.41049933 = fieldWeight in 5964, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
      0.33333334 = coord(2/6)
    
    Abstract
    Der vorliegende Artikel beschreibt die Experimente der Universität Hildesheim im Rahmen des ersten Web Track der CLEF-Initiative (WebCLEF) im Jahr 2005. Bei der Teilnahme konnten Erfahrungen mit einem multilingualen Web-Korpus (EuroGOV) bei der Vorverarbeitung, der Topic- bzw. Query-Entwicklung, bei sprachunabhängigen Indexierungsmethoden und multilingualen Retrieval-Strategien gesammelt werden. Aufgrund des großen Um-fangs des Korpus und der zeitlichen Einschränkungen wurden multilinguale Indizes aufgebaut. Der Artikel beschreibt die Vorgehensweise bei der Teilnahme der Universität Hildesheim und die Ergebnisse der offiziell eingereichten sowie weiterer Experimente. Für den Multilingual Task konnte das beste Ergebnis in CLEF erzielt werden.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  16. Dini, L.: CACAO : multilingual access to bibliographic records (2007) 0.03
    0.028818201 = product of:
      0.0864546 = sum of:
        0.04804372 = weight(_text_:des in 126) [ClassicSimilarity], result of:
          0.04804372 = score(doc=126,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.36716178 = fieldWeight in 126, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=126)
        0.03841088 = product of:
          0.07682176 = sum of:
            0.07682176 = weight(_text_:22 in 126) [ClassicSimilarity], result of:
              0.07682176 = score(doc=126,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.46428138 = fieldWeight in 126, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=126)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Content
    Vortrag anlässlich des Workshops: "Extending the multilingual capacity of The European Library in the EDL project Stockholm, Swedish National Library, 22-23 November 2007".
  17. Pfäffli, W.: ¬La qualité des résultats de recherche dans le cadre du projet MACS (Multilingual Access to Subjects) : vers un élargissement des ensembles de résultats de recherche (2009) 0.03
    0.027708044 = product of:
      0.08312413 = sum of:
        0.0089756185 = weight(_text_:und in 2818) [ClassicSimilarity], result of:
          0.0089756185 = score(doc=2818,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.085706696 = fieldWeight in 2818, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2818)
        0.07414851 = weight(_text_:des in 2818) [ClassicSimilarity], result of:
          0.07414851 = score(doc=2818,freq=56.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.56666094 = fieldWeight in 2818, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2818)
      0.33333334 = coord(2/6)
    
    Abstract
    Cette étude aborde la problématique de la qualité des résultats de recherche obtenus par l'intermédiaire de liens établis dans le cadre du projet MACS (Multilingual Access to Subjects) en considérant plus particulièrement la perspective de l'usager. Elle cherche à démontrer que ces liens, dans leur définition actuelle, ne sont à eux seuls pas en mesure de garantir des résultats satisfaisants pour un usager et qu'ils doivent être complétés par d'autres mesures. Elle se compose de trois parties principales : - la première partie présente le contexte général : après un bref historique, les principes de base du projet MACS et les difficultés rencontrées lors de l'évaluation de résultats de recherche sont expliqués. La question des différentes perspectives de l'indexeur et de l'usager est plus particulièrement développée. - la seconde partie présente les tests sur les titres communs à plusieurs bibliothèques qui ont été effectués et énumère les différents facteurs qui affaiblissent la qualité des résultats et empêchent notamment l'usager de retrouver des titres pertinents. - la troisième partie contient quelques pistes susceptibles de remédier aux biais relevés dans la deuxième partie et s'interroge sur les caractéristiques d'une interface de recherche, qui permettraient d'améliorer une recherche thématique multilingue.
    Conclusion Le tout premier point de départ de cette étude était le principe de validation des liens par la cohérence des résultats. Nous avons vu que ce principe jour un rôle très important dans la problématique générale de l'interopérabilité entre systèmes documentaires, bien qu'il ne soit pas sans soulever de nombreuses questions pratiques lors de sa mise en oeuvre concrète, questions auxquelles aucune étude n'a pour le moment offert de réponse détaillée qui puisse servir à élaborer un début de méthodologie. Mais nous avons surtout vu lors de l'étude d'exemples concrets que nous nous mouvons dans un contexte influencé par de nombreux facteurs, en grande partie, peu ou difficilement prévisibles : vouloir obtenir deux ensembles de titres pertinents clairement définis, en devant tenir compte du contexte culturel des fonds qui sont comparés, des différences de structure des langages documentaires, des politiques d'indexation, de la subjectivité des indexeurs et enfin des paramètres des moteurs de recherche, relève de la gageure !
    L'examen des titres communs nous a montré qu'en tous les cas, une partie des titres pertinents échapperaient à une requête effectuée par l'intermédiaire du lien. Il nous semble donc plus important que les efforts se concentrent sur les moyens d'effectivement donner un accès à des documents potentiellement pertinents plutôt que de définir plus précisément la qualité des liens au vu des résultats. Une première voie est le recours aux relations hiérarchiques des langages documentaires, mais nous avons vu qu'elles ne sont pas en mesure d'apporter une solution dans tous les cas. Le recours à une classification, à une ontologie ou à des techniques de traitement automatique du langage sont d'autres voies à explorer, qui peuvent éviter de devoir multiplier les liens, et par là compliquer encore leur gestion. En chemin, nous avons rencontré , mais sans pouvoir les aborder, encore bien d'autres questions, qui sont toutes autant de défis supplémentaires à relever, comme le problème de l'accès aux titres non indexés ou le problème de l'évolution des langages documentaires et donc de la mise à jour des liens. Nous avons aussi laissé de côté les questions techniques de l'accès de l'interface aux différents catalogues et des possibilités de présentations des résultats de recherche proprement dits (par bibliothèque interrogée ou réunis en un ensemble, ranking). Il reste ainsi assez à faire jusqu'au jour où un usager pourra entrer un terme de recherche dans une interface conviviale, qui lui ouvrira un accès thématique simple mais complet aux ressources des bibliothèques d'Europe, puis du monde !
    Content
    Abschlussarbeit MAS Bibliotheks- und Informationswissenschaften 2007-2009
  18. Strötgen, R.; Mandl, T.; Schneider, R.: Entwicklung und Evaluierung eines Question Answering Systems im Rahmen des Cross Language Evaluation Forum (CLEF) (2006) 0.03
    0.027543098 = product of:
      0.08262929 = sum of:
        0.048657253 = weight(_text_:und in 5981) [ClassicSimilarity], result of:
          0.048657253 = score(doc=5981,freq=20.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.46462005 = fieldWeight in 5981, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
        0.03397204 = weight(_text_:des in 5981) [ClassicSimilarity], result of:
          0.03397204 = score(doc=5981,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.25962257 = fieldWeight in 5981, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
      0.33333334 = coord(2/6)
    
    Abstract
    Question Answering Systeme versuchen, zu konkreten Fragen eine korrekte Antwort zu liefern. Dazu durchsuchen sie einen Dokumentenbestand und extrahieren einen Bruchteil eines Dokuments. Dieser Beitrag beschreibt die Entwicklung eines modularen Systems zum multilingualen Question Answering. Die Strategie bei der Entwicklung zielte auf eine schnellstmögliche Verwendbarkeit eines modularen Systems, das auf viele frei verfügbare Ressourcen zugreift. Das System integriert Module zur Erkennung von Eigennamen, zu Indexierung und Retrieval, elektronische Wörterbücher, Online-Übersetzungswerkzeuge sowie Textkorpora zu Trainings- und Testzwecken und implementiert eigene Ansätze zu den Bereichen der Frage- und AntwortTaxonomien, zum Passagenretrieval und zum Ranking alternativer Antworten.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  19. Womser-Hacker, C.: Zur Rolle von Eigennamen im Cross-Language Information Retrieval (2006) 0.03
    0.02694343 = product of:
      0.08083029 = sum of:
        0.035534237 = weight(_text_:und in 6073) [ClassicSimilarity], result of:
          0.035534237 = score(doc=6073,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.33931053 = fieldWeight in 6073, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6073)
        0.045296054 = weight(_text_:des in 6073) [ClassicSimilarity], result of:
          0.045296054 = score(doc=6073,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.34616345 = fieldWeight in 6073, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=6073)
      0.33333334 = coord(2/6)
    
    Abstract
    Im Mittelpunkt des vorliegenden Beitrags steht das Cross-Language Information Retrieval, das mit seinen sprachübergreifenden Funktionen zur Minderung von Sprachbarrieren bei der Informationssuche beiträgt. Hier sollen insbesondere die Eigennamen untersucht werden. Evaluierungsstudien haben gezeigt, dass ihnen aufgrund ihrer besonderen Eigenschaften eine wichtige Rolle bei der Identifikation von relevanten Dokumenten zukommt. Verfahren für die Optimierung des mehrsprachigen Retrievalprozesses werden angesprochen.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  20. Schirmer, K.; Haller, J.: Zugang zu mehrsprachigen Nachrichten im Internet (2000) 0.02
    0.02412688 = product of:
      0.07238064 = sum of:
        0.030773548 = weight(_text_:und in 5562) [ClassicSimilarity], result of:
          0.030773548 = score(doc=5562,freq=8.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.29385152 = fieldWeight in 5562, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5562)
        0.04160709 = weight(_text_:des in 5562) [ClassicSimilarity], result of:
          0.04160709 = score(doc=5562,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.31797147 = fieldWeight in 5562, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5562)
      0.33333334 = coord(2/6)
    
    Abstract
    In einer Kooperation zwischen smart information und dem IAI werden täglich ca. 20.000 aktuelle Nachrichten des Tages (in deutscher Sprache) linguistisch indexiert. Die Nachrichten werden täglich von der Nachrichtensuchmaschine newscan http://www.newscan.de von smart information aus den verschiedensten InternetQuellen gesammelt. Der Benutzer kann mit frei gewählten Begriffen suchen. Das Ergebnis einer solchen Schlüsselwortsuche wird in Tabellenform ausgegeben, nach Häufigkeit geordnet. Bei einer größeren Ergebnismenge (mehr als zehn Dokumente) werden die Nachrichten automatisch gruppiert (Clusteranalyse) und mit einem Label (Thema) versehen. Diese Themen werden in einer Baumstruktur dargestellt. Der Nutzer kann gezielt auf einen Themenbereich zugreifen. Die Clusteranalyse beruht auf der automatischen Gruppierung der Dokumente und ihrer Stichwörter (Deskriptoren), wie sie von dem automatischen Deskribierungsmodul AUDESC des IAI erzeugt werden. Die in einer großen Datei zusammengestellten Nachrichten werden in jeder Nacht an das IAI geschickt. Mit einer speziell an diese Nachrichten angepaßte Version des Indexierungsmoduls AUTINDEX werden jeder einzelnen Nachricht Schlagwörter zugeordnet
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz

Languages

  • e 40
  • d 24
  • f 1
  • m 1
  • More… Less…

Types

  • a 53
  • el 7
  • x 4
  • m 3
  • s 2
  • r 1
  • More… Less…