Search (104 results, page 1 of 6)

  • × theme_ss:"Register"
  1. Maislin, S.: Cyborg indexing : half-human half-machine (2007) 0.04
    0.044725474 = product of:
      0.14535779 = sum of:
        0.020911044 = weight(_text_:23 in 738) [ClassicSimilarity], result of:
          0.020911044 = score(doc=738,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 738, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=738)
        0.01599332 = weight(_text_:und in 738) [ClassicSimilarity], result of:
          0.01599332 = score(doc=738,freq=8.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.39180204 = fieldWeight in 738, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=738)
        0.020911044 = weight(_text_:23 in 738) [ClassicSimilarity], result of:
          0.020911044 = score(doc=738,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 738, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=738)
        0.01599332 = weight(_text_:und in 738) [ClassicSimilarity], result of:
          0.01599332 = score(doc=738,freq=8.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.39180204 = fieldWeight in 738, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=738)
        0.020911044 = weight(_text_:23 in 738) [ClassicSimilarity], result of:
          0.020911044 = score(doc=738,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 738, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=738)
        0.0137336515 = weight(_text_:die in 738) [ClassicSimilarity], result of:
          0.0137336515 = score(doc=738,freq=4.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.3053043 = fieldWeight in 738, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.0625 = fieldNorm(doc=738)
        0.01599332 = weight(_text_:und in 738) [ClassicSimilarity], result of:
          0.01599332 = score(doc=738,freq=8.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.39180204 = fieldWeight in 738, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=738)
        0.020911044 = weight(_text_:23 in 738) [ClassicSimilarity], result of:
          0.020911044 = score(doc=738,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 738, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=738)
      0.30769232 = coord(8/26)
    
    Abstract
    Die qualitativen Vorteile des Indexierens durch den Menschen werden nicht durch automatisches Indexieren verdrängt, aber bei besonders großen Projekten ist das Indexieren durch den Menschen nicht durchführbar. Eine Kosten-Nutzen-Analyse ist notwendig, um den praktischen Nutzen automatischer Indexierung mit der Wahrscheinlichkeit von Fehlern und deren Konsequenzen abzuwägen, die in beiden Ansätzen entstehen können. Das Integrieren von nicht-automatischer und automatischer Indexierung, das hier "Cyborg Indexing" genannt wird, kann Häufigkeit und Auswirkung von Fehlern beider Ansätze minimieren.
    Date
    8.12.2007 18:43:23
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.8, S.399-401
  2. Mulvany, N.; Milstead, J.: Indexicon, the only fully automatic indexer : a review (1994) 0.04
    0.03750237 = product of:
      0.19501232 = sum of:
        0.041822087 = weight(_text_:23 in 1175) [ClassicSimilarity], result of:
          0.041822087 = score(doc=1175,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 1175, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=1175)
        0.041822087 = weight(_text_:23 in 1175) [ClassicSimilarity], result of:
          0.041822087 = score(doc=1175,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 1175, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=1175)
        0.041822087 = weight(_text_:23 in 1175) [ClassicSimilarity], result of:
          0.041822087 = score(doc=1175,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 1175, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=1175)
        0.041822087 = weight(_text_:23 in 1175) [ClassicSimilarity], result of:
          0.041822087 = score(doc=1175,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 1175, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=1175)
        0.02772397 = weight(_text_:5 in 1175) [ClassicSimilarity], result of:
          0.02772397 = score(doc=1175,freq=2.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.515852 = fieldWeight in 1175, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.125 = fieldNorm(doc=1175)
      0.1923077 = coord(5/26)
    
    Source
    Key words. 2(1994) no.5, S.17-23
  3. Anderson, C.R.: Indexing with a computer : past and present (2000) 0.03
    0.030388867 = product of:
      0.1580221 = sum of:
        0.036594328 = weight(_text_:23 in 489) [ClassicSimilarity], result of:
          0.036594328 = score(doc=489,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.55438095 = fieldWeight in 489, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=489)
        0.036594328 = weight(_text_:23 in 489) [ClassicSimilarity], result of:
          0.036594328 = score(doc=489,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.55438095 = fieldWeight in 489, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=489)
        0.036594328 = weight(_text_:23 in 489) [ClassicSimilarity], result of:
          0.036594328 = score(doc=489,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.55438095 = fieldWeight in 489, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=489)
        0.036594328 = weight(_text_:23 in 489) [ClassicSimilarity], result of:
          0.036594328 = score(doc=489,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.55438095 = fieldWeight in 489, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=489)
        0.011644801 = product of:
          0.0349344 = sum of:
            0.0349344 = weight(_text_:22 in 489) [ClassicSimilarity], result of:
              0.0349344 = score(doc=489,freq=2.0), product of:
                0.06449488 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018417481 = queryNorm
                0.5416616 = fieldWeight in 489, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=489)
          0.33333334 = coord(1/3)
      0.1923077 = coord(5/26)
    
    Source
    Indexer. 22(2000) no.1, S.23-24
  4. Klement, S.: Open-system versus closed-system indexing : a vital distinction (2002) 0.03
    0.02729786 = product of:
      0.17743608 = sum of:
        0.04435902 = weight(_text_:23 in 941) [ClassicSimilarity], result of:
          0.04435902 = score(doc=941,freq=4.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.6720112 = fieldWeight in 941, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=941)
        0.04435902 = weight(_text_:23 in 941) [ClassicSimilarity], result of:
          0.04435902 = score(doc=941,freq=4.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.6720112 = fieldWeight in 941, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=941)
        0.04435902 = weight(_text_:23 in 941) [ClassicSimilarity], result of:
          0.04435902 = score(doc=941,freq=4.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.6720112 = fieldWeight in 941, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=941)
        0.04435902 = weight(_text_:23 in 941) [ClassicSimilarity], result of:
          0.04435902 = score(doc=941,freq=4.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.6720112 = fieldWeight in 941, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=941)
      0.15384616 = coord(4/26)
    
    Source
    Indexer. 23(2002) no.1, S.23-31
  5. Olson, H.A.; Given, L.M.: Indexing and the 'organized' researcher (2003) 0.03
    0.02573667 = product of:
      0.16728835 = sum of:
        0.041822087 = weight(_text_:23 in 464) [ClassicSimilarity], result of:
          0.041822087 = score(doc=464,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 464, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=464)
        0.041822087 = weight(_text_:23 in 464) [ClassicSimilarity], result of:
          0.041822087 = score(doc=464,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 464, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=464)
        0.041822087 = weight(_text_:23 in 464) [ClassicSimilarity], result of:
          0.041822087 = score(doc=464,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 464, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=464)
        0.041822087 = weight(_text_:23 in 464) [ClassicSimilarity], result of:
          0.041822087 = score(doc=464,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 464, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=464)
      0.15384616 = coord(4/26)
    
    Source
    Indexer. 23(2003) no.3, S.120-133
  6. Mulvany, J.D.: Teaching book indexing : a curriculum (2002) 0.03
    0.02573667 = product of:
      0.16728835 = sum of:
        0.041822087 = weight(_text_:23 in 601) [ClassicSimilarity], result of:
          0.041822087 = score(doc=601,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 601, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=601)
        0.041822087 = weight(_text_:23 in 601) [ClassicSimilarity], result of:
          0.041822087 = score(doc=601,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 601, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=601)
        0.041822087 = weight(_text_:23 in 601) [ClassicSimilarity], result of:
          0.041822087 = score(doc=601,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 601, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=601)
        0.041822087 = weight(_text_:23 in 601) [ClassicSimilarity], result of:
          0.041822087 = score(doc=601,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 601, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=601)
      0.15384616 = coord(4/26)
    
    Source
    Indexer. 23(2002) no.1, S.2-7
  7. Coates, S.: Teaching of book indexing (2002) 0.03
    0.02573667 = product of:
      0.16728835 = sum of:
        0.041822087 = weight(_text_:23 in 741) [ClassicSimilarity], result of:
          0.041822087 = score(doc=741,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 741, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=741)
        0.041822087 = weight(_text_:23 in 741) [ClassicSimilarity], result of:
          0.041822087 = score(doc=741,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 741, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=741)
        0.041822087 = weight(_text_:23 in 741) [ClassicSimilarity], result of:
          0.041822087 = score(doc=741,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 741, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=741)
        0.041822087 = weight(_text_:23 in 741) [ClassicSimilarity], result of:
          0.041822087 = score(doc=741,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 741, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=741)
      0.15384616 = coord(4/26)
    
    Source
    Indexer. 23(2002) no.1, S.15-17
  8. Bell, H.K.: Compiling an anthology of indexes (2002) 0.03
    0.02573667 = product of:
      0.16728835 = sum of:
        0.041822087 = weight(_text_:23 in 2860) [ClassicSimilarity], result of:
          0.041822087 = score(doc=2860,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 2860, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=2860)
        0.041822087 = weight(_text_:23 in 2860) [ClassicSimilarity], result of:
          0.041822087 = score(doc=2860,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 2860, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=2860)
        0.041822087 = weight(_text_:23 in 2860) [ClassicSimilarity], result of:
          0.041822087 = score(doc=2860,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 2860, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=2860)
        0.041822087 = weight(_text_:23 in 2860) [ClassicSimilarity], result of:
          0.041822087 = score(doc=2860,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 2860, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=2860)
      0.15384616 = coord(4/26)
    
    Source
    Indexer. 23(2002) no.1, S.32-33
  9. Rodberg, L.R.: Textbook indexes : many uses, many users (1993) 0.03
    0.02573667 = product of:
      0.16728835 = sum of:
        0.041822087 = weight(_text_:23 in 6353) [ClassicSimilarity], result of:
          0.041822087 = score(doc=6353,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 6353, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=6353)
        0.041822087 = weight(_text_:23 in 6353) [ClassicSimilarity], result of:
          0.041822087 = score(doc=6353,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 6353, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=6353)
        0.041822087 = weight(_text_:23 in 6353) [ClassicSimilarity], result of:
          0.041822087 = score(doc=6353,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 6353, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=6353)
        0.041822087 = weight(_text_:23 in 6353) [ClassicSimilarity], result of:
          0.041822087 = score(doc=6353,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.63357824 = fieldWeight in 6353, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.125 = fieldNorm(doc=6353)
      0.15384616 = coord(4/26)
    
    Source
    Keywords. 1(1993) no.4, S.23-24
  10. Shuttleworth, C.: Marot, Hofstadter, index (1998) 0.02
    0.024027867 = product of:
      0.1249449 = sum of:
        0.029572682 = weight(_text_:23 in 4642) [ClassicSimilarity], result of:
          0.029572682 = score(doc=4642,freq=4.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.44800746 = fieldWeight in 4642, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=4642)
        0.029572682 = weight(_text_:23 in 4642) [ClassicSimilarity], result of:
          0.029572682 = score(doc=4642,freq=4.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.44800746 = fieldWeight in 4642, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=4642)
        0.029572682 = weight(_text_:23 in 4642) [ClassicSimilarity], result of:
          0.029572682 = score(doc=4642,freq=4.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.44800746 = fieldWeight in 4642, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=4642)
        0.029572682 = weight(_text_:23 in 4642) [ClassicSimilarity], result of:
          0.029572682 = score(doc=4642,freq=4.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.44800746 = fieldWeight in 4642, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=4642)
        0.0066541713 = product of:
          0.019962514 = sum of:
            0.019962514 = weight(_text_:22 in 4642) [ClassicSimilarity], result of:
              0.019962514 = score(doc=4642,freq=2.0), product of:
                0.06449488 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018417481 = queryNorm
                0.30952093 = fieldWeight in 4642, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4642)
          0.33333334 = coord(1/3)
      0.1923077 = coord(5/26)
    
    Abstract
    Comments on Douglas Hofstadter's index to his book 'Le ton beau de Marot: in praise of the music of language'. Hofstadter took charge of the book design, typography, typesetting and copy-editing, and also compiled the index which covers 23 pages of 3 columnes and is set in a practically illegible 4-point. Although the index breaks all the rules of indexing, it is a masterly creation showing the author's industry, exhuberance and wit. Summarizes Hofstadter's own remarks on how creating the index gave hin new insights into what his book was essentially about
    Source
    Indexer. 21(1998) no.1, S.22-23
  11. Anderson, J.D.: Indexing, teaching of, See: Information retrieval design (2002) 0.02
    0.022519587 = product of:
      0.14637731 = sum of:
        0.036594328 = weight(_text_:23 in 550) [ClassicSimilarity], result of:
          0.036594328 = score(doc=550,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.55438095 = fieldWeight in 550, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=550)
        0.036594328 = weight(_text_:23 in 550) [ClassicSimilarity], result of:
          0.036594328 = score(doc=550,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.55438095 = fieldWeight in 550, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=550)
        0.036594328 = weight(_text_:23 in 550) [ClassicSimilarity], result of:
          0.036594328 = score(doc=550,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.55438095 = fieldWeight in 550, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=550)
        0.036594328 = weight(_text_:23 in 550) [ClassicSimilarity], result of:
          0.036594328 = score(doc=550,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.55438095 = fieldWeight in 550, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=550)
      0.15384616 = coord(4/26)
    
    Source
    Indexer. 23(2002) no.1, S.2-7
  12. Diedrichs, R.: Arbeitsbericht AG Indexierung der Konferenz für Regelwerksfragen (2000) 0.02
    0.021439651 = product of:
      0.11148618 = sum of:
        0.016963478 = weight(_text_:und in 5526) [ClassicSimilarity], result of:
          0.016963478 = score(doc=5526,freq=16.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.41556883 = fieldWeight in 5526, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5526)
        0.016963478 = weight(_text_:und in 5526) [ClassicSimilarity], result of:
          0.016963478 = score(doc=5526,freq=16.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.41556883 = fieldWeight in 5526, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5526)
        0.014566738 = weight(_text_:die in 5526) [ClassicSimilarity], result of:
          0.014566738 = score(doc=5526,freq=8.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.3238241 = fieldWeight in 5526, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.046875 = fieldNorm(doc=5526)
        0.046029005 = weight(_text_:grund in 5526) [ClassicSimilarity], result of:
          0.046029005 = score(doc=5526,freq=2.0), product of:
            0.11308442 = queryWeight, product of:
              6.140059 = idf(docFreq=258, maxDocs=44218)
              0.018417481 = queryNorm
            0.40703225 = fieldWeight in 5526, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.140059 = idf(docFreq=258, maxDocs=44218)
              0.046875 = fieldNorm(doc=5526)
        0.016963478 = weight(_text_:und in 5526) [ClassicSimilarity], result of:
          0.016963478 = score(doc=5526,freq=16.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.41556883 = fieldWeight in 5526, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5526)
      0.1923077 = coord(5/26)
    
    Abstract
    Vor dem Hintergrund der zunehmenden Verbreitung von Suchmaschinen für bibliothekarische Datenbanken - KvK, KOBV, etc. - ergeben sich aus der unterschiedlichen Konstruktion der angegangenen Indexsysteme einige Probleme: - inkonsistente Suchergebnisse bei scheinbar gleichen Suchschlüsseln Autor: Müller-Udenscheid -> müller, Udenscheid, mueller? - Titelstichworte: sind Zusätze zum Sachtitel indexiert oder nicht? - unterschiedliche Suchschlüssel: Beschränkung auf die kleinste gemeinsame Schnittmenge. Die Verwendung einer einheitlichen Oberfläche gaukelt an dieser Stelle aber konsistente Ergebnisse vor. Auf Grund dieser Ausgangslage hat die KM eine Arbeitsgruppe eingesetzt, die Empfehlungen für eine einheitliche Indexierung bibliothekarischer Datenbanken erarbeiten soll. Diese Arbeitsgruppe hat sich bisher dreimal getroffen und Entwürfe für erste Festlegungen erarbeitet.
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  13. Fugmann, R.: ¬Das Buchregister : Methodische Grundlagen und praktische Anwendung (2006) 0.02
    0.019339746 = product of:
      0.08380556 = sum of:
        0.015605976 = weight(_text_:und in 665) [ClassicSimilarity], result of:
          0.015605976 = score(doc=665,freq=78.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.38231295 = fieldWeight in 665, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=665)
        0.015605976 = weight(_text_:und in 665) [ClassicSimilarity], result of:
          0.015605976 = score(doc=665,freq=78.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.38231295 = fieldWeight in 665, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=665)
        0.011354946 = weight(_text_:die in 665) [ClassicSimilarity], result of:
          0.011354946 = score(doc=665,freq=28.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.25242475 = fieldWeight in 665, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.01953125 = fieldNorm(doc=665)
        0.015605976 = weight(_text_:und in 665) [ClassicSimilarity], result of:
          0.015605976 = score(doc=665,freq=78.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.38231295 = fieldWeight in 665, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=665)
        0.018129671 = weight(_text_:art in 665) [ClassicSimilarity], result of:
          0.018129671 = score(doc=665,freq=6.0), product of:
            0.08354246 = queryWeight, product of:
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.018417481 = queryNorm
            0.21701145 = fieldWeight in 665, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.01953125 = fieldNorm(doc=665)
        0.007503019 = weight(_text_:5 in 665) [ClassicSimilarity], result of:
          0.007503019 = score(doc=665,freq=6.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.13960654 = fieldWeight in 665, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.01953125 = fieldNorm(doc=665)
      0.23076923 = coord(6/26)
    
    Abstract
    1. Im täglichen Leben oder im Beruf steht man oftmals vor der Aufgabe, nach Wissen zu suchen, das man in einem Buch gefunden hat oder das man darin vermutet. Dann ist es für den Suchenden lästig oder sogar unzumutbar, wenn er bei dieser Suche auf planloses Blättern angewiesen ist, bis er fündig geworden ist oder bis er schließlich zu dem Schluss gelangt, dass das Gesuchte im Buch wohl nicht enthalten ist, dies vielleicht nur irrtümlich, weil er wegen Zeitmangels vorzeitig aufgeben musste. 2. Jedes Buch, in welchem wiederverwertbares Wissen niedergelegt ist und welches nicht ausschließlich der Unterhaltung dient, sollte deswegen ein Register haben. Inhaltsverzeichnisse allein können wegen ihres allzu allgemeinen Charakters keinen ausreichend gut gezielten Zugang zum Wissen des Buches vermitteln. Als Suchender würde man allzu viel Zeit brauchen, um das momentan Interessierende darin aufzufinden. 3. Buchregister werden schon seit Jahrhunderten in unterschiedlichen Varianten angefertigt, in Abhängigkeit von der Eigenart der betreffenden Bücher, von der Verfügbarkeit von Platz und Zeit, und damit auch in Abhängigkeit von dem für das Register verfügbare Geld, abhängig aber auch von Erfahrung und Sachkundigkeit der Indexer und von den verfügbaren technischen Hilfsmitteln. 4. Ein gutes Register macht das im Buch enthaltene Wissen leicht und lückenlos wiederauffindbar und wiederverwertbar. So erlangt ein Buch erst dann seinen vollen Wert, wenn es für das gezielte (Wieder-) Auffinden von darin enthaltenem Wissen in der Weise inhaltlich erschlossen ist, dass man einen gesicherten Zugriff auf das Gesuchte hat. Dies gilt besonders für Lehr- und Anleitungsbücher. Dies ist eine Erfahrung, die schon fast so alt ist wie der Buchdruck selbst (Wellisch 1986, 1994A). 5. Mehr Bücher als jemals zuvor werden heutzutage produziert, aller Konkurrenz durch die elektronischen Medien zum Trotz. An der Notwendigkeit, das Wissen in diesen Büchern zu nutzen, hat sich nichts geändert und auch nichts an der Notwendigkeit, den Inhalt dieser Bücher leicht wiederauffindbar zu machen. Man möchte möglichst vollständig zu denjenigen Stellen im Buch hingeleitet werden, wo der Gegenstand des momentanen Interesses abgehandelt ist, und man möchte hierbei möglichst wenigem Ballast an Hinweisen auf thematisch nichteinschlägige Passagen ausgesetzt sein, denn dem Menschen steht immer nur ein sehr beschränktes Maß an Zeit und Aufmerksamkeit zum Suchen zur Verfügung. Dies sind kostbare Ressourcen, mit denen sorgsam umgegangen werden muss. Es gilt das 4. Gesetz der Bibliothekswissenschaft (Ranganathan 1967): "Save the time of the reader".
    6. In diesem Buch wird in den Kapiteln 2 bis 5 ein Grundkursus zur Theorie der Inhaltserschließung angeboten, wobei die Möglichkeiten und Grenzen von natursprachiger und indexsprachiger Ausdrucksweise geklärt werden, sowie auch der Unterschied zwischen Ausdruck und Begriff, zwischen den Recherchetypen von Erinnerung und Entdeckung, zwischen den Indexierungstypen von Zuteilung und Extraktion und auch der Unterschied zwischen Register und Konkordanz. Auf einer solchen Grundlage kann der Indexer besser den Nutzen der einzelnen Indexierungswerkzeuge abschätzen, sowie auch die nachteiligen Folgen, welche durch den Verzicht auf das eine oder das andere dieser Werkzeuge zwangsläufig eintreten. In der Literatur ist zwar der Standpunkt anzutreffen, dass "allzu viel Theorie" zu vermeiden sei, weil sie doch so "grau" sei. Aber wir schließen uns lieber dem Standpunkt des Physikers Ludwig Boltzmann an: "Nichts ist praktischer als Theorie", wenn eine solche Theorie das Beobachtbare erklären und das Zukünftige voraussagen kann. 7. Im Kapitel 7 werden die Bestandteile des Schlagwort-Registers in Gestalt von Schlagwort und Fundstelle, Untereintrag und Verweisung abgehandelt und das Zusammenfügen dieser Komponenten zum Register der herkömmlichen indikativen Art. Dieser Registertyp ist gekennzeichnet durch seine Beschränkungen bezüglich der Inanspruchnahme von Platz für den Druck und durch seine Beschränkungen bezüglich des Aufwandes an Zeit und Geld zu seiner Erstellung. Es werden die hiermit zwangläufig verbundenen Mängel dargelegt. 8. Im Kapitel 8 wird die Überwindung dieser Mängel durch die Einführung von reichlichen und ausführlichen Untereinträgen gezeigt. Das Register nimmt hierdurch einen ausgesprochen informativen Charakter an. Zugleich werden auf diesem Weg auch Wesen und Nutzen eines systematischen Registers dargelegt, welches zusätzlich zum herkömmlichen alphabetischen Register vorgelegt wird. 9. Die Möglichkeit zu alledem eröffnet sich dadurch, dass eine hochentwickelte Software eingesetzt wird und dass ein außergewöhnlicher Arbeitsaufwand aufseiten des Indexers nicht gescheut wird, verbunden mit entsprechend hohen Kosten. Dieser Aufwand ist erforderlich für die Formulierung von zahlreichen und ausführlichen Untereinträgen, zum Aufbau eines systematischen, thesaurusgestützten Schlagwort-Vokabulars und für eine besonders sorgfältige Indexierung. 10. Dieses Modell eines kompletten informativen Registers ist als eine Art Werkzeugkasten zu verstehen, aus welchem man diejenigen gedanklichen und technischen Werkzeuge auswählen und miteinander kombinieren kann, welche der jeweils herrschenden Bedarfslage am besten angemessen sind. Man wird von diesen Werkzeugen besonders dann ausgiebig Gebrauch machen, wenn hohe Anforderungen an die Treffsicherheit und Leichtigkeit der Recherche gestellt werden, Anforderungen, welche mit einem Register der herkömmlichen indikativen Art nicht erfüllbar sind. Der hohe Aufwand für ein gutes Register ist natürlich nur dann gerechtfertigt, wenn aufseiten der Leser auch wirklich Bedarf zum Nachschlagen besteht. Man wird kein Register für ein Buch anlegen, welches nur zur Unterhaltung und Erbauung gelesen und dann für alle Zeiten beiseite gelegt wird.
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 58(2007) H.3, S.186 (J. Bertram): "Bei aller Kritik: Das Buch gemahnt eindrücklich daran, dass ein gutes Register sowohl den Anforderungen einer Entdeckungsrecherche als auch denen einer Erinnerungsrecherche dienlich sein sollte, um es mit Fugmanns Worten auszudrücken. Heißt: Es soll nicht nur denen zugute kommen, die das Buch gelesen haben, sondern eben gerade auch denjenigen, die es nicht gelesen haben. Nicht nur erinnerte Wortlaute sollen mit ihm wieder auffindbar sein, vielmehr soll das Register auch schnelle Antworten auf die Frage ermöglichen, ob ein Buch zum interessierenden Thema Ergiebiges enthält. Und dass für das zweite Anliegen ein Aufwand zu betreiben ist, der über ein reines Stichwortregister hinausgeht, wird von Fugmann anschaulich und überzeugend dargestellt. Auch seinem Wunsch, dass bei der Rezension vor Büchern Vorhandensein und Qualität des Registers (stärkere) Berücksichtigung finden mögen, ist uneingeschränkt zuzustimmen. Dass das vor ihm produzierte Register des Guten zu viel tut, steht auf einem anderen Blatt."
    Isbn
    3-925474-59-5
  14. Bell, H.K.: Indexing biographies, and other stories of human lives (1998) 0.02
    0.019302502 = product of:
      0.12546626 = sum of:
        0.031366564 = weight(_text_:23 in 2818) [ClassicSimilarity], result of:
          0.031366564 = score(doc=2818,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.47518367 = fieldWeight in 2818, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=2818)
        0.031366564 = weight(_text_:23 in 2818) [ClassicSimilarity], result of:
          0.031366564 = score(doc=2818,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.47518367 = fieldWeight in 2818, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=2818)
        0.031366564 = weight(_text_:23 in 2818) [ClassicSimilarity], result of:
          0.031366564 = score(doc=2818,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.47518367 = fieldWeight in 2818, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=2818)
        0.031366564 = weight(_text_:23 in 2818) [ClassicSimilarity], result of:
          0.031366564 = score(doc=2818,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.47518367 = fieldWeight in 2818, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=2818)
      0.15384616 = coord(4/26)
    
    Date
    29. 7.2002 10:34:23
  15. Ramesh Babu, B.: Some thoughts on requirements for a good index to a book (1991) 0.02
    0.01608542 = product of:
      0.10455522 = sum of:
        0.026138805 = weight(_text_:23 in 998) [ClassicSimilarity], result of:
          0.026138805 = score(doc=998,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 998, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=998)
        0.026138805 = weight(_text_:23 in 998) [ClassicSimilarity], result of:
          0.026138805 = score(doc=998,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 998, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=998)
        0.026138805 = weight(_text_:23 in 998) [ClassicSimilarity], result of:
          0.026138805 = score(doc=998,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 998, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=998)
        0.026138805 = weight(_text_:23 in 998) [ClassicSimilarity], result of:
          0.026138805 = score(doc=998,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 998, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=998)
      0.15384616 = coord(4/26)
    
    Source
    Lucknow librarian. 23(1991) no.2, S.56-62
  16. Janssen, E.: Society of Indexers' Training in Indexing (2011) 0.02
    0.015050911 = product of:
      0.078264736 = sum of:
        0.017139269 = weight(_text_:und in 4900) [ClassicSimilarity], result of:
          0.017139269 = score(doc=4900,freq=12.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.41987535 = fieldWeight in 4900, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4900)
        0.017139269 = weight(_text_:und in 4900) [ClassicSimilarity], result of:
          0.017139269 = score(doc=4900,freq=12.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.41987535 = fieldWeight in 4900, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4900)
        0.014717692 = weight(_text_:die in 4900) [ClassicSimilarity], result of:
          0.014717692 = score(doc=4900,freq=6.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.32717988 = fieldWeight in 4900, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4900)
        0.017139269 = weight(_text_:und in 4900) [ClassicSimilarity], result of:
          0.017139269 = score(doc=4900,freq=12.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.41987535 = fieldWeight in 4900, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4900)
        0.012129237 = weight(_text_:5 in 4900) [ClassicSimilarity], result of:
          0.012129237 = score(doc=4900,freq=2.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.22568524 = fieldWeight in 4900, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4900)
      0.1923077 = coord(5/26)
    
    Abstract
    Die britische Society of Indexers bietet ein Fernstudium im Indexieren an, wie es zur Zeit in Deutschland nicht existiert. Der Kurs, der zur Qualifizierung eines akkreditierten Indexierers führt, basiert auf britischen und internationalen Normen und besteht aus vier Lehrgangseinheiten. Der Kurs setzt keinerlei Wissen über Buchregister oder das Verlagswesen voraus und kann als Fernstudium problemlos von Deutschland aus absolviert werde. Einzige Voraussetzung für die Teilnahme am Kurs ist die Mitgliedschaft in einer Indexierer-Gesellschaft, wie z.B. der britischen Society of Indexers oder dem Deutschen Netzwerk der Indexer (www.d-indexer.org). Der Artikel gibt einen Überblick über den Inhalt des Kurses und enthält Informationen zu Kosten, Kursdauer und Aufbau des Kurses.
    Date
    5. 2.2012 17:59:03
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.8, S.375-376
  17. Booth, P.F.: Indexing : the manual of good practice (2001) 0.01
    0.014117243 = product of:
      0.07340966 = sum of:
        0.013705584 = weight(_text_:und in 1968) [ClassicSimilarity], result of:
          0.013705584 = score(doc=1968,freq=94.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.33575743 = fieldWeight in 1968, product of:
              9.69536 = tf(freq=94.0), with freq of:
                94.0 = termFreq=94.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1968)
        0.013705584 = weight(_text_:und in 1968) [ClassicSimilarity], result of:
          0.013705584 = score(doc=1968,freq=94.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.33575743 = fieldWeight in 1968, product of:
              9.69536 = tf(freq=94.0), with freq of:
                94.0 = termFreq=94.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1968)
        0.015545438 = weight(_text_:die in 1968) [ClassicSimilarity], result of:
          0.015545438 = score(doc=1968,freq=82.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.345581 = fieldWeight in 1968, product of:
              9.055386 = tf(freq=82.0), with freq of:
                82.0 = termFreq=82.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.015625 = fieldNorm(doc=1968)
        0.013705584 = weight(_text_:und in 1968) [ClassicSimilarity], result of:
          0.013705584 = score(doc=1968,freq=94.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.33575743 = fieldWeight in 1968, product of:
              9.69536 = tf(freq=94.0), with freq of:
                94.0 = termFreq=94.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1968)
        0.016747471 = weight(_text_:art in 1968) [ClassicSimilarity], result of:
          0.016747471 = score(doc=1968,freq=8.0), product of:
            0.08354246 = queryWeight, product of:
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.018417481 = queryNorm
            0.20046659 = fieldWeight in 1968, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.015625 = fieldNorm(doc=1968)
      0.1923077 = coord(5/26)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.7, S.440-442 (R. Fugmann): "Das Buch beginnt mit dem Kapitel "Myths about Indexing" und mit der Nennung von weit verbreiteten Irrtümern über das Indexieren, und zwar vorrangig über das Registermachen. Mit einem einzigen Satz ist die Problematik treffend skizziert, welcher das Buch gewidmet ist: "With the development of electronic documents, it has become possible to store very large amounts of information; but storage is not of much use without the capability to retrieve, to convert, transfer and reuse the information". Kritisiert wird die weit verbreitet anzutreffende Ansicht, das Indexieren sei lediglich eine Sache vom "picking out words from the text or naming objects in images and using those words as index headings". Eine solche Arbeitsweise führt jedoch nicht zu Registern, sondern zu Konkordanzen (d.h. zu alphabetischen Fundstellenlisten für Textwörter) und"... is entirely dependent an the words themselves and is not concerned with the ideas behind them". Das Sammeln von Information ist einfach. Aber die (Wieder-) Auffindbarkeit herzustellen muss gelernt werden, wenn mehr ermöglicht werden soll als lediglich das Wiederfinden von Texten, die man in allen Einzelheiten noch genau in Erinnerung behalten hat (known-item searches, questions of recall), die Details der sprachlichen Ausdrucksweise für die gesuchten Begriffe eingeschlossen. Die Verfasserin beschreibt aus ihrer großen praktischen Erfahrung, welche Schritte hierzu auf der gedanklichen und technischen Ebene unternommen werden müssen. Zu den erstgenannten Schritten rechnet die Abtrennung von Details, welche nicht im Index vertreten sein sollten ("unsought terms"), weil sie mit Sicherheit kein Suchziel darstellen werden und als "false friends" zur Überflutung des Suchenden mit Nebensächlichkeiten führen würden, eine Entscheidung, welche nur mit guter Sachkenntnis gefällt werden kann. All Dasjenige hingegen, was in Gegenwart und Zukunft (!) ein sinnvolles Suchziel darstellen könnte und "sufficiently informative" ist, verdient ein Schlagwort im Register. Man lernt auch durch lehrreiche Beispiele, wodurch ein Textwort unbrauchbar für das Register wird, wenn es dort als (schlechtes) Schlagwort erscheint, herausgelöst aus dem interpretierenden Zusammenhang, in welchen es im Text eingebettet gewesen ist. Auch muss die Vieldeutigkeit bereinigt werden, die fast jedem natursprachigen Wort anhaftet. Sonst wird der Suchende beim Nachschlagen allzu oft in die Irre geführt, und zwar um so öfter, je größer ein diesbezüglich unbereinigter Speicher bereits geworden ist.
    Der Zugang zum Informationsspeicher ist auch von verwandten Begriffen her zu gewährleisten, denn der Suchende lässt sich gern mit seiner Fragestellung zu allgemeineren und vor allem zu spezifischeren Begriffen leiten. Verweisungen der Art "siehe auch" dienen diesem Zweck. Der Zugang ist auch von unterschiedlichen, aber bedeutungsgleichen Ausdrücken mithilfe einer Verweisung von der Art "siehe" zu gewährleisten, denn ein Fragesteller könnte sich mit einem von diesen Synonymen auf die Suche begeben haben und würde dann nicht fündig werden. Auch wird Vieles, wofür ein Suchender sein Schlagwort parat hat, in einem Text nur in wortreicher Umschreibung und paraphrasiert angetroffen ("Terms that may not appear in the text but are likely to be sought by index users"), d.h. praktisch unauffindbar in einer derartig mannigfaltigen Ausdrucksweise. All dies sollte lexikalisch ausgedrückt werden, und zwar in geläufiger Terminologie, denn in dieser Form erfolgt auch die Fragestellung. Hier wird die Grenze zwischen "concept indexing" gegenüber dem bloßen "word indexing" gezogen, welch letzteres sich mit der Präsentation von nicht interpretierten Textwörtern begnügt. Nicht nur ist eine solche Grenze weit verbreitet unbekannt, ihre Existenz wird zuweilen sogar bestritten, obwohl doch ein Wort meistens viele Begriffe ausdrückt und obwohl ein Begriff meistens durch viele verschiedene Wörter und Sätze ausgedrückt wird. Ein Autor kann und muss sich in seinen Texten oft mit Andeutungen begnügen, weil ein Leser oder Zuhörer das Gemeinte schon aus dem Zusammenhang erkennen kann und nicht mit übergroßer Deutlichkeit (spoon feeding) belästigt sein will, was als Unterstellung von Unkenntnis empfunden würde. Für das Retrieval hingegen muss das Gemeinte explizit ausgedrückt werden. In diesem Buch wird deutlich gemacht, was alles an außertextlichem und Hintergrund-Wissen für ein gutes Indexierungsergebnis aufgeboten werden muss, dies auf der Grundlage von sachverständiger und sorgfältiger Interpretation ("The indexer must understand the meaning of a text"). All dies lässt gutes Indexieren nicht nur als professionelle Dienstleistung erscheinen, sondern auch als Kunst. Als Grundlage für all diese Schritte wird ein Thesaurus empfohlen, mit einem gut strukturierten Netzwerk von verwandtschaftlichen Beziehungen und angepasst an den jeweiligen Buchtext. Aber nur selten wird man auf bereits andernorts vorhandene Thesauri zurückgreifen können. Hier wäre ein Hinweis auf einschlägige Literatur zur Thesaurus-Konstruktion nützlich gewesen.
    Es wird auch die Frage erörtert, wer wegen seines Naturells lieber Abstand vom Indexieren nehmen sollte. Diese Ausführungen sind ebenso nützlich wie die konkrete Indexierungsanleitung. Es könnte manch einem erspart bleiben, sich einer Arbeit zuzuwenden, mit der er überfordert wäre. Hier klärt sich auch die oft gestellte Frage, wer ein Register erstellen soll, der Autor oder ein professioneller Indexer: Der Autor ist dieser Aufgabe gewachsen, sofern er das Indexieren gelernt hat, und zwar mehr als lediglich das Entnehmen von Textwörtern (oder ihrer morphologischen Varianten) und deren programmierte Weiterverarbeitung. Auch darf der Autor beim Indexieren nicht nur die eigene Terminologie im Kopf haben. Der professionelle Indexer ist dieser Aufgabe erst recht gewachsen, wenn er sich auf dem Sachgebiet der Texte gut auskennt. Manch ein Buchautor, der glaubt (oder sich einreden lässt), dass er zum Indexieren nur den Markierstift und die Kenntnis vom Alphabet braucht, müsste sich hier den Spiegel vorhalten, oder auch ein Verleger, der in solchen oder ähnlichen Primitivvarianten eine billige und vollwertige Alternative erblickt. Ein Buch dieser Art lädt zu einem Seitenblick auf die Situation der professionellen Indexierung hierzulande ein. Weder ist hier eine Indexierungs-Profession etabliert, noch scheint sie bei Verlegern und Autoren wenigstens so weit bekannt zu sein, dass sich eine solche Profession entwickeln könnte. Das Ergebnis sind Buchregister voller Anfängerfehler, zum Beispiel überfüllt mit unsinnigen Schlagwörtern (Beispiele hierzu sind in diesem Buch aufgeführt) oder mit Schlagwörtern in unvorhersehbaren und dadurch wertlosen Formulierungen, und dies selbst im informationswissenschaftlichen Lehrbuch oder in der Enzyklopädie. Viele Schlagwörter für wichtige Themen fehlen oftmals gänzlich. Das Nachschlagen gestaltet sich dann zur ungeliebten Mühe und Glücksache. Das Ergebnis sind demzufolge hierzulande Bücher meistens weit unter demjenigen Wert, den sie hätten, wenn sie durch ein gutes Register erschlossen wären.
    Die interpretationslos zusammengestellten "Register" sind auch daran zu erkennen, dass ihnen die informativen, mit viel Sprachgefühl und Sachkenntnis formulierten Untereinträge fehlen, für deren Gestaltung im Buch zahlreiche Ratschläge gegeben werden. Das Resümee von Booth lautet: Wenn ein Indexierungsprogramm brauchbare Ergebnisse erbringen soll, dann kann es nicht vollautomatisch sein. Neben diesen Ausführungen zum gedanklichen Teil der Indexierungsarbeit bietet das Buch auch eine Fülle von Ratschlägen zum rein technischen Teil, speziell zur Orthographie und Typographie des Registers. Vieles, was für den anglo-amerikanischen Sprachraum gilt, könnte direkt für deutschsprachige Register übernommen werden. Dies betrifft z.B. die Singular/PluralFrage bei den Schlagwörtern, die Übersichtlichkeit der Registergestaltung, die Verwendung verschiedener Schriftarten, usw. Ratschläge für die praktische Arbeit werden reichlich gegeben, z.B. wie man sich verhält, wenn der Platz für das Register nachträglich eingeschränkt wird oder wenn zusätzlich Platz zur Verfügung gestellt wird. Man erfährt, wo man sich seine Ausbildung holt (und zwar eine, die über die naive Entnahme von Textwörtern und deren programmierte Weiterverarbeitung hinausgeht), wie man Arbeitsverträge abschließt und Kontakte knüpft, z.B. mit künftigen Auftraggebern oder auch mit Fachkollegen zum Erfahrungsaustausch, wie man sich einen gesunden Arbeitsplatz einrichtet und seine Arbeitszeit einteilen sollte, welche Gesellschaften zum Indexierungsproblem es weltweit gibt und welche Fachzeitschriften man sich halten sollte, um auf dem Laufenden zu bleiben. Es werden auch die Registerprobleme bei einer Neuauflage erörtert. Das Buch möchte eine Anleitung nicht nur zum Buchindexieren geben, sondern auch zum Indexieren von Datenbanken für Zeitschriften. Diesen Anspruch erfüllt das Buch jedoch weniger gut, denn auf die dort akuten Probleme wird nicht genügend eingegangen, wie z.B. auf die Problematik der Präkombinationen und einer retrievaltauglichen Syntax, auf das Problem des schleichenden Verlusts an Vokabularübersichtlichkeit, einer ausreichend hohen (anfänglich stets übertrieben erscheinenden) Indexierungsspezifität und des ständigen Kampfs mit den Controllern und Unternehmensberatern, welche glauben, vorrangig bei der Indexierung Kosten einsparen zu können, weil sie den Nutzen einer guten Indexierung nicht messen können, deswegen nicht zu würdigen wissen (und damit letztlich Fortbestand und Zukunft eines ganzen Dokumentationsunternehmens gefährden). Es ist wohltuend zu lesen, dass Perfektion beim Indexieren aus der Sicht späterer Nutzer "kaum" zu erreichen ist (was im angloamerikanischen Sprachgebrauch so viel bedeutet wie "überhaupt nicht").
    Zwar ist das Register zu diesem Buch ein Vorbild, und dem Verlag sei gedankt, dass dem Register neun Prozent vom Buchumfang zugestanden worden sind. Aber auch hier vermisst man noch immer Schlagwörter wie z.B. "Interpretation" oder "Cutter's Rule" (für die Notwendigkeit, die jeweils besttreffenden Schlagwörter aus dem Indexsprachenwortschatz beim Indexieren zu benutzen), alles Themen, die im Buch abgehandelt sind. Wohltuend ist auch die undogmatische Art, in welcher verschiedene formale Indexierungsvarianten als zulässige Alternativen nebeneinander gestellt werden. Unkonventionell ist es beispielsweise im Register zu diesem Buch, dass ein Schlagwort dort auch schon dann durch Untereinträge aufgegliedert wird, wenn es weniger als fünf bis sechs Fundstellenangaben hat. Wohltuend auch die Unvoreingenommenheit, in welcher die Stärken von nicht interpretierter Volltextverarbeitung dort hervorgehoben werden, wo sie zum Zug kommen können, wie z.B. bei simplen Erinnerungs- und Namenrecherchen. Ein wenig ins Auge springender Ratschlag an jeden, der beruflichen oder privaten Schriftwechsel führt oder Fachliteratur liest, verdient hervorgehoben zu werden. Es ist ratsam, frühzeitig mit einer wenigstens rudimentären Indexierung seines Schrifttums zu beginnen, nicht erst dann, wenn einem seine private Sammlung über den Kopf gewachsen ist und wenn sich die Suchfehlschläge häufen und an den Nerven zu zehren beginnen. Die Erinnerung an den Wortlaut der gesuchten Dokumente, worauf man sich anfänglich noch stützen kann, ist nämlich bald verblasst und steht dann nicht mehr als Suchhilfe zur Verfügung. Allerdings wird man für den Eigenbedarf keine derartig ausführliche Einführung in die Theorie und Praxis des Indexierens benötigen, wie sie in diesem Buch geboten wird. Hierfür gibt es andernorts gute Kurzfassungen. Wer dieses Buch als Indexierungsneuling gelesen hat, wird die Indexierungsarbeit und ein Buchregister fortan mit anderen Augen ansehen, nämlich als einen wesentlichen Teil eines Buchs, besonders wenn es sich um ein Nachschlagewerk handelt. Schon eine kurze Einblicknahme in das Buch könnte das Management, einen Verleger oder einen Buchautor davor warnen, all denjenigen Glauben zu schenken, welche behaupten, den Indexer durch ihr vollautomatisches Computerprogramm ersetzen zu können. Das Indexieren umfasst das Übersetzen als einen Teilschritt, nämlich das Übersetzen der Essenz eines Textes oder eines Bildes in eine Indexsprache mit ihrem geregelten Wortschatz. Was man in der Praxis von vollautomatischen Übersetzungen her kennt, selbst von den bisher am weitesten entwickelten Programmen, sollte hier zur Warnung dienen."
  18. Hedden, H.: Indexing specialities : Web Sites (2007) 0.01
    0.0131196305 = product of:
      0.068222076 = sum of:
        0.012364151 = weight(_text_:und in 1146) [ClassicSimilarity], result of:
          0.012364151 = score(doc=1146,freq=34.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.3028952 = fieldWeight in 1146, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1146)
        0.012364151 = weight(_text_:und in 1146) [ClassicSimilarity], result of:
          0.012364151 = score(doc=1146,freq=34.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.3028952 = fieldWeight in 1146, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1146)
        0.018569019 = weight(_text_:die in 1146) [ClassicSimilarity], result of:
          0.018569019 = score(doc=1146,freq=52.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.41279635 = fieldWeight in 1146, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1146)
        0.012364151 = weight(_text_:und in 1146) [ClassicSimilarity], result of:
          0.012364151 = score(doc=1146,freq=34.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.3028952 = fieldWeight in 1146, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1146)
        0.012560604 = weight(_text_:art in 1146) [ClassicSimilarity], result of:
          0.012560604 = score(doc=1146,freq=2.0), product of:
            0.08354246 = queryWeight, product of:
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.018417481 = queryNorm
            0.15034994 = fieldWeight in 1146, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1146)
      0.1923077 = coord(5/26)
    
    Footnote
    Rez. in: IWP 60(2009) H.4, S.245 (J. Fassbender): "Heather Heddens Buch über Website-Indexing gehört zur Indexing Specialties-Serie, die vom Information Today-Verlag in Zusammenarbeit mit der American Society of Indexers herausgegeben wird. Der Bereich Website-Indexing befasst sich mit der Index-Erstellung und -Pflege für Websites und Intranets - ähnlich zu Registern für Printpublikationen. Ein Website-Index hat oft die Bezeichnung Site Index oder A-Z Index und sollte zudem nicht mit Site Maps verwechselt werden. Das Buch füllt gerade auch hierzulande eine Riesenlücke aus: Nach Einschätzung des Deutschen Netzwerks der Indexer (DNI) ist das Wissensdefizit über Website-Indexing in der deutschen Web- und IT-Szene enorm. Die Autorin beginnt in diesem Sinne auch gleich mit zwei Kernaussagen des Buches: 1. Website-Indexing sei deshalb in der Web-Szene nicht so verbreitet, weil die Kenntnisse der Methoden zur Index-Erstellung fehlen und/oder die nötigen Tools unbekannt sind. 2. Ein guter Index stelle für viele Sites die effektivste Suchmethode dar - trotz der Konkurrenz zu Navigationsmenüs und Sucheingabe. Verdeutlicht werden sodann die Unterschiede zu Print-Registern, der bedeutendste betrifft die Locators (Fundstellen), die in der Regel keine Seitenangaben, sondern Links sind.
    Ein Kapitel über HTML-Grundlagen ist für diejenigen Indexer gedacht, die sich in diesem Bereich bisher nicht oder wenig auskennen. Ein weiteres Kapitel verdeutlicht die HTML-Tags, die speziell für die Website-Index-Erstellung von Bedeutung sind. Die Erläuterungen zu Cascading Style Sheets (CSS) ist ausreichend, aber etwas knapp; hier wären einige CSS-Techniken für Fortgeschrittene von Interesse gewesen. Auf die Möglichkeiten von Konvertierungs-Tools (wie HTML/Prep), mit denen Dokumente ins HTML-Format umgewandelt werden können, sowie von Online Help Authoring Tools wird ebenfalls eingegangen. Sie bilden eine gute Ergänzung zu den indexspezifischen HTML-Erläuterungen. Das Thema XML ist bewusst ausgeschlossen worden, um sich vom Fokus des Buches nicht zu weit zu entfernen. Dennoch hätte man sich als Leser zumindest ein paar grundsätzliche Erläuterungen im Kontext zum Website-Indexing gewünscht. Ein Kapitel über Dedicated-IndexingSoftware behandelt deren Möglichkeiten einer Index-Erstellung für Websites. Die Autorin argumentiert überzeugend, dass die großen Vorteile dieser von Indexern weltweit am meisten eingesetzten Software deren mächtige Möglichkeiten zur Erstellung, Bearbeitung, Veränderung und Kontrolle von Index-Einträgen sind, was einer hohen Index-Qualität zugute kommt. Die HTML-Ausgabe-Optionen dieser Software-Art sind allerdings etwas eingeschränkter, so dass der Output oft einer Nachbearbeitung bedarf. Es folgen zwei Kapitel über spezielle Website-Indexing-Software. XRefHT (gesprochen: Shreft) ist eine Freeware, die von Prof. Timothy Craven (University of Western Ontario) entwickelt wurde. HTML Indexer ist eine kommerziell erhältliche Software. Detailliert erläutert werden, welche Elemente von Web-Seiten von den beiden Programmen für Index-Einträge berücksichtigt werden, wie Index-Einträge und Querverweise erstellt und bearbeitet und wie die Register aktualisiert werden können.
    Zwei Kapitel behandeln die Vorgehensweise bei der Index-Erstellung sowie die vielfältigen Aspekte der Index-Gestaltung. Anhand vieler Beispiele werden die Besonderheiten, aber auch Parallelen zu Printregistern beleuchtet, z. B. bestehende und neu einzufügende Anker, Berücksichtigung verschiedener Seiten-Arten und -Formate, Umgang mit mehreren Locatorn pro Eintrag, Navigation innerhalb des Site Indexes. Das Schlusskapitel widmet sich den Business-Aspekten des Website-Indexing, auch aus Freelancer-Sicht. Erläutert werden z. B., welche Arten von Websites in Frage kommen und wie die Fortführung der Indexierung berücksichtigt wird. Der Index des Buches ist insgesamt von guter Qualität, wie man es von den Indexing-Büchern des Information Today-Verlages gewöhnt ist - ja sogar von exzellenter Qualität im Vergleich zu vielen unzureichenden Registern deutschsprachiger Fachbücher. Mit fünf Prozent Umfang im Verhältnis zur Anzahl der inhaltlichen Seiten hat der Index eine gute Standardlänge. Wesentliche Indexierungstechniken, wie Untereinträge, siehe- und siehe auch-Querverweise, vollständige Seitenbereichsangaben (d. h. ohne die wenig hilfreichen ff.-Angaben) kommen zum Einsatz. Einige Untereinträge tauchen allerdings nicht auch als Haupteintrag auf; so findet man z. B. "indexing rates" nur als Untereintrag des Haupteintrages "Business and index market". Die typographische und satztechnische Qualität des Registers ist ebenfalls gut, z. B. unterschiedliche Einrückungen von Untereinträgen und deren Zeilenumbrüchen. Insgesamt gesehen ist Indexing Specialties: Web Sites ein sehr empfehlenswertes Buch, das ein wichtiges (und bisher vernachlässigtes) Thema abdeckt."
  19. Rosemann, L.: ¬Die Volltextabfrage und das Alleinstellungsmerkmal des physischen Buches (2006) 0.01
    0.012976138 = product of:
      0.067475915 = sum of:
        0.012364151 = weight(_text_:und in 5142) [ClassicSimilarity], result of:
          0.012364151 = score(doc=5142,freq=34.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.3028952 = fieldWeight in 5142, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5142)
        0.012364151 = weight(_text_:und in 5142) [ClassicSimilarity], result of:
          0.012364151 = score(doc=5142,freq=34.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.3028952 = fieldWeight in 5142, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5142)
        0.023032034 = weight(_text_:die in 5142) [ClassicSimilarity], result of:
          0.023032034 = score(doc=5142,freq=80.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.5120109 = fieldWeight in 5142, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5142)
        0.012364151 = weight(_text_:und in 5142) [ClassicSimilarity], result of:
          0.012364151 = score(doc=5142,freq=34.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.3028952 = fieldWeight in 5142, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5142)
        0.0073514273 = weight(_text_:5 in 5142) [ClassicSimilarity], result of:
          0.0073514273 = score(doc=5142,freq=4.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.13678591 = fieldWeight in 5142, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5142)
      0.1923077 = coord(5/26)
    
    Content
    "Mit Google Print bzw. mittlerweile Google Book Search und dem Projekt zur Übernahme eines brancheneigenen Portals zur Pflege und Bereitstellung digitaler Daten aus Büchern namens "Volltextsuche online" initiiert durch den Börsenverein des Deutschen Buchhandels tritt ein Thema auf den Plan, das im deutschen Sprachraum lange vernachlässigt wurde: allgemein gesprochen, die Notwendigkeit der Texterschließung durch Indexierung - sei sie gedruckt in Form von Registern im Anhang von Sach- und wissenschaftlichen Büchern oder ungedruckt in Form sog. Volltextabfragen per Suchmaske am Computer. Angesichts der exponentiell wachsenden Menge an Wissen ist es gut, wenn hierzu Überlegungen angestellt werden und damit die Chance besteht, neben der wirtschaftlichen auch über die wissenstheoretische Dimension dieser Dienste nachzudenken. Zweifellos wird die Bedeutung der Indexierung von Fließtext aus wissenstheoretischer Sicht in Zukunft noch weiter wachsen und bedeutet im Falle einer Online-Plattform (wenn sie denn in naher Zukunft eine hinreichend große Menge an Büchern in ihrem Datenbestand aufweisen wird) die Erfüllung eines Traumes für die wissenschaftliche Arbeit: Es ist fantastisch, in Millisekunden das Vorhandensein von Personen, Termen, Phrasen und Wortkomposita zu ermitteln, um die Ein- bzw. Nichteinschlägigkeit eines Buches und - mehr noch -vieler Bücher für die eigene Arbeit eindeutig beantworten zu können. Es ist fantastisch, im Trefferfall die gesuchte Information sogleich auf dem Monitor exzerpieren zu können oder sich auch bei ausbleibenden Treffern das Durcharbeiten eines ganzen Buches, vielleicht sogar einer halben Bibliothek ersparen zu können. Dabei ist das letztere Resultat mindestens eine genauso wichtige Information wie die erste, denn auch sie wird- man darf fast sagen, so gut wie immer - zu einer unglaublichen Ersparnis an Zeit verhelfen; hier bedeutet allein schon die Verringerung der Datenmenge einen Zuwachs an Wissen unter minimalem Zeitaufwand. Angesichts dieser Diagnose ist die These zu wagen, die digitale Revolution beginnt erst wirklich bei der Nutzung der Volltexte selbst als Datenquelle zur Wissensabfrage.
    . . . Ich plädiere hier aus den oben genannten wissenstheoretischen Gründen nicht nur für die Aufrechterhaltung eines Mindestmaßes an Registern und Indexen im Anhang von physischen Büchern, sondern sogar für deren Ausbau, deren standardmäßige Zugabe bei Sach- und wissenschaftlichen Büchern gerade angesichts der Volltextnutzung durch Online-Abfragen. Warum? Hierzu sechs Argumente: 1. Wie oben bereits angerissen, lehrt die Erfahrung bei CD-ROM-Zugaben zu opulenten Werken, dass Parallelmedien mit Parallelinhalten von den Nutzern nicht wirklich angenommen werden; es ist umständlich, zur Auffindung bestimmter Textstellen den Computer befragen zu müssen und die Fundstellen dann zwischen zwei Buchdeckeln nachzuschlagen. 2. Über frei wählbare Suchbegriffe seitens des Nutzers ist noch keine Qualität der Suchergebnisse garantiert. Erst das Einrechnen entsprechender Verweisungsbegriffe und Synonyme in die Suchabfrage führt zu Qualität des Ergebnisses. Die scheinbar eingesparten Kosten einer einmaligen bzw. abonnementartigen Investition in eine Online-Verfügbarkeit der Buchinhalte vonseiten der Verlage werden dann über die Hintertür doch wieder fällig, wenn sich nämlich herausstellt, dass Nutzer bei der von ihnen gesuchten Information nicht fündig werden, weil sie unter dem "falschen", d.h. entweder ihnen nicht bekannten oder einem ihnen gerade nicht präsenten Schlagwort gesucht haben. Die Online-Suchabfrage, die auf den ersten Blick höchst nutzerfreundlich erscheint, da eine ungeheure Menge an Titeln die Abfrage umfasst, erweist sich womöglich als wenig brauchbar, wenn sich die Trefferqualität aus den genannten Gründen als beschränkt herausstellt. 3. Nur bei entsprechenden Restriktionen des Zugangs bzw. der präsentierten Textausschnitte werden die Verlage es gewährleistet sehen, dass die Nutzerin, der Nutzer nicht vom Kauf des physischen Buches Abstand nehmen. Nur wenn die Nutzer wissen, dass ihnen gerade jene Informationen am Bildschirm vorenthalten werden, die sie im zu erwerbenden Buch mit Gewissheit finden werden, werden sie das Buch noch erwerben wollen. Wer auf die Schnelle nur ein Kochrezept aus einem teuer bebilderten Kochbuch der Oberklasse abrufen kann, wird das teure Kochbuch eben nicht mehr kaufen. Analog stellt sich die Frage, ob nicht aus diesem Grunde auch Bibliotheken erwägen werden, angesichts der elektronischen Präsenz teuerer physischer Bücher auf den Erwerb der Letzteren zu verzichten, wohl wissend, dass den Wissenschaftlern im Zweifel einige Mausklicks genügen, um die gewünschte Begriffsrecherche erschöpfend beantwortet zu finden.
    4. Vermutlich wird sich aufgrund der genannten Gründe der Buchservice Volltextsuche als heterogen darstellen: Einige Verlage werden gar nicht mitspielen, andere werden ein Buch im Vollzugriff, ein anderes nur zum Teil, ein drittes nur als Metainformation usw. indizieren lassen. Dies wird letztlich ebenfalls die Trefferqualität schmälern, da der Nutzer dann wiederum wissen muss, genau welche Informationen und Texte ihm bei seiner Suche vorenthalten werden. Das gedruckte Sachbuch wird gegen seinen eigenen digitalen Klon ein Alleinstellungsmerkmal brauchen, um weiterhin attraktiv zu sein. 5. Ein solches Alleinstellungsmerkmal würde m.E. maßgeblich durch die Erstellung von gedruckten Registern bereits in der Druckausgabe erreicht werden. Damit würde die Druckausgabe tatsächlich an Wert gewinnen und der Buchkäufer erhielte einen echten Mehrwert. Zum einen spiegelt sich bereits in der Erstellung konventioneller gedruckter Register die zweite digitale Revolution wider: Moderne Registererstellung basiert heutzutage ebenfalls auf der digitalen Verwertung des Volltextes. Zum anderen erfordert das "Registermachen" zugleich die Erbringung jener o.g. sachdienlichen Mehrinformationen wie Verweisungsbegriffe, vernünftige Klassifizierungen, nicht-redundante Begriffsauswahl etc., die nur begrenzt automatisierbar sind und Fachwissen erfordern. Erst diese beiden Komponenten lassen die Indexierung schlussendlich zu einer hochwertigen Aufbereitung sequentieller Information werden. 6. Genau diese Mehr- und Metainformationen, die die vorausgegangene Erstellung eines Print-Vollregisters geliefert hat, lassen sich dann in den Suchalgorithmus der Online-Suche zur Qualitätssteigerung der Treffer einrechnen."
    Date
    5. 7.2006 17:58:17
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.4, S.217-218
  20. Bell, H.K.: Reading for fine indexing (1992) 0.01
    0.012868335 = product of:
      0.083644174 = sum of:
        0.020911044 = weight(_text_:23 in 6982) [ClassicSimilarity], result of:
          0.020911044 = score(doc=6982,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 6982, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=6982)
        0.020911044 = weight(_text_:23 in 6982) [ClassicSimilarity], result of:
          0.020911044 = score(doc=6982,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 6982, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=6982)
        0.020911044 = weight(_text_:23 in 6982) [ClassicSimilarity], result of:
          0.020911044 = score(doc=6982,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 6982, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=6982)
        0.020911044 = weight(_text_:23 in 6982) [ClassicSimilarity], result of:
          0.020911044 = score(doc=6982,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 6982, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=6982)
      0.15384616 = coord(4/26)
    
    Source
    Scholarly publishing. 23(1992) no.2, A.115-121

Languages

  • e 77
  • d 27

Types

  • a 82
  • m 17
  • s 3
  • x 3
  • el 1
  • r 1
  • More… Less…