Search (2 results, page 1 of 1)

  • × author_ss:"Großgarten, A."
  • × theme_ss:"Kataloganreicherung"
  1. Großgarten, A.: Katalogsysteme mit Inhaltsverzeichnissen angereichert : Das 180T-Projekt in Köln - oder wie verarbeitet man 180.000 Bücher in vier Monaten (2006) 0.02
    0.023550555 = product of:
      0.09420222 = sum of:
        0.018210711 = weight(_text_:und in 6030) [ClassicSimilarity], result of:
          0.018210711 = score(doc=6030,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.33931053 = fieldWeight in 6030, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6030)
        0.018210711 = weight(_text_:und in 6030) [ClassicSimilarity], result of:
          0.018210711 = score(doc=6030,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.33931053 = fieldWeight in 6030, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6030)
        0.021359377 = weight(_text_:der in 6030) [ClassicSimilarity], result of:
          0.021359377 = score(doc=6030,freq=8.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.3948779 = fieldWeight in 6030, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=6030)
        0.018210711 = weight(_text_:und in 6030) [ClassicSimilarity], result of:
          0.018210711 = score(doc=6030,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.33931053 = fieldWeight in 6030, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6030)
        0.018210711 = weight(_text_:und in 6030) [ClassicSimilarity], result of:
          0.018210711 = score(doc=6030,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.33931053 = fieldWeight in 6030, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6030)
      0.25 = coord(5/20)
    
    Abstract
    Angesichts der Allgegenwart von Amazon und Google sowie von zunehmend verwöhnten Internetnutzern sind die Bibliotheken gefordert, das Feld der Innovation nicht allein kommerziellen Anbietern zu überlassen. Das hbz hat in einer Kooperation mit der USB Köln und der ZB MED ein erfolgreiches Projekt zum Catalogue Enrichment gestartet, das in diesem Umfang in Deutschland bisher einmalig ist und für weitere Vorhaben richtungsweisend sein könnte.
  2. Großgarten, A.: ¬Das 180T-Projekt in Köln oder wie verarbeite ich 180.000 Bücher in vier Monaten : Eine erfolgreiche Kooperation des hbz, der USB Köln und der ZB MED (2005) 0.02
    0.021100776 = product of:
      0.084403105 = sum of:
        0.017632445 = weight(_text_:und in 3414) [ClassicSimilarity], result of:
          0.017632445 = score(doc=3414,freq=10.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.328536 = fieldWeight in 3414, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3414)
        0.017632445 = weight(_text_:und in 3414) [ClassicSimilarity], result of:
          0.017632445 = score(doc=3414,freq=10.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.328536 = fieldWeight in 3414, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3414)
        0.013873324 = weight(_text_:der in 3414) [ClassicSimilarity], result of:
          0.013873324 = score(doc=3414,freq=6.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.25648075 = fieldWeight in 3414, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3414)
        0.017632445 = weight(_text_:und in 3414) [ClassicSimilarity], result of:
          0.017632445 = score(doc=3414,freq=10.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.328536 = fieldWeight in 3414, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3414)
        0.017632445 = weight(_text_:und in 3414) [ClassicSimilarity], result of:
          0.017632445 = score(doc=3414,freq=10.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.328536 = fieldWeight in 3414, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3414)
      0.25 = coord(5/20)
    
    Abstract
    Unter dem Stichwort Catalogue Enrichment läuft derzeit in Köln ein Projekt, in dessen Verlauf die Inhaltsverzeichnisse von 180.000 Büchern gescannt, mit einer Texterkennung als Volltext aufgearbeitet und schließlich in die verschiedenen Katalogsysteme eingespeist werden. Das Projekt startete am 1. September 2005 und soll vor Weihnachten abgeschlossen werden. Noch läuft das Unterfangen unter dem Arbeitstitel 180T-Projekt (für 180.000 Bücher). Einen endgültigen Titel wird das Projekt in einer späteren Phase bekommen, denn, wie Frau Gitmans von der Projektkoordination des hbz (Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen) betont, es werde über die Fortsetzung des Catalogue Enrichments mit weiteren Partnerbibliotheken nachgedacht, so dass die Menge dann 180.000 Medien überschreite und ein neuer Titel gefunden werden müsse.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.8, S.444-456