Search (26 results, page 1 of 2)

  • × theme_ss:"Automatisches Klassifizieren"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.06
    0.060519747 = product of:
      0.09077962 = sum of:
        0.07228174 = product of:
          0.21684521 = sum of:
            0.21684521 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.21684521 = score(doc=562,freq=2.0), product of:
                0.3858332 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04550987 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.018497877 = product of:
          0.036995754 = sum of:
            0.036995754 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.036995754 = score(doc=562,freq=2.0), product of:
                0.15936781 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550987 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Zhang, X: Rough set theory based automatic text categorization (2005) 0.02
    0.023506848 = product of:
      0.07052054 = sum of:
        0.07052054 = product of:
          0.14104109 = sum of:
            0.14104109 = weight(_text_:2005 in 2822) [ClassicSimilarity], result of:
              0.14104109 = score(doc=2822,freq=7.0), product of:
                0.19702037 = queryWeight, product of:
                  4.329179 = idf(docFreq=1583, maxDocs=44218)
                  0.04550987 = queryNorm
                0.7158706 = fieldWeight in 2822, product of:
                  2.6457512 = tf(freq=7.0), with freq of:
                    7.0 = termFreq=7.0
                  4.329179 = idf(docFreq=1583, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2822)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Der Forschungsbericht "Rough Set Theory Based Automatic Text Categorization and the Handling of Semantic Heterogeneity" von Xueying Zhang ist in Buchform auf Englisch erschienen. Zhang hat in ihrer Arbeit ein Verfahren basierend auf der Rough Set Theory entwickelt, das Beziehungen zwischen Schlagwörtern verschiedener Vokabulare herstellt. Sie war von 2003 bis 2005 Mitarbeiterin des IZ und ist seit Oktober 2005 Associate Professor an der Nanjing University of Science and Technology.
    Year
    2005
  3. Oberhauser, O.: Automatisches Klassifizieren und Bibliothekskataloge (2005) 0.01
    0.01346524 = product of:
      0.040395718 = sum of:
        0.040395718 = product of:
          0.080791436 = sum of:
            0.080791436 = weight(_text_:2005 in 4099) [ClassicSimilarity], result of:
              0.080791436 = score(doc=4099,freq=3.0), product of:
                0.19702037 = queryWeight, product of:
                  4.329179 = idf(docFreq=1583, maxDocs=44218)
                  0.04550987 = queryNorm
                0.41006643 = fieldWeight in 4099, product of:
                  1.7320508 = tf(freq=3.0), with freq of:
                    3.0 = termFreq=3.0
                  4.329179 = idf(docFreq=1583, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4099)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Year
    2005
  4. Pfister, J.: Clustering von Patent-Dokumenten am Beispiel der Datenbanken des Fachinformationszentrums Karlsruhe (2006) 0.01
    0.01256494 = product of:
      0.03769482 = sum of:
        0.03769482 = product of:
          0.07538964 = sum of:
            0.07538964 = weight(_text_:2005 in 5976) [ClassicSimilarity], result of:
              0.07538964 = score(doc=5976,freq=2.0), product of:
                0.19702037 = queryWeight, product of:
                  4.329179 = idf(docFreq=1583, maxDocs=44218)
                  0.04550987 = queryNorm
                0.38264894 = fieldWeight in 5976, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.329179 = idf(docFreq=1583, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5976)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  5. Automatische Klassifikation und Extraktion in Documentum (2005) 0.01
    0.012416821 = product of:
      0.037250463 = sum of:
        0.037250463 = product of:
          0.074500926 = sum of:
            0.074500926 = weight(_text_:2005 in 3974) [ClassicSimilarity], result of:
              0.074500926 = score(doc=3974,freq=5.0), product of:
                0.19702037 = queryWeight, product of:
                  4.329179 = idf(docFreq=1583, maxDocs=44218)
                  0.04550987 = queryNorm
                0.37813818 = fieldWeight in 3974, product of:
                  2.236068 = tf(freq=5.0), with freq of:
                    5.0 = termFreq=5.0
                  4.329179 = idf(docFreq=1583, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3974)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.276
    Year
    2005
  6. Lim, C.S.; Lee, K.J.; Kim, G.C.: Multiple sets of features for automatic genre classification of web documents (2005) 0.01
    0.012416821 = product of:
      0.037250463 = sum of:
        0.037250463 = product of:
          0.074500926 = sum of:
            0.074500926 = weight(_text_:2005 in 1048) [ClassicSimilarity], result of:
              0.074500926 = score(doc=1048,freq=5.0), product of:
                0.19702037 = queryWeight, product of:
                  4.329179 = idf(docFreq=1583, maxDocs=44218)
                  0.04550987 = queryNorm
                0.37813818 = fieldWeight in 1048, product of:
                  2.236068 = tf(freq=5.0), with freq of:
                    5.0 = termFreq=5.0
                  4.329179 = idf(docFreq=1583, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1048)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Information processing and management. 41(2005) no.5, S.1263-1276
    Year
    2005
  7. Subramanian, S.; Shafer, K.E.: Clustering (2001) 0.01
    0.012331918 = product of:
      0.036995754 = sum of:
        0.036995754 = product of:
          0.07399151 = sum of:
            0.07399151 = weight(_text_:22 in 1046) [ClassicSimilarity], result of:
              0.07399151 = score(doc=1046,freq=2.0), product of:
                0.15936781 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550987 = queryNorm
                0.46428138 = fieldWeight in 1046, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1046)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    5. 5.2003 14:17:22
  8. Schek, M.: Automatische Klassifizierung und Visualisierung im Archiv der Süddeutschen Zeitung (2005) 0.01
    0.010284246 = product of:
      0.030852737 = sum of:
        0.030852737 = product of:
          0.061705474 = sum of:
            0.061705474 = weight(_text_:2005 in 4884) [ClassicSimilarity], result of:
              0.061705474 = score(doc=4884,freq=7.0), product of:
                0.19702037 = queryWeight, product of:
                  4.329179 = idf(docFreq=1583, maxDocs=44218)
                  0.04550987 = queryNorm
                0.31319338 = fieldWeight in 4884, product of:
                  2.6457512 = tf(freq=7.0), with freq of:
                    7.0 = termFreq=7.0
                  4.329179 = idf(docFreq=1583, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4884)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    DIZ definiert das Wissensnetz als Alleinstellungsmerkmal und wendet beträchtliche personelle Ressourcen für die Aktualisierung und Oualitätssicherung der Dossiers auf. Nach der Umstellung auf den komplett digitalisierten Workflow im April 2001 identifizierte DIZ vier Ansatzpunkte, wie die Aufwände auf der Inputseite (Lektorat) zu optimieren sind und gleichzeitig auf der Outputseite (Recherche) das Wissensnetz besser zu vermarkten ist: 1. (Teil-)Automatische Klassifizierung von Pressetexten (Vorschlagwesen) 2. Visualisierung des Wissensnetzes (Topic Mapping) 3. (Voll-)Automatische Klassifizierung und Optimierung des Wissensnetzes 4. Neue Retrievalmöglichkeiten (Clustering, Konzeptsuche) Die Projekte 1 und 2 "Automatische Klassifizierung und Visualisierung" starteten zuerst und wurden beschleunigt durch zwei Entwicklungen: - Der Bayerische Rundfunk (BR), ursprünglich Mitbegründer und 50%-Gesellschafter der DIZ München GmbH, entschloss sich aus strategischen Gründen, zum Ende 2003 aus der Kooperation auszusteigen. - Die Medienkrise, hervorgerufen durch den massiven Rückgang der Anzeigenerlöse, erforderte auch im Süddeutschen Verlag massive Einsparungen und die Suche nach neuen Erlösquellen. Beides führte dazu, dass die Kapazitäten im Bereich Pressedokumentation von ursprünglich rund 20 (nur SZ, ohne BR-Anteil) auf rund 13 zum 1. Januar 2004 sanken und gleichzeitig die Aufwände für die Pflege des Wissensnetzes unter verstärkten Rechtfertigungsdruck gerieten. Für die Projekte 1 und 2 ergaben sich daraus drei quantitative und qualitative Ziele: - Produktivitätssteigerung im Lektorat - Konsistenzverbesserung im Lektorat - Bessere Vermarktung und intensivere Nutzung der Dossiers in der Recherche Alle drei genannten Ziele konnten erreicht werden, wobei insbesondere die Produktivität im Lektorat gestiegen ist. Die Projekte 1 und 2 "Automatische Klassifizierung und Visualisierung" sind seit Anfang 2004 erfolgreich abgeschlossen. Die Folgeprojekte 3 und 4 laufen seit Mitte 2004 und sollen bis Mitte 2005 abgeschlossen sein. Im folgenden wird in Abschnitt 2 die Produktauswahl und Arbeitsweise der Automatischen Klassifizierung beschrieben. Abschnitt 3 schildert den Einsatz der Wissensnetz-Visualisierung in Lektorat und Recherche. Abschnitt 4 fasst die Ergebnisse der Projekte 1 und 2 zusammen und gibt einen Ausblick auf die Ziele der Projekte 3 und 4.
    Source
    Medienwirtschaft. 2(2005) H.1, S.20-24
    Year
    2005
  9. Reiner, U.: Automatische DDC-Klassifizierung von bibliografischen Titeldatensätzen (2009) 0.01
    0.010276599 = product of:
      0.030829797 = sum of:
        0.030829797 = product of:
          0.061659593 = sum of:
            0.061659593 = weight(_text_:22 in 611) [ClassicSimilarity], result of:
              0.061659593 = score(doc=611,freq=2.0), product of:
                0.15936781 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550987 = queryNorm
                0.38690117 = fieldWeight in 611, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=611)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 8.2009 12:54:24
  10. HaCohen-Kerner, Y. et al.: Classification using various machine learning methods and combinations of key-phrases and visual features (2016) 0.01
    0.010276599 = product of:
      0.030829797 = sum of:
        0.030829797 = product of:
          0.061659593 = sum of:
            0.061659593 = weight(_text_:22 in 2748) [ClassicSimilarity], result of:
              0.061659593 = score(doc=2748,freq=2.0), product of:
                0.15936781 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550987 = queryNorm
                0.38690117 = fieldWeight in 2748, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2748)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    1. 2.2016 18:25:22
  11. Bock, H.-H.: Datenanalyse zur Strukturierung und Ordnung von Information (1989) 0.01
    0.007193619 = product of:
      0.021580856 = sum of:
        0.021580856 = product of:
          0.043161713 = sum of:
            0.043161713 = weight(_text_:22 in 141) [ClassicSimilarity], result of:
              0.043161713 = score(doc=141,freq=2.0), product of:
                0.15936781 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550987 = queryNorm
                0.2708308 = fieldWeight in 141, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=141)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Pages
    S.1-22
  12. Dubin, D.: Dimensions and discriminability (1998) 0.01
    0.007193619 = product of:
      0.021580856 = sum of:
        0.021580856 = product of:
          0.043161713 = sum of:
            0.043161713 = weight(_text_:22 in 2338) [ClassicSimilarity], result of:
              0.043161713 = score(doc=2338,freq=2.0), product of:
                0.15936781 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550987 = queryNorm
                0.2708308 = fieldWeight in 2338, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2338)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 9.1997 19:16:05
  13. Automatic classification research at OCLC (2002) 0.01
    0.007193619 = product of:
      0.021580856 = sum of:
        0.021580856 = product of:
          0.043161713 = sum of:
            0.043161713 = weight(_text_:22 in 1563) [ClassicSimilarity], result of:
              0.043161713 = score(doc=1563,freq=2.0), product of:
                0.15936781 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550987 = queryNorm
                0.2708308 = fieldWeight in 1563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1563)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    5. 5.2003 9:22:09
  14. Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998) 0.01
    0.007193619 = product of:
      0.021580856 = sum of:
        0.021580856 = product of:
          0.043161713 = sum of:
            0.043161713 = weight(_text_:22 in 1673) [ClassicSimilarity], result of:
              0.043161713 = score(doc=1673,freq=2.0), product of:
                0.15936781 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550987 = queryNorm
                0.2708308 = fieldWeight in 1673, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1673)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    1. 8.1996 22:08:06
  15. Yoon, Y.; Lee, C.; Lee, G.G.: ¬An effective procedure for constructing a hierarchical text classification system (2006) 0.01
    0.007193619 = product of:
      0.021580856 = sum of:
        0.021580856 = product of:
          0.043161713 = sum of:
            0.043161713 = weight(_text_:22 in 5273) [ClassicSimilarity], result of:
              0.043161713 = score(doc=5273,freq=2.0), product of:
                0.15936781 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550987 = queryNorm
                0.2708308 = fieldWeight in 5273, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5273)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 7.2006 16:24:52
  16. Yi, K.: Automatic text classification using library classification schemes : trends, issues and challenges (2007) 0.01
    0.007193619 = product of:
      0.021580856 = sum of:
        0.021580856 = product of:
          0.043161713 = sum of:
            0.043161713 = weight(_text_:22 in 2560) [ClassicSimilarity], result of:
              0.043161713 = score(doc=2560,freq=2.0), product of:
                0.15936781 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550987 = queryNorm
                0.2708308 = fieldWeight in 2560, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2560)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 9.2008 18:31:54
  17. Schek, M.: Automatische Klassifizierung in Erschließung und Recherche eines Pressearchivs (2006) 0.01
    0.00628247 = product of:
      0.01884741 = sum of:
        0.01884741 = product of:
          0.03769482 = sum of:
            0.03769482 = weight(_text_:2005 in 6043) [ClassicSimilarity], result of:
              0.03769482 = score(doc=6043,freq=2.0), product of:
                0.19702037 = queryWeight, product of:
                  4.329179 = idf(docFreq=1583, maxDocs=44218)
                  0.04550987 = queryNorm
                0.19132447 = fieldWeight in 6043, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.329179 = idf(docFreq=1583, maxDocs=44218)
                  0.03125 = fieldNorm(doc=6043)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  18. Oberhauser, O.: Automatisches Klassifizieren : Entwicklungsstand - Methodik - Anwendungsbereiche (2005) 0.01
    0.0062084105 = product of:
      0.018625231 = sum of:
        0.018625231 = product of:
          0.037250463 = sum of:
            0.037250463 = weight(_text_:2005 in 38) [ClassicSimilarity], result of:
              0.037250463 = score(doc=38,freq=5.0), product of:
                0.19702037 = queryWeight, product of:
                  4.329179 = idf(docFreq=1583, maxDocs=44218)
                  0.04550987 = queryNorm
                0.18906909 = fieldWeight in 38, product of:
                  2.236068 = tf(freq=5.0), with freq of:
                    5.0 = termFreq=5.0
                  4.329179 = idf(docFreq=1583, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=38)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Footnote
    Rez. in: VÖB-Mitteilungen 58(2005) H.3, S.102-104 (R.F. Müller); ZfBB 53(2006) H.5, S.282-283 (L. Svensson): "Das Sammeln und Verzeichnen elektronischer Ressourcen gehört in wissenschaftlichen Bibliotheken längst zum Alltag. Parallel dazu kündigt sich ein Paradigmenwechsel bei den Findmitteln an: Um einen effizienten und benutzerorientierten Zugang zu den gemischten Kollektionen bieten zu können, experimentieren einige bibliothekarische Diensteanbieter wie z. B. das hbz (http://suchen.hbz-nrw.de/dreilaender/), die Bibliothek der North Carolina State University (www.lib.ncsu.edu/) und demnächst vascoda (www.vascoda.de/) und der Librarians-Internet Index (www.lii.org/) zunehmend mit Suchmaschinentechnologie. Dabei wird angestrebt, nicht nur einen vollinvertierten Suchindex anzubieten, sondern auch das Browsing durch eine hierarchisch geordnete Klassifikation. Von den Daten in den deutschen Verbunddatenbanken ist jedoch nur ein kleiner Teil schon klassifikatorisch erschlossen. Fremddaten aus dem angloamerikanischen Bereich sind oft mit LCC und/oder DDC erschlossen, wobei die Library of Congress sich bei der DDCErschließung auf Titel, die hauptsächlich für die Public Libraries interessant sind, konzentriert. Die Deutsche Nationalbibliothek wird ab 2007 Printmedien und Hochschulschriften flächendeckend mit DDC erschließen. Es ist aber schon offensichtlich, dass v. a. im Bereich der elektronischen Publikationen die anfallenden Dokumentenmengen mit immer knapperen Personalressourcen nicht intellektuell erschlossen werden können, sondern dass neue Verfahren entwickelt werden müssen. Hier kommt Oberhausers Buch gerade richtig. Seit Anfang der 1990er Jahre sind mehrere Projekte zum Thema automatisches Klassifizieren durchgeführt worden. Wer sich in diese Thematik einarbeiten wollte oder sich für die Ergebnisse der größeren Projekte interessierte, konnte bislang auf keine Überblicksdarstellung zurückgreifen, sondern war auf eine Vielzahl von Einzeluntersuchungen sowie die Projektdokumentationen angewiesen. Oberhausers Darstellung, die auf einer Fülle von publizierter und grauer Literatur fußt, schließt diese Lücke. Das selbst gesetzte Ziel, einen guten Überblick über den momentanen Kenntnisstand und die Ergebnisse der einschlägigen Projekte verständlich zu vermitteln, erfüllt der Autor mit Bravour. Dabei ist anzumerken, dass er ein bibliothekarisches Grundwissen und mindestens grundlegende Kenntnisse über informationswissenschaftliche Grundbegriffe und Fragestellungen voraussetzt, wobei hier für den Einsteiger einige Hinweise auf einführende Darstellungen wünschenswert gewesen wären.
    Year
    2005
  19. Liu, R.-L.: Context recognition for hierarchical text classification (2009) 0.01
    0.006165959 = product of:
      0.018497877 = sum of:
        0.018497877 = product of:
          0.036995754 = sum of:
            0.036995754 = weight(_text_:22 in 2760) [ClassicSimilarity], result of:
              0.036995754 = score(doc=2760,freq=2.0), product of:
                0.15936781 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550987 = queryNorm
                0.23214069 = fieldWeight in 2760, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2760)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 3.2009 19:11:54
  20. Pfeffer, M.: Automatische Vergabe von RVK-Notationen mittels fallbasiertem Schließen (2009) 0.01
    0.006165959 = product of:
      0.018497877 = sum of:
        0.018497877 = product of:
          0.036995754 = sum of:
            0.036995754 = weight(_text_:22 in 3051) [ClassicSimilarity], result of:
              0.036995754 = score(doc=3051,freq=2.0), product of:
                0.15936781 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04550987 = queryNorm
                0.23214069 = fieldWeight in 3051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3051)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 8.2009 19:51:28