Search (1174 results, page 1 of 59)

  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.25
    0.24627428 = sum of:
      0.07987115 = product of:
        0.23961344 = sum of:
          0.23961344 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
            0.23961344 = score(doc=562,freq=2.0), product of:
              0.42634475 = queryWeight, product of:
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.050288297 = queryNorm
              0.56201804 = fieldWeight in 562, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.046875 = fieldNorm(doc=562)
        0.33333334 = coord(1/3)
      0.16640313 = sum of:
        0.12552291 = weight(_text_:klassifizieren in 562) [ClassicSimilarity], result of:
          0.12552291 = score(doc=562,freq=2.0), product of:
            0.30857933 = queryWeight, product of:
              6.1362057 = idf(docFreq=259, maxDocs=44218)
              0.050288297 = queryNorm
            0.4067768 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1362057 = idf(docFreq=259, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.04088022 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
          0.04088022 = score(doc=562,freq=2.0), product of:
            0.17610104 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.050288297 = queryNorm
            0.23214069 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
    Theme
    Automatisches Klassifizieren
  2. Subramanian, S.; Shafer, K.E.: Clustering (2001) 0.17
    0.16640313 = product of:
      0.33280626 = sum of:
        0.33280626 = sum of:
          0.25104582 = weight(_text_:klassifizieren in 1046) [ClassicSimilarity], result of:
            0.25104582 = score(doc=1046,freq=2.0), product of:
              0.30857933 = queryWeight, product of:
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.050288297 = queryNorm
              0.8135536 = fieldWeight in 1046, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.09375 = fieldNorm(doc=1046)
          0.08176044 = weight(_text_:22 in 1046) [ClassicSimilarity], result of:
            0.08176044 = score(doc=1046,freq=2.0), product of:
              0.17610104 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050288297 = queryNorm
              0.46428138 = fieldWeight in 1046, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.09375 = fieldNorm(doc=1046)
      0.5 = coord(1/2)
    
    Date
    5. 5.2003 14:17:22
    Theme
    Automatisches Klassifizieren
  3. Reiner, U.: Automatische DDC-Klassifizierung bibliografischer Titeldatensätze der Deutschen Nationalbibliografie (2009) 0.10
    0.09730868 = product of:
      0.19461736 = sum of:
        0.19461736 = sum of:
          0.16736388 = weight(_text_:klassifizieren in 3284) [ClassicSimilarity], result of:
            0.16736388 = score(doc=3284,freq=8.0), product of:
              0.30857933 = queryWeight, product of:
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.050288297 = queryNorm
              0.54236907 = fieldWeight in 3284, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.03125 = fieldNorm(doc=3284)
          0.027253479 = weight(_text_:22 in 3284) [ClassicSimilarity], result of:
            0.027253479 = score(doc=3284,freq=2.0), product of:
              0.17610104 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050288297 = queryNorm
              0.15476047 = fieldWeight in 3284, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=3284)
      0.5 = coord(1/2)
    
    Abstract
    Das Klassifizieren von Objekten (z. B. Fauna, Flora, Texte) ist ein Verfahren, das auf menschlicher Intelligenz basiert. In der Informatik - insbesondere im Gebiet der Künstlichen Intelligenz (KI) - wird u. a. untersucht, inweit Verfahren, die menschliche Intelligenz benötigen, automatisiert werden können. Hierbei hat sich herausgestellt, dass die Lösung von Alltagsproblemen eine größere Herausforderung darstellt, als die Lösung von Spezialproblemen, wie z. B. das Erstellen eines Schachcomputers. So ist "Rybka" der seit Juni 2007 amtierende Computerschach-Weltmeistern. Inwieweit Alltagsprobleme mit Methoden der Künstlichen Intelligenz gelöst werden können, ist eine - für den allgemeinen Fall - noch offene Frage. Beim Lösen von Alltagsproblemen spielt die Verarbeitung der natürlichen Sprache, wie z. B. das Verstehen, eine wesentliche Rolle. Den "gesunden Menschenverstand" als Maschine (in der Cyc-Wissensbasis in Form von Fakten und Regeln) zu realisieren, ist Lenat's Ziel seit 1984. Bezüglich des KI-Paradeprojektes "Cyc" gibt es CycOptimisten und Cyc-Pessimisten. Das Verstehen der natürlichen Sprache (z. B. Werktitel, Zusammenfassung, Vorwort, Inhalt) ist auch beim intellektuellen Klassifizieren von bibliografischen Titeldatensätzen oder Netzpublikationen notwendig, um diese Textobjekte korrekt klassifizieren zu können. Seit dem Jahr 2007 werden von der Deutschen Nationalbibliothek nahezu alle Veröffentlichungen mit der Dewey Dezimalklassifikation (DDC) intellektuell klassifiziert.
    Date
    22. 1.2010 14:41:24
    Theme
    Automatisches Klassifizieren
  4. Yoon, Y.; Lee, C.; Lee, G.G.: ¬An effective procedure for constructing a hierarchical text classification system (2006) 0.10
    0.09706849 = product of:
      0.19413698 = sum of:
        0.19413698 = sum of:
          0.1464434 = weight(_text_:klassifizieren in 5273) [ClassicSimilarity], result of:
            0.1464434 = score(doc=5273,freq=2.0), product of:
              0.30857933 = queryWeight, product of:
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.050288297 = queryNorm
              0.47457293 = fieldWeight in 5273, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.0546875 = fieldNorm(doc=5273)
          0.047693588 = weight(_text_:22 in 5273) [ClassicSimilarity], result of:
            0.047693588 = score(doc=5273,freq=2.0), product of:
              0.17610104 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050288297 = queryNorm
              0.2708308 = fieldWeight in 5273, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=5273)
      0.5 = coord(1/2)
    
    Date
    22. 7.2006 16:24:52
    Theme
    Automatisches Klassifizieren
  5. Yi, K.: Automatic text classification using library classification schemes : trends, issues and challenges (2007) 0.10
    0.09706849 = product of:
      0.19413698 = sum of:
        0.19413698 = sum of:
          0.1464434 = weight(_text_:klassifizieren in 2560) [ClassicSimilarity], result of:
            0.1464434 = score(doc=2560,freq=2.0), product of:
              0.30857933 = queryWeight, product of:
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.050288297 = queryNorm
              0.47457293 = fieldWeight in 2560, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2560)
          0.047693588 = weight(_text_:22 in 2560) [ClassicSimilarity], result of:
            0.047693588 = score(doc=2560,freq=2.0), product of:
              0.17610104 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050288297 = queryNorm
              0.2708308 = fieldWeight in 2560, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2560)
      0.5 = coord(1/2)
    
    Date
    22. 9.2008 18:31:54
    Theme
    Automatisches Klassifizieren
  6. Die Deutsche Bibliothek erweitert Erschließung (2005) 0.08
    0.083201565 = product of:
      0.16640313 = sum of:
        0.16640313 = sum of:
          0.12552291 = weight(_text_:klassifizieren in 3360) [ClassicSimilarity], result of:
            0.12552291 = score(doc=3360,freq=2.0), product of:
              0.30857933 = queryWeight, product of:
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.050288297 = queryNorm
              0.4067768 = fieldWeight in 3360, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.046875 = fieldNorm(doc=3360)
          0.04088022 = weight(_text_:22 in 3360) [ClassicSimilarity], result of:
            0.04088022 = score(doc=3360,freq=2.0), product of:
              0.17610104 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050288297 = queryNorm
              0.23214069 = fieldWeight in 3360, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=3360)
      0.5 = coord(1/2)
    
    Content
    "Die Deutsche Bibliothek beginnt mit Bibligrafiejahrgang 2006 mit der Vergabe von DDC-Notationen. In einem Workshop wurde in Frankfurt zum Abschluss des DFG-Projektes DDC Deutsch das Konzept zur Erschließung mit RSWK-SWD und mit der Dewey-Dezimalklassifikation (DDC) vorgestellt. Für die Reihe A (Buchhandelsveröffentlichungen) wird die Erschließung mit RSWK-SWD ab Bibliografiejahrgang 2007 durch DDC-Notationen ergänzt. Die Reihen B (Nicht-Buchhandelsveröffentlichungen) und H (Hochschulschriften) werden bereits ab dem Bibliografiejahrgang 2006 durchgängig mit DDC-Notationen erschlossen. Die Deutsche Bibliothek hat zusammen mit der Fachhochschule Köln und der Universitätsbibliothek Regensburg das von der Deutschen Forschungsgemeinschaft geförderte Projekt DDC-Deutsch durchgeführt. Die deutsche Ausgabe der DDC 22 erscheint Ende 2005. Die Deutsche Bibliothek bietet zusätzlich ab Januar 2006 einen DDC-Web-Service an, der neben einer deutschen Version des amerikanischen WebDewey für das Klassifizieren mit DDC auch ein Retrievaltool enthält, das erstmalig die verbale Recherche nach DDC-erschlossenen Titeln ermöglicht."
  7. Die Deutsche Bibliothek erweitert Erschließung durch Vergabe von DDC-Notationen (2005) 0.08
    0.083201565 = product of:
      0.16640313 = sum of:
        0.16640313 = sum of:
          0.12552291 = weight(_text_:klassifizieren in 3477) [ClassicSimilarity], result of:
            0.12552291 = score(doc=3477,freq=2.0), product of:
              0.30857933 = queryWeight, product of:
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.050288297 = queryNorm
              0.4067768 = fieldWeight in 3477, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.046875 = fieldNorm(doc=3477)
          0.04088022 = weight(_text_:22 in 3477) [ClassicSimilarity], result of:
            0.04088022 = score(doc=3477,freq=2.0), product of:
              0.17610104 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050288297 = queryNorm
              0.23214069 = fieldWeight in 3477, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=3477)
      0.5 = coord(1/2)
    
    Content
    "Die Deutsche Bibliothek beginnt mit Bibligrafiejahrgang 2006 mit der Vergabe von DDC-Notationen. In einem Workshop wurde in Frankfurt zum Abschluss des DFG-Projektes DDC Deutsch das Konzept zur Erschließung mit RSWK-SWD und mit der Dewey-Dezimalklassifikation (DDC) vorgestellt. Für die Reihe A (Buchhandelsveröffentlichungen) wird die Erschließung mit RSWK-SWD ab Bibliografiejahrgang 2007 durch DDC-Notationen ergänzt. Die Reihen B (Nicht-Buchhandelsveröffentlichungen) und H (Hochschulschriften) werden bereits ab dem Bibliografiejahrgang 2006 durchgängig mit DDC-Notationen erschlossen. Die Deutsche Bibliothek hat zusammen mit der Fachhochschule Köln und der Universitätsbibliothek Regensburg das von der Deutschen Forschungsgemeinschaft geförderte Projekt DDC-Deutsch durchgeführt. Die deutsche Ausgabe der DDC 22 erscheint Ende 2005. Die Deutsche Bibliothek bietet zusätzlich ab Januar 2006 einen DDC-Web-Service an, der neben einer deutschen Version des amerikanischen WebDewey für das Klassifizieren mit DDC auch ein Retrievaltool enthält, das erstmalig die verbale Recherche nach DDC-erschlossenen Titeln ermöglicht."
  8. Liu, R.-L.: Context recognition for hierarchical text classification (2009) 0.08
    0.083201565 = product of:
      0.16640313 = sum of:
        0.16640313 = sum of:
          0.12552291 = weight(_text_:klassifizieren in 2760) [ClassicSimilarity], result of:
            0.12552291 = score(doc=2760,freq=2.0), product of:
              0.30857933 = queryWeight, product of:
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.050288297 = queryNorm
              0.4067768 = fieldWeight in 2760, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.046875 = fieldNorm(doc=2760)
          0.04088022 = weight(_text_:22 in 2760) [ClassicSimilarity], result of:
            0.04088022 = score(doc=2760,freq=2.0), product of:
              0.17610104 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050288297 = queryNorm
              0.23214069 = fieldWeight in 2760, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=2760)
      0.5 = coord(1/2)
    
    Date
    22. 3.2009 19:11:54
    Theme
    Automatisches Klassifizieren
  9. Pfeffer, M.: Automatische Vergabe von RVK-Notationen mittels fallbasiertem Schließen (2009) 0.08
    0.083201565 = product of:
      0.16640313 = sum of:
        0.16640313 = sum of:
          0.12552291 = weight(_text_:klassifizieren in 3051) [ClassicSimilarity], result of:
            0.12552291 = score(doc=3051,freq=2.0), product of:
              0.30857933 = queryWeight, product of:
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.050288297 = queryNorm
              0.4067768 = fieldWeight in 3051, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.046875 = fieldNorm(doc=3051)
          0.04088022 = weight(_text_:22 in 3051) [ClassicSimilarity], result of:
            0.04088022 = score(doc=3051,freq=2.0), product of:
              0.17610104 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050288297 = queryNorm
              0.23214069 = fieldWeight in 3051, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=3051)
      0.5 = coord(1/2)
    
    Date
    22. 8.2009 19:51:28
    Theme
    Automatisches Klassifizieren
  10. Wu, M.; Fuller, M.; Wilkinson, R.: Using clustering and classification approaches in interactive retrieval (2001) 0.07
    0.0732217 = product of:
      0.1464434 = sum of:
        0.1464434 = product of:
          0.2928868 = sum of:
            0.2928868 = weight(_text_:klassifizieren in 2666) [ClassicSimilarity], result of:
              0.2928868 = score(doc=2666,freq=2.0), product of:
                0.30857933 = queryWeight, product of:
                  6.1362057 = idf(docFreq=259, maxDocs=44218)
                  0.050288297 = queryNorm
                0.94914585 = fieldWeight in 2666, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1362057 = idf(docFreq=259, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2666)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Automatisches Klassifizieren
  11. Kleinoeder, H.H.; Puzicha, J.: Automatische Katalogisierung am Beispiel einer Pilotanwendung (2002) 0.07
    0.0732217 = product of:
      0.1464434 = sum of:
        0.1464434 = product of:
          0.2928868 = sum of:
            0.2928868 = weight(_text_:klassifizieren in 1154) [ClassicSimilarity], result of:
              0.2928868 = score(doc=1154,freq=2.0), product of:
                0.30857933 = queryWeight, product of:
                  6.1362057 = idf(docFreq=259, maxDocs=44218)
                  0.050288297 = queryNorm
                0.94914585 = fieldWeight in 1154, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1362057 = idf(docFreq=259, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1154)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Automatisches Klassifizieren
  12. Fong, A.C.M.: Mining a Web citation database for document clustering (2002) 0.07
    0.0732217 = product of:
      0.1464434 = sum of:
        0.1464434 = product of:
          0.2928868 = sum of:
            0.2928868 = weight(_text_:klassifizieren in 3940) [ClassicSimilarity], result of:
              0.2928868 = score(doc=3940,freq=2.0), product of:
                0.30857933 = queryWeight, product of:
                  6.1362057 = idf(docFreq=259, maxDocs=44218)
                  0.050288297 = queryNorm
                0.94914585 = fieldWeight in 3940, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1362057 = idf(docFreq=259, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3940)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Automatisches Klassifizieren
  13. Mengle, S.; Goharian, N.: Passage detection using text classification (2009) 0.07
    0.06933464 = product of:
      0.13866928 = sum of:
        0.13866928 = sum of:
          0.10460243 = weight(_text_:klassifizieren in 2765) [ClassicSimilarity], result of:
            0.10460243 = score(doc=2765,freq=2.0), product of:
              0.30857933 = queryWeight, product of:
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.050288297 = queryNorm
              0.33898067 = fieldWeight in 2765, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2765)
          0.03406685 = weight(_text_:22 in 2765) [ClassicSimilarity], result of:
            0.03406685 = score(doc=2765,freq=2.0), product of:
              0.17610104 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050288297 = queryNorm
              0.19345059 = fieldWeight in 2765, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2765)
      0.5 = coord(1/2)
    
    Date
    22. 3.2009 19:14:43
    Theme
    Automatisches Klassifizieren
  14. Major, R.L.; Ragsdale, C.T.: ¬An aggregation approach to the classification problem using multiple prediction experts (2000) 0.06
    0.062761456 = product of:
      0.12552291 = sum of:
        0.12552291 = product of:
          0.25104582 = sum of:
            0.25104582 = weight(_text_:klassifizieren in 3789) [ClassicSimilarity], result of:
              0.25104582 = score(doc=3789,freq=2.0), product of:
                0.30857933 = queryWeight, product of:
                  6.1362057 = idf(docFreq=259, maxDocs=44218)
                  0.050288297 = queryNorm
                0.8135536 = fieldWeight in 3789, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1362057 = idf(docFreq=259, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3789)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Automatisches Klassifizieren
  15. Chan, L.M.; Lin, X.; Zeng, M.L.: Structural and multilingual approaches to subject access on the Web (2000) 0.06
    0.062761456 = product of:
      0.12552291 = sum of:
        0.12552291 = product of:
          0.25104582 = sum of:
            0.25104582 = weight(_text_:klassifizieren in 507) [ClassicSimilarity], result of:
              0.25104582 = score(doc=507,freq=2.0), product of:
                0.30857933 = queryWeight, product of:
                  6.1362057 = idf(docFreq=259, maxDocs=44218)
                  0.050288297 = queryNorm
                0.8135536 = fieldWeight in 507, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1362057 = idf(docFreq=259, maxDocs=44218)
                  0.09375 = fieldNorm(doc=507)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Automatisches Klassifizieren
  16. Shafer, K.E.: Automatic Subject Assignment via the Scorpion System (2001) 0.06
    0.062761456 = product of:
      0.12552291 = sum of:
        0.12552291 = product of:
          0.25104582 = sum of:
            0.25104582 = weight(_text_:klassifizieren in 1043) [ClassicSimilarity], result of:
              0.25104582 = score(doc=1043,freq=2.0), product of:
                0.30857933 = queryWeight, product of:
                  6.1362057 = idf(docFreq=259, maxDocs=44218)
                  0.050288297 = queryNorm
                0.8135536 = fieldWeight in 1043, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1362057 = idf(docFreq=259, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1043)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Automatisches Klassifizieren
  17. Yu, W.; Gong, Y.: Document clustering by concept factorization (2004) 0.06
    0.062761456 = product of:
      0.12552291 = sum of:
        0.12552291 = product of:
          0.25104582 = sum of:
            0.25104582 = weight(_text_:klassifizieren in 4084) [ClassicSimilarity], result of:
              0.25104582 = score(doc=4084,freq=2.0), product of:
                0.30857933 = queryWeight, product of:
                  6.1362057 = idf(docFreq=259, maxDocs=44218)
                  0.050288297 = queryNorm
                0.8135536 = fieldWeight in 4084, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1362057 = idf(docFreq=259, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4084)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Automatisches Klassifizieren
  18. Friedl, J.; Heiner-Freiling, M.: Dewey in der Praxis : Studienreisen zur Library of Congress und der British Library (2004) 0.06
    0.058832392 = product of:
      0.117664784 = sum of:
        0.117664784 = sum of:
          0.0887581 = weight(_text_:klassifizieren in 2814) [ClassicSimilarity], result of:
            0.0887581 = score(doc=2814,freq=4.0), product of:
              0.30857933 = queryWeight, product of:
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.050288297 = queryNorm
              0.28763464 = fieldWeight in 2814, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2814)
          0.028906683 = weight(_text_:22 in 2814) [ClassicSimilarity], result of:
            0.028906683 = score(doc=2814,freq=4.0), product of:
              0.17610104 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050288297 = queryNorm
              0.16414827 = fieldWeight in 2814, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2814)
      0.5 = coord(1/2)
    
    Content
    "Klassifikatorische Sacherschließung gilt in der bibliothekarischen Profession gemeinhin als Glasperlenspiel, und nur bei der systematischen Aufstellung von Freihandbeständen macht man von dieser Regel eine Ausnahme. An ihrem Kundennutzen wird aber sonst massiv gezweifelt, weil Benutzer im Zeitalter der "Googleisierung" kaum mit Hilfe von Notationen recherchieren. Viele bibliothekarische Führungskräfte betrachten die Vergabe von Notationen als Vergeudung kostbarer Arbeitszeit. Noch gibt es eine Vielzahl lokaler Systematiken, aber weder sind Bibliothekare bereit noch werden sie dazu angehalten, in die ständige Weiterentwicklung dieser Instrumente zu investieren. Dadurch geraten lokale Systematiken in eine evolutionäre Sackgasse. Irgendwann sterben sie einfach aus. Niemand scheint sie zunächst zu vermissen. Auf den ersten Blick könnte es plausible Gründe geben, keine weiteren Investitionen mehr in das klassifikatorische Humankapital zu tätigen. Auf den zweiten Blick zeigt sich aber, dass die Klassifizierung weiterhin integraler Bestandteil der inhaltlichen Erschließung bleiben sollte. Seit längerer Zeit wird die Pflege von Klassifikationen als sinnvolle Ergänzung der verbalen Sacherschließung für OPACs eingefordert. Schlagwörter alleine ermöglichen vielfach nur eine punktuelle Suche. Die gängigen Suchmaschinen mit ihrer Überfülle von Treffern haben das Interesse an Möglichkeiten zur systematischen Suche nach hochrelevanten Dokumenten im Netz gefördert. Und zu guter Letzt stellt sich auch nach wie vor die Frage nach vor Ort verfügbaren und über eine hierarchische fachliche Gliederung erschlossenen Bibliotheksbeständen. Recherchieren und Klassifizieren mit der Dewey-Dezimalklassifikation wird in den kommenden Jahren in den Bibliotheken der deutschsprachigen Länder zumindest für einen Teil des Sacherschließungspersonals zum Berufsalltag gehören. Bereits jetzt verwenden einige geistes- und sozialwissenschaftliche Spezialbibliotheken und virtuelle Fachbibliotheken die DDC 22 und WebDewey für die Erschließung. Die Schweizerische Landesbibliothek und eine Reihe international orientierter kleinerer Fachbibliotheken in Deutschland nutzen die DDC als Aufstellungssystematik. In Österreich wird sie, um es mit äußerster Vorsicht zu sagen, manchmal in Erwägung gezogen. Allen Widerständen und mancher berechtigter Kritik zum Trotz scheint die DDC im deutschsprachigen Raum an Verbreitung zu gewinnen. Wenn das DFG-Projekt DDC Deutsch in einigen Monaten zum Abschluss kommt, wird nicht nur eine deutsche Ausgabe der 22. Auflage der Dewey-Dezimalklassifikation vorliegen, sondern auch ein deutscher Dewey-Web-Service von Der Deutschen Bibliothek angeboten werden. Spätestens dann sollte einer breiteren Anwendung der DDC im deutschsprachigen Raum nichts mehr im Wege stehen. Die DDC könnte zu einem Wachstumsmarkt werden.
    So erschien es uns als am Projekt DDC Deutsch Beteiligten sinnvoll, die praktische Arbeit mit der Dewey-Dezimalklassifikation dort zu beobachten, wo sie ihre traditionelle Basis hat und bis heute eine zentrale Rolle für die internationale Dewey Community spielt, in der Library of Congress (LC). Zum Vergleich bot sich die British Library (BL) an, die die DDC mit Unterbrechungen seit etwa zwanzig Jahren als praktisches Arbeitsinstrument verwendet. Sie hat jedoch nicht den hohen Anspruch, Maßstäbe für die Regeln der Klassifikation zu setzen und die Pflege und inhaltliche Fortentwicklung an zentraler Stelle mitzubestimmen. Der "natürliche" Ort dafür ist noch immer die Decimal Classification Division der LC. Ausgangsbasis für den "Hunger nach DDC-Praxis" waren durchaus unterschiedliche Interessen am Arbeiten mit Dewey, bedingt durch verschiedene Aufgaben im Rahmen des Projekts DDC Deutsch. Für den Leiter der wirtschaftswissenschaftlichen FachbereichsbibIiothek der Universitätsbibliothek Wien steht in der Rolle eines Fachreferenten die fachliche Beschäftigung mit der DDC im Vordergrund, wenn er um Begutachtung und Korrekturlesen der für die Wirtschaft relevanten Teile der deutschen Übersetzung und die Anreicherung der wirtschaftswissenschaftlichen Fachterminologie gebeten wird. Gleichzeitig hat er sich vorgenommen, die Sacherschließung in der eigenen FachbereichsbibIiothek durch die Vergabe von DDC-Notationen auf eine breitere, international anschlussfähige Basis zu stellen. Das Klassifizieren will jedoch gelernt sein. Dies ist, beginnend mit einer einwöchigen Schulung durch eine erfahrene Kennerin der Dewey-Dezimalklassifikation aus der LC, ein langwieriger Prozess. Die Auswertung bereits von der LC klassifizierter Titel für die retrospektive Katalogisierung bildet dafür nur einen ersten Schritt. Spätestens bei der selbständigen Notationsvergabe für aktuelle deutschsprachige Titel stößt man bald an die Grenzen der eigenen Klassifizierungskompetenz. Ein Besuch im "heiligen Gral", der Decimal Classification Division der LC, erschien schon deshalb äußerst sinnvoll, weil man sich unter Anleitung eines erfahrenen persönlichen Supervisors an der täglichen Klassifizierungsarbeit beteiligen kann und an Hand konkreter Beispiele eine systematische Einführung in schwierige Bereiche der DDC bekommt. (An dieser Stelle möchte ich meinen ganz besonderen Dank an zwei Menschen aussprechen, ohne deren Hilfe das Praktikum an der Library of Congress nicht zustande gekommen wäre: Nobuko Ohashi und Peter Berger, J.F.)"
  19. Khoo, C.S.G.; Ng, K.; Ou, S.: ¬An exploratory study of human clustering of Web pages (2003) 0.06
    0.05546771 = product of:
      0.11093542 = sum of:
        0.11093542 = sum of:
          0.08368194 = weight(_text_:klassifizieren in 2741) [ClassicSimilarity], result of:
            0.08368194 = score(doc=2741,freq=2.0), product of:
              0.30857933 = queryWeight, product of:
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.050288297 = queryNorm
              0.27118453 = fieldWeight in 2741, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1362057 = idf(docFreq=259, maxDocs=44218)
                0.03125 = fieldNorm(doc=2741)
          0.027253479 = weight(_text_:22 in 2741) [ClassicSimilarity], result of:
            0.027253479 = score(doc=2741,freq=2.0), product of:
              0.17610104 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050288297 = queryNorm
              0.15476047 = fieldWeight in 2741, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=2741)
      0.5 = coord(1/2)
    
    Date
    12. 9.2004 9:56:22
    Theme
    Automatisches Klassifizieren
  20. Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008) 0.05
    0.053247433 = product of:
      0.10649487 = sum of:
        0.10649487 = product of:
          0.3194846 = sum of:
            0.3194846 = weight(_text_:3a in 140) [ClassicSimilarity], result of:
              0.3194846 = score(doc=140,freq=2.0), product of:
                0.42634475 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.050288297 = queryNorm
                0.7493574 = fieldWeight in 140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=140)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Vgl. auch: https://studylibde.com/doc/13053640/richard-schrodt. Vgl. auch: http%3A%2F%2Fwww.univie.ac.at%2FGermanistik%2Fschrodt%2Fvorlesung%2Fwissenschaftssprache.doc&usg=AOvVaw1lDLDR6NFf1W0-oC9mEUJf.

Languages

Types

Themes