Search (66 results, page 1 of 4)

  • × theme_ss:"Automatisches Klassifizieren"
  1. Walther, R.: Möglichkeiten und Grenzen automatischer Klassifikationen von Web-Dokumenten (2001) 0.05
    0.0493717 = product of:
      0.07405755 = sum of:
        0.049221944 = weight(_text_:g in 1562) [ClassicSimilarity], result of:
          0.049221944 = score(doc=1562,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.29048425 = fieldWeight in 1562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1562)
        0.024835603 = product of:
          0.049671207 = sum of:
            0.049671207 = weight(_text_:von in 1562) [ClassicSimilarity], result of:
              0.049671207 = score(doc=1562,freq=8.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.41267726 = fieldWeight in 1562, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1562)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Automatische Klassifikationen von Web- und andern Textdokumenten ermöglichen es, betriebsinterne und externe Informationen geordnet zugänglich zu machen. Die Forschung zur automatischen Klassifikation hat sich in den letzten Jahren intensiviert. Das Resultat sind verschiedenen Methoden, die heute in der Praxis einzeln oder kombiniert für die Klassifikation im Einsatz sind. In der vorliegenden Lizenziatsarbeit werden neben allgemeinen Grundsätzen einige Methoden zur automatischen Klassifikation genauer betrachtet und ihre Möglichkeiten und Grenzen erörtert. Daneben erfolgt die Präsentation der Resultate aus einer Umfrage bei Anbieterrfirmen von Softwarelösungen zur automatische Klassifikation von Text-Dokumenten. Die Ausführungen dienen der myax internet AG als Basis, ein eigenes Klassifikations-Produkt zu entwickeln
    Footnote
    Lizenziatsarbeit an der Rechts- und Wirtschaftswissenschaftlichen Fakultät der Universität Bern, Institut für Wirtschaftsinformatik (Prof. G. Knolmayer)
  2. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.05
    0.04805174 = product of:
      0.07207761 = sum of:
        0.05374041 = product of:
          0.21496163 = sum of:
            0.21496163 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.21496163 = score(doc=562,freq=2.0), product of:
                0.38248172 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04511456 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.25 = coord(1/4)
        0.0183372 = product of:
          0.0366744 = sum of:
            0.0366744 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.0366744 = score(doc=562,freq=2.0), product of:
                0.1579835 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04511456 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  3. Greiner, G.: Intellektuelles und automatisches Klassifizieren (1981) 0.04
    0.037502434 = product of:
      0.1125073 = sum of:
        0.1125073 = weight(_text_:g in 1103) [ClassicSimilarity], result of:
          0.1125073 = score(doc=1103,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.663964 = fieldWeight in 1103, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.125 = fieldNorm(doc=1103)
      0.33333334 = coord(1/3)
    
  4. Reiner, U.: Automatische DDC-Klassifizierung von bibliografischen Titeldatensätzen (2009) 0.03
    0.03220115 = product of:
      0.09660344 = sum of:
        0.09660344 = sum of:
          0.035479434 = weight(_text_:von in 611) [ClassicSimilarity], result of:
            0.035479434 = score(doc=611,freq=2.0), product of:
              0.120363325 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.04511456 = queryNorm
              0.29476947 = fieldWeight in 611, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.078125 = fieldNorm(doc=611)
          0.061124 = weight(_text_:22 in 611) [ClassicSimilarity], result of:
            0.061124 = score(doc=611,freq=2.0), product of:
              0.1579835 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04511456 = queryNorm
              0.38690117 = fieldWeight in 611, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=611)
      0.33333334 = coord(1/3)
    
    Date
    22. 8.2009 12:54:24
  5. Bock, H.-H.: Datenanalyse zur Strukturierung und Ordnung von Information (1989) 0.03
    0.02860111 = product of:
      0.08580333 = sum of:
        0.08580333 = sum of:
          0.043016527 = weight(_text_:von in 141) [ClassicSimilarity], result of:
            0.043016527 = score(doc=141,freq=6.0), product of:
              0.120363325 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.04511456 = queryNorm
              0.357389 = fieldWeight in 141, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0546875 = fieldNorm(doc=141)
          0.0427868 = weight(_text_:22 in 141) [ClassicSimilarity], result of:
            0.0427868 = score(doc=141,freq=2.0), product of:
              0.1579835 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04511456 = queryNorm
              0.2708308 = fieldWeight in 141, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=141)
      0.33333334 = coord(1/3)
    
    Abstract
    Aufgabe der Datenanalyse ist es, Daten zu ordnen, übersichtlich darzustellen, verborgene und natürlich Strukturen zu entdecken, die diesbezüglich wesentlichen Eigenschaften herauszukristallisieren und zweckmäßige Modelle zur Beschreibung von Daten aufzustellen. Es wird ein Einblick in die Methoden und Prinzipien der Datenanalyse vermittelt. Anhand typischer Beispiele wird gezeigt, welche Daten analysiert, welche Strukturen betrachtet, welche Darstellungs- bzw. Ordnungsmethoden verwendet, welche Zielsetzungen verfolgt und welche Bewertungskriterien dabei angewendet werden können. Diskutiert wird auch die angemessene Verwendung der unterschiedlichen Methoden, wobei auf die gefahr und Art von Fehlinterpretationen hingewiesen wird
    Pages
    S.1-22
  6. Pfeffer, M.: Automatische Vergabe von RVK-Notationen mittels fallbasiertem Schließen (2009) 0.03
    0.028091684 = product of:
      0.08427505 = sum of:
        0.08427505 = sum of:
          0.047600653 = weight(_text_:von in 3051) [ClassicSimilarity], result of:
            0.047600653 = score(doc=3051,freq=10.0), product of:
              0.120363325 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.04511456 = queryNorm
              0.39547473 = fieldWeight in 3051, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.046875 = fieldNorm(doc=3051)
          0.0366744 = weight(_text_:22 in 3051) [ClassicSimilarity], result of:
            0.0366744 = score(doc=3051,freq=2.0), product of:
              0.1579835 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04511456 = queryNorm
              0.23214069 = fieldWeight in 3051, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=3051)
      0.33333334 = coord(1/3)
    
    Abstract
    Klassifikation von bibliografischen Einheiten ist für einen systematischen Zugang zu den Beständen einer Bibliothek und deren Aufstellung unumgänglich. Bislang wurde diese Aufgabe von Fachexperten manuell erledigt, sei es individuell nach einer selbst entwickelten Systematik oder kooperativ nach einer gemeinsamen Systematik. In dieser Arbeit wird ein Verfahren zur Automatisierung des Klassifikationsvorgangs vorgestellt. Dabei kommt das Verfahren des fallbasierten Schließens zum Einsatz, das im Kontext der Forschung zur künstlichen Intelligenz entwickelt wurde. Das Verfahren liefert für jedes Werk, für das bibliografische Daten vorliegen, eine oder mehrere mögliche Klassifikationen. In Experimenten werden die Ergebnisse der automatischen Klassifikation mit der durch Fachexperten verglichen. Diese Experimente belegen die hohe Qualität der automatischen Klassifikation und dass das Verfahren geeignet ist, Fachexperten bei der Klassifikationsarbeit signifikant zu entlasten. Auch die nahezu vollständige Resystematisierung eines Bibliothekskataloges ist - mit gewissen Abstrichen - möglich.
    Date
    22. 8.2009 19:51:28
    Source
    Wissen bewegen - Bibliotheken in der Informationsgesellschaft / 97. Deutscher Bibliothekartag in Mannheim, 2008. Hrsg. von Ulrich Hohoff und Per Knudsen. Bearb. von Stefan Siebert
  7. McKiernan, G.: Automated categorisation of Web resources : a profile of selected projects, research, products, and services (1996) 0.02
    0.023439024 = product of:
      0.07031707 = sum of:
        0.07031707 = weight(_text_:g in 2533) [ClassicSimilarity], result of:
          0.07031707 = score(doc=2533,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.4149775 = fieldWeight in 2533, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.078125 = fieldNorm(doc=2533)
      0.33333334 = coord(1/3)
    
  8. Wätjen, H.-J.; Diekmann, B.; Möller, G.; Carstensen, K.-U.: Bericht zum DFG-Projekt: GERHARD : German Harvest Automated Retrieval and Directory (1998) 0.02
    0.023439024 = product of:
      0.07031707 = sum of:
        0.07031707 = weight(_text_:g in 3065) [ClassicSimilarity], result of:
          0.07031707 = score(doc=3065,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.4149775 = fieldWeight in 3065, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.078125 = fieldNorm(doc=3065)
      0.33333334 = coord(1/3)
    
  9. Möller, G.: Automatic classification of the World Wide Web using Universal Decimal Classification (1999) 0.02
    0.023439024 = product of:
      0.07031707 = sum of:
        0.07031707 = weight(_text_:g in 494) [ClassicSimilarity], result of:
          0.07031707 = score(doc=494,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.4149775 = fieldWeight in 494, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.078125 = fieldNorm(doc=494)
      0.33333334 = coord(1/3)
    
  10. Reiner, U.: Automatische DDC-Klassifizierung bibliografischer Titeldatensätze der Deutschen Nationalbibliografie (2009) 0.02
    0.022341639 = product of:
      0.06702492 = sum of:
        0.06702492 = sum of:
          0.04257532 = weight(_text_:von in 3284) [ClassicSimilarity], result of:
            0.04257532 = score(doc=3284,freq=18.0), product of:
              0.120363325 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.04511456 = queryNorm
              0.35372335 = fieldWeight in 3284, product of:
                4.2426405 = tf(freq=18.0), with freq of:
                  18.0 = termFreq=18.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.03125 = fieldNorm(doc=3284)
          0.0244496 = weight(_text_:22 in 3284) [ClassicSimilarity], result of:
            0.0244496 = score(doc=3284,freq=2.0), product of:
              0.1579835 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04511456 = queryNorm
              0.15476047 = fieldWeight in 3284, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=3284)
      0.33333334 = coord(1/3)
    
    Abstract
    Das Klassifizieren von Objekten (z. B. Fauna, Flora, Texte) ist ein Verfahren, das auf menschlicher Intelligenz basiert. In der Informatik - insbesondere im Gebiet der Künstlichen Intelligenz (KI) - wird u. a. untersucht, inweit Verfahren, die menschliche Intelligenz benötigen, automatisiert werden können. Hierbei hat sich herausgestellt, dass die Lösung von Alltagsproblemen eine größere Herausforderung darstellt, als die Lösung von Spezialproblemen, wie z. B. das Erstellen eines Schachcomputers. So ist "Rybka" der seit Juni 2007 amtierende Computerschach-Weltmeistern. Inwieweit Alltagsprobleme mit Methoden der Künstlichen Intelligenz gelöst werden können, ist eine - für den allgemeinen Fall - noch offene Frage. Beim Lösen von Alltagsproblemen spielt die Verarbeitung der natürlichen Sprache, wie z. B. das Verstehen, eine wesentliche Rolle. Den "gesunden Menschenverstand" als Maschine (in der Cyc-Wissensbasis in Form von Fakten und Regeln) zu realisieren, ist Lenat's Ziel seit 1984. Bezüglich des KI-Paradeprojektes "Cyc" gibt es CycOptimisten und Cyc-Pessimisten. Das Verstehen der natürlichen Sprache (z. B. Werktitel, Zusammenfassung, Vorwort, Inhalt) ist auch beim intellektuellen Klassifizieren von bibliografischen Titeldatensätzen oder Netzpublikationen notwendig, um diese Textobjekte korrekt klassifizieren zu können. Seit dem Jahr 2007 werden von der Deutschen Nationalbibliothek nahezu alle Veröffentlichungen mit der Dewey Dezimalklassifikation (DDC) intellektuell klassifiziert.
    Die Menge der zu klassifizierenden Veröffentlichungen steigt spätestens seit der Existenz des World Wide Web schneller an, als sie intellektuell sachlich erschlossen werden kann. Daher werden Verfahren gesucht, um die Klassifizierung von Textobjekten zu automatisieren oder die intellektuelle Klassifizierung zumindest zu unterstützen. Seit 1968 gibt es Verfahren zur automatischen Dokumentenklassifizierung (Information Retrieval, kurz: IR) und seit 1992 zur automatischen Textklassifizierung (ATC: Automated Text Categorization). Seit immer mehr digitale Objekte im World Wide Web zur Verfügung stehen, haben Arbeiten zur automatischen Textklassifizierung seit ca. 1998 verstärkt zugenommen. Dazu gehören seit 1996 auch Arbeiten zur automatischen DDC-Klassifizierung bzw. RVK-Klassifizierung von bibliografischen Titeldatensätzen und Volltextdokumenten. Bei den Entwicklungen handelt es sich unseres Wissens bislang um experimentelle und keine im ständigen Betrieb befindlichen Systeme. Auch das VZG-Projekt Colibri/DDC ist seit 2006 u. a. mit der automatischen DDC-Klassifizierung befasst. Die diesbezüglichen Untersuchungen und Entwicklungen dienen zur Beantwortung der Forschungsfrage: "Ist es möglich, eine inhaltlich stimmige DDC-Titelklassifikation aller GVK-PLUS-Titeldatensätze automatisch zu erzielen?"
    Date
    22. 1.2010 14:41:24
  11. Leroy, G.; Miller, T.; Rosemblat, G.; Browne, A.: ¬A balanced approach to health information evaluation : a vocabulary-based naïve Bayes classifier and readability formulas (2008) 0.02
    0.01988867 = product of:
      0.059666008 = sum of:
        0.059666008 = weight(_text_:g in 1998) [ClassicSimilarity], result of:
          0.059666008 = score(doc=1998,freq=4.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.35212007 = fieldWeight in 1998, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.046875 = fieldNorm(doc=1998)
      0.33333334 = coord(1/3)
    
  12. Hu, G.; Zhou, S.; Guan, J.; Hu, X.: Towards effective document clustering : a constrained K-means based approach (2008) 0.02
    0.016407315 = product of:
      0.049221944 = sum of:
        0.049221944 = weight(_text_:g in 2113) [ClassicSimilarity], result of:
          0.049221944 = score(doc=2113,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.29048425 = fieldWeight in 2113, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2113)
      0.33333334 = coord(1/3)
    
  13. Kanaan, G.; Al-Shalabi, R.; Ghwanmeh, S.; Al-Ma'adeed, H.: ¬A comparison of text-classification techniques applied to Arabic text (2009) 0.01
    0.014063412 = product of:
      0.042190235 = sum of:
        0.042190235 = weight(_text_:g in 3096) [ClassicSimilarity], result of:
          0.042190235 = score(doc=3096,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.24898648 = fieldWeight in 3096, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.046875 = fieldNorm(doc=3096)
      0.33333334 = coord(1/3)
    
  14. Subramanian, S.; Shafer, K.E.: Clustering (2001) 0.01
    0.0122248 = product of:
      0.0366744 = sum of:
        0.0366744 = product of:
          0.0733488 = sum of:
            0.0733488 = weight(_text_:22 in 1046) [ClassicSimilarity], result of:
              0.0733488 = score(doc=1046,freq=2.0), product of:
                0.1579835 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04511456 = queryNorm
                0.46428138 = fieldWeight in 1046, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1046)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    5. 5.2003 14:17:22
  15. Classification, automation, and new media : Proceedings of the 24th Annual Conference of the Gesellschaft für Klassifikation e.V., University of Passau, March 15 - 17, 2000 (2002) 0.01
    0.011719512 = product of:
      0.035158534 = sum of:
        0.035158534 = weight(_text_:g in 5997) [ClassicSimilarity], result of:
          0.035158534 = score(doc=5997,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.20748875 = fieldWeight in 5997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5997)
      0.33333334 = coord(1/3)
    
    Editor
    Gaul, W. u. G. Ritter
  16. Qu, B.; Cong, G.; Li, C.; Sun, A.; Chen, H.: ¬An evaluation of classification models for question topic categorization (2012) 0.01
    0.011719512 = product of:
      0.035158534 = sum of:
        0.035158534 = weight(_text_:g in 237) [ClassicSimilarity], result of:
          0.035158534 = score(doc=237,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.20748875 = fieldWeight in 237, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0390625 = fieldNorm(doc=237)
      0.33333334 = coord(1/3)
    
  17. Ma, Z.; Sun, A.; Cong, G.: On predicting the popularity of newly emerging hashtags in Twitter (2013) 0.01
    0.011719512 = product of:
      0.035158534 = sum of:
        0.035158534 = weight(_text_:g in 967) [ClassicSimilarity], result of:
          0.035158534 = score(doc=967,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.20748875 = fieldWeight in 967, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0390625 = fieldNorm(doc=967)
      0.33333334 = coord(1/3)
    
  18. Chae, G.; Park, J.; Park, J.; Yeo, W.S.; Shi, C.: Linking and clustering artworks using social tags : revitalizing crowd-sourced information on cultural collections (2016) 0.01
    0.011719512 = product of:
      0.035158534 = sum of:
        0.035158534 = weight(_text_:g in 2852) [ClassicSimilarity], result of:
          0.035158534 = score(doc=2852,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.20748875 = fieldWeight in 2852, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2852)
      0.33333334 = coord(1/3)
    
  19. Golub, K.; Soergel, D.; Buchanan, G.; Tudhope, D.; Lykke, M.; Hiom, D.: ¬A framework for evaluating automatic indexing or classification in the context of retrieval (2016) 0.01
    0.011719512 = product of:
      0.035158534 = sum of:
        0.035158534 = weight(_text_:g in 3311) [ClassicSimilarity], result of:
          0.035158534 = score(doc=3311,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.20748875 = fieldWeight in 3311, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3311)
      0.33333334 = coord(1/3)
    
  20. Pech, G.; Delgado, C.; Sorella, S.P.: Classifying papers into subfields using Abstracts, Titles, Keywords and KeyWords Plus through pattern detection and optimization procedures : an application in Physics (2022) 0.01
    0.011719512 = product of:
      0.035158534 = sum of:
        0.035158534 = weight(_text_:g in 744) [ClassicSimilarity], result of:
          0.035158534 = score(doc=744,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.20748875 = fieldWeight in 744, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0390625 = fieldNorm(doc=744)
      0.33333334 = coord(1/3)
    

Years

Languages

  • d 38
  • e 28

Types

  • a 43
  • el 10
  • x 9
  • m 4
  • r 3
  • s 1
  • More… Less…