Search (29 results, page 1 of 2)

  • × year_i:[2000 TO 2010}
  • × theme_ss:"Automatisches Indexieren"
  1. Dolamic, L.; Savoy, J.: Indexing and searching strategies for the Russian language (2009) 0.03
    0.03000176 = product of:
      0.06000352 = sum of:
        0.06000352 = product of:
          0.09000528 = sum of:
            0.024974043 = weight(_text_:j in 3301) [ClassicSimilarity], result of:
              0.024974043 = score(doc=3301,freq=2.0), product of:
                0.14227505 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.044775832 = queryNorm
                0.17553353 = fieldWeight in 3301, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3301)
            0.06503124 = weight(_text_:n in 3301) [ClassicSimilarity], result of:
              0.06503124 = score(doc=3301,freq=4.0), product of:
                0.19305801 = queryWeight, product of:
                  4.3116565 = idf(docFreq=1611, maxDocs=44218)
                  0.044775832 = queryNorm
                0.33684817 = fieldWeight in 3301, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.3116565 = idf(docFreq=1611, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3301)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    This paper describes and evaluates various stemming and indexing strategies for the Russian language. We design and evaluate two stemming approaches, a light and a more aggressive one, and compare these stemmers to the Snowball stemmer, to no stemming, and also to a language-independent approach (n-gram). To evaluate the suggested stemming strategies we apply various probabilistic information retrieval (IR) models, including the Okapi, the Divergence from Randomness (DFR), a statistical language model (LM), as well as two vector-space approaches, namely, the classical tf idf scheme and the dtu-dtn model. We find that the vector-space dtu-dtn and the DFR models tend to result in better retrieval effectiveness than the Okapi, LM, or tf idf models, while only the latter two IR approaches result in statistically significant performance differences. Ignoring stemming generally reduces the MAP by more than 50%, and these differences are always significant. When applying an n-gram approach, performance differences are usually lower than an approach involving stemming. Finally, our light stemmer tends to perform best, although performance differences between the light, aggressive, and Snowball stemmers are not statistically significant.
  2. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.03
    0.029496845 = product of:
      0.05899369 = sum of:
        0.05899369 = product of:
          0.08849053 = sum of:
            0.03995847 = weight(_text_:j in 3581) [ClassicSimilarity], result of:
              0.03995847 = score(doc=3581,freq=2.0), product of:
                0.14227505 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.044775832 = queryNorm
                0.28085366 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
            0.048532058 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.048532058 = score(doc=3581,freq=2.0), product of:
                0.15679733 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044775832 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Date
    24. 3.2006 12:22:02
  3. Probst, M.; Mittelbach, J.: Maschinelle Indexierung in der Sacherschließung wissenschaftlicher Bibliotheken (2006) 0.03
    0.029496845 = product of:
      0.05899369 = sum of:
        0.05899369 = product of:
          0.08849053 = sum of:
            0.03995847 = weight(_text_:j in 1755) [ClassicSimilarity], result of:
              0.03995847 = score(doc=1755,freq=2.0), product of:
                0.14227505 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.044775832 = queryNorm
                0.28085366 = fieldWeight in 1755, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1755)
            0.048532058 = weight(_text_:22 in 1755) [ClassicSimilarity], result of:
              0.048532058 = score(doc=1755,freq=2.0), product of:
                0.15679733 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044775832 = queryNorm
                0.30952093 = fieldWeight in 1755, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1755)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Date
    22. 3.2008 12:35:19
  4. Hlava, M.M.K.: Automatic indexing : comparing rule-based and statistics-based indexing systems (2005) 0.01
    0.014155183 = product of:
      0.028310366 = sum of:
        0.028310366 = product of:
          0.0849311 = sum of:
            0.0849311 = weight(_text_:22 in 6265) [ClassicSimilarity], result of:
              0.0849311 = score(doc=6265,freq=2.0), product of:
                0.15679733 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044775832 = queryNorm
                0.5416616 = fieldWeight in 6265, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6265)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Source
    Information outlook. 9(2005) no.8, S.22-23
  5. Hauer, M.: Automatische Indexierung (2000) 0.01
    0.012133013 = product of:
      0.024266027 = sum of:
        0.024266027 = product of:
          0.07279808 = sum of:
            0.07279808 = weight(_text_:22 in 5887) [ClassicSimilarity], result of:
              0.07279808 = score(doc=5887,freq=2.0), product of:
                0.15679733 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044775832 = queryNorm
                0.46428138 = fieldWeight in 5887, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5887)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Source
    Wissen in Aktion: Wege des Knowledge Managements. 22. Online-Tagung der DGI, Frankfurt am Main, 2.-4.5.2000. Proceedings. Hrsg.: R. Schmidt
  6. Oberhauser, O.; Labner, J.: Einführung der automatischen Indexierung im Österreichischen Verbundkatalog? : Bericht über eine empirische Studie (2003) 0.01
    0.011654554 = product of:
      0.023309108 = sum of:
        0.023309108 = product of:
          0.06992732 = sum of:
            0.06992732 = weight(_text_:j in 1878) [ClassicSimilarity], result of:
              0.06992732 = score(doc=1878,freq=2.0), product of:
                0.14227505 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.044775832 = queryNorm
                0.4914939 = fieldWeight in 1878, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1878)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
  7. Anderson, J.D.; Pérez-Carballo, J.: ¬The nature of indexing: how humans and machines analyze messages and texts for retrieval : Part I: Research and the nature of human indexing (2001) 0.01
    0.009989617 = product of:
      0.019979235 = sum of:
        0.019979235 = product of:
          0.059937704 = sum of:
            0.059937704 = weight(_text_:j in 3136) [ClassicSimilarity], result of:
              0.059937704 = score(doc=3136,freq=2.0), product of:
                0.14227505 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.044775832 = queryNorm
                0.4212805 = fieldWeight in 3136, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3136)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
  8. Thirion, B.; Leroy, J.P.; Baudic, F.; Douyère, M.; Piot, J.; Darmoni, S.J.: SDI selecting, decribing, and indexing : did you mean automatically? (2001) 0.01
    0.009989617 = product of:
      0.019979235 = sum of:
        0.019979235 = product of:
          0.059937704 = sum of:
            0.059937704 = weight(_text_:j in 6198) [ClassicSimilarity], result of:
              0.059937704 = score(doc=6198,freq=2.0), product of:
                0.14227505 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.044775832 = queryNorm
                0.4212805 = fieldWeight in 6198, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6198)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
  9. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.009989617 = product of:
      0.019979235 = sum of:
        0.019979235 = product of:
          0.059937704 = sum of:
            0.059937704 = weight(_text_:j in 6386) [ClassicSimilarity], result of:
              0.059937704 = score(doc=6386,freq=8.0), product of:
                0.14227505 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.044775832 = queryNorm
                0.4212805 = fieldWeight in 6386, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6386)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  10. Maas, J.: Anforderungsanalyse für den Einsatz eines (semi)automatischen Indexierungsverfahrens in der Textdokumentation des ZDF (2002) 0.01
    0.009989617 = product of:
      0.019979235 = sum of:
        0.019979235 = product of:
          0.059937704 = sum of:
            0.059937704 = weight(_text_:j in 1785) [ClassicSimilarity], result of:
              0.059937704 = score(doc=1785,freq=2.0), product of:
                0.14227505 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.044775832 = queryNorm
                0.4212805 = fieldWeight in 1785, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1785)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
  11. Mansour, N.; Haraty, R.A.; Daher, W.; Houri, M.: ¬An auto-indexing method for Arabic text (2008) 0.01
    0.009196806 = product of:
      0.018393612 = sum of:
        0.018393612 = product of:
          0.055180833 = sum of:
            0.055180833 = weight(_text_:n in 2103) [ClassicSimilarity], result of:
              0.055180833 = score(doc=2103,freq=2.0), product of:
                0.19305801 = queryWeight, product of:
                  4.3116565 = idf(docFreq=1611, maxDocs=44218)
                  0.044775832 = queryNorm
                0.28582513 = fieldWeight in 2103, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.3116565 = idf(docFreq=1611, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2103)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
  12. Gaus, W.; Kaluscha, R.: Maschinelle inhaltliche Erschließung von Arztbriefen und Auswertung von Reha-Entlassungsberichten (2006) 0.01
    0.008670832 = product of:
      0.017341664 = sum of:
        0.017341664 = product of:
          0.05202499 = sum of:
            0.05202499 = weight(_text_:n in 6078) [ClassicSimilarity], result of:
              0.05202499 = score(doc=6078,freq=4.0), product of:
                0.19305801 = queryWeight, product of:
                  4.3116565 = idf(docFreq=1611, maxDocs=44218)
                  0.044775832 = queryNorm
                0.26947853 = fieldWeight in 6078, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.3116565 = idf(docFreq=1611, maxDocs=44218)
                  0.03125 = fieldNorm(doc=6078)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    Schon Hippokrates empfahl den Ärzten, Krankenakten zu führen. Heute ist die detaillierte Dokumentation eine Standespflicht der Ärzte [Gaus et al 1999]. Diese Dokumentationen medizinischer Behandlungen bergen einen riesigen und wertvollen Erfahrungsschatz. Informationen zu Therapien und Behandlungsergebnissen, die in Studien erst mühsam erhoben werden müssten, sind bereits in der Routinedokumentation wie Operations- und Entlassungsberichten oder Arztbriefen zahlreich vorhanden. Mit der Einführung der elektronischen Datenverarbeitung in der Medizin liegen diese Informationen seit einigen Jahren auch maschinenlesbar vor, so dass ein Haupthemmnis für die Nutzung dieser Dokumentationen, nämlich die mühsame manuelle Aufbereitung der Papierakten, entfällt. Während die formale Erschließung nach Patientenmerkmalen wie Name und Geburtsdatum von den Krankenhaus- bzw. Praxisinformationssystemen heutzutage gut gelöst ist, bleibt die inhaltliche Erschließung dieser Dokumentationen schwierig, da nur wenige Informationen in strukturierter oder intellektuell indexierter Form vorliegen [Leiner et al. 2003]. Auch wenn nach der Einführung der Fallpauschalen (diagnosis related groups, DRG) in den Krankenhäusern die Diagnosen nach ICD-10 verschlüsselt werden, besteht ein Großteil der Informationen weiterhin aus freiem Text, dessen computerbasierte Erschließung aufgrund der Komplexität menschlicher Sprache nicht trivial ist. Zu diesen medizinischen Texten gehören u.a. Gutachten, verbal beschriebene (Differential-) Diagnosen, vielfältige Untersuchungs- und Befundberichte, Visitenblätter, Operationsberichte und der Arztbrief bzw. Entlassungsbericht. Arztbrief und Entlassbericht dienen der Information des einweisenden oder weiterbehandelnden Arztes (z.B. Hausarzt) über das, was mit dem Patienten geschehen ist, und geben Empfehlungen zur Weiterbehandlung. Sie fassen eine (stationäre) Behandlung epikritisch - also nachdem die Krankheit überwunden ist, im Rückblick - zusammen und geben einen Überblick über Anamnese (Vorgeschichte), Beschwerden und Symptome, die eingesetzten diagnostischen Verfahren, die gestellte(n) Diagnose(n), Therapie, Verlauf, Komplikationen und das erzielte Ergebnis. Sie haben somit eine ähnliche Funktion wie das Abstract in der Literaturdokumentation, oft wird eine Kopie in der Krankenakte obenauf abgelegt. Zumindest in Universitätskliniken möchten wissenschaftlich arbeitende Ärzte auch unter inhaltlichen Gesichtspunkten auf die Krankenakten zugreifen können, z.B. die Krankenakten aller Patienten mit einer bestimmten Diagnose einsehen, exzerpieren und die exzerpierten Daten auswerten. Auch bei der Suche nach ähnlichen Fällen oder im Bereich der Aus- und Fortbildung hilft eine inhaltliche Erschließung weiter. So könnte etwa ein Assistenzarzt, der im Rahmen seiner Weiterbildung demnächst Sonografien des Kniegelenkes durchzuführen hat, sich vorhandene Berichte von solchen Sonografien anschauen und sich so über relevante Untersuchungstechniken und Befunde vorab informieren.
  13. Gaese, V.: "Automatische Klassifikation von Presseartikeln in der Gruner + Jahr Dokumentation" (2003) 0.01
    0.008651262 = product of:
      0.017302524 = sum of:
        0.017302524 = product of:
          0.051907573 = sum of:
            0.051907573 = weight(_text_:j in 1915) [ClassicSimilarity], result of:
              0.051907573 = score(doc=1915,freq=6.0), product of:
                0.14227505 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.044775832 = queryNorm
                0.3648396 = fieldWeight in 1915, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1915)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    Das Klassifizieren von Texten, auch Indexieren, inhaltliches Erschließen oder verschlagworten genannt, gehört seit jeher zu den zwar notwendigen aber sehr aufwändigen Aufgaben von Archiven bzw. Dokumentationen. Ihre unterschiedlichen Zwecke bzw. Anforderungen sind sicher ein Grund dafür, dass es fast ebenso viele Erschließungsinventare, Thesauri oder Schlagwortverzeichnisse wie Dokumentationen gibt. Im folgenden werden Klassifizierung, Indexierung, Erschließung und Verschlagwortung synonym verwendet. In der G+J Dokumentation arbeiten heute ca. 20 Dokumentare an Auswahl und Erschließung von täglich etwa 1.100 Artikeln aus insgesamt ca. 210 Titeln. In der G+J Pressedatenbank sind aktuell ca. 7 Mio Artikel gespeichert, gut 2 Mio als digitaler Volltext (OCR/Satzdaten). Archiviert sind nur Artikel, für die die G+J Dokumentation die entsprechenden Rechte hat.
  14. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.008324681 = product of:
      0.016649362 = sum of:
        0.016649362 = product of:
          0.049948085 = sum of:
            0.049948085 = weight(_text_:j in 5863) [ClassicSimilarity], result of:
              0.049948085 = score(doc=5863,freq=8.0), product of:
                0.14227505 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.044775832 = queryNorm
                0.35106707 = fieldWeight in 5863, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5863)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  15. Anderson, J.D.; Pérez-Carballo, J.: ¬The nature of indexing: how humans and machines analyze messages and texts for retrieval : Part II: Machine indexing, and the allocation of human versus machine effort (2001) 0.01
    0.008324681 = product of:
      0.016649362 = sum of:
        0.016649362 = product of:
          0.049948085 = sum of:
            0.049948085 = weight(_text_:j in 368) [ClassicSimilarity], result of:
              0.049948085 = score(doc=368,freq=2.0), product of:
                0.14227505 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.044775832 = queryNorm
                0.35106707 = fieldWeight in 368, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.078125 = fieldNorm(doc=368)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
  16. Peters, G.: Verschlagwortung und automatische Verfahren in der G+J Dokumentation (2003) 0.01
    0.008324681 = product of:
      0.016649362 = sum of:
        0.016649362 = product of:
          0.049948085 = sum of:
            0.049948085 = weight(_text_:j in 2377) [ClassicSimilarity], result of:
              0.049948085 = score(doc=2377,freq=2.0), product of:
                0.14227505 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.044775832 = queryNorm
                0.35106707 = fieldWeight in 2377, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2377)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
  17. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.01
    0.0070775915 = product of:
      0.014155183 = sum of:
        0.014155183 = product of:
          0.04246555 = sum of:
            0.04246555 = weight(_text_:22 in 5671) [ClassicSimilarity], result of:
              0.04246555 = score(doc=5671,freq=2.0), product of:
                0.15679733 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044775832 = queryNorm
                0.2708308 = fieldWeight in 5671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5671)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Date
    22. 3.2001 13:14:48
  18. Newman, D.J.; Block, S.: Probabilistic topic decomposition of an eighteenth-century American newspaper (2006) 0.01
    0.0070775915 = product of:
      0.014155183 = sum of:
        0.014155183 = product of:
          0.04246555 = sum of:
            0.04246555 = weight(_text_:22 in 5291) [ClassicSimilarity], result of:
              0.04246555 = score(doc=5291,freq=2.0), product of:
                0.15679733 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044775832 = queryNorm
                0.2708308 = fieldWeight in 5291, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5291)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Date
    22. 7.2006 17:32:00
  19. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.01
    0.0060665067 = product of:
      0.012133013 = sum of:
        0.012133013 = product of:
          0.03639904 = sum of:
            0.03639904 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.03639904 = score(doc=1746,freq=2.0), product of:
                0.15679733 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044775832 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Date
    22. 3.2015 9:17:30
  20. Dolamic, L.; Savoy, J.: When stopword lists make the difference (2009) 0.01
    0.005827277 = product of:
      0.011654554 = sum of:
        0.011654554 = product of:
          0.03496366 = sum of:
            0.03496366 = weight(_text_:j in 3319) [ClassicSimilarity], result of:
              0.03496366 = score(doc=3319,freq=2.0), product of:
                0.14227505 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.044775832 = queryNorm
                0.24574696 = fieldWeight in 3319, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3319)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)