Search (27 results, page 1 of 2)

  • × language_ss:"d"
  • × theme_ss:"Automatisches Indexieren"
  • × type_ss:"a"
  1. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.05
    0.045093596 = product of:
      0.09018719 = sum of:
        0.09018719 = sum of:
          0.04072461 = weight(_text_:j in 3581) [ClassicSimilarity], result of:
            0.04072461 = score(doc=3581,freq=2.0), product of:
              0.14500295 = queryWeight, product of:
                3.1774964 = idf(docFreq=5010, maxDocs=44218)
                0.045634337 = queryNorm
              0.28085366 = fieldWeight in 3581, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.1774964 = idf(docFreq=5010, maxDocs=44218)
                0.0625 = fieldNorm(doc=3581)
          0.049462583 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
            0.049462583 = score(doc=3581,freq=2.0), product of:
              0.15980367 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045634337 = queryNorm
              0.30952093 = fieldWeight in 3581, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=3581)
      0.5 = coord(1/2)
    
    Date
    24. 3.2006 12:22:02
  2. Probst, M.; Mittelbach, J.: Maschinelle Indexierung in der Sacherschließung wissenschaftlicher Bibliotheken (2006) 0.05
    0.045093596 = product of:
      0.09018719 = sum of:
        0.09018719 = sum of:
          0.04072461 = weight(_text_:j in 1755) [ClassicSimilarity], result of:
            0.04072461 = score(doc=1755,freq=2.0), product of:
              0.14500295 = queryWeight, product of:
                3.1774964 = idf(docFreq=5010, maxDocs=44218)
                0.045634337 = queryNorm
              0.28085366 = fieldWeight in 1755, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.1774964 = idf(docFreq=5010, maxDocs=44218)
                0.0625 = fieldNorm(doc=1755)
          0.049462583 = weight(_text_:22 in 1755) [ClassicSimilarity], result of:
            0.049462583 = score(doc=1755,freq=2.0), product of:
              0.15980367 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045634337 = queryNorm
              0.30952093 = fieldWeight in 1755, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1755)
      0.5 = coord(1/2)
    
    Date
    22. 3.2008 12:35:19
  3. Fuhr, N.; Niewelt, B.: ¬Ein Retrievaltest mit automatisch indexierten Dokumenten (1984) 0.02
    0.02163988 = product of:
      0.04327976 = sum of:
        0.04327976 = product of:
          0.08655952 = sum of:
            0.08655952 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.08655952 = score(doc=262,freq=2.0), product of:
                0.15980367 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045634337 = queryNorm
                0.5416616 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=262)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    20.10.2000 12:22:23
  4. Lepsky, K.: Vom OPAC zum Hyperkatalog : Daten und Indexierung (1996) 0.02
    0.021597486 = product of:
      0.043194972 = sum of:
        0.043194972 = product of:
          0.086389944 = sum of:
            0.086389944 = weight(_text_:j in 7726) [ClassicSimilarity], result of:
              0.086389944 = score(doc=7726,freq=4.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.5957806 = fieldWeight in 7726, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.09375 = fieldNorm(doc=7726)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Erschließen, Suchen, Finden: Vorträge aus den bibliothekarischen Arbeitsgruppen der 19. und 20. Jahrestagungen (Basel 1995 / Freiburg 1996) der Gesellschaft für Klassifikation. Hrsg.: H.-J. Hermes u. H.-J. Wätjen
  5. Panyr, J.: STEINADLER: ein Verfahren zur automatischen Deskribierung und zur automatischen thematischen Klassifikation (1978) 0.02
    0.020362305 = product of:
      0.04072461 = sum of:
        0.04072461 = product of:
          0.08144922 = sum of:
            0.08144922 = weight(_text_:j in 5169) [ClassicSimilarity], result of:
              0.08144922 = score(doc=5169,freq=2.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.5617073 = fieldWeight in 5169, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.125 = fieldNorm(doc=5169)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  6. Fuhr, N.: Ranking-Experimente mit gewichteter Indexierung (1986) 0.02
    0.018548468 = product of:
      0.037096936 = sum of:
        0.037096936 = product of:
          0.07419387 = sum of:
            0.07419387 = weight(_text_:22 in 58) [ClassicSimilarity], result of:
              0.07419387 = score(doc=58,freq=2.0), product of:
                0.15980367 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045634337 = queryNorm
                0.46428138 = fieldWeight in 58, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=58)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    14. 6.2015 22:12:44
  7. Hauer, M.: Automatische Indexierung (2000) 0.02
    0.018548468 = product of:
      0.037096936 = sum of:
        0.037096936 = product of:
          0.07419387 = sum of:
            0.07419387 = weight(_text_:22 in 5887) [ClassicSimilarity], result of:
              0.07419387 = score(doc=5887,freq=2.0), product of:
                0.15980367 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045634337 = queryNorm
                0.46428138 = fieldWeight in 5887, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5887)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Wissen in Aktion: Wege des Knowledge Managements. 22. Online-Tagung der DGI, Frankfurt am Main, 2.-4.5.2000. Proceedings. Hrsg.: R. Schmidt
  8. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.02
    0.018548468 = product of:
      0.037096936 = sum of:
        0.037096936 = product of:
          0.07419387 = sum of:
            0.07419387 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.07419387 = score(doc=2051,freq=2.0), product of:
                0.15980367 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045634337 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    14. 6.2015 22:12:56
  9. Hauer, M.: Tiefenindexierung im Bibliothekskatalog : 17 Jahre intelligentCAPTURE (2019) 0.02
    0.018548468 = product of:
      0.037096936 = sum of:
        0.037096936 = product of:
          0.07419387 = sum of:
            0.07419387 = weight(_text_:22 in 5629) [ClassicSimilarity], result of:
              0.07419387 = score(doc=5629,freq=2.0), product of:
                0.15980367 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045634337 = queryNorm
                0.46428138 = fieldWeight in 5629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5629)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    B.I.T.online. 22(2019) H.2, S.163-166
  10. Gräbnitz, V.: PASSAT: Programm zur automatischen Selektion von Stichwörtern aus Texten (1987) 0.02
    0.015271729 = product of:
      0.030543458 = sum of:
        0.030543458 = product of:
          0.061086915 = sum of:
            0.061086915 = weight(_text_:j in 932) [ClassicSimilarity], result of:
              0.061086915 = score(doc=932,freq=2.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.4212805 = fieldWeight in 932, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.09375 = fieldNorm(doc=932)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Inhaltserschließung von Massendaten zur Wirksamkeit informationslinguistischer Verfahren am Beispiel des Deutschen Patentinformationssystems. Hrsg. J. Krause
  11. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.02
    0.015271729 = product of:
      0.030543458 = sum of:
        0.030543458 = product of:
          0.061086915 = sum of:
            0.061086915 = weight(_text_:j in 6386) [ClassicSimilarity], result of:
              0.061086915 = score(doc=6386,freq=8.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.4212805 = fieldWeight in 6386, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6386)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  12. Gaese, V.: "Automatische Klassifikation von Presseartikeln in der Gruner + Jahr Dokumentation" (2003) 0.01
    0.013225704 = product of:
      0.026451409 = sum of:
        0.026451409 = product of:
          0.052902818 = sum of:
            0.052902818 = weight(_text_:j in 1915) [ClassicSimilarity], result of:
              0.052902818 = score(doc=1915,freq=6.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.3648396 = fieldWeight in 1915, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1915)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Klassifizieren von Texten, auch Indexieren, inhaltliches Erschließen oder verschlagworten genannt, gehört seit jeher zu den zwar notwendigen aber sehr aufwändigen Aufgaben von Archiven bzw. Dokumentationen. Ihre unterschiedlichen Zwecke bzw. Anforderungen sind sicher ein Grund dafür, dass es fast ebenso viele Erschließungsinventare, Thesauri oder Schlagwortverzeichnisse wie Dokumentationen gibt. Im folgenden werden Klassifizierung, Indexierung, Erschließung und Verschlagwortung synonym verwendet. In der G+J Dokumentation arbeiten heute ca. 20 Dokumentare an Auswahl und Erschließung von täglich etwa 1.100 Artikeln aus insgesamt ca. 210 Titeln. In der G+J Pressedatenbank sind aktuell ca. 7 Mio Artikel gespeichert, gut 2 Mio als digitaler Volltext (OCR/Satzdaten). Archiviert sind nur Artikel, für die die G+J Dokumentation die entsprechenden Rechte hat.
  13. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.01272644 = product of:
      0.02545288 = sum of:
        0.02545288 = product of:
          0.05090576 = sum of:
            0.05090576 = weight(_text_:j in 5863) [ClassicSimilarity], result of:
              0.05090576 = score(doc=5863,freq=8.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.35106707 = fieldWeight in 5863, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5863)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  14. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.01
    0.01081994 = product of:
      0.02163988 = sum of:
        0.02163988 = product of:
          0.04327976 = sum of:
            0.04327976 = weight(_text_:22 in 5671) [ClassicSimilarity], result of:
              0.04327976 = score(doc=5671,freq=2.0), product of:
                0.15980367 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045634337 = queryNorm
                0.2708308 = fieldWeight in 5671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5671)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 3.2001 13:14:48
  15. Kasprzik, A.: Voraussetzungen und Anwendungspotentiale einer präzisen Sacherschließung aus Sicht der Wissenschaft (2018) 0.01
    0.01081994 = product of:
      0.02163988 = sum of:
        0.02163988 = product of:
          0.04327976 = sum of:
            0.04327976 = weight(_text_:22 in 5195) [ClassicSimilarity], result of:
              0.04327976 = score(doc=5195,freq=2.0), product of:
                0.15980367 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045634337 = queryNorm
                0.2708308 = fieldWeight in 5195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5195)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Große Aufmerksamkeit richtet sich im Moment auf das Potential von automatisierten Methoden in der Sacherschließung und deren Interaktionsmöglichkeiten mit intellektuellen Methoden. In diesem Kontext befasst sich der vorliegende Beitrag mit den folgenden Fragen: Was sind die Anforderungen an bibliothekarische Metadaten aus Sicht der Wissenschaft? Was wird gebraucht, um den Informationsbedarf der Fachcommunities zu bedienen? Und was bedeutet das entsprechend für die Automatisierung der Metadatenerstellung und -pflege? Dieser Beitrag fasst die von der Autorin eingenommene Position in einem Impulsvortrag und der Podiumsdiskussion beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  16. Franke-Maier, M.: Anforderungen an die Qualität der Inhaltserschließung im Spannungsfeld von intellektuell und automatisch erzeugten Metadaten (2018) 0.01
    0.01081994 = product of:
      0.02163988 = sum of:
        0.02163988 = product of:
          0.04327976 = sum of:
            0.04327976 = weight(_text_:22 in 5344) [ClassicSimilarity], result of:
              0.04327976 = score(doc=5344,freq=2.0), product of:
                0.15980367 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045634337 = queryNorm
                0.2708308 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Spätestens seit dem Deutschen Bibliothekartag 2018 hat sich die Diskussion zu den automatischen Verfahren der Inhaltserschließung der Deutschen Nationalbibliothek von einer politisch geführten Diskussion in eine Qualitätsdiskussion verwandelt. Der folgende Beitrag beschäftigt sich mit Fragen der Qualität von Inhaltserschließung in digitalen Zeiten, wo heterogene Erzeugnisse unterschiedlicher Verfahren aufeinandertreffen und versucht, wichtige Anforderungen an Qualität zu definieren. Dieser Tagungsbeitrag fasst die vom Autor als Impulse vorgetragenen Ideen beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV am 29. August 2018 in Kiel zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  17. Panyr, J.: Vektorraum-Modell und Clusteranalyse in Information-Retrieval-Systemen (1987) 0.01
    0.010181152 = product of:
      0.020362305 = sum of:
        0.020362305 = product of:
          0.04072461 = sum of:
            0.04072461 = weight(_text_:j in 2322) [ClassicSimilarity], result of:
              0.04072461 = score(doc=2322,freq=2.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.28085366 = fieldWeight in 2322, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2322)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  18. Panyr, J.: Automatische Indexierung und Klassifikation (1983) 0.01
    0.010181152 = product of:
      0.020362305 = sum of:
        0.020362305 = product of:
          0.04072461 = sum of:
            0.04072461 = weight(_text_:j in 7692) [ClassicSimilarity], result of:
              0.04072461 = score(doc=7692,freq=2.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.28085366 = fieldWeight in 7692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.0625 = fieldNorm(doc=7692)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  19. Krause, J.; Womser-Hacker, C.: PADOK-II : Retrievaltests zur Bewertung von Volltextindexierungsvarianten für das deutsche Patentinformationssystem (1990) 0.01
    0.010181152 = product of:
      0.020362305 = sum of:
        0.020362305 = product of:
          0.04072461 = sum of:
            0.04072461 = weight(_text_:j in 2653) [ClassicSimilarity], result of:
              0.04072461 = score(doc=2653,freq=2.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.28085366 = fieldWeight in 2653, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2653)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  20. Bredack, J.; Lepsky, K.: Automatische Extraktion von Fachterminologie aus Volltexten (2014) 0.01
    0.010181152 = product of:
      0.020362305 = sum of:
        0.020362305 = product of:
          0.04072461 = sum of:
            0.04072461 = weight(_text_:j in 4872) [ClassicSimilarity], result of:
              0.04072461 = score(doc=4872,freq=2.0), product of:
                0.14500295 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.045634337 = queryNorm
                0.28085366 = fieldWeight in 4872, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4872)
          0.5 = coord(1/2)
      0.5 = coord(1/2)