Search (46 results, page 1 of 3)

  • × language_ss:"d"
  • × theme_ss:"Automatisches Indexieren"
  • × type_ss:"a"
  1. Hauer, M.: Tiefenindexierung im Bibliothekskatalog : 17 Jahre intelligentCAPTURE (2019) 0.03
    0.03404627 = product of:
      0.1021388 = sum of:
        0.07321297 = weight(_text_:t in 5629) [ClassicSimilarity], result of:
          0.07321297 = score(doc=5629,freq=2.0), product of:
            0.14017504 = queryWeight, product of:
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.035582762 = queryNorm
            0.5222967 = fieldWeight in 5629, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.09375 = fieldNorm(doc=5629)
        0.028925838 = product of:
          0.057851676 = sum of:
            0.057851676 = weight(_text_:22 in 5629) [ClassicSimilarity], result of:
              0.057851676 = score(doc=5629,freq=2.0), product of:
                0.12460477 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035582762 = queryNorm
                0.46428138 = fieldWeight in 5629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5629)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Content
    Vgl.: https://www.b-i-t-online.de/heft/2019-02-index.php.
    Source
    B.I.T.online. 22(2019) H.2, S.163-166
  2. Busch, D.: Domänenspezifische hybride automatische Indexierung von bibliographischen Metadaten (2019) 0.02
    0.017023135 = product of:
      0.0510694 = sum of:
        0.036606483 = weight(_text_:t in 5628) [ClassicSimilarity], result of:
          0.036606483 = score(doc=5628,freq=2.0), product of:
            0.14017504 = queryWeight, product of:
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.035582762 = queryNorm
            0.26114836 = fieldWeight in 5628, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.046875 = fieldNorm(doc=5628)
        0.014462919 = product of:
          0.028925838 = sum of:
            0.028925838 = weight(_text_:22 in 5628) [ClassicSimilarity], result of:
              0.028925838 = score(doc=5628,freq=2.0), product of:
                0.12460477 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035582762 = queryNorm
                0.23214069 = fieldWeight in 5628, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5628)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Content
    Vgl.: https://www.b-i-t-online.de/heft/2019-06-index.php.
    Source
    B.I.T.online. 22(2019) H.6, S.465-469
  3. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.01
    0.014580767 = product of:
      0.0874846 = sum of:
        0.0874846 = sum of:
          0.063379735 = weight(_text_:intelligenz in 3780) [ClassicSimilarity], result of:
            0.063379735 = score(doc=3780,freq=2.0), product of:
              0.20204939 = queryWeight, product of:
                5.678294 = idf(docFreq=410, maxDocs=44218)
                0.035582762 = queryNorm
              0.31368437 = fieldWeight in 3780, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.678294 = idf(docFreq=410, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3780)
          0.024104865 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
            0.024104865 = score(doc=3780,freq=2.0), product of:
              0.12460477 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.035582762 = queryNorm
              0.19345059 = fieldWeight in 3780, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3780)
      0.16666667 = coord(1/6)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  4. Sack, H.: Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung (2021) 0.01
    0.010977695 = product of:
      0.065866165 = sum of:
        0.065866165 = product of:
          0.13173233 = sum of:
            0.13173233 = weight(_text_:intelligenz in 372) [ClassicSimilarity], result of:
              0.13173233 = score(doc=372,freq=6.0), product of:
                0.20204939 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.035582762 = queryNorm
                0.6519808 = fieldWeight in 372, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.046875 = fieldNorm(doc=372)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Abstract
    Effizienter (Online-)Zugang zu Bibliotheks- und Archivmaterialien erfordert eine qualitativ hinreichende inhaltliche Erschließung dieser Dokumente. Die passgenaue Verschlagwortung und Kategorisierung dieser unstrukturierten Dokumente ermöglichen einen strukturell gegliederten Zugang sowohl in der analogen als auch in der digitalen Welt. Darüber hinaus erweitert eine vollständige Transkription der Dokumente den Zugang über die Möglichkeiten der Volltextsuche. Angesichts der in jüngster Zeit erzielten spektakulären Erfolge der Künstlichen Intelligenz liegt die Schlussfolgerung nahe, dass auch das Problem der automatisierten Inhaltserschließung für Bibliotheken und Archive als mehr oder weniger gelöst anzusehen wäre. Allerdings lassen sich die oftmals nur in thematisch engen Teilbereichen erzielten Erfolge nicht immer problemlos verallgemeinern oder in einen neuen Kontext übertragen. Das Ziel der vorliegenden Darstellung liegt in der Diskussion des aktuellen Stands der Technik der automatisierten inhaltlichen Erschließung anhand ausgewählter Beispiele sowie möglicher Fortschritte und Prognosen basierend auf aktuellen Entwicklungen des maschinellen Lernens und der Künstlichen Intelligenz einschließlich deren Kritik.
  5. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.01
    0.010881188 = product of:
      0.032643564 = sum of:
        0.013359673 = product of:
          0.04007902 = sum of:
            0.04007902 = weight(_text_:k in 3581) [ClassicSimilarity], result of:
              0.04007902 = score(doc=3581,freq=2.0), product of:
                0.12702256 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.035582762 = queryNorm
                0.31552678 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.33333334 = coord(1/3)
        0.019283893 = product of:
          0.038567785 = sum of:
            0.038567785 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.038567785 = score(doc=3581,freq=2.0), product of:
                0.12460477 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035582762 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    24. 3.2006 12:22:02
  6. Bunk, T.: Deskriptoren Stoppwortlisten und kryptische Zeichen (2008) 0.01
    0.010168468 = product of:
      0.061010804 = sum of:
        0.061010804 = weight(_text_:t in 2471) [ClassicSimilarity], result of:
          0.061010804 = score(doc=2471,freq=2.0), product of:
            0.14017504 = queryWeight, product of:
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.035582762 = queryNorm
            0.43524727 = fieldWeight in 2471, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.078125 = fieldNorm(doc=2471)
      0.16666667 = coord(1/6)
    
  7. Mödden, E.: Inhaltserschließung im Zeitalter von Suchmaschinen und Volltextsuche (2018) 0.01
    0.010168468 = product of:
      0.061010804 = sum of:
        0.061010804 = weight(_text_:t in 5625) [ClassicSimilarity], result of:
          0.061010804 = score(doc=5625,freq=2.0), product of:
            0.14017504 = queryWeight, product of:
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.035582762 = queryNorm
            0.43524727 = fieldWeight in 5625, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.078125 = fieldNorm(doc=5625)
      0.16666667 = coord(1/6)
    
    Content
    Vgl.: https://www.b-i-t-online.de/heft/2018-01-interview-moedden.pdf.
  8. Volk, M.; Mittermaier, H.; Schurig, A.; Biedassek, T.: Halbautomatische Volltextanalyse, Datenbankaufbau und Document Retrieval (1992) 0.01
    0.007117927 = product of:
      0.042707562 = sum of:
        0.042707562 = weight(_text_:t in 2571) [ClassicSimilarity], result of:
          0.042707562 = score(doc=2571,freq=2.0), product of:
            0.14017504 = queryWeight, product of:
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.035582762 = queryNorm
            0.30467308 = fieldWeight in 2571, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2571)
      0.16666667 = coord(1/6)
    
  9. Kasprzik, A.: Automatisierte und semiautomatisierte Klassifizierung : eine Analyse aktueller Projekte (2014) 0.01
    0.006337974 = product of:
      0.038027845 = sum of:
        0.038027845 = product of:
          0.07605569 = sum of:
            0.07605569 = weight(_text_:intelligenz in 2470) [ClassicSimilarity], result of:
              0.07605569 = score(doc=2470,freq=2.0), product of:
                0.20204939 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.035582762 = queryNorm
                0.37642127 = fieldWeight in 2470, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2470)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Abstract
    Das sprunghafte Anwachsen der Menge digital verfügbarer Dokumente gepaart mit dem Zeit- und Personalmangel an wissenschaftlichen Bibliotheken legt den Einsatz von halb- oder vollautomatischen Verfahren für die verbale und klassifikatorische Inhaltserschließung nahe. Nach einer kurzen allgemeinen Einführung in die gängige Methodik beleuchtet dieser Artikel eine Reihe von Projekten zur automatisierten Klassifizierung aus dem Zeitraum 2007-2012 und aus dem deutschsprachigen Raum. Ein Großteil der vorgestellten Projekte verwendet Methoden des Maschinellen Lernens aus der Künstlichen Intelligenz, arbeitet meist mit angepassten Versionen einer kommerziellen Software und bezieht sich in der Regel auf die Dewey Decimal Classification (DDC). Als Datengrundlage dienen Metadatensätze, Abstracs, Inhaltsverzeichnisse und Volltexte in diversen Datenformaten. Die abschließende Analyse enthält eine Anordnung der Projekte nach einer Reihe von verschiedenen Kriterien und eine Zusammenfassung der aktuellen Lage und der größten Herausfordungen für automatisierte Klassifizierungsverfahren.
  10. Franke-Maier, M.; Beck, C.; Kasprzik, A.; Maas, J.F.; Pielmeier, S.; Wiesenmüller, H: ¬Ein Feuerwerk an Algorithmen und der Startschuss zur Bildung eines Kompetenznetzwerks für maschinelle Erschließung : Bericht zur Fachtagung Netzwerk maschinelle Erschließung an der Deutschen Nationalbibliothek am 10. und 11. Oktober 2019 (2020) 0.01
    0.0061010807 = product of:
      0.036606483 = sum of:
        0.036606483 = weight(_text_:t in 5851) [ClassicSimilarity], result of:
          0.036606483 = score(doc=5851,freq=2.0), product of:
            0.14017504 = queryWeight, product of:
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.035582762 = queryNorm
            0.26114836 = fieldWeight in 5851, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.046875 = fieldNorm(doc=5851)
      0.16666667 = coord(1/6)
    
    Abstract
    Am 10. und 11. Oktober 2019 trafen sich rund 100 Vertreterinnen und Vertreter aus Bibliothek, Wissenschaft und Wirtschaft an der Deutschen Nationalbibliothek (DNB) in Frankfurt am Main zu einer Fachtagung über das derzeitige Trend-Thema "maschinelle Erschließung". Ziel der Veranstaltung war die "Betrachtung unterschiedlicher Anwendungsbereiche maschineller Textanalyse" sowie die Initiation eines Dialogs zu Technologien für die maschinelle Textanalyse, Aufgabenstellungen, Erfahrungen und den Herausforderungen, die maschinelle Verfahren nach sich ziehen. Hintergrund ist der Auftrag des Standardisierungsausschusses an die DNB, regelmäßig einschlägige Tagungen durchzuführen, aus denen "perspektivisch ein Kompetenznetzwerk für die maschinelle Erschließung entsteh[t]".
  11. Fuhr, N.; Niewelt, B.: ¬Ein Retrievaltest mit automatisch indexierten Dokumenten (1984) 0.01
    0.0056244684 = product of:
      0.03374681 = sum of:
        0.03374681 = product of:
          0.06749362 = sum of:
            0.06749362 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.06749362 = score(doc=262,freq=2.0), product of:
                0.12460477 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035582762 = queryNorm
                0.5416616 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=262)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    20.10.2000 12:22:23
  12. Fuhr, N.: Ranking-Experimente mit gewichteter Indexierung (1986) 0.00
    0.004820973 = product of:
      0.028925838 = sum of:
        0.028925838 = product of:
          0.057851676 = sum of:
            0.057851676 = weight(_text_:22 in 58) [ClassicSimilarity], result of:
              0.057851676 = score(doc=58,freq=2.0), product of:
                0.12460477 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035582762 = queryNorm
                0.46428138 = fieldWeight in 58, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=58)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    14. 6.2015 22:12:44
  13. Hauer, M.: Automatische Indexierung (2000) 0.00
    0.004820973 = product of:
      0.028925838 = sum of:
        0.028925838 = product of:
          0.057851676 = sum of:
            0.057851676 = weight(_text_:22 in 5887) [ClassicSimilarity], result of:
              0.057851676 = score(doc=5887,freq=2.0), product of:
                0.12460477 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035582762 = queryNorm
                0.46428138 = fieldWeight in 5887, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5887)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Source
    Wissen in Aktion: Wege des Knowledge Managements. 22. Online-Tagung der DGI, Frankfurt am Main, 2.-4.5.2000. Proceedings. Hrsg.: R. Schmidt
  14. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.00
    0.004820973 = product of:
      0.028925838 = sum of:
        0.028925838 = product of:
          0.057851676 = sum of:
            0.057851676 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.057851676 = score(doc=2051,freq=2.0), product of:
                0.12460477 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035582762 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    14. 6.2015 22:12:56
  15. Lepsky, K.: Automatische Indexierung (2012) 0.00
    0.0044532246 = product of:
      0.026719347 = sum of:
        0.026719347 = product of:
          0.08015804 = sum of:
            0.08015804 = weight(_text_:k in 442) [ClassicSimilarity], result of:
              0.08015804 = score(doc=442,freq=2.0), product of:
                0.12702256 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.035582762 = queryNorm
                0.63105357 = fieldWeight in 442, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.125 = fieldNorm(doc=442)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
  16. Groß, T.; Faden, M.: Automatische Indexierung elektronischer Dokumente an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften : Bericht über die Jahrestagung der Internationalen Buchwissenschaftlichen Gesellschaft (2010) 0.00
    0.0040673874 = product of:
      0.024404323 = sum of:
        0.024404323 = weight(_text_:t in 4051) [ClassicSimilarity], result of:
          0.024404323 = score(doc=4051,freq=2.0), product of:
            0.14017504 = queryWeight, product of:
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.035582762 = queryNorm
            0.17409891 = fieldWeight in 4051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.03125 = fieldNorm(doc=4051)
      0.16666667 = coord(1/6)
    
  17. Lepsky, K.: Maschinelles Indexieren zur Verbesserung der sachlichen Suche im OPAC : DFG-Projekt an der Universitäts- und Landesbibliothek Düsseldorf (1994) 0.00
    0.0038965717 = product of:
      0.02337943 = sum of:
        0.02337943 = product of:
          0.07013829 = sum of:
            0.07013829 = weight(_text_:k in 2882) [ClassicSimilarity], result of:
              0.07013829 = score(doc=2882,freq=2.0), product of:
                0.12702256 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.035582762 = queryNorm
                0.5521719 = fieldWeight in 2882, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2882)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
  18. Lepsky, K.; Zimmermann, H.H.: Katalogerweiterung durch Scanning und Automatische Dokumenterschließung : Das DFG-Projekt KASCADE (1998) 0.00
    0.0033399183 = product of:
      0.02003951 = sum of:
        0.02003951 = product of:
          0.06011853 = sum of:
            0.06011853 = weight(_text_:k in 3938) [ClassicSimilarity], result of:
              0.06011853 = score(doc=3938,freq=2.0), product of:
                0.12702256 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.035582762 = queryNorm
                0.47329018 = fieldWeight in 3938, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3938)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
  19. Lepsky, K.: Automatisierung in der Sacherschließung : Maschinelles Indexieren von Titeldaten (1996) 0.00
    0.0033399183 = product of:
      0.02003951 = sum of:
        0.02003951 = product of:
          0.06011853 = sum of:
            0.06011853 = weight(_text_:k in 3418) [ClassicSimilarity], result of:
              0.06011853 = score(doc=3418,freq=2.0), product of:
                0.12702256 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.035582762 = queryNorm
                0.47329018 = fieldWeight in 3418, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3418)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
  20. Lepsky, K.: Vom OPAC zum Hyperkatalog : Daten und Indexierung (1996) 0.00
    0.0033399183 = product of:
      0.02003951 = sum of:
        0.02003951 = product of:
          0.06011853 = sum of:
            0.06011853 = weight(_text_:k in 7726) [ClassicSimilarity], result of:
              0.06011853 = score(doc=7726,freq=2.0), product of:
                0.12702256 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.035582762 = queryNorm
                0.47329018 = fieldWeight in 7726, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.09375 = fieldNorm(doc=7726)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)