Search (95 results, page 1 of 5)

  • × theme_ss:"Automatisches Indexieren"
  1. Strobel, S.: Englischsprachige Erweiterung des TIB / AV-Portals : Ein GND/DBpedia-Mapping zur Gewinnung eines englischen Begriffssystems (2014) 0.01
    0.014427618 = product of:
      0.10099332 = sum of:
        0.10099332 = weight(_text_:naturwissenschaft in 2876) [ClassicSimilarity], result of:
          0.10099332 = score(doc=2876,freq=2.0), product of:
            0.24302752 = queryWeight, product of:
              7.5225 = idf(docFreq=64, maxDocs=44218)
              0.03230675 = queryNorm
            0.41556332 = fieldWeight in 2876, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.5225 = idf(docFreq=64, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2876)
      0.14285715 = coord(1/7)
    
    Abstract
    Die Videos des TIB / AV-Portals werden mit insgesamt 63.356 GND-Sachbegriffen aus Naturwissenschaft und Technik automatisch verschlagwortet. Neben den deutschsprachigen Videos verfügt das TIB / AV-Portal auch über zahlreiche englischsprachige Videos. Die GND enthält zu den in der TIB / AV-Portal-Wissensbasis verwendeten Sachbegriffen nur sehr wenige englische Bezeichner. Es fehlt demnach ein englisches Indexierungsvokabular, mit dem die englischsprachigen Videos automatisch verschlagwortet werden können. Die Lösung dieses Problems sieht wie folgt aus: Die englischen Bezeichner sollen über ein Mapping der GND-Sachbegriffe auf andere Datensätze gewonnen werden, die eine englische Übersetzung der Begriffe enthalten. Die verwendeten Mappingstrategien nutzen die DBpedia, LCSH, MACS-Ergebnisse sowie den WTI-Thesaurus. Am Ende haben 35.025 GND-Sachbegriffe (mindestens) einen englischen Bezeichner ermittelt bekommen. Diese englischen Bezeichner können für die automatische Verschlagwortung der englischsprachigen Videos unmittelbar herangezogen werden. 11.694 GND-Sachbegriffe konnten zwar nicht ins Englische "übersetzt", aber immerhin mit einem Oberbegriff assoziiert werden, der eine englische Übersetzung hat. Diese Assoziation dient der Erweiterung der Suchergebnisse.
  2. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.01
    0.01330703 = product of:
      0.046574604 = sum of:
        0.042197485 = product of:
          0.08439497 = sum of:
            0.08439497 = weight(_text_:technischer in 3780) [ClassicSimilarity], result of:
              0.08439497 = score(doc=3780,freq=2.0), product of:
                0.22216077 = queryWeight, product of:
                  6.8766055 = idf(docFreq=123, maxDocs=44218)
                  0.03230675 = queryNorm
                0.3798824 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.8766055 = idf(docFreq=123, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.5 = coord(1/2)
        0.004377119 = product of:
          0.021885592 = sum of:
            0.021885592 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
              0.021885592 = score(doc=3780,freq=2.0), product of:
                0.11313273 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03230675 = queryNorm
                0.19345059 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.2 = coord(1/5)
      0.2857143 = coord(2/7)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  3. Spitters, M.J.: Adjust : automatische thesauriele ontsluiting van grote hoeveelheden krantenartikelen (1999) 0.01
    0.0061696153 = product of:
      0.043187305 = sum of:
        0.043187305 = product of:
          0.10796826 = sum of:
            0.05496605 = weight(_text_:28 in 3938) [ClassicSimilarity], result of:
              0.05496605 = score(doc=3938,freq=2.0), product of:
                0.115731284 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03230675 = queryNorm
                0.4749455 = fieldWeight in 3938, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3938)
            0.053002212 = weight(_text_:29 in 3938) [ClassicSimilarity], result of:
              0.053002212 = score(doc=3938,freq=2.0), product of:
                0.11364504 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03230675 = queryNorm
                0.46638384 = fieldWeight in 3938, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3938)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Date
    27. 8.2005 12:55:28
    Source
    Informatie professional. 3(1999) no.10, S.29-31
  4. Krüger, C.: Evaluation des WWW-Suchdienstes GERHARD unter besonderer Beachtung automatischer Indexierung (1999) 0.01
    0.0061154817 = product of:
      0.04280837 = sum of:
        0.04280837 = product of:
          0.08561674 = sum of:
            0.08561674 = weight(_text_:wissenschaftlich in 1777) [ClassicSimilarity], result of:
              0.08561674 = score(doc=1777,freq=2.0), product of:
                0.2237631 = queryWeight, product of:
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.03230675 = queryNorm
                0.38262224 = fieldWeight in 1777, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1777)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Die vorliegende Arbeit beinhaltet eine Beschreibung und Evaluation des WWW - Suchdienstes GERHARD (German Harvest Automated Retrieval and Directory). GERHARD ist ein Such- und Navigationssystem für das deutsche World Wide Web, weiches ausschließlich wissenschaftlich relevante Dokumente sammelt, und diese auf der Basis computerlinguistischer und statistischer Methoden automatisch mit Hilfe eines bibliothekarischen Klassifikationssystems klassifiziert. Mit dem DFG - Projekt GERHARD ist der Versuch unternommen worden, mit einem auf einem automatischen Klassifizierungsverfahren basierenden World Wide Web - Dienst eine Alternative zu herkömmlichen Methoden der Interneterschließung zu entwickeln. GERHARD ist im deutschsprachigen Raum das einzige Verzeichnis von Internetressourcen, dessen Erstellung und Aktualisierung vollständig automatisch (also maschinell) erfolgt. GERHARD beschränkt sich dabei auf den Nachweis von Dokumenten auf wissenschaftlichen WWW - Servern. Die Grundidee dabei war, kostenintensive intellektuelle Erschließung und Klassifizierung von lnternetseiten durch computerlinguistische und statistische Methoden zu ersetzen, um auf diese Weise die nachgewiesenen Internetressourcen automatisch auf das Vokabular eines bibliothekarischen Klassifikationssystems abzubilden. GERHARD steht für German Harvest Automated Retrieval and Directory. Die WWW - Adresse (URL) von GERHARD lautet: http://www.gerhard.de. Im Rahmen der vorliegenden Diplomarbeit soll eine Beschreibung des Dienstes mit besonderem Schwerpunkt auf dem zugrundeliegenden Indexierungs- bzw. Klassifizierungssystem erfolgen und anschließend mit Hilfe eines kleinen Retrievaltests die Effektivität von GERHARD überprüft werden.
  5. Salton, G.: Another look at automatic text-retrieval systems (1986) 0.01
    0.0051413462 = product of:
      0.035989422 = sum of:
        0.035989422 = product of:
          0.089973554 = sum of:
            0.045805044 = weight(_text_:28 in 1356) [ClassicSimilarity], result of:
              0.045805044 = score(doc=1356,freq=2.0), product of:
                0.115731284 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03230675 = queryNorm
                0.39578792 = fieldWeight in 1356, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1356)
            0.04416851 = weight(_text_:29 in 1356) [ClassicSimilarity], result of:
              0.04416851 = score(doc=1356,freq=2.0), product of:
                0.11364504 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03230675 = queryNorm
                0.38865322 = fieldWeight in 1356, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1356)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Footnote
    Bezugnahme auf: Blair, D.C.: An evaluation of retrieval effectiveness for a full-text document-retrieval system. Comm. ACM 28(1985) S.280-299. - Vgl. auch: Blair, D.C.: Full text retrieval ... Int. Class. 13(1986) S.18-23; Blair, D.C., M.E. Maron: full-text information retrieval ... Inf. Proc. Man. 26(1990) S.437-447.
    Source
    Communications of the Association for Computing Machinery. 29(1986), S.648-656
  6. Gaus, W.; Kaluscha, R.: Maschinelle inhaltliche Erschließung von Arztbriefen und Auswertung von Reha-Entlassungsberichten (2006) 0.00
    0.004892385 = product of:
      0.034246694 = sum of:
        0.034246694 = product of:
          0.06849339 = sum of:
            0.06849339 = weight(_text_:wissenschaftlich in 6078) [ClassicSimilarity], result of:
              0.06849339 = score(doc=6078,freq=2.0), product of:
                0.2237631 = queryWeight, product of:
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.03230675 = queryNorm
                0.3060978 = fieldWeight in 6078, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.03125 = fieldNorm(doc=6078)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Schon Hippokrates empfahl den Ärzten, Krankenakten zu führen. Heute ist die detaillierte Dokumentation eine Standespflicht der Ärzte [Gaus et al 1999]. Diese Dokumentationen medizinischer Behandlungen bergen einen riesigen und wertvollen Erfahrungsschatz. Informationen zu Therapien und Behandlungsergebnissen, die in Studien erst mühsam erhoben werden müssten, sind bereits in der Routinedokumentation wie Operations- und Entlassungsberichten oder Arztbriefen zahlreich vorhanden. Mit der Einführung der elektronischen Datenverarbeitung in der Medizin liegen diese Informationen seit einigen Jahren auch maschinenlesbar vor, so dass ein Haupthemmnis für die Nutzung dieser Dokumentationen, nämlich die mühsame manuelle Aufbereitung der Papierakten, entfällt. Während die formale Erschließung nach Patientenmerkmalen wie Name und Geburtsdatum von den Krankenhaus- bzw. Praxisinformationssystemen heutzutage gut gelöst ist, bleibt die inhaltliche Erschließung dieser Dokumentationen schwierig, da nur wenige Informationen in strukturierter oder intellektuell indexierter Form vorliegen [Leiner et al. 2003]. Auch wenn nach der Einführung der Fallpauschalen (diagnosis related groups, DRG) in den Krankenhäusern die Diagnosen nach ICD-10 verschlüsselt werden, besteht ein Großteil der Informationen weiterhin aus freiem Text, dessen computerbasierte Erschließung aufgrund der Komplexität menschlicher Sprache nicht trivial ist. Zu diesen medizinischen Texten gehören u.a. Gutachten, verbal beschriebene (Differential-) Diagnosen, vielfältige Untersuchungs- und Befundberichte, Visitenblätter, Operationsberichte und der Arztbrief bzw. Entlassungsbericht. Arztbrief und Entlassbericht dienen der Information des einweisenden oder weiterbehandelnden Arztes (z.B. Hausarzt) über das, was mit dem Patienten geschehen ist, und geben Empfehlungen zur Weiterbehandlung. Sie fassen eine (stationäre) Behandlung epikritisch - also nachdem die Krankheit überwunden ist, im Rückblick - zusammen und geben einen Überblick über Anamnese (Vorgeschichte), Beschwerden und Symptome, die eingesetzten diagnostischen Verfahren, die gestellte(n) Diagnose(n), Therapie, Verlauf, Komplikationen und das erzielte Ergebnis. Sie haben somit eine ähnliche Funktion wie das Abstract in der Literaturdokumentation, oft wird eine Kopie in der Krankenakte obenauf abgelegt. Zumindest in Universitätskliniken möchten wissenschaftlich arbeitende Ärzte auch unter inhaltlichen Gesichtspunkten auf die Krankenakten zugreifen können, z.B. die Krankenakten aller Patienten mit einer bestimmten Diagnose einsehen, exzerpieren und die exzerpierten Daten auswerten. Auch bei der Suche nach ähnlichen Fällen oder im Bereich der Aus- und Fortbildung hilft eine inhaltliche Erschließung weiter. So könnte etwa ein Assistenzarzt, der im Rahmen seiner Weiterbildung demnächst Sonografien des Kniegelenkes durchzuführen hat, sich vorhandene Berichte von solchen Sonografien anschauen und sich so über relevante Untersuchungstechniken und Befunde vorab informieren.
  7. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.00
    0.0040949136 = product of:
      0.028664393 = sum of:
        0.028664393 = product of:
          0.07166098 = sum of:
            0.036644034 = weight(_text_:28 in 3581) [ClassicSimilarity], result of:
              0.036644034 = score(doc=3581,freq=2.0), product of:
                0.115731284 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03230675 = queryNorm
                0.31663033 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
            0.035016946 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.035016946 = score(doc=3581,freq=2.0), product of:
                0.11313273 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03230675 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Date
    24. 3.2006 12:22:02
    Source
    ABI-Technik. 26(2006) H.1, S.18-28
  8. Bordoni, L.; Pazienza, M.T.: Documents automatic indexing in an environmental domain (1997) 0.00
    0.003583049 = product of:
      0.025081342 = sum of:
        0.025081342 = product of:
          0.062703356 = sum of:
            0.03206353 = weight(_text_:28 in 530) [ClassicSimilarity], result of:
              0.03206353 = score(doc=530,freq=2.0), product of:
                0.115731284 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03230675 = queryNorm
                0.27705154 = fieldWeight in 530, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=530)
            0.03063983 = weight(_text_:22 in 530) [ClassicSimilarity], result of:
              0.03063983 = score(doc=530,freq=2.0), product of:
                0.11313273 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03230675 = queryNorm
                0.2708308 = fieldWeight in 530, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=530)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Source
    International forum on information and documentation. 22(1997) no.1, S.17-28
  9. Wolfekuhler, M.R.; Punch, W.F.: Finding salient features for personal Web pages categories (1997) 0.00
    0.003517588 = product of:
      0.024623115 = sum of:
        0.024623115 = product of:
          0.061557785 = sum of:
            0.030917956 = weight(_text_:29 in 2673) [ClassicSimilarity], result of:
              0.030917956 = score(doc=2673,freq=2.0), product of:
                0.11364504 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03230675 = queryNorm
                0.27205724 = fieldWeight in 2673, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2673)
            0.03063983 = weight(_text_:22 in 2673) [ClassicSimilarity], result of:
              0.03063983 = score(doc=2673,freq=2.0), product of:
                0.11313273 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03230675 = queryNorm
                0.2708308 = fieldWeight in 2673, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2673)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Date
    1. 8.1996 22:08:06
    Source
    Computer networks and ISDN systems. 29(1997) no.8, S.1147-1156
  10. Franke-Maier, M.: Anforderungen an die Qualität der Inhaltserschließung im Spannungsfeld von intellektuell und automatisch erzeugten Metadaten (2018) 0.00
    0.003517588 = product of:
      0.024623115 = sum of:
        0.024623115 = product of:
          0.061557785 = sum of:
            0.030917956 = weight(_text_:29 in 5344) [ClassicSimilarity], result of:
              0.030917956 = score(doc=5344,freq=2.0), product of:
                0.11364504 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03230675 = queryNorm
                0.27205724 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
            0.03063983 = weight(_text_:22 in 5344) [ClassicSimilarity], result of:
              0.03063983 = score(doc=5344,freq=2.0), product of:
                0.11313273 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03230675 = queryNorm
                0.2708308 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Abstract
    Spätestens seit dem Deutschen Bibliothekartag 2018 hat sich die Diskussion zu den automatischen Verfahren der Inhaltserschließung der Deutschen Nationalbibliothek von einer politisch geführten Diskussion in eine Qualitätsdiskussion verwandelt. Der folgende Beitrag beschäftigt sich mit Fragen der Qualität von Inhaltserschließung in digitalen Zeiten, wo heterogene Erzeugnisse unterschiedlicher Verfahren aufeinandertreffen und versucht, wichtige Anforderungen an Qualität zu definieren. Dieser Tagungsbeitrag fasst die vom Autor als Impulse vorgetragenen Ideen beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV am 29. August 2018 in Kiel zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  11. Ward, M.L.: ¬The future of the human indexer (1996) 0.00
    0.003071185 = product of:
      0.021498295 = sum of:
        0.021498295 = product of:
          0.053745735 = sum of:
            0.027483026 = weight(_text_:28 in 7244) [ClassicSimilarity], result of:
              0.027483026 = score(doc=7244,freq=2.0), product of:
                0.115731284 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03230675 = queryNorm
                0.23747274 = fieldWeight in 7244, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.046875 = fieldNorm(doc=7244)
            0.02626271 = weight(_text_:22 in 7244) [ClassicSimilarity], result of:
              0.02626271 = score(doc=7244,freq=2.0), product of:
                0.11313273 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03230675 = queryNorm
                0.23214069 = fieldWeight in 7244, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=7244)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Date
    9. 2.1997 18:44:22
    Source
    Journal of librarianship and information science. 28(1996) no.4, S.217-225
  12. Wang, S.; Koopman, R.: Embed first, then predict (2019) 0.00
    0.0025706731 = product of:
      0.017994711 = sum of:
        0.017994711 = product of:
          0.044986777 = sum of:
            0.022902522 = weight(_text_:28 in 5400) [ClassicSimilarity], result of:
              0.022902522 = score(doc=5400,freq=2.0), product of:
                0.115731284 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03230675 = queryNorm
                0.19789396 = fieldWeight in 5400, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5400)
            0.022084255 = weight(_text_:29 in 5400) [ClassicSimilarity], result of:
              0.022084255 = score(doc=5400,freq=2.0), product of:
                0.11364504 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03230675 = queryNorm
                0.19432661 = fieldWeight in 5400, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5400)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Date
    29. 9.2019 12:18:42
    Footnote
    Beitrag eines Special Issue: Research Information Systems and Science Classifications; including papers from "Trajectories for Research: Fathoming the Promise of the NARCIS Classification," 27-28 September 2018, The Hague, The Netherlands.
  13. Milstead, J.L.: Thesauri in a full-text world (1998) 0.00
    0.002559321 = product of:
      0.017915247 = sum of:
        0.017915247 = product of:
          0.044788115 = sum of:
            0.022902522 = weight(_text_:28 in 2337) [ClassicSimilarity], result of:
              0.022902522 = score(doc=2337,freq=2.0), product of:
                0.115731284 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03230675 = queryNorm
                0.19789396 = fieldWeight in 2337, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2337)
            0.021885592 = weight(_text_:22 in 2337) [ClassicSimilarity], result of:
              0.021885592 = score(doc=2337,freq=2.0), product of:
                0.11313273 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03230675 = queryNorm
                0.19345059 = fieldWeight in 2337, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2337)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Date
    22. 9.1997 19:16:05
    Pages
    S.28-38
  14. Kuhlen, R.: Morphologische Relationen durch Reduktionsalgorithmen (1974) 0.00
    0.0024985482 = product of:
      0.017489837 = sum of:
        0.017489837 = product of:
          0.087449186 = sum of:
            0.087449186 = weight(_text_:29 in 4251) [ClassicSimilarity], result of:
              0.087449186 = score(doc=4251,freq=4.0), product of:
                0.11364504 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03230675 = queryNorm
                0.7694941 = fieldWeight in 4251, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4251)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Date
    29. 1.2011 14:56:29
  15. Thirion, B.; Leroy, J.P.; Baudic, F.; Douyère, M.; Piot, J.; Darmoni, S.J.: SDI selecting, decribing, and indexing : did you mean automatically? (2001) 0.00
    0.002220964 = product of:
      0.015546748 = sum of:
        0.015546748 = product of:
          0.07773374 = sum of:
            0.07773374 = weight(_text_:28 in 6198) [ClassicSimilarity], result of:
              0.07773374 = score(doc=6198,freq=4.0), product of:
                0.115731284 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03230675 = queryNorm
                0.6716744 = fieldWeight in 6198, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6198)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Date
    6. 1.1997 18:30:28
    Source
    Knowledge organization. 28(2001) no.3, S.137-140
  16. Croft, W.B.: Clustering large files of documents using the single link method (1977) 0.00
    0.002093945 = product of:
      0.014657614 = sum of:
        0.014657614 = product of:
          0.07328807 = sum of:
            0.07328807 = weight(_text_:28 in 5489) [ClassicSimilarity], result of:
              0.07328807 = score(doc=5489,freq=2.0), product of:
                0.115731284 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03230675 = queryNorm
                0.63326067 = fieldWeight in 5489, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.125 = fieldNorm(doc=5489)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Source
    Journal of the American Society for Information Science. 28(1977), S.341-344
  17. Panyr, J.: STEINADLER: ein Verfahren zur automatischen Deskribierung und zur automatischen thematischen Klassifikation (1978) 0.00
    0.002019132 = product of:
      0.014133923 = sum of:
        0.014133923 = product of:
          0.070669614 = sum of:
            0.070669614 = weight(_text_:29 in 5169) [ClassicSimilarity], result of:
              0.070669614 = score(doc=5169,freq=2.0), product of:
                0.11364504 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03230675 = queryNorm
                0.6218451 = fieldWeight in 5169, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=5169)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Source
    Nachrichten für Dokumentation. 29(1978), S.92-96
  18. Salton, G.; Yang, C.S.: On the specification of term values in automatic indexing (1973) 0.00
    0.002019132 = product of:
      0.014133923 = sum of:
        0.014133923 = product of:
          0.070669614 = sum of:
            0.070669614 = weight(_text_:29 in 5476) [ClassicSimilarity], result of:
              0.070669614 = score(doc=5476,freq=2.0), product of:
                0.11364504 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03230675 = queryNorm
                0.6218451 = fieldWeight in 5476, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=5476)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Source
    Journal of documentation. 29(1973), S.351-372
  19. Voorhees, E.M.: Implementing agglomerative hierarchic clustering algorithms for use in document retrieval (1986) 0.00
    0.0020009684 = product of:
      0.014006779 = sum of:
        0.014006779 = product of:
          0.07003389 = sum of:
            0.07003389 = weight(_text_:22 in 402) [ClassicSimilarity], result of:
              0.07003389 = score(doc=402,freq=2.0), product of:
                0.11313273 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03230675 = queryNorm
                0.61904186 = fieldWeight in 402, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=402)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Source
    Information processing and management. 22(1986) no.6, S.465-476
  20. Lepsky, K.: Maschinelles Indexieren zur Verbesserung der sachlichen Suche im OPAC : DFG-Projekt an der Universitäts- und Landesbibliothek Düsseldorf (1994) 0.00
    0.0018322017 = product of:
      0.012825412 = sum of:
        0.012825412 = product of:
          0.06412706 = sum of:
            0.06412706 = weight(_text_:28 in 2882) [ClassicSimilarity], result of:
              0.06412706 = score(doc=2882,freq=2.0), product of:
                0.115731284 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03230675 = queryNorm
                0.5541031 = fieldWeight in 2882, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2882)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Source
    Bibliotheksdienst. 28(1994) H.8, S.1234-1242

Years

Languages

Types

  • a 84
  • el 9
  • x 5
  • m 4
  • p 1
  • More… Less…