Search (48 results, page 1 of 3)

  • × theme_ss:"Automatisches Indexieren"
  1. Maas, H.-D.: Indexieren mit AUTINDEX (2006) 0.05
    0.046302404 = product of:
      0.13890721 = sum of:
        0.13890721 = weight(_text_:multimedial in 6077) [ClassicSimilarity], result of:
          0.13890721 = score(doc=6077,freq=4.0), product of:
            0.3501427 = queryWeight, product of:
              7.2542357 = idf(docFreq=84, maxDocs=44218)
              0.048267342 = queryNorm
            0.39671603 = fieldWeight in 6077, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.2542357 = idf(docFreq=84, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
      0.33333334 = coord(1/3)
    
    Abstract
    Die erste Implementierung wurde in Zusammenarbeit mit dem Fachinformationszentrum Technik (Frankfurt) erstellt. Eine Kontrolle der manuell vergebenen Grob- und Feinklassifizierung der Lexikonartikel des Brockhaus Multimedial und anderer Brockhaus-Lexika wurde mit AUTINDEX in Zusammenarbeit mit BIFAB (Mannheim) durchgeführt. AUTINDEX ist auch Bestandteil des Indexierungs- und Retrievalsystems der Firma AGI (Neustadt/Weinstraße), das in der Landesbibliothek Vorarlberg eingesetzt wird. Weiterhin wird AUTINDEX im System LEWI verwendet, das zusammen mit BIFAB entwickelt wird. Dieses System erlaubt natürlichsprachliche Anfragen an den Brockhaus Multimedial und liefert als Antwort die relevanten Lexikonartikel. Im IAI selbst wurden große Textmengen indexiert (Brockhaus- und Dudenlexika, Zeitungstexte usw.), die man für die Weiterentwicklung diverser Thesauri und Wörterbücher nutzen kann. Beispielsweise kann man sich für ein Wort alle Texte ausgeben lassen, in denen dieses Wort wichtig ist. Dabei sind die Texte nach Wichtigkeit sortiert. Zu einem gegebenen Wort kann man sich auch die Assoziationen oder die möglichen Klassifikationen berechnen lassen. Auf diese Weise kann man einen Thesaurus halbautomatisch erweitern.
  2. Lepsky, K.: Automatische Indexierung des Reallexikons zur Deutschen Kunstgeschichte (2006) 0.03
    0.032740742 = product of:
      0.098222226 = sum of:
        0.098222226 = weight(_text_:multimedial in 6080) [ClassicSimilarity], result of:
          0.098222226 = score(doc=6080,freq=2.0), product of:
            0.3501427 = queryWeight, product of:
              7.2542357 = idf(docFreq=84, maxDocs=44218)
              0.048267342 = queryNorm
            0.28052056 = fieldWeight in 6080, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2542357 = idf(docFreq=84, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
      0.33333334 = coord(1/3)
    
    Abstract
    Seriöse Information darf erwarten, wer renommierte Nachschlagewerke befragt. Zumindest für die über die Primärordnung (Stichwort/Lemma) erschlossenen Sachverhalte ist für Buchausgaben ein gezielter Zugriff möglich, Verweisungen zwischen Artikeln sorgen für weitere Einstiege. Anzunehmen ist, dass sich der Nutzen von Nachschlagewerken in elektronischer Form noch deutlich erhöhen lässt: Produkte wie z.B. "Brockhaus multimedial" oder "Encyclopedia Britannica" sorgen mit leistungsfähigen Techniken über den wahlfreien Volltextzugriff hinaus für zahlreiche Navigations- und Recherchemöglichkeiten. Es liegt daher nahe, über eine Digitalisierung konventionell vorliegender Nachschlagewerke auch deren Anwendung zu verbessern, die im Print möglichen Zugriffsmöglichkeiten deutlich zu erweitern. Beispiele für diesen Ansatz sind die Digitalisierung der "Oekonomischen Encyklopädie" von Johann Georg Krünitz, die mit hohem Aufwand nicht maschinell (Scanning und OCR) sondern manuell realisiert wurde oder auch die im "Projekt Runeberg' , vorgenommenen zahlreichen Digitalisierungen u.a. auch von Nachschlagewerken. Ob die einfache Volltextindexierung derartig umfangreicher und - weil bereits als Nachschlagewerk konzipiert - gleichzeitig extrem verdichteter Quellen für einen größtmöglichen Nutzen der elektronischen Version ausreicht, darf zu Recht bezweifelt werden. In kommerziellen Produkten sorgen daher zusätzliche Techniken für einerseits thematisch gezielte Zugriffe auch über Nicht-Stichwörter, andererseits für Querverbindungen zu möglicherweise weiteren Artikeln von Interesse ("Wissensnetz" des Brockhaus, "Knowledge Navigator" der Britannica). Es darf angenommen werden, dass derartige Techniken dabei auf Informationen aufsetzen können (Strukturierung der Artikel, gekennzeichnete (getaggte) Personennamen, Querverweise etc.), die in den zu verarbeitenden Artikeln in nutzbarer Form vorliegen. Für digitalisierte Druckausgaben kommen derartige Verfahren nicht in Frage, weil lediglich flache, noch dazu in der Regel mit OCR-Fehlern behaftete Texte vorliegen. Die Zugriffsmöglichkeiten bewegen sich daher zwischen der 1:1-Umsetzung der Druckausgabe, d.h. dem Primärzugriff über Stichwort, und der Volltextsuche auf den vollständigen Lexikontext. Beides ist angesichts der im elektronischen Volltext liegenden Möglichkeiten sicher nicht die Methode der Wahl. Für die Digitalisierung des "Reallexikons zur Deutschen Kunstgeschichte" im Rahmen des von der Deutschen Forschungsgemeinschaft geförderten Projekts "RDKWeb" wird daher versucht, mit den Mitteln der Automatischen Indexierung eine Lösung zu erzielen, die über eine reine Volltextsuchmöglichkeit hinaus Suchunterstützungen bietet, die sich an den Fähigkeiten kommerzieller Produkte orientieren (nicht messen!).
  3. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.03
    0.029895242 = product of:
      0.08968572 = sum of:
        0.08968572 = sum of:
          0.06352749 = weight(_text_:2003 in 1767) [ClassicSimilarity], result of:
            0.06352749 = score(doc=1767,freq=5.0), product of:
              0.20947878 = queryWeight, product of:
                4.339969 = idf(docFreq=1566, maxDocs=44218)
                0.048267342 = queryNorm
              0.30326456 = fieldWeight in 1767, product of:
                2.236068 = tf(freq=5.0), with freq of:
                  5.0 = termFreq=5.0
                4.339969 = idf(docFreq=1566, maxDocs=44218)
                0.03125 = fieldNorm(doc=1767)
          0.026158234 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
            0.026158234 = score(doc=1767,freq=2.0), product of:
              0.169024 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.048267342 = queryNorm
              0.15476047 = fieldWeight in 1767, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1767)
      0.33333334 = coord(1/3)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Rez. in: nfd 54(2003) H.5, S.314 (W. Ratzek): "Um entscheidungsrelevante Daten aus der ständig wachsenden Flut von mehr oder weniger relevanten Dokumenten zu extrahieren, müssen Unternehmen, öffentliche Verwaltung oder Einrichtungen der Fachinformation effektive und effiziente Filtersysteme entwickeln, einsetzen und pflegen. Das vorliegende Lehrbuch von Holger Nohr bietet erstmalig eine grundlegende Einführung in das Thema "automatische Indexierung". Denn: "Wie man Information sammelt, verwaltet und verwendet, wird darüber entscheiden, ob man zu den Gewinnern oder Verlierern gehört" (Bill Gates), heißt es einleitend. Im ersten Kapitel "Einleitung" stehen die Grundlagen im Mittelpunkt. Die Zusammenhänge zwischen Dokumenten-Management-Systeme, Information Retrieval und Indexierung für Planungs-, Entscheidungs- oder Innovationsprozesse, sowohl in Profit- als auch Non-Profit-Organisationen werden beschrieben. Am Ende des einleitenden Kapitels geht Nohr auf die Diskussion um die intellektuelle und automatische Indexierung ein und leitet damit über zum zweiten Kapitel "automatisches Indexieren. Hier geht der Autor überblickartig unter anderem ein auf - Probleme der automatischen Sprachverarbeitung und Indexierung - verschiedene Verfahren der automatischen Indexierung z.B. einfache Stichwortextraktion / Volltextinvertierung, - statistische Verfahren, Pattern-Matching-Verfahren. Die "Verfahren der automatischen Indexierung" behandelt Nohr dann vertiefend und mit vielen Beispielen versehen im umfangreichsten dritten Kapitel. Das vierte Kapitel "Keyphrase Extraction" nimmt eine Passpartout-Status ein: "Eine Zwischenstufe auf dem Weg von der automatischen Indexierung hin zur automatischen Generierung textueller Zusammenfassungen (Automatic Text Summarization) stellen Ansätze dar, die Schlüsselphrasen aus Dokumenten extrahieren (Keyphrase Extraction). Die Grenzen zwischen den automatischen Verfahren der Indexierung und denen des Text Summarization sind fließend." (S. 91). Am Beispiel NCR"s Extractor/Copernic Summarizer beschreibt Nohr die Funktionsweise.
    Year
    2003
  4. Schröther, C.: Automatische Indexierung, Kategorisierung und inhaltliche Erschließung von Textnachrichten (2003) 0.03
    0.028704774 = product of:
      0.08611432 = sum of:
        0.08611432 = product of:
          0.17222863 = sum of:
            0.17222863 = weight(_text_:2003 in 521) [ClassicSimilarity], result of:
              0.17222863 = score(doc=521,freq=3.0), product of:
                0.20947878 = queryWeight, product of:
                  4.339969 = idf(docFreq=1566, maxDocs=44218)
                  0.048267342 = queryNorm
                0.822177 = fieldWeight in 521, product of:
                  1.7320508 = tf(freq=3.0), with freq of:
                    3.0 = termFreq=3.0
                  4.339969 = idf(docFreq=1566, maxDocs=44218)
                  0.109375 = fieldNorm(doc=521)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Year
    2003
  5. Oberhauser, O.; Labner, J.: Einführung der automatischen Indexierung im Österreichischen Verbundkatalog? : Bericht über eine empirische Studie (2003) 0.03
    0.028704774 = product of:
      0.08611432 = sum of:
        0.08611432 = product of:
          0.17222863 = sum of:
            0.17222863 = weight(_text_:2003 in 1878) [ClassicSimilarity], result of:
              0.17222863 = score(doc=1878,freq=3.0), product of:
                0.20947878 = queryWeight, product of:
                  4.339969 = idf(docFreq=1566, maxDocs=44218)
                  0.048267342 = queryNorm
                0.822177 = fieldWeight in 1878, product of:
                  1.7320508 = tf(freq=3.0), with freq of:
                    3.0 = termFreq=3.0
                  4.339969 = idf(docFreq=1566, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1878)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Year
    2003
  6. Peters, G.: Verschlagwortung und automatische Verfahren in der G+J Dokumentation (2003) 0.03
    0.02646979 = product of:
      0.07940937 = sum of:
        0.07940937 = product of:
          0.15881874 = sum of:
            0.15881874 = weight(_text_:2003 in 2377) [ClassicSimilarity], result of:
              0.15881874 = score(doc=2377,freq=5.0), product of:
                0.20947878 = queryWeight, product of:
                  4.339969 = idf(docFreq=1566, maxDocs=44218)
                  0.048267342 = queryNorm
                0.7581614 = fieldWeight in 2377, product of:
                  2.236068 = tf(freq=5.0), with freq of:
                    5.0 = termFreq=5.0
                  4.339969 = idf(docFreq=1566, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2377)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    http://archiv.tu-chemnitz.de/pub/2003/0061/index.html
    Year
    2003
  7. Hauer, M.: Digitalisierung von Aufsätzen und anderen Texten mit maschineller Inhaltserschließung am Beispiel der Vorarlberger Landesbibliothek Bregenz : Wissensressourcen zutage fördern (2003) 0.02
    0.02117583 = product of:
      0.06352749 = sum of:
        0.06352749 = product of:
          0.12705497 = sum of:
            0.12705497 = weight(_text_:2003 in 1498) [ClassicSimilarity], result of:
              0.12705497 = score(doc=1498,freq=5.0), product of:
                0.20947878 = queryWeight, product of:
                  4.339969 = idf(docFreq=1566, maxDocs=44218)
                  0.048267342 = queryNorm
                0.6065291 = fieldWeight in 1498, product of:
                  2.236068 = tf(freq=5.0), with freq of:
                    5.0 = termFreq=5.0
                  4.339969 = idf(docFreq=1566, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1498)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    BuB. 55(2003) H.3, S.192-196
    Year
    2003
  8. Zimmermann, H.H.: Möglichkeiten einer computergestützen Sacherschließung (2003) 0.02
    0.02117583 = product of:
      0.06352749 = sum of:
        0.06352749 = product of:
          0.12705497 = sum of:
            0.12705497 = weight(_text_:2003 in 2375) [ClassicSimilarity], result of:
              0.12705497 = score(doc=2375,freq=5.0), product of:
                0.20947878 = queryWeight, product of:
                  4.339969 = idf(docFreq=1566, maxDocs=44218)
                  0.048267342 = queryNorm
                0.6065291 = fieldWeight in 2375, product of:
                  2.236068 = tf(freq=5.0), with freq of:
                    5.0 = termFreq=5.0
                  4.339969 = idf(docFreq=1566, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2375)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    http://archiv.tu-chemnitz.de/pub/2003/0061/index.html
    Year
    2003
  9. Mongin, L.; Fu, Y.Y.; Mostafa, J.: Open Archives data Service prototype and automated subject indexing using D-Lib archive content as a testbed (2003) 0.02
    0.018791687 = product of:
      0.056375057 = sum of:
        0.056375057 = product of:
          0.11275011 = sum of:
            0.11275011 = weight(_text_:2003 in 1167) [ClassicSimilarity], result of:
              0.11275011 = score(doc=1167,freq=7.0), product of:
                0.20947878 = queryWeight, product of:
                  4.339969 = idf(docFreq=1566, maxDocs=44218)
                  0.048267342 = queryNorm
                0.5382412 = fieldWeight in 1167, product of:
                  2.6457512 = tf(freq=7.0), with freq of:
                    7.0 = termFreq=7.0
                  4.339969 = idf(docFreq=1566, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1167)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    The Indiana University School of Library and Information Science opened a new research laboratory in January 2003; The Indiana University School of Library and Information Science Information Processing Laboratory [IU IP Lab]. The purpose of the new laboratory is to facilitate collaboration between scientists in the department in the areas of information retrieval (IR) and information visualization (IV) research. The lab has several areas of focus. These include grid and cluster computing, and a standard Java-based software platform to support plug and play research datasets, a selection of standard IR modules and standard IV algorithms. Future development includes software to enable researchers to contribute datasets, IR algorithms, and visualization algorithms into the standard environment. We decided early on to use OAI-PMH as a resource discovery tool because it is consistent with our mission.
    Source
    D-Lib magazine. 9(2003) no.12, x S
    Year
    2003
  10. Voorhees, E.M.: Implementing agglomerative hierarchic clustering algorithms for use in document retrieval (1986) 0.02
    0.017438823 = product of:
      0.05231647 = sum of:
        0.05231647 = product of:
          0.10463294 = sum of:
            0.10463294 = weight(_text_:22 in 402) [ClassicSimilarity], result of:
              0.10463294 = score(doc=402,freq=2.0), product of:
                0.169024 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048267342 = queryNorm
                0.61904186 = fieldWeight in 402, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=402)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Information processing and management. 22(1986) no.6, S.465-476
  11. Fuhr, N.; Niewelt, B.: ¬Ein Retrievaltest mit automatisch indexierten Dokumenten (1984) 0.02
    0.01525897 = product of:
      0.045776907 = sum of:
        0.045776907 = product of:
          0.091553815 = sum of:
            0.091553815 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.091553815 = score(doc=262,freq=2.0), product of:
                0.169024 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048267342 = queryNorm
                0.5416616 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=262)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    20.10.2000 12:22:23
  12. Hlava, M.M.K.: Automatic indexing : comparing rule-based and statistics-based indexing systems (2005) 0.02
    0.01525897 = product of:
      0.045776907 = sum of:
        0.045776907 = product of:
          0.091553815 = sum of:
            0.091553815 = weight(_text_:22 in 6265) [ClassicSimilarity], result of:
              0.091553815 = score(doc=6265,freq=2.0), product of:
                0.169024 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048267342 = queryNorm
                0.5416616 = fieldWeight in 6265, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6265)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Information outlook. 9(2005) no.8, S.22-23
  13. Fuhr, N.: Ranking-Experimente mit gewichteter Indexierung (1986) 0.01
    0.013079117 = product of:
      0.03923735 = sum of:
        0.03923735 = product of:
          0.0784747 = sum of:
            0.0784747 = weight(_text_:22 in 58) [ClassicSimilarity], result of:
              0.0784747 = score(doc=58,freq=2.0), product of:
                0.169024 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048267342 = queryNorm
                0.46428138 = fieldWeight in 58, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=58)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    14. 6.2015 22:12:44
  14. Hauer, M.: Automatische Indexierung (2000) 0.01
    0.013079117 = product of:
      0.03923735 = sum of:
        0.03923735 = product of:
          0.0784747 = sum of:
            0.0784747 = weight(_text_:22 in 5887) [ClassicSimilarity], result of:
              0.0784747 = score(doc=5887,freq=2.0), product of:
                0.169024 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048267342 = queryNorm
                0.46428138 = fieldWeight in 5887, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5887)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Wissen in Aktion: Wege des Knowledge Managements. 22. Online-Tagung der DGI, Frankfurt am Main, 2.-4.5.2000. Proceedings. Hrsg.: R. Schmidt
  15. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.01
    0.013079117 = product of:
      0.03923735 = sum of:
        0.03923735 = product of:
          0.0784747 = sum of:
            0.0784747 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.0784747 = score(doc=2051,freq=2.0), product of:
                0.169024 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048267342 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    14. 6.2015 22:12:56
  16. Hauer, M.: Tiefenindexierung im Bibliothekskatalog : 17 Jahre intelligentCAPTURE (2019) 0.01
    0.013079117 = product of:
      0.03923735 = sum of:
        0.03923735 = product of:
          0.0784747 = sum of:
            0.0784747 = weight(_text_:22 in 5629) [ClassicSimilarity], result of:
              0.0784747 = score(doc=5629,freq=2.0), product of:
                0.169024 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048267342 = queryNorm
                0.46428138 = fieldWeight in 5629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5629)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    B.I.T.online. 22(2019) H.2, S.163-166
  17. Gaese, V.: "Automatische Klassifikation von Presseartikeln in der Gruner + Jahr Dokumentation" (2003) 0.01
    0.012302045 = product of:
      0.036906134 = sum of:
        0.036906134 = product of:
          0.07381227 = sum of:
            0.07381227 = weight(_text_:2003 in 1915) [ClassicSimilarity], result of:
              0.07381227 = score(doc=1915,freq=3.0), product of:
                0.20947878 = queryWeight, product of:
                  4.339969 = idf(docFreq=1566, maxDocs=44218)
                  0.048267342 = queryNorm
                0.35236156 = fieldWeight in 1915, product of:
                  1.7320508 = tf(freq=3.0), with freq of:
                    3.0 = termFreq=3.0
                  4.339969 = idf(docFreq=1566, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1915)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Year
    2003
  18. Biebricher, N.; Fuhr, N.; Lustig, G.; Schwantner, M.; Knorz, G.: ¬The automatic indexing system AIR/PHYS : from research to application (1988) 0.01
    0.010899264 = product of:
      0.032697793 = sum of:
        0.032697793 = product of:
          0.065395586 = sum of:
            0.065395586 = weight(_text_:22 in 1952) [ClassicSimilarity], result of:
              0.065395586 = score(doc=1952,freq=2.0), product of:
                0.169024 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048267342 = queryNorm
                0.38690117 = fieldWeight in 1952, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1952)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    16. 8.1998 12:51:22
  19. Kutschekmanesch, S.; Lutes, B.; Moelle, K.; Thiel, U.; Tzeras, K.: Automated multilingual indexing : a synthesis of rule-based and thesaurus-based methods (1998) 0.01
    0.010899264 = product of:
      0.032697793 = sum of:
        0.032697793 = product of:
          0.065395586 = sum of:
            0.065395586 = weight(_text_:22 in 4157) [ClassicSimilarity], result of:
              0.065395586 = score(doc=4157,freq=2.0), product of:
                0.169024 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048267342 = queryNorm
                0.38690117 = fieldWeight in 4157, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4157)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Information und Märkte: 50. Deutscher Dokumentartag 1998, Kongreß der Deutschen Gesellschaft für Dokumentation e.V. (DGD), Rheinische Friedrich-Wilhelms-Universität Bonn, 22.-24. September 1998. Hrsg. von Marlies Ockenfeld u. Gerhard J. Mantwill
  20. Tsareva, P.V.: Algoritmy dlya raspoznavaniya pozitivnykh i negativnykh vkhozdenii deskriptorov v tekst i protsedura avtomaticheskoi klassifikatsii tekstov (1999) 0.01
    0.010899264 = product of:
      0.032697793 = sum of:
        0.032697793 = product of:
          0.065395586 = sum of:
            0.065395586 = weight(_text_:22 in 374) [ClassicSimilarity], result of:
              0.065395586 = score(doc=374,freq=2.0), product of:
                0.169024 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048267342 = queryNorm
                0.38690117 = fieldWeight in 374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=374)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    1. 4.2002 10:22:41

Years

Languages

  • d 28
  • e 19
  • ru 1
  • More… Less…

Types

  • a 38
  • x 6
  • el 4
  • m 1
  • p 1
  • More… Less…