Search (42 results, page 1 of 3)

  • × theme_ss:"Automatisches Indexieren"
  1. 7e Dag van het Document : 19 & 20 mei 1998, Congrescentrum De Reehorst, Ede ; proceedings (1998) 0.01
    0.012315303 = product of:
      0.14778364 = sum of:
        0.14778364 = weight(_text_:katalogisierung in 2427) [ClassicSimilarity], result of:
          0.14778364 = score(doc=2427,freq=4.0), product of:
            0.1651162 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.02882525 = queryNorm
            0.89502805 = fieldWeight in 2427, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.078125 = fieldNorm(doc=2427)
      0.083333336 = coord(1/12)
    
    BK
    06.70 (Katalogisierung / Bestandserschließung)
    Classification
    06.70 (Katalogisierung / Bestandserschließung)
  2. Stock, M.: Textwortmethode und Übersetzungsrelation : Eine Methode zum Aufbau von kombinierten Literaturnachweis- und Terminologiedatenbanken (1989) 0.01
    0.009004391 = product of:
      0.108052686 = sum of:
        0.108052686 = weight(_text_:kooperation in 3412) [ClassicSimilarity], result of:
          0.108052686 = score(doc=3412,freq=2.0), product of:
            0.16790043 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.02882525 = queryNorm
            0.6435522 = fieldWeight in 3412, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.078125 = fieldNorm(doc=3412)
      0.083333336 = coord(1/12)
    
    Abstract
    Geisteswissenschaftliche Fachinformation erfordert eine enge Kooperation zwischen Literaturnachweis- und Terminologieinformationssystemen. Eine geeignete Dokumentationsmethode für die Auswertung geisteswissen- schaftlicher Literatur ist die Textwortwethode. Dem originalsprachig aufgenommenen Begriffsrepertoire ist ein einheitssprachiger Zugriff beizuordnen, der einerseits ein vollständiges und genaues Retrieval garantiert und andererseits den Aufbau fachspezifischer Wörterbücher vorantreibt
  3. Salton, G.: Fast document classification in automatic information retrieval (1978) 0.01
    0.007203513 = product of:
      0.08644215 = sum of:
        0.08644215 = weight(_text_:kooperation in 2331) [ClassicSimilarity], result of:
          0.08644215 = score(doc=2331,freq=2.0), product of:
            0.16790043 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.02882525 = queryNorm
            0.51484174 = fieldWeight in 2331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.0625 = fieldNorm(doc=2331)
      0.083333336 = coord(1/12)
    
    Source
    Kooperation in der Klassifikation I. Proc. der Sekt.1-3 der 2. Fachtagung der Gesellschaft für Klassifikation, Frankfurt-Hoechst, 6.-7.4.1978. Bearb.: W. Dahlberg
  4. Panyr, J.: Automatische Indexierung und Klassifikation (1983) 0.01
    0.007203513 = product of:
      0.08644215 = sum of:
        0.08644215 = weight(_text_:kooperation in 7692) [ClassicSimilarity], result of:
          0.08644215 = score(doc=7692,freq=2.0), product of:
            0.16790043 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.02882525 = queryNorm
            0.51484174 = fieldWeight in 7692, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.0625 = fieldNorm(doc=7692)
      0.083333336 = coord(1/12)
    
    Abstract
    Im Beitrag wird zunächst eine terminologische Klärung und Gliederung für drei Indexierungsmethoden und weitere Begriffe, die Konsistenzprobleme bei intellektueller Indexierung betreffen, unternommen. Zur automatichen Indexierung werden Extraktionsmethoden erläutert und zur Automatischen Klassifikation (Clustering) und Indexierung zwei Anwendungen vorgestellt. Eine enge Kooperation zwischen den Befürwortern der intellektuellen und den Entwicklern von automatischen Indexierungsverfahren wird empfohlen
  5. Groß, T.: Automatische Indexierung von Dokumenten in einer wissenschaftlichen Bibliothek : Implementierung und Evaluierung am Beispiel der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (2011) 0.01
    0.0061576515 = product of:
      0.07389182 = sum of:
        0.07389182 = weight(_text_:katalogisierung in 1083) [ClassicSimilarity], result of:
          0.07389182 = score(doc=1083,freq=4.0), product of:
            0.1651162 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.02882525 = queryNorm
            0.44751403 = fieldWeight in 1083, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1083)
      0.083333336 = coord(1/12)
    
    BK
    06.70 Katalogisierung, Bestandserschließung
    Classification
    06.70 Katalogisierung, Bestandserschließung
  6. Lepsky, K.: Automatische Indexierung und bibliothekarische Inhaltserschließung : Ergebnisse des DFG-Projekts MILOS I (1996) 0.01
    0.005224941 = product of:
      0.06269929 = sum of:
        0.06269929 = weight(_text_:katalogisierung in 2061) [ClassicSimilarity], result of:
          0.06269929 = score(doc=2061,freq=2.0), product of:
            0.1651162 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.02882525 = queryNorm
            0.37972826 = fieldWeight in 2061, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=2061)
      0.083333336 = coord(1/12)
    
    Abstract
    Kooperative Katalogisierung in der Bibliotheksverbünden und steigende Zahlen retrokonvertierter Altdaten füfhren zu einem stetigen Anwachsen maschinenlesbar verfügbarer Titeldaten. Dieser Entewicklung aud ser Katalogisat- bzw. Datenseite entspricht eine ähnlich rasante Entwicklung auf der Seite der Zugangsmöglichkeiten, den Online-Publikumskatalogen. Immer mehr Katalogdaten von immer mehr Bibliotheken sind in immer mehr OPACs nachgewiesen. Mit dieser auch durch neue Zugriffsformen (Internet) verbesserten Verfügbarkeit hält die bibliothekarische Sacherschließung längst nicht mehr Schritt. In diesem Beitrag werden die Vorgehensweise und Ergebnisse des Projektes MILOS I vorgestellt, das an der Universitäts- und Landesbibliothek zur automatischen Indexierung bibliothekarischer Titeldaten und zur Anreicherung von Katalogdaten durchgeführt wurde.
  7. Nohr, H.: Automatische Indexierung : Einführung in betriebliche Verfahren, Systeme und Anwendungen (2001) 0.00
    0.0049261213 = product of:
      0.059113454 = sum of:
        0.059113454 = weight(_text_:katalogisierung in 2543) [ClassicSimilarity], result of:
          0.059113454 = score(doc=2543,freq=4.0), product of:
            0.1651162 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.02882525 = queryNorm
            0.35801122 = fieldWeight in 2543, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
      0.083333336 = coord(1/12)
    
    BK
    06.70 / Katalogisierung / Bestandserschließung
    Classification
    06.70 / Katalogisierung / Bestandserschließung
  8. Qualität in der Inhaltserschließung (2021) 0.00
    0.0049074176 = product of:
      0.05888901 = sum of:
        0.05888901 = weight(_text_:standardisierung in 753) [ClassicSimilarity], result of:
          0.05888901 = score(doc=753,freq=2.0), product of:
            0.19598424 = queryWeight, product of:
              6.7990475 = idf(docFreq=133, maxDocs=44218)
              0.02882525 = queryNorm
            0.30047828 = fieldWeight in 753, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7990475 = idf(docFreq=133, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
      0.083333336 = coord(1/12)
    
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
  9. Giesselbach, S.; Estler-Ziegler, T.: Dokumente schneller analysieren mit Künstlicher Intelligenz (2021) 0.00
    0.0043541174 = product of:
      0.052249406 = sum of:
        0.052249406 = weight(_text_:katalogisierung in 128) [ClassicSimilarity], result of:
          0.052249406 = score(doc=128,freq=2.0), product of:
            0.1651162 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.02882525 = queryNorm
            0.3164402 = fieldWeight in 128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
      0.083333336 = coord(1/12)
    
    Abstract
    Künstliche Intelligenz (KI) und natürliches Sprachverstehen (natural language understanding/NLU) verändern viele Aspekte unseres Alltags und unserer Arbeitsweise. Besondere Prominenz erlangte NLU durch Sprachassistenten wie Siri, Alexa und Google Now. NLU bietet Firmen und Einrichtungen das Potential, Prozesse effizienter zu gestalten und Mehrwert aus textuellen Inhalten zu schöpfen. So sind NLU-Lösungen in der Lage, komplexe, unstrukturierte Dokumente inhaltlich zu erschließen. Für die semantische Textanalyse hat das NLU-Team des IAIS Sprachmodelle entwickelt, die mit Deep-Learning-Verfahren trainiert werden. Die NLU-Suite analysiert Dokumente, extrahiert Eckdaten und erstellt bei Bedarf sogar eine strukturierte Zusammenfassung. Mit diesen Ergebnissen, aber auch über den Inhalt der Dokumente selbst, lassen sich Dokumente vergleichen oder Texte mit ähnlichen Informationen finden. KI-basierten Sprachmodelle sind der klassischen Verschlagwortung deutlich überlegen. Denn sie finden nicht nur Texte mit vordefinierten Schlagwörtern, sondern suchen intelligent nach Begriffen, die in ähnlichem Zusammenhang auftauchen oder als Synonym gebraucht werden. Der Vortrag liefert eine Einordnung der Begriffe "Künstliche Intelligenz" und "Natural Language Understanding" und zeigt Möglichkeiten, Grenzen, aktuelle Forschungsrichtungen und Methoden auf. Anhand von Praxisbeispielen wird anschließend demonstriert, wie NLU zur automatisierten Belegverarbeitung, zur Katalogisierung von großen Datenbeständen wie Nachrichten und Patenten und zur automatisierten thematischen Gruppierung von Social Media Beiträgen und Publikationen genutzt werden kann.
  10. Voorhees, E.M.: Implementing agglomerative hierarchic clustering algorithms for use in document retrieval (1986) 0.00
    0.0017357438 = product of:
      0.020828925 = sum of:
        0.020828925 = product of:
          0.062486775 = sum of:
            0.062486775 = weight(_text_:22 in 402) [ClassicSimilarity], result of:
              0.062486775 = score(doc=402,freq=2.0), product of:
                0.100941114 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02882525 = queryNorm
                0.61904186 = fieldWeight in 402, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=402)
          0.33333334 = coord(1/3)
      0.083333336 = coord(1/12)
    
    Source
    Information processing and management. 22(1986) no.6, S.465-476
  11. Fuhr, N.; Niewelt, B.: ¬Ein Retrievaltest mit automatisch indexierten Dokumenten (1984) 0.00
    0.001518776 = product of:
      0.01822531 = sum of:
        0.01822531 = product of:
          0.05467593 = sum of:
            0.05467593 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.05467593 = score(doc=262,freq=2.0), product of:
                0.100941114 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02882525 = queryNorm
                0.5416616 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=262)
          0.33333334 = coord(1/3)
      0.083333336 = coord(1/12)
    
    Date
    20.10.2000 12:22:23
  12. Hlava, M.M.K.: Automatic indexing : comparing rule-based and statistics-based indexing systems (2005) 0.00
    0.001518776 = product of:
      0.01822531 = sum of:
        0.01822531 = product of:
          0.05467593 = sum of:
            0.05467593 = weight(_text_:22 in 6265) [ClassicSimilarity], result of:
              0.05467593 = score(doc=6265,freq=2.0), product of:
                0.100941114 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02882525 = queryNorm
                0.5416616 = fieldWeight in 6265, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6265)
          0.33333334 = coord(1/3)
      0.083333336 = coord(1/12)
    
    Source
    Information outlook. 9(2005) no.8, S.22-23
  13. Fuhr, N.: Ranking-Experimente mit gewichteter Indexierung (1986) 0.00
    0.0013018078 = product of:
      0.015621694 = sum of:
        0.015621694 = product of:
          0.04686508 = sum of:
            0.04686508 = weight(_text_:22 in 58) [ClassicSimilarity], result of:
              0.04686508 = score(doc=58,freq=2.0), product of:
                0.100941114 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02882525 = queryNorm
                0.46428138 = fieldWeight in 58, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=58)
          0.33333334 = coord(1/3)
      0.083333336 = coord(1/12)
    
    Date
    14. 6.2015 22:12:44
  14. Hauer, M.: Automatische Indexierung (2000) 0.00
    0.0013018078 = product of:
      0.015621694 = sum of:
        0.015621694 = product of:
          0.04686508 = sum of:
            0.04686508 = weight(_text_:22 in 5887) [ClassicSimilarity], result of:
              0.04686508 = score(doc=5887,freq=2.0), product of:
                0.100941114 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02882525 = queryNorm
                0.46428138 = fieldWeight in 5887, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5887)
          0.33333334 = coord(1/3)
      0.083333336 = coord(1/12)
    
    Source
    Wissen in Aktion: Wege des Knowledge Managements. 22. Online-Tagung der DGI, Frankfurt am Main, 2.-4.5.2000. Proceedings. Hrsg.: R. Schmidt
  15. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.00
    0.0013018078 = product of:
      0.015621694 = sum of:
        0.015621694 = product of:
          0.04686508 = sum of:
            0.04686508 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.04686508 = score(doc=2051,freq=2.0), product of:
                0.100941114 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02882525 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.33333334 = coord(1/3)
      0.083333336 = coord(1/12)
    
    Date
    14. 6.2015 22:12:56
  16. Hauer, M.: Tiefenindexierung im Bibliothekskatalog : 17 Jahre intelligentCAPTURE (2019) 0.00
    0.0013018078 = product of:
      0.015621694 = sum of:
        0.015621694 = product of:
          0.04686508 = sum of:
            0.04686508 = weight(_text_:22 in 5629) [ClassicSimilarity], result of:
              0.04686508 = score(doc=5629,freq=2.0), product of:
                0.100941114 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02882525 = queryNorm
                0.46428138 = fieldWeight in 5629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5629)
          0.33333334 = coord(1/3)
      0.083333336 = coord(1/12)
    
    Source
    B.I.T.online. 22(2019) H.2, S.163-166
  17. Biebricher, N.; Fuhr, N.; Lustig, G.; Schwantner, M.; Knorz, G.: ¬The automatic indexing system AIR/PHYS : from research to application (1988) 0.00
    0.0010848399 = product of:
      0.013018078 = sum of:
        0.013018078 = product of:
          0.039054234 = sum of:
            0.039054234 = weight(_text_:22 in 1952) [ClassicSimilarity], result of:
              0.039054234 = score(doc=1952,freq=2.0), product of:
                0.100941114 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02882525 = queryNorm
                0.38690117 = fieldWeight in 1952, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1952)
          0.33333334 = coord(1/3)
      0.083333336 = coord(1/12)
    
    Date
    16. 8.1998 12:51:22
  18. Kutschekmanesch, S.; Lutes, B.; Moelle, K.; Thiel, U.; Tzeras, K.: Automated multilingual indexing : a synthesis of rule-based and thesaurus-based methods (1998) 0.00
    0.0010848399 = product of:
      0.013018078 = sum of:
        0.013018078 = product of:
          0.039054234 = sum of:
            0.039054234 = weight(_text_:22 in 4157) [ClassicSimilarity], result of:
              0.039054234 = score(doc=4157,freq=2.0), product of:
                0.100941114 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02882525 = queryNorm
                0.38690117 = fieldWeight in 4157, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4157)
          0.33333334 = coord(1/3)
      0.083333336 = coord(1/12)
    
    Source
    Information und Märkte: 50. Deutscher Dokumentartag 1998, Kongreß der Deutschen Gesellschaft für Dokumentation e.V. (DGD), Rheinische Friedrich-Wilhelms-Universität Bonn, 22.-24. September 1998. Hrsg. von Marlies Ockenfeld u. Gerhard J. Mantwill
  19. Tsareva, P.V.: Algoritmy dlya raspoznavaniya pozitivnykh i negativnykh vkhozdenii deskriptorov v tekst i protsedura avtomaticheskoi klassifikatsii tekstov (1999) 0.00
    0.0010848399 = product of:
      0.013018078 = sum of:
        0.013018078 = product of:
          0.039054234 = sum of:
            0.039054234 = weight(_text_:22 in 374) [ClassicSimilarity], result of:
              0.039054234 = score(doc=374,freq=2.0), product of:
                0.100941114 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02882525 = queryNorm
                0.38690117 = fieldWeight in 374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=374)
          0.33333334 = coord(1/3)
      0.083333336 = coord(1/12)
    
    Date
    1. 4.2002 10:22:41
  20. Stankovic, R. et al.: Indexing of textual databases based on lexical resources : a case study for Serbian (2016) 0.00
    0.0010848399 = product of:
      0.013018078 = sum of:
        0.013018078 = product of:
          0.039054234 = sum of:
            0.039054234 = weight(_text_:22 in 2759) [ClassicSimilarity], result of:
              0.039054234 = score(doc=2759,freq=2.0), product of:
                0.100941114 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02882525 = queryNorm
                0.38690117 = fieldWeight in 2759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2759)
          0.33333334 = coord(1/3)
      0.083333336 = coord(1/12)
    
    Date
    1. 2.2016 18:25:22

Languages

  • d 22
  • e 19
  • nl 1
  • ru 1
  • More… Less…

Types

  • a 34
  • m 5
  • el 2
  • s 2
  • x 2
  • More… Less…