Search (48 results, page 1 of 3)

  • × theme_ss:"Retrievalalgorithmen"
  1. Harper, D.J.: Relevance feedback in document retrieval (1980) 0.11
    0.11214911 = product of:
      0.56074554 = sum of:
        0.56074554 = weight(_text_:algorithmus in 5867) [ClassicSimilarity], result of:
          0.56074554 = score(doc=5867,freq=2.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            1.5830988 = fieldWeight in 5867, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.15625 = fieldNorm(doc=5867)
      0.2 = coord(1/5)
    
    Footnote
    Dissertation.- Darstellung des 'Harper-Algorithmus'
  2. Baeza-Yates, R.A.: String searching algorithms (1992) 0.10
    0.100309215 = product of:
      0.5015461 = sum of:
        0.5015461 = weight(_text_:algorithmus in 3505) [ClassicSimilarity], result of:
          0.5015461 = score(doc=3505,freq=10.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            1.4159666 = fieldWeight in 3505, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.0625 = fieldNorm(doc=3505)
      0.2 = coord(1/5)
    
    Object
    Knuth-Morris-Pratt Algorithmus
    Boyer-Moore Algorithmus
    Shift-Or Algorithmus
    Karp-Rabin Algorithmus
    Aho-Corasick Algorithmus
  3. Ziegler, B.: ESS: ein schneller Algorithmus zur Mustersuche in Zeichenfolgen (1996) 0.08
    0.078504376 = product of:
      0.39252186 = sum of:
        0.39252186 = weight(_text_:algorithmus in 7543) [ClassicSimilarity], result of:
          0.39252186 = score(doc=7543,freq=2.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            1.1081691 = fieldWeight in 7543, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.109375 = fieldNorm(doc=7543)
      0.2 = coord(1/5)
    
  4. Aho, A.; Corasick, M.: Efficient string matching : an aid to bibliographic search (1975) 0.08
    0.078504376 = product of:
      0.39252186 = sum of:
        0.39252186 = weight(_text_:algorithmus in 3506) [ClassicSimilarity], result of:
          0.39252186 = score(doc=3506,freq=2.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            1.1081691 = fieldWeight in 3506, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.109375 = fieldNorm(doc=3506)
      0.2 = coord(1/5)
    
    Object
    Aho-Corasick Algorithmus
  5. Boyer, R.; Moore, S.: ¬A fast string searching algorithm (1977) 0.08
    0.078504376 = product of:
      0.39252186 = sum of:
        0.39252186 = weight(_text_:algorithmus in 3507) [ClassicSimilarity], result of:
          0.39252186 = score(doc=3507,freq=2.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            1.1081691 = fieldWeight in 3507, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.109375 = fieldNorm(doc=3507)
      0.2 = coord(1/5)
    
    Object
    Boyer-Moore Algorithmus
  6. Ackermann, J.: Knuth-Morris-Pratt (2005) 0.06
    0.06344112 = product of:
      0.31720558 = sum of:
        0.31720558 = weight(_text_:algorithmus in 865) [ClassicSimilarity], result of:
          0.31720558 = score(doc=865,freq=16.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.89553595 = fieldWeight in 865, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.03125 = fieldNorm(doc=865)
      0.2 = coord(1/5)
    
    Abstract
    Im Rahmen des Seminars Suchmaschinen und Suchalgorithmen beschäftigt sich diese Arbeit mit dem Auffinden bestimmter Wörter oder Muster in Texten. Der Begriff "Text" wird hier in einem sehr allgemeinen Sinne als strukturierte Folge beliebiger Länge von Zeichen aus einem endlichen Alphabet verstanden. Somit fällt unter diesen Bereich ganz allgemein die Suche nach einem Muster in einer Sequenz von Zeichen. Beispiele hierfür sind neben der Suche von Wörtern in "literarischen" Texten, z.B. das Finden von Pixelfolgen in Bildern oder gar das Finden von Mustern in DNS-Strängen. Das Anwendungsgebiet für eine solche Suche ist weit gefächert. Man denke hier allein an Texteditoren, Literaturdatenbanken, digitale Lexika oder die besagte DNADatenbank. Betrachtet man allein das 1989 publizierte Oxford English Dictionary mit seinen etwa 616500 definierten Stichworten auf gedruckten 21728 Seiten, so gilt es, einen möglichst effizienten Algorithmus für die Suche in Texten zu nutzen. Der in der Arbeit zugrunde liegende Datentyp ist vom Typ String (Zeichenkette), wobei hier offen gelassen wird, wie der Datentyp programmtechnisch realisiert wird. Algorithmen zur Verarbeitung von Zeichenketten (string processing) umfassen ein bestimmtes Spektrum an Anwendungsgebieten [Ot96, S.617 f.], wie z.B. das Komprimieren, das Verschlüssen, das Analysieren (parsen), das Übersetzen von Texten sowie das Suchen in Texten, welches Thema dieses Seminars ist. Im Rahmen dieser Arbeit wird der Knuth-Morris-Pratt Algorithmus vorgestellt, der wie der ebenfalls in diesem Seminar vorgestellte Boyer-Moore Algorithmus einen effizienten Suchalgorithmus darstellt. Dabei soll ein gegebenes Suchwort oder Muster (pattern) in einer gegeben Zeichenkette erkannt werden (pattern matching). Gesucht werden dabei ein oder mehrere Vorkommen eines bestimmten Suchwortes (exact pattern matching). Der Knuth-Morris-Pratt Algorithmus wurde erstmals 1974 als Institutbericht der Stanford University beschrieben und erschien 1977 in der Fachzeitschrift Journal of Computing unter dem Titel "Fast Pattern Matching in Strings" [Kn77]. Der Algorithmus beschreibt eine Suche in Zeichenketten mit linearer Laufzeit. Der Name des Algorithmus setzt sich aus den Entwicklern des Algorithmus Donald E. Knuth, James H. Morris und Vaughan R. Pratt zusammen.
    Object
    Knuth-Morris-Pratt-Algorithmus
  7. Chakrabarti, S.; Dom, B.; Kumar, S.R.; Raghavan, P.; Rajagopalan, S.; Tomkins, A.; Kleinberg, J.M.; Gibson, D.: Neue Pfade durch den Internet-Dschungel : Die zweite Generation von Web-Suchmaschinen (1999) 0.06
    0.06344112 = product of:
      0.31720558 = sum of:
        0.31720558 = weight(_text_:algorithmus in 3) [ClassicSimilarity], result of:
          0.31720558 = score(doc=3,freq=4.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.89553595 = fieldWeight in 3, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
      0.2 = coord(1/5)
    
    Content
    Ausnutzen der Hyperlinks für verbesserte Such- und Findeverfahren; Darstellung des HITS-Algorithmus
    Object
    HITS-Algorithmus
  8. Fichtner, K.: Boyer-Moore Suchalgorithmus (2005) 0.05
    0.04758084 = product of:
      0.23790419 = sum of:
        0.23790419 = weight(_text_:algorithmus in 864) [ClassicSimilarity], result of:
          0.23790419 = score(doc=864,freq=4.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.67165196 = fieldWeight in 864, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.046875 = fieldNorm(doc=864)
      0.2 = coord(1/5)
    
    Abstract
    Die Masse der Suchalgorithmen lässt sich in zwei grundlegend verschiedene Teilbereiche untergliedern. Auf der einen Seite stehen Algorithmen, die auf komplexen Datenstrukturen (häufig baumartig) ganze Datensätze unter Verwendung eines Indizes finden. Als geläufiger Vertreter sei hier die binäre Suche auf sortierten Arrays oder in binären Bäumen genannt. Die andere Gruppe, der sich diese Ausarbeitung widmet, dient dazu, Entsprechungen von Mustern in gegebenen Zeichenketten zu finden. Auf den folgenden Seiten werden nun zunächst einige Begriffe eingeführt, die für das weitere Verständnis und einen Vergleich verschiedener Suchalgorithmen nötig sind. Weiterhin wird ein naiver Suchalgorithmus dargestellt und mit der Idee von Boyer und Moore verglichen. Hierzu wird ihr Algorithmus zunächst informal beschrieben, dann mit Blick auf eine Implementation näher erläutert und anschließend einer Effizienzanalyse - sowohl empirisch als auch theoretisch - unterzogen. Abschließend findet eine kurze Bewertung mit Bezug auf Schwachstellen, Vorzüge und Verbesserungsmöglichkeiten statt, im Zuge derer einige prominente Modifikationen des Boyer-Moore Algorithmus vorgestellt werden.
  9. Guerrero-Bote, V.P.; Moya Anegón, F. de; Herrero Solana, V.: Document organization using Kohonen's algorithm (2002) 0.04
    0.044859644 = product of:
      0.22429821 = sum of:
        0.22429821 = weight(_text_:algorithmus in 2564) [ClassicSimilarity], result of:
          0.22429821 = score(doc=2564,freq=2.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.6332395 = fieldWeight in 2564, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.0625 = fieldNorm(doc=2564)
      0.2 = coord(1/5)
    
    Object
    Kohonen-Algorithmus
  10. Weiß, B.: Verwandte Seiten finden : "Ähnliche Seiten" oder "What's Related" (2005) 0.04
    0.0396507 = product of:
      0.1982535 = sum of:
        0.1982535 = weight(_text_:algorithmus in 868) [ClassicSimilarity], result of:
          0.1982535 = score(doc=868,freq=4.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.55970997 = fieldWeight in 868, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.0390625 = fieldNorm(doc=868)
      0.2 = coord(1/5)
    
    Abstract
    Die Link-Struktur-Analyse (LSA) ist nicht nur beim Crawling, dem Webseitenranking, der Abgrenzung geographischer Bereiche, der Vorhersage von Linkverwendungen, dem Auffinden von "Mirror"-Seiten, dem Kategorisieren von Webseiten und beim Generieren von Webseitenstatistiken eines der wichtigsten Analyseverfahren, sondern auch bei der Suche nach verwandten Seiten. Um qualitativ hochwertige verwandte Seiten zu finden, bildet sie nach herrschender Meinung den Hauptbestandteil bei der Identifizierung von ähnlichen Seiten innerhalb themenspezifischer Graphen vernetzter Dokumente. Dabei wird stets von zwei Annahmen ausgegangen: Links zwischen zwei Dokumenten implizieren einen verwandten Inhalt beider Dokumente und wenn die Dokumente aus unterschiedlichen Quellen (von unterschiedlichen Autoren, Hosts, Domänen, .) stammen, so bedeutet dies das eine Quelle die andere über einen Link empfiehlt. Aufbauend auf dieser Idee entwickelte Kleinberg 1998 den HITS Algorithmus um verwandte Seiten über die Link-Struktur-Analyse zu bestimmen. Dieser Ansatz wurde von Bharat und Henzinger weiterentwickelt und später auch in Algorithmen wie dem Companion und Cocitation Algorithmus zur Suche von verwandten Seiten basierend auf nur einer Anfrage-URL weiter verfolgt. In der vorliegenden Seminararbeit sollen dabei die Algorithmen, die hinter diesen Überlegungen stehen, näher erläutert werden und im Anschluss jeweils neuere Forschungsansätze auf diesem Themengebiet aufgezeigt werden.
  11. Kleinberg, J.M.: Authoritative sources in a hyperlinked environment (1998) 0.03
    0.033644732 = product of:
      0.16822366 = sum of:
        0.16822366 = weight(_text_:algorithmus in 5) [ClassicSimilarity], result of:
          0.16822366 = score(doc=5,freq=2.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.47492963 = fieldWeight in 5, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.046875 = fieldNorm(doc=5)
      0.2 = coord(1/5)
    
    Object
    HITS-Algorithmus
  12. Efron, M.: Query expansion and dimensionality reduction : Notions of optimality in Rocchio relevance feedback and latent semantic indexing (2008) 0.03
    0.033644732 = product of:
      0.16822366 = sum of:
        0.16822366 = weight(_text_:algorithmus in 2020) [ClassicSimilarity], result of:
          0.16822366 = score(doc=2020,freq=2.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.47492963 = fieldWeight in 2020, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.046875 = fieldNorm(doc=2020)
      0.2 = coord(1/5)
    
    Object
    Rocchio-Algorithmus
  13. Marcus, S.: Textvergleich mit mehreren Mustern (2005) 0.03
    0.03172056 = product of:
      0.15860279 = sum of:
        0.15860279 = weight(_text_:algorithmus in 862) [ClassicSimilarity], result of:
          0.15860279 = score(doc=862,freq=4.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.44776797 = fieldWeight in 862, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
      0.2 = coord(1/5)
    
    Object
    Knuth-Morris-Pratt-Algorithmus
    Aho-Corasick-Algorithmus
  14. Lanvent, A.: Know-how - Suchverfahren : Intelligente Suchmaschinen erzielen mit assoziativen und linguistischen Verfahren beste Ergebnisse. (2004) 0.03
    0.028037278 = product of:
      0.14018638 = sum of:
        0.14018638 = weight(_text_:algorithmus in 2988) [ClassicSimilarity], result of:
          0.14018638 = score(doc=2988,freq=2.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.3957747 = fieldWeight in 2988, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2988)
      0.2 = coord(1/5)
    
    Content
    "Die einfachste Form der Volltextsuche ist die Phrasensuche. Hierbei gilt es, den eingegebenen Text in der exakten Schreibweise in sämtlichen relevanten Dokumenten zu finden. Anhand von Joker-Zeichen wie Stern und Fragezeichen kann der Anwender diese Art der Suche erweitern. Boole'sche Parameter verknüpfen einen, zwei oder mehrere Begriffe zu einem Suchstring. Die häufigsten Parameter lauten UND, ODER und NICHT. So lassen sich auch komplexe Anfragen starten, etwa sollen alle Dokumente gefunden werden, die die Begriffe »Schröder« oder »Schroeder«, aber nicht »Bundeskanzler« enthalten. Kennt der Anwender nicht die exakte Schreibweise oder kommen unterschiedliche Ausprägungen eines Wortes in den gesuchten Dokumenten vor, wie Deklinationen, muss er auf fehlertolerante oder linguistische Verfahren zurückgreifen. Einige Tools wie etwa Dt Search und Findword arbeiten mit Wörterbüchern, die auch Flexionen enthalten. Sucht der Nutzer etwa nach »Baum«, findet das Tool auch »Bäume« oder etwa »Baumstamm«. Bei der phonetischen Suche setzen Programme wie Documind Pro und Findword auf einen Algorithmus, der nach dem ähnlichen Klang der Wörter recherchiert. Solche Verfahren sind demnach sprachenabhängig. Sie nehmen den Suchstring »Meier« zum Anlass, auch »Mayer« oder »Meier« nachzuschlagen. Fuzzy Logic ist ein verwandtes Verfahren, das alternative Schreibweisen oder Tippfehler verzeiht. Dieses Verfahren berücksichtigt auch Abweichungen und stellt dabei fest, dass ein bestimmter Begriff zu einem Wortstamm gehört. Eine solche Methode liefert eine größere Trefferliste und findet bei Eingabe von »Microsoft« auch Dokumente mit »Mircosoft« und »Microaoft«. Die Königsdisziplin ist die Assoziative Suche, die die Recherche nach Eingabe eines beliebigen Satzes in der natürlichen Sprache startet. Das Suchkommando »Die Meistertitel von Borussia Mönchengladbach« findet im Idealfall Texte zu den Themen Fußball, Bundesliga und Netzer."
  15. Widyantoro, D.H.; Ioerger, T.R.; Yen, J.: Learning user Interest dynamics with a three-descriptor representation (2001) 0.03
    0.028037278 = product of:
      0.14018638 = sum of:
        0.14018638 = weight(_text_:algorithmus in 5185) [ClassicSimilarity], result of:
          0.14018638 = score(doc=5185,freq=2.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.3957747 = fieldWeight in 5185, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5185)
      0.2 = coord(1/5)
    
    Object
    Rocchio-Algorithmus
  16. Agosti, M.; Pretto, L.: ¬A theoretical study of a generalized version of kleinberg's HITS algorithm (2005) 0.03
    0.028037278 = product of:
      0.14018638 = sum of:
        0.14018638 = weight(_text_:algorithmus in 4) [ClassicSimilarity], result of:
          0.14018638 = score(doc=4,freq=2.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.3957747 = fieldWeight in 4, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4)
      0.2 = coord(1/5)
    
    Object
    HITS-Algorithmus
  17. Chen, Z.; Fu, B.: On the complexity of Rocchio's similarity-based relevance feedback algorithm (2007) 0.03
    0.028037278 = product of:
      0.14018638 = sum of:
        0.14018638 = weight(_text_:algorithmus in 578) [ClassicSimilarity], result of:
          0.14018638 = score(doc=578,freq=2.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.3957747 = fieldWeight in 578, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.0390625 = fieldNorm(doc=578)
      0.2 = coord(1/5)
    
    Object
    Rocchio-Feedback-Algorithmus
  18. Berry, M.W.; Browne, M.: Understanding search engines : mathematical modeling and text retrieval (2005) 0.02
    0.022429822 = product of:
      0.112149104 = sum of:
        0.112149104 = weight(_text_:algorithmus in 7) [ClassicSimilarity], result of:
          0.112149104 = score(doc=7,freq=2.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.31661975 = fieldWeight in 7, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.03125 = fieldNorm(doc=7)
      0.2 = coord(1/5)
    
    Object
    HITS-Algorithmus
  19. Voorhees, E.M.: Implementing agglomerative hierarchic clustering algorithms for use in document retrieval (1986) 0.02
    0.021435313 = product of:
      0.107176565 = sum of:
        0.107176565 = weight(_text_:22 in 402) [ClassicSimilarity], result of:
          0.107176565 = score(doc=402,freq=2.0), product of:
            0.17313299 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.049440723 = queryNorm
            0.61904186 = fieldWeight in 402, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.125 = fieldNorm(doc=402)
      0.2 = coord(1/5)
    
    Source
    Information processing and management. 22(1986) no.6, S.465-476
  20. Smeaton, A.F.; Rijsbergen, C.J. van: ¬The retrieval effects of query expansion on a feedback document retrieval system (1983) 0.02
    0.0187559 = product of:
      0.0937795 = sum of:
        0.0937795 = weight(_text_:22 in 2134) [ClassicSimilarity], result of:
          0.0937795 = score(doc=2134,freq=2.0), product of:
            0.17313299 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.049440723 = queryNorm
            0.5416616 = fieldWeight in 2134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.109375 = fieldNorm(doc=2134)
      0.2 = coord(1/5)
    
    Date
    30. 3.2001 13:32:22

Years

Languages

  • e 37
  • d 11

Types

  • a 39
  • x 4
  • m 3
  • d 1
  • r 1
  • More… Less…