Search (66 results, page 1 of 4)

  • × theme_ss:"Retrievalalgorithmen"
  1. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.05
    0.04718369 = product of:
      0.16514291 = sum of:
        0.14470516 = weight(_text_:konzeption in 2051) [ClassicSimilarity], result of:
          0.14470516 = score(doc=2051,freq=2.0), product of:
            0.20287935 = queryWeight, product of:
              5.3797226 = idf(docFreq=553, maxDocs=44218)
              0.037711862 = queryNorm
            0.7132572 = fieldWeight in 2051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3797226 = idf(docFreq=553, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.020437747 = product of:
          0.061313238 = sum of:
            0.061313238 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.061313238 = score(doc=2051,freq=2.0), product of:
                0.13206051 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037711862 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Frage der Konzeption von Rankingalgorithmen auf Grundlage gewichteter Indexierung mittels statistischer Verfahren.
    Date
    14. 6.2015 22:12:56
  2. Hora, M.: Methoden für das Ranking in Discovery-Systemen (2018) 0.01
    0.0099319955 = product of:
      0.06952397 = sum of:
        0.06952397 = weight(_text_:bibliothek in 4968) [ClassicSimilarity], result of:
          0.06952397 = score(doc=4968,freq=4.0), product of:
            0.15482719 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.037711862 = queryNorm
            0.44904238 = fieldWeight in 4968, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4968)
      0.14285715 = coord(1/7)
    
    Content
    Vgl.: https://journals.ub.uni-heidelberg.de/index.php/bibliothek/article/view/57797. Vgl. auch: URN (PDF): http://nbn-resolving.de/urn:nbn:de:bsz:16-pb-577977.
    Source
    Perspektive Bibliothek. 7(2018) H.2, S.2-23
  3. Behnert, C.; Borst, T.: Neue Formen der Relevanz-Sortierung in bibliothekarischen Informationssystemen : das DFG-Projekt LibRank (2015) 0.01
    0.008026265 = product of:
      0.056183852 = sum of:
        0.056183852 = weight(_text_:bibliothek in 5392) [ClassicSimilarity], result of:
          0.056183852 = score(doc=5392,freq=2.0), product of:
            0.15482719 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.037711862 = queryNorm
            0.36288103 = fieldWeight in 5392, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0625 = fieldNorm(doc=5392)
      0.14285715 = coord(1/7)
    
    Source
    Bibliothek: Forschung und Praxis. 39(2015) H.3, S.384-393
  4. Wilhelmy, A.: Phonetische Ähnlichkeitssuche in Datenbanken (1991) 0.01
    0.0060196985 = product of:
      0.042137887 = sum of:
        0.042137887 = weight(_text_:bibliothek in 5684) [ClassicSimilarity], result of:
          0.042137887 = score(doc=5684,freq=2.0), product of:
            0.15482719 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.037711862 = queryNorm
            0.27216077 = fieldWeight in 5684, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
      0.14285715 = coord(1/7)
    
    Source
    Bibliotheken mit und ohne Grenzen: Informationsgesellschaft und Bibliothek. Der österreichische Bibliothekartag 1990, Bregenz, 4.-8.9.1990, Vorträge und Kommissionssitzungen
  5. Voorhees, E.M.: Implementing agglomerative hierarchic clustering algorithms for use in document retrieval (1986) 0.00
    0.0038929046 = product of:
      0.02725033 = sum of:
        0.02725033 = product of:
          0.08175099 = sum of:
            0.08175099 = weight(_text_:22 in 402) [ClassicSimilarity], result of:
              0.08175099 = score(doc=402,freq=2.0), product of:
                0.13206051 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037711862 = queryNorm
                0.61904186 = fieldWeight in 402, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=402)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Source
    Information processing and management. 22(1986) no.6, S.465-476
  6. Archuby, C.G.: Interfaces se recuperacion para catalogos en linea con salidas ordenadas por probable relevancia (2000) 0.00
    0.0034721077 = product of:
      0.024304753 = sum of:
        0.024304753 = product of:
          0.07291426 = sum of:
            0.07291426 = weight(_text_:29 in 5727) [ClassicSimilarity], result of:
              0.07291426 = score(doc=5727,freq=4.0), product of:
                0.13265854 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037711862 = queryNorm
                0.5496386 = fieldWeight in 5727, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5727)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Date
    29. 1.1996 18:23:13
    Source
    Ciencia da informacao. 29(2000) no.3, S.5-13
  7. Mandl, T.: Tolerantes Information Retrieval : Neuronale Netze zur Erhöhung der Adaptivität und Flexibilität bei der Informationssuche (2001) 0.00
    0.003445361 = product of:
      0.024117526 = sum of:
        0.024117526 = weight(_text_:konzeption in 5965) [ClassicSimilarity], result of:
          0.024117526 = score(doc=5965,freq=2.0), product of:
            0.20287935 = queryWeight, product of:
              5.3797226 = idf(docFreq=553, maxDocs=44218)
              0.037711862 = queryNorm
            0.1188762 = fieldWeight in 5965, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3797226 = idf(docFreq=553, maxDocs=44218)
              0.015625 = fieldNorm(doc=5965)
      0.14285715 = coord(1/7)
    
    Footnote
    Rez. in: nfd - Information 54(2003) H.6, S.379-380 (U. Thiel): "Kannte G. Salton bei der Entwicklung des Vektorraummodells die kybernetisch orientierten Versuche mit assoziativen Speicherstrukturen? An diese und ähnliche Vermutungen, die ich vor einigen Jahren mit Reginald Ferber und anderen Kollegen diskutierte, erinnerte mich die Thematik des vorliegenden Buches. Immerhin lässt sich feststellen, dass die Vektorrepräsentation eine genial einfache Darstellung sowohl der im Information Retrieval (IR) als grundlegende Datenstruktur benutzten "inverted files" als auch der assoziativen Speichermatrizen darstellt, die sich im Laufe der Zeit Über Perzeptrons zu Neuronalen Netzen (NN) weiterentwickelten. Dieser formale Zusammenhang stimulierte in der Folge eine Reihe von Ansätzen, die Netzwerke im Retrieval zu verwenden, wobei sich, wie auch im vorliegenden Band, hybride Ansätze, die Methoden aus beiden Disziplinen kombinieren, als sehr geeignet erweisen. Aber der Reihe nach... Das Buch wurde vom Autor als Dissertation beim Fachbereich IV "Sprachen und Technik" der Universität Hildesheim eingereicht und resultiert aus einer Folge von Forschungsbeiträgen zu mehreren Projekten, an denen der Autor in der Zeit von 1995 bis 2000 an verschiedenen Standorten beteiligt war. Dies erklärt die ungewohnte Breite der Anwendungen, Szenarien und Domänen, in denen die Ergebnisse gewonnen wurden. So wird das in der Arbeit entwickelte COSIMIR Modell (COgnitive SIMilarity learning in Information Retrieval) nicht nur anhand der klassischen Cranfield-Kollektion evaluiert, sondern auch im WING-Projekt der Universität Regensburg im Faktenretrieval aus einer Werkstoffdatenbank eingesetzt. Weitere Versuche mit der als "Transformations-Netzwerk" bezeichneten Komponente, deren Aufgabe die Abbildung von Gewichtungsfunktionen zwischen zwei Termräumen ist, runden das Spektrum der Experimente ab. Aber nicht nur die vorgestellten Resultate sind vielfältig, auch der dem Leser angebotene "State-of-the-Art"-Überblick fasst in hoch informativer Breite Wesentliches aus den Gebieten IR und NN zusammen und beleuchtet die Schnittpunkte der beiden Bereiche. So werden neben den Grundlagen des Text- und Faktenretrieval die Ansätze zur Verbesserung der Adaptivität und zur Beherrschung von Heterogenität vorgestellt, während als Grundlagen Neuronaler Netze neben einer allgemeinen Einführung in die Grundbegriffe u.a. das Backpropagation-Modell, KohonenNetze und die Adaptive Resonance Theory (ART) geschildert werden. Einweiteres Kapitel stellt die bisherigen NN-orientierten Ansätze im IR vor und rundet den Abriss der relevanten Forschungslandschaft ab. Als Vorbereitung der Präsentation des COSIMIR-Modells schiebt der Autor an dieser Stelle ein diskursives Kapitel zum Thema Heterogenität im IR ein, wodurch die Ziele und Grundannahmen der Arbeit noch einmal reflektiert werden. Als Dimensionen der Heterogenität werden der Objekttyp, die Qualität der Objekte und ihrer Erschließung und die Mehrsprachigkeit genannt. Wenn auch diese Systematik im Wesentlichen die Akzente auf Probleme aus den hier tangierten Projekten legt, und weniger eine umfassende Aufbereitung z.B. der Literatur zum Problem der Relevanz anstrebt, ist sie dennoch hilfreich zum Verständnis der in den nachfolgenden Kapitel oft nur implizit angesprochenen Designentscheidungen bei der Konzeption der entwickelten Prototypen. Der Ansatz, Heterogenität durch Transformationen zu behandeln, wird im speziellen Kontext der NN konkretisiert, wobei andere Möglichkeiten, die z.B. Instrumente der Logik und Probabilistik einzusetzen, nur kurz diskutiert werden. Eine weitergehende Analyse hätte wohl auch den Rahmen der Arbeit zu weit gespannt,
  8. Crestani, F.: Combination of similarity measures for effective spoken document retrieval (2003) 0.00
    0.0034372113 = product of:
      0.024060478 = sum of:
        0.024060478 = product of:
          0.07218143 = sum of:
            0.07218143 = weight(_text_:29 in 4690) [ClassicSimilarity], result of:
              0.07218143 = score(doc=4690,freq=2.0), product of:
                0.13265854 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037711862 = queryNorm
                0.5441145 = fieldWeight in 4690, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4690)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Source
    Journal of information science. 29(2003) no.2, S.87-96
  9. Smeaton, A.F.; Rijsbergen, C.J. van: ¬The retrieval effects of query expansion on a feedback document retrieval system (1983) 0.00
    0.0034062911 = product of:
      0.023844037 = sum of:
        0.023844037 = product of:
          0.07153211 = sum of:
            0.07153211 = weight(_text_:22 in 2134) [ClassicSimilarity], result of:
              0.07153211 = score(doc=2134,freq=2.0), product of:
                0.13206051 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037711862 = queryNorm
                0.5416616 = fieldWeight in 2134, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2134)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Date
    30. 3.2001 13:32:22
  10. Back, J.: ¬An evaluation of relevancy ranking techniques used by Internet search engines (2000) 0.00
    0.0034062911 = product of:
      0.023844037 = sum of:
        0.023844037 = product of:
          0.07153211 = sum of:
            0.07153211 = weight(_text_:22 in 3445) [ClassicSimilarity], result of:
              0.07153211 = score(doc=3445,freq=2.0), product of:
                0.13206051 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037711862 = queryNorm
                0.5416616 = fieldWeight in 3445, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3445)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Date
    25. 8.2005 17:42:22
  11. Okada, M.; Ando, K.; Lee, S.S.; Hayashi, Y.; Aoe, J.I.: ¬An efficient substring search method by using delayed keyword extraction (2001) 0.00
    0.002946181 = product of:
      0.020623267 = sum of:
        0.020623267 = product of:
          0.0618698 = sum of:
            0.0618698 = weight(_text_:29 in 6415) [ClassicSimilarity], result of:
              0.0618698 = score(doc=6415,freq=2.0), product of:
                0.13265854 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037711862 = queryNorm
                0.46638384 = fieldWeight in 6415, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6415)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Date
    29. 3.2002 17:24:03
  12. Cole, C.: Intelligent information retrieval: diagnosing information need : Part II: uncertainty expansion in a prototype of a diagnostic IR tool (1998) 0.00
    0.002946181 = product of:
      0.020623267 = sum of:
        0.020623267 = product of:
          0.0618698 = sum of:
            0.0618698 = weight(_text_:29 in 6432) [ClassicSimilarity], result of:
              0.0618698 = score(doc=6432,freq=2.0), product of:
                0.13265854 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037711862 = queryNorm
                0.46638384 = fieldWeight in 6432, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6432)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Date
    11. 8.2001 14:48:29
  13. Fuhr, N.: Ranking-Experimente mit gewichteter Indexierung (1986) 0.00
    0.0029196783 = product of:
      0.020437747 = sum of:
        0.020437747 = product of:
          0.061313238 = sum of:
            0.061313238 = weight(_text_:22 in 58) [ClassicSimilarity], result of:
              0.061313238 = score(doc=58,freq=2.0), product of:
                0.13206051 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037711862 = queryNorm
                0.46428138 = fieldWeight in 58, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=58)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Date
    14. 6.2015 22:12:44
  14. Effektive Information Retrieval Verfahren in Theorie und Praxis : ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005 (2006) 0.00
    0.002837713 = product of:
      0.019863991 = sum of:
        0.019863991 = weight(_text_:bibliothek in 5973) [ClassicSimilarity], result of:
          0.019863991 = score(doc=5973,freq=4.0), product of:
            0.15482719 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.037711862 = queryNorm
            0.12829782 = fieldWeight in 5973, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
      0.14285715 = coord(1/7)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 57(2006) H.5, S.290-291 (C. Schindler): "Weniger als ein Jahr nach dem "Vierten Hildesheimer Evaluierungs- und Retrievalworkshop" (HIER 2005) im Juli 2005 ist der dazugehörige Tagungsband erschienen. Eingeladen hatte die Hildesheimer Informationswissenschaft um ihre Forschungsergebnisse und die einiger externer Experten zum Thema Information Retrieval einem Fachpublikum zu präsentieren und zur Diskussion zu stellen. Unter dem Titel "Effektive Information Retrieval Verfahren in Theorie und Praxis" sind nahezu sämtliche Beiträge des Workshops in dem nun erschienenen, 15 Beiträge umfassenden Band gesammelt. Mit dem Schwerpunkt Information Retrieval (IR) wird ein Teilgebiet der Informationswissenschaft vorgestellt, das schon immer im Zentrum informationswissenschaftlicher Forschung steht. Ob durch den Leistungsanstieg von Prozessoren und Speichermedien, durch die Verbreitung des Internet über nationale Grenzen hinweg oder durch den stetigen Anstieg der Wissensproduktion, festzuhalten ist, dass in einer zunehmend wechselseitig vernetzten Welt die Orientierung und das Auffinden von Dokumenten in großen Wissensbeständen zu einer zentralen Herausforderung geworden sind. Aktuelle Verfahrensweisen zu diesem Thema, dem Information Retrieval, präsentiert der neue Band anhand von praxisbezogenen Projekten und theoretischen Diskussionen. Das Kernthema Information Retrieval wird in dem Sammelband in die Bereiche Retrieval-Systeme, Digitale Bibliothek, Evaluierung und Multilinguale Systeme untergliedert. Die Artikel der einzelnen Sektionen sind insgesamt recht heterogen und bieten daher keine Überschneidungen inhaltlicher Art. Jedoch ist eine vollkommene thematische Abdeckung der unterschiedlichen Bereiche ebenfalls nicht gegeben, was bei der Präsentation von Forschungsergebnissen eines Institutes und seiner Kooperationspartner auch nur bedingt erwartet werden kann. So lässt sich sowohl in der Gliederung als auch in den einzelnen Beiträgen eine thematische Verdichtung erkennen, die das spezielle Profil und die Besonderheit der Hildesheimer Informationswissenschaft im Feld des Information Retrieval wiedergibt. Teil davon ist die mehrsprachige und interdisziplinäre Ausrichtung, die die Schnittstellen zwischen Informationswissenschaft, Sprachwissenschaft und Informatik in ihrer praxisbezogenen und internationalen Forschung fokussiert.
    Im ersten Kapitel "Retrieval-Systeme" werden verschiedene Information RetrievalSysteme präsentiert und Verfahren zu deren Gestaltung diskutiert. Jan-Hendrik Scheufen stellt das Meta-Framework RECOIN zur Information Retrieval Forschung vor, das sich durch eine flexible Handhabung unterschiedlichster Applikationen auszeichnet und dadurch eine zentrierte Protokollierung und Steuerung von Retrieval-Prozessen ermöglicht. Dieses Konzept eines offenen, komponentenbasierten Systems wurde in Form eines Plug-Ins für die javabasierte Open-Source-Plattform Eclipse realisiert. Markus Nick und Klaus-Dieter Althoff erläutern in ihrem Beitrag, der übrigens der einzige englischsprachige Text im Buch ist, das Verfahren DILLEBIS zur Erhaltung und Pflege (Maintenance) von erfahrungsbasierten Informationssystemen. Sie bezeichnen dieses Verfahren als Maintainable Experience-based Information System und plädieren für eine Ausrichtung von erfahrungsbasierten Systemen entsprechend diesem Modell. Gesine Quint und Steffen Weichert stellen dagegen in ihrem Beitrag die benutzerzentrierte Entwicklung des Produkt-Retrieval-Systems EIKON vor, das in Kooperation mit der Blaupunkt GmbH realisiert wurde. In einem iterativen Designzyklus erfolgte die Gestaltung von gruppenspezifischen Interaktionsmöglichkeiten für ein Car-Multimedia-Zubehör-System. Im zweiten Kapitel setzen sich mehrere Autoren dezidierter mit dem Anwendungsgebiet "Digitale Bibliothek" auseinander. Claus-Peter Klas, Sascha Kriewel, Andre Schaefer und Gudrun Fischer von der Universität Duisburg-Essen stellen das System DAFFODIL vor, das durch eine Vielzahl an Werkzeugen zur strategischen Unterstützung bei Literaturrecherchen in digitalen Bibliotheken dient. Zusätzlich ermöglicht die Protokollierung sämtlicher Ereignisse den Einsatz des Systems als Evaluationsplattform. Der Aufsatz von Matthias Meiert erläutert die Implementierung von elektronischen Publikationsprozessen an Hochschulen am Beispiel von Abschlussarbeiten des Studienganges Internationales Informationsmanagement der Universität Hildesheim. Neben Rahmenbedingungen werden sowohl der Ist-Zustand als auch der Soll-Zustand des wissenschaftlichen elektronischen Publizierens in Form von gruppenspezifischen Empfehlungen dargestellt. Daniel Harbig und Rene Schneider beschreiben in ihrem Aufsatz zwei Verfahrensweisen zum maschinellen Erlernen von Ontologien, angewandt am virtuellen Bibliotheksregal MyShelf. Nach der Evaluation dieser beiden Ansätze plädieren die Autoren für ein semi-automatisiertes Verfahren zur Erstellung von Ontologien.
  15. Zhang, W.; Korf, R.E.: Performance of linear-space search algorithms (1995) 0.00
    0.0024551512 = product of:
      0.017186057 = sum of:
        0.017186057 = product of:
          0.05155817 = sum of:
            0.05155817 = weight(_text_:29 in 4744) [ClassicSimilarity], result of:
              0.05155817 = score(doc=4744,freq=2.0), product of:
                0.13265854 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037711862 = queryNorm
                0.38865322 = fieldWeight in 4744, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4744)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Date
    2. 8.1996 10:29:15
  16. Hüther, H.: Selix im DFG-Projekt Kascade (1998) 0.00
    0.0024551512 = product of:
      0.017186057 = sum of:
        0.017186057 = product of:
          0.05155817 = sum of:
            0.05155817 = weight(_text_:29 in 5151) [ClassicSimilarity], result of:
              0.05155817 = score(doc=5151,freq=2.0), product of:
                0.13265854 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037711862 = queryNorm
                0.38865322 = fieldWeight in 5151, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5151)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Date
    25. 8.2000 19:55:29
  17. Uratani, N.; Takeda, M.: ¬A fast string-searching algorithm for multiple patterns (1993) 0.00
    0.001964121 = product of:
      0.013748845 = sum of:
        0.013748845 = product of:
          0.041246533 = sum of:
            0.041246533 = weight(_text_:29 in 6275) [ClassicSimilarity], result of:
              0.041246533 = score(doc=6275,freq=2.0), product of:
                0.13265854 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037711862 = queryNorm
                0.31092256 = fieldWeight in 6275, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6275)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Source
    Information processing and management. 29(1993) no.6, S.775-791
  18. Chakrabarti, S.; Dom, B.; Kumar, S.R.; Raghavan, P.; Rajagopalan, S.; Tomkins, A.; Kleinberg, J.M.; Gibson, D.: Neue Pfade durch den Internet-Dschungel : Die zweite Generation von Web-Suchmaschinen (1999) 0.00
    0.001964121 = product of:
      0.013748845 = sum of:
        0.013748845 = product of:
          0.041246533 = sum of:
            0.041246533 = weight(_text_:29 in 3) [ClassicSimilarity], result of:
              0.041246533 = score(doc=3,freq=2.0), product of:
                0.13265854 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037711862 = queryNorm
                0.31092256 = fieldWeight in 3, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Date
    31.12.1996 19:29:41
  19. Thompson, P.: Looking back: on relevance, probabilistic indexing and information retrieval (2008) 0.00
    0.001964121 = product of:
      0.013748845 = sum of:
        0.013748845 = product of:
          0.041246533 = sum of:
            0.041246533 = weight(_text_:29 in 2074) [ClassicSimilarity], result of:
              0.041246533 = score(doc=2074,freq=2.0), product of:
                0.13265854 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037711862 = queryNorm
                0.31092256 = fieldWeight in 2074, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2074)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Date
    31. 7.2008 19:58:29
  20. Vechtomova, O.; Karamuftuoglu, M.: Lexical cohesion and term proximity in document ranking (2008) 0.00
    0.001964121 = product of:
      0.013748845 = sum of:
        0.013748845 = product of:
          0.041246533 = sum of:
            0.041246533 = weight(_text_:29 in 2101) [ClassicSimilarity], result of:
              0.041246533 = score(doc=2101,freq=2.0), product of:
                0.13265854 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037711862 = queryNorm
                0.31092256 = fieldWeight in 2101, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2101)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Date
    1. 8.2008 12:29:05

Years

Languages

  • e 49
  • d 15
  • m 1
  • pt 1
  • More… Less…

Types

  • a 61
  • m 3
  • el 1
  • r 1
  • s 1
  • x 1
  • More… Less…