Search (58 results, page 3 of 3)

  • × theme_ss:"Retrievalalgorithmen"
  1. Dannenberg, R.B.; Birmingham, W.P.; Pardo, B.; Hu, N.; Meek, C.; Tzanetakis, G.: ¬A comparative evaluation of search techniques for query-by-humming using the MUSART testbed (2007) 0.01
    0.008854004 = product of:
      0.017708007 = sum of:
        0.017708007 = product of:
          0.035416014 = sum of:
            0.035416014 = weight(_text_:g in 269) [ClassicSimilarity], result of:
              0.035416014 = score(doc=269,freq=2.0), product of:
                0.17068884 = queryWeight, product of:
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.04544495 = queryNorm
                0.20748875 = fieldWeight in 269, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=269)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  2. Nunes, S.; Ribeiro, C.; David, G.: Term weighting based on document revision history (2011) 0.01
    0.008854004 = product of:
      0.017708007 = sum of:
        0.017708007 = product of:
          0.035416014 = sum of:
            0.035416014 = weight(_text_:g in 4946) [ClassicSimilarity], result of:
              0.035416014 = score(doc=4946,freq=2.0), product of:
                0.17068884 = queryWeight, product of:
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.04544495 = queryNorm
                0.20748875 = fieldWeight in 4946, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4946)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  3. Symonds, M.; Bruza, P.; Zuccon, G.; Koopman, B.; Sitbon, L.; Turner, I.: Automatic query expansion : a structural linguistic perspective (2014) 0.01
    0.008854004 = product of:
      0.017708007 = sum of:
        0.017708007 = product of:
          0.035416014 = sum of:
            0.035416014 = weight(_text_:g in 1338) [ClassicSimilarity], result of:
              0.035416014 = score(doc=1338,freq=2.0), product of:
                0.17068884 = queryWeight, product of:
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.04544495 = queryNorm
                0.20748875 = fieldWeight in 1338, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1338)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  4. Hubert, G.; Pitarch, Y.; Pinel-Sauvagnat, K.; Tournier, R.; Laporte, L.: TournaRank : when retrieval becomes document competition (2018) 0.01
    0.008854004 = product of:
      0.017708007 = sum of:
        0.017708007 = product of:
          0.035416014 = sum of:
            0.035416014 = weight(_text_:g in 5087) [ClassicSimilarity], result of:
              0.035416014 = score(doc=5087,freq=2.0), product of:
                0.17068884 = queryWeight, product of:
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.04544495 = queryNorm
                0.20748875 = fieldWeight in 5087, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5087)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  5. Jacucci, G.; Barral, O.; Daee, P.; Wenzel, M.; Serim, B.; Ruotsalo, T.; Pluchino, P.; Freeman, J.; Gamberini, L.; Kaski, S.; Blankertz, B.: Integrating neurophysiologic relevance feedback in intent modeling for information retrieval (2019) 0.01
    0.008854004 = product of:
      0.017708007 = sum of:
        0.017708007 = product of:
          0.035416014 = sum of:
            0.035416014 = weight(_text_:g in 5356) [ClassicSimilarity], result of:
              0.035416014 = score(doc=5356,freq=2.0), product of:
                0.17068884 = queryWeight, product of:
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.04544495 = queryNorm
                0.20748875 = fieldWeight in 5356, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5356)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  6. Purpura, A.; Silvello, G.; Susto, G.A.: Learning to rank from relevance judgments distributions (2022) 0.01
    0.008854004 = product of:
      0.017708007 = sum of:
        0.017708007 = product of:
          0.035416014 = sum of:
            0.035416014 = weight(_text_:g in 645) [ClassicSimilarity], result of:
              0.035416014 = score(doc=645,freq=2.0), product of:
                0.17068884 = queryWeight, product of:
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.04544495 = queryNorm
                0.20748875 = fieldWeight in 645, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=645)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  7. Fuhr, N.: Modelle im Information Retrieval (2023) 0.01
    0.008854004 = product of:
      0.017708007 = sum of:
        0.017708007 = product of:
          0.035416014 = sum of:
            0.035416014 = weight(_text_:g in 800) [ClassicSimilarity], result of:
              0.035416014 = score(doc=800,freq=2.0), product of:
                0.17068884 = queryWeight, product of:
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.04544495 = queryNorm
                0.20748875 = fieldWeight in 800, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=800)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Information-Retrieval-Modelle -(IR-Modelle) spezifizieren, wie zu einer gegebenen Anfrage die Antwortdokumente aus einer Dokumentenkollektion bestimmt werden. Ausgangsbasis jedes Modells sind dabei zunächst bestimmte Annahmen über die Wissensrepräsentation (s. Teil B Methoden und Systeme der Inhaltserschließung) von Fragen und Dokumenten. Hier bezeichnen wir die Elemente dieser Repräsentationen als Terme, wobei es aus der Sicht des Modells egal ist, wie diese Terme aus dem Dokument (und analog aus der von Benutzenden eingegebenen Anfrage) abgeleitet werden: Bei Texten werden hierzu häufig computerlinguistische Methoden eingesetzt, aber auch komplexere automatische oder manuelle Erschließungsverfahren können zur Anwendung kommen. Repräsentationen besitzen ferner eine bestimmte Struktur. Ein Dokument wird meist als Menge oder Multimenge von Termen aufgefasst, wobei im zweiten Fall das Mehrfachvorkommen berücksichtigt wird. Diese Dokumentrepräsentation wird wiederum auf eine sogenannte Dokumentbeschreibung abgebildet, in der die einzelnen Terme gewichtet sein können. Im Folgenden unterscheiden wir nur zwischen ungewichteter (Gewicht eines Terms ist entweder 0 oder 1) und gewichteter Indexierung (das Gewicht ist eine nichtnegative reelle Zahl). Analog dazu gibt es eine Fragerepräsentation; legt man eine natürlichsprachige Anfrage zugrunde, so kann man die o. g. Verfahren für Dokumenttexte anwenden. Alternativ werden auch grafische oder formale Anfragesprachen verwendet, wobei aus Sicht der Modelle insbesondere deren logische Struktur (etwa beim Booleschen Retrieval) relevant ist. Die Fragerepräsentation wird dann in eine Fragebeschreibung überführt.
  8. Burgin, R.: ¬The retrieval effectiveness of 5 clustering algorithms as a function of indexing exhaustivity (1995) 0.01
    0.007696454 = product of:
      0.015392908 = sum of:
        0.015392908 = product of:
          0.030785816 = sum of:
            0.030785816 = weight(_text_:22 in 3365) [ClassicSimilarity], result of:
              0.030785816 = score(doc=3365,freq=2.0), product of:
                0.15914047 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04544495 = queryNorm
                0.19345059 = fieldWeight in 3365, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3365)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 2.1996 11:20:06
  9. Efthimiadis, E.N.: User choices : a new yardstick for the evaluation of ranking algorithms for interactive query expansion (1995) 0.01
    0.007696454 = product of:
      0.015392908 = sum of:
        0.015392908 = product of:
          0.030785816 = sum of:
            0.030785816 = weight(_text_:22 in 5697) [ClassicSimilarity], result of:
              0.030785816 = score(doc=5697,freq=2.0), product of:
                0.15914047 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04544495 = queryNorm
                0.19345059 = fieldWeight in 5697, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5697)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 2.1996 13:14:10
  10. Song, D.; Bruza, P.D.: Towards context sensitive information inference (2003) 0.01
    0.007696454 = product of:
      0.015392908 = sum of:
        0.015392908 = product of:
          0.030785816 = sum of:
            0.030785816 = weight(_text_:22 in 1428) [ClassicSimilarity], result of:
              0.030785816 = score(doc=1428,freq=2.0), product of:
                0.15914047 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04544495 = queryNorm
                0.19345059 = fieldWeight in 1428, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1428)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 3.2003 19:35:46
  11. Shiri, A.A.; Revie, C.: Query expansion behavior within a thesaurus-enhanced search environment : a user-centered evaluation (2006) 0.01
    0.007696454 = product of:
      0.015392908 = sum of:
        0.015392908 = product of:
          0.030785816 = sum of:
            0.030785816 = weight(_text_:22 in 56) [ClassicSimilarity], result of:
              0.030785816 = score(doc=56,freq=2.0), product of:
                0.15914047 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04544495 = queryNorm
                0.19345059 = fieldWeight in 56, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=56)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 7.2006 16:32:43
  12. Dominich, S.: Mathematical foundations of information retrieval (2001) 0.01
    0.007696454 = product of:
      0.015392908 = sum of:
        0.015392908 = product of:
          0.030785816 = sum of:
            0.030785816 = weight(_text_:22 in 1753) [ClassicSimilarity], result of:
              0.030785816 = score(doc=1753,freq=2.0), product of:
                0.15914047 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04544495 = queryNorm
                0.19345059 = fieldWeight in 1753, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1753)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 3.2008 12:26:32
  13. Baloh, P.; Desouza, K.C.; Hackney, R.: Contextualizing organizational interventions of knowledge management systems : a design science perspectiveA domain analysis (2012) 0.01
    0.007696454 = product of:
      0.015392908 = sum of:
        0.015392908 = product of:
          0.030785816 = sum of:
            0.030785816 = weight(_text_:22 in 241) [ClassicSimilarity], result of:
              0.030785816 = score(doc=241,freq=2.0), product of:
                0.15914047 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04544495 = queryNorm
                0.19345059 = fieldWeight in 241, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=241)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    11. 6.2012 14:22:34
  14. Soulier, L.; Jabeur, L.B.; Tamine, L.; Bahsoun, W.: On ranking relevant entities in heterogeneous networks using a language-based model (2013) 0.01
    0.007696454 = product of:
      0.015392908 = sum of:
        0.015392908 = product of:
          0.030785816 = sum of:
            0.030785816 = weight(_text_:22 in 664) [ClassicSimilarity], result of:
              0.030785816 = score(doc=664,freq=2.0), product of:
                0.15914047 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04544495 = queryNorm
                0.19345059 = fieldWeight in 664, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=664)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 3.2013 19:34:49
  15. White, R.W.; Marchionini, G.: Examining the effectiveness of real-time query expansion (2007) 0.01
    0.0070832022 = product of:
      0.0141664045 = sum of:
        0.0141664045 = product of:
          0.028332809 = sum of:
            0.028332809 = weight(_text_:g in 913) [ClassicSimilarity], result of:
              0.028332809 = score(doc=913,freq=2.0), product of:
                0.17068884 = queryWeight, product of:
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.04544495 = queryNorm
                0.165991 = fieldWeight in 913, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.03125 = fieldNorm(doc=913)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  16. Cross-language information retrieval (1998) 0.01
    0.0062607257 = product of:
      0.012521451 = sum of:
        0.012521451 = product of:
          0.025042903 = sum of:
            0.025042903 = weight(_text_:g in 6299) [ClassicSimilarity], result of:
              0.025042903 = score(doc=6299,freq=4.0), product of:
                0.17068884 = queryWeight, product of:
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.04544495 = queryNorm
                0.1467167 = fieldWeight in 6299, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=6299)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Enthält die Beiträge: GREFENSTETTE, G.: The Problem of Cross-Language Information Retrieval; DAVIS, M.W.: On the Effective Use of Large Parallel Corpora in Cross-Language Text Retrieval; BALLESTEROS, L. u. W.B. CROFT: Statistical Methods for Cross-Language Information Retrieval; Distributed Cross-Lingual Information Retrieval; Automatic Cross-Language Information Retrieval Using Latent Semantic Indexing; EVANS, D.A. u.a.: Mapping Vocabularies Using Latent Semantics; PICCHI, E. u. C. PETERS: Cross-Language Information Retrieval: A System for Comparable Corpus Querying; YAMABANA, K. u.a.: A Language Conversion Front-End for Cross-Language Information Retrieval; GACHOT, D.A. u.a.: The Systran NLP Browser: An Application of Machine Translation Technology in Cross-Language Information Retrieval; HULL, D.: A Weighted Boolean Model for Cross-Language Text Retrieval; SHERIDAN, P. u.a. Building a Large Multilingual Test Collection from Comparable News Documents; OARD; D.W. u. B.J. DORR: Evaluating Cross-Language Text Filtering Effectiveness
    Editor
    Grefenstette, G.
  17. Khoo, C.S.G.; Wan, K.-W.: ¬A simple relevancy-ranking strategy for an interface to Boolean OPACs (2004) 0.01
    0.0053875176 = product of:
      0.010775035 = sum of:
        0.010775035 = product of:
          0.02155007 = sum of:
            0.02155007 = weight(_text_:22 in 2509) [ClassicSimilarity], result of:
              0.02155007 = score(doc=2509,freq=2.0), product of:
                0.15914047 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04544495 = queryNorm
                0.1354154 = fieldWeight in 2509, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2509)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Electronic library. 22(2004) no.2, S.112-120
  18. Mandl, T.: Tolerantes Information Retrieval : Neuronale Netze zur Erhöhung der Adaptivität und Flexibilität bei der Informationssuche (2001) 0.00
    0.0035416011 = product of:
      0.0070832022 = sum of:
        0.0070832022 = product of:
          0.0141664045 = sum of:
            0.0141664045 = weight(_text_:g in 5965) [ClassicSimilarity], result of:
              0.0141664045 = score(doc=5965,freq=2.0), product of:
                0.17068884 = queryWeight, product of:
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.04544495 = queryNorm
                0.0829955 = fieldWeight in 5965, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.7559474 = idf(docFreq=2809, maxDocs=44218)
                  0.015625 = fieldNorm(doc=5965)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: nfd - Information 54(2003) H.6, S.379-380 (U. Thiel): "Kannte G. Salton bei der Entwicklung des Vektorraummodells die kybernetisch orientierten Versuche mit assoziativen Speicherstrukturen? An diese und ähnliche Vermutungen, die ich vor einigen Jahren mit Reginald Ferber und anderen Kollegen diskutierte, erinnerte mich die Thematik des vorliegenden Buches. Immerhin lässt sich feststellen, dass die Vektorrepräsentation eine genial einfache Darstellung sowohl der im Information Retrieval (IR) als grundlegende Datenstruktur benutzten "inverted files" als auch der assoziativen Speichermatrizen darstellt, die sich im Laufe der Zeit Über Perzeptrons zu Neuronalen Netzen (NN) weiterentwickelten. Dieser formale Zusammenhang stimulierte in der Folge eine Reihe von Ansätzen, die Netzwerke im Retrieval zu verwenden, wobei sich, wie auch im vorliegenden Band, hybride Ansätze, die Methoden aus beiden Disziplinen kombinieren, als sehr geeignet erweisen. Aber der Reihe nach... Das Buch wurde vom Autor als Dissertation beim Fachbereich IV "Sprachen und Technik" der Universität Hildesheim eingereicht und resultiert aus einer Folge von Forschungsbeiträgen zu mehreren Projekten, an denen der Autor in der Zeit von 1995 bis 2000 an verschiedenen Standorten beteiligt war. Dies erklärt die ungewohnte Breite der Anwendungen, Szenarien und Domänen, in denen die Ergebnisse gewonnen wurden. So wird das in der Arbeit entwickelte COSIMIR Modell (COgnitive SIMilarity learning in Information Retrieval) nicht nur anhand der klassischen Cranfield-Kollektion evaluiert, sondern auch im WING-Projekt der Universität Regensburg im Faktenretrieval aus einer Werkstoffdatenbank eingesetzt. Weitere Versuche mit der als "Transformations-Netzwerk" bezeichneten Komponente, deren Aufgabe die Abbildung von Gewichtungsfunktionen zwischen zwei Termräumen ist, runden das Spektrum der Experimente ab. Aber nicht nur die vorgestellten Resultate sind vielfältig, auch der dem Leser angebotene "State-of-the-Art"-Überblick fasst in hoch informativer Breite Wesentliches aus den Gebieten IR und NN zusammen und beleuchtet die Schnittpunkte der beiden Bereiche. So werden neben den Grundlagen des Text- und Faktenretrieval die Ansätze zur Verbesserung der Adaptivität und zur Beherrschung von Heterogenität vorgestellt, während als Grundlagen Neuronaler Netze neben einer allgemeinen Einführung in die Grundbegriffe u.a. das Backpropagation-Modell, KohonenNetze und die Adaptive Resonance Theory (ART) geschildert werden. Einweiteres Kapitel stellt die bisherigen NN-orientierten Ansätze im IR vor und rundet den Abriss der relevanten Forschungslandschaft ab. Als Vorbereitung der Präsentation des COSIMIR-Modells schiebt der Autor an dieser Stelle ein diskursives Kapitel zum Thema Heterogenität im IR ein, wodurch die Ziele und Grundannahmen der Arbeit noch einmal reflektiert werden. Als Dimensionen der Heterogenität werden der Objekttyp, die Qualität der Objekte und ihrer Erschließung und die Mehrsprachigkeit genannt. Wenn auch diese Systematik im Wesentlichen die Akzente auf Probleme aus den hier tangierten Projekten legt, und weniger eine umfassende Aufbereitung z.B. der Literatur zum Problem der Relevanz anstrebt, ist sie dennoch hilfreich zum Verständnis der in den nachfolgenden Kapitel oft nur implizit angesprochenen Designentscheidungen bei der Konzeption der entwickelten Prototypen. Der Ansatz, Heterogenität durch Transformationen zu behandeln, wird im speziellen Kontext der NN konkretisiert, wobei andere Möglichkeiten, die z.B. Instrumente der Logik und Probabilistik einzusetzen, nur kurz diskutiert werden. Eine weitergehende Analyse hätte wohl auch den Rahmen der Arbeit zu weit gespannt,

Years

Languages

  • e 52
  • d 6

Types

  • a 53
  • m 3
  • s 2
  • r 1
  • More… Less…