Search (35 results, page 1 of 2)

  • × theme_ss:"Retrievalalgorithmen"
  • × type_ss:"a"
  1. Jascó, P.: Mapping algorithms to translate natural language questions into search queries for Web databases (1997) 0.01
    0.011071275 = product of:
      0.1328553 = sum of:
        0.1328553 = weight(_text_:200 in 314) [ClassicSimilarity], result of:
          0.1328553 = score(doc=314,freq=2.0), product of:
            0.17302132 = queryWeight, product of:
              5.7915254 = idf(docFreq=366, maxDocs=44218)
              0.029874913 = queryNorm
            0.76785505 = fieldWeight in 314, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7915254 = idf(docFreq=366, maxDocs=44218)
              0.09375 = fieldNorm(doc=314)
      0.083333336 = coord(1/12)
    
    Pages
    S.189-200
  2. Ziegler, B.: ESS: ein schneller Algorithmus zur Mustersuche in Zeichenfolgen (1996) 0.01
    0.010025823 = product of:
      0.12030987 = sum of:
        0.12030987 = weight(_text_:informatik in 7543) [ClassicSimilarity], result of:
          0.12030987 = score(doc=7543,freq=2.0), product of:
            0.15243596 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.029874913 = queryNorm
            0.7892486 = fieldWeight in 7543, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.109375 = fieldNorm(doc=7543)
      0.083333336 = coord(1/12)
    
    Source
    Informatik: Forschung und Entwicklung. 11(1996) no.2, S.69-83
  3. Hora, M.: Methoden für das Ranking in Discovery-Systemen (2018) 0.01
    0.007797477 = product of:
      0.09356972 = sum of:
        0.09356972 = weight(_text_:systeme in 4968) [ClassicSimilarity], result of:
          0.09356972 = score(doc=4968,freq=4.0), product of:
            0.15986815 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.029874913 = queryNorm
            0.58529305 = fieldWeight in 4968, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4968)
      0.083333336 = coord(1/12)
    
    Abstract
    Discovery-Systeme bieten meist als Standardeinstellung eine Sortierung nach Relevanz an. Wie die Relevanz ermittelt wird, ist häufig intransparent. Dabei wären Kenntnisse darüber aus Nutzersicht ein wichtiger Faktor in der Informationskompetenz, während Bibliotheken sicherstellen sollten, dass das Ranking zum eigenen Bestand und Publikum passt. In diesem Aufsatz wird dargestellt, wie Discovery-Systeme Treffer auswählen und bewerten. Dazu gehören Indexierung, Prozessierung, Text-Matching und weitere Relevanzkriterien, z. B. Popularität oder Verfügbarkeit. Schließlich müssen alle betrachteten Kriterien zu einem zentralen Score zusammengefasst werden. Ein besonderer Fokus wird auf das Ranking von EBSCO Discovery Service, Primo und Summon gelegt.
  4. Maylein, L.; Langenstein, A.: Neues vom Relevanz-Ranking im HEIDI-Katalog der Universitätsbibliothek Heidelberg : Perspektiven für bibliothekarische Dienstleistungen (2013) 0.01
    0.0073808497 = product of:
      0.08857019 = sum of:
        0.08857019 = weight(_text_:200 in 775) [ClassicSimilarity], result of:
          0.08857019 = score(doc=775,freq=2.0), product of:
            0.17302132 = queryWeight, product of:
              5.7915254 = idf(docFreq=366, maxDocs=44218)
              0.029874913 = queryNorm
            0.51190335 = fieldWeight in 775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7915254 = idf(docFreq=366, maxDocs=44218)
              0.0625 = fieldNorm(doc=775)
      0.083333336 = coord(1/12)
    
    Source
    B.I.T.online. 16(2013) H.3, S.190-200
  5. Mayr, P.: Bradfordizing mit Katalogdaten : Alternative Sicht auf Suchergebnisse und Publikationsquellen durch Re-Ranking (2010) 0.01
    0.0068769045 = product of:
      0.082522854 = sum of:
        0.082522854 = weight(_text_:verteilte in 4301) [ClassicSimilarity], result of:
          0.082522854 = score(doc=4301,freq=2.0), product of:
            0.19284675 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.029874913 = queryNorm
            0.42791936 = fieldWeight in 4301, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.046875 = fieldNorm(doc=4301)
      0.083333336 = coord(1/12)
    
    Abstract
    Nutzer erwarten für Literaturrecherchen in wissenschaftlichen Suchsystemen einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, für viele Nutzer inzwischen eine entscheidende Rolle. Abgegrenzt wird Ranking oder Relevance Ranking von sogenannten Sortierungen zum Beispiel nach dem Erscheinungsjahr der Publikation, obwohl hier die Grenze zu »nach inhaltlicher Relevanz« gerankten Listen konzeptuell nicht sauber zu ziehen ist. Das Ranking von Dokumenten führt letztlich dazu, dass sich die Benutzer fokussiert mit den oberen Treffermengen eines Suchergebnisses beschäftigen. Der mittlere und untere Bereich eines Suchergebnisses wird häufig nicht mehr in Betracht gezogen. Aufgrund der Vielzahl an relevanten und verfügbaren Informationsquellen ist es daher notwendig, Kernbereiche in den Suchräumen zu identifizieren und diese anschließend dem Nutzer hervorgehoben zu präsentieren. Phillipp Mayr fasst hier die Ergebnisse seiner Dissertation zum Thema »Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken« zusammen.
  6. Wilhelmy, A.: Phonetische Ähnlichkeitssuche in Datenbanken (1991) 0.00
    0.0047259843 = product of:
      0.05671181 = sum of:
        0.05671181 = weight(_text_:systeme in 5684) [ClassicSimilarity], result of:
          0.05671181 = score(doc=5684,freq=2.0), product of:
            0.15986815 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.029874913 = queryNorm
            0.35474116 = fieldWeight in 5684, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
      0.083333336 = coord(1/12)
    
    Abstract
    In dialoggesteuerten Systemen zur Informationswiedergewinnung (Information Retrieval Systems, IRS) kann man - vergröbernd - das Wechselspiel zwischen Mensch und Computer als iterativen Prozess zur Erhöhung von Genauigkeit (Precision) auf der einen und Vollständigkeit (Recall) der Nachweise auf der anderen Seite verstehen. Vorgestellt wird ein maschinell anwendbares Verfahren, das auf phonologische Untersuchungen des Sprachwissenschaftlers Nikolaj S. Trubetzkoy (1890-1938) zurückgeht. In den Grundzügen kann es erheblich zur Verbesserung der Nachweisvollständigkeit beitragen. Dadurch, daß es die 'Ähnlichkeitsumgebungen' von Suchbegriffen in die Recherche mit einbezieht, zeigt es sich vor allem für Systeme mit koordinativer maschineller Indexierung als vorteilhaft. Bei alphabetischen Begriffen erweist sich die Einführung eines solchen zunächst nur auf den Benutzer hin orientierten Verfahrens auch aus technischer Sicht als günstig, da damit die Anzahl der Zugriffe bei den Suchvorgängen auch für große Datenvolumina niedrig gehalten werden kann
  7. Watters, C.; Amoudi, A.: Geosearcher : location-based ranking of search engine results (2003) 0.00
    0.0046130307 = product of:
      0.05535637 = sum of:
        0.05535637 = weight(_text_:200 in 5152) [ClassicSimilarity], result of:
          0.05535637 = score(doc=5152,freq=2.0), product of:
            0.17302132 = queryWeight, product of:
              5.7915254 = idf(docFreq=366, maxDocs=44218)
              0.029874913 = queryNorm
            0.31993958 = fieldWeight in 5152, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7915254 = idf(docFreq=366, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5152)
      0.083333336 = coord(1/12)
    
    Abstract
    Waters and Amoudi describe GeoSearcher, a prototype ranking program that arranges search engine results along a geo-spatial dimension without the provision of geo-spatial meta-tags or the use of geo-spatial feature extraction. GeoSearcher uses URL analysis, IptoLL, Whois, and the Getty Thesaurus of Geographic Names to determine site location. It accepts the first 200 sites returned by a search engine, identifies the coordinates, calculates their distance from a reference point and ranks in ascending order by this value. For any retrieved site the system checks if it has already been located in the current session, then sends the domain name to Whois to generate a return of a two letter country code and an area code. With no success the name is stripped one level and resent. If this fails the top level domain is tested for being a country code. Any remaining unmatched names go to IptoLL. Distance is calculated using the center point of the geographic area and a provided reference location. A test run on a set of 100 URLs from a search was successful in locating 90 sites. Eighty three pages could be manually found and 68 had sufficient information to verify location determination. Of these 65 ( 95%) had been assigned reasonably correct geographic locations. A random set of URLs used instead of a search result, yielded 80% success.
  8. Fuhr, N.: Modelle im Information Retrieval (2023) 0.00
    0.00393832 = product of:
      0.04725984 = sum of:
        0.04725984 = weight(_text_:systeme in 800) [ClassicSimilarity], result of:
          0.04725984 = score(doc=800,freq=2.0), product of:
            0.15986815 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.029874913 = queryNorm
            0.2956176 = fieldWeight in 800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.0390625 = fieldNorm(doc=800)
      0.083333336 = coord(1/12)
    
    Abstract
    Information-Retrieval-Modelle -(IR-Modelle) spezifizieren, wie zu einer gegebenen Anfrage die Antwortdokumente aus einer Dokumentenkollektion bestimmt werden. Ausgangsbasis jedes Modells sind dabei zunächst bestimmte Annahmen über die Wissensrepräsentation (s. Teil B Methoden und Systeme der Inhaltserschließung) von Fragen und Dokumenten. Hier bezeichnen wir die Elemente dieser Repräsentationen als Terme, wobei es aus der Sicht des Modells egal ist, wie diese Terme aus dem Dokument (und analog aus der von Benutzenden eingegebenen Anfrage) abgeleitet werden: Bei Texten werden hierzu häufig computerlinguistische Methoden eingesetzt, aber auch komplexere automatische oder manuelle Erschließungsverfahren können zur Anwendung kommen. Repräsentationen besitzen ferner eine bestimmte Struktur. Ein Dokument wird meist als Menge oder Multimenge von Termen aufgefasst, wobei im zweiten Fall das Mehrfachvorkommen berücksichtigt wird. Diese Dokumentrepräsentation wird wiederum auf eine sogenannte Dokumentbeschreibung abgebildet, in der die einzelnen Terme gewichtet sein können. Im Folgenden unterscheiden wir nur zwischen ungewichteter (Gewicht eines Terms ist entweder 0 oder 1) und gewichteter Indexierung (das Gewicht ist eine nichtnegative reelle Zahl). Analog dazu gibt es eine Fragerepräsentation; legt man eine natürlichsprachige Anfrage zugrunde, so kann man die o. g. Verfahren für Dokumenttexte anwenden. Alternativ werden auch grafische oder formale Anfragesprachen verwendet, wobei aus Sicht der Modelle insbesondere deren logische Struktur (etwa beim Booleschen Retrieval) relevant ist. Die Fragerepräsentation wird dann in eine Fragebeschreibung überführt.
  9. Voorhees, E.M.: Implementing agglomerative hierarchic clustering algorithms for use in document retrieval (1986) 0.00
    0.0026984257 = product of:
      0.032381106 = sum of:
        0.032381106 = product of:
          0.06476221 = sum of:
            0.06476221 = weight(_text_:22 in 402) [ClassicSimilarity], result of:
              0.06476221 = score(doc=402,freq=2.0), product of:
                0.10461686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029874913 = queryNorm
                0.61904186 = fieldWeight in 402, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=402)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Source
    Information processing and management. 22(1986) no.6, S.465-476
  10. Smeaton, A.F.; Rijsbergen, C.J. van: ¬The retrieval effects of query expansion on a feedback document retrieval system (1983) 0.00
    0.0023611225 = product of:
      0.028333468 = sum of:
        0.028333468 = product of:
          0.056666937 = sum of:
            0.056666937 = weight(_text_:22 in 2134) [ClassicSimilarity], result of:
              0.056666937 = score(doc=2134,freq=2.0), product of:
                0.10461686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029874913 = queryNorm
                0.5416616 = fieldWeight in 2134, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2134)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Date
    30. 3.2001 13:32:22
  11. Back, J.: ¬An evaluation of relevancy ranking techniques used by Internet search engines (2000) 0.00
    0.0023611225 = product of:
      0.028333468 = sum of:
        0.028333468 = product of:
          0.056666937 = sum of:
            0.056666937 = weight(_text_:22 in 3445) [ClassicSimilarity], result of:
              0.056666937 = score(doc=3445,freq=2.0), product of:
                0.10461686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029874913 = queryNorm
                0.5416616 = fieldWeight in 3445, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3445)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Date
    25. 8.2005 17:42:22
  12. Fuhr, N.: Ranking-Experimente mit gewichteter Indexierung (1986) 0.00
    0.0020238194 = product of:
      0.02428583 = sum of:
        0.02428583 = product of:
          0.04857166 = sum of:
            0.04857166 = weight(_text_:22 in 58) [ClassicSimilarity], result of:
              0.04857166 = score(doc=58,freq=2.0), product of:
                0.10461686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029874913 = queryNorm
                0.46428138 = fieldWeight in 58, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=58)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Date
    14. 6.2015 22:12:44
  13. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.00
    0.0020238194 = product of:
      0.02428583 = sum of:
        0.02428583 = product of:
          0.04857166 = sum of:
            0.04857166 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.04857166 = score(doc=2051,freq=2.0), product of:
                0.10461686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029874913 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Date
    14. 6.2015 22:12:56
  14. MacFarlane, A.; Robertson, S.E.; McCann, J.A.: Parallel computing for passage retrieval (2004) 0.00
    0.0013492128 = product of:
      0.016190553 = sum of:
        0.016190553 = product of:
          0.032381106 = sum of:
            0.032381106 = weight(_text_:22 in 5108) [ClassicSimilarity], result of:
              0.032381106 = score(doc=5108,freq=2.0), product of:
                0.10461686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029874913 = queryNorm
                0.30952093 = fieldWeight in 5108, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5108)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Date
    20. 1.2007 18:30:22
  15. Faloutsos, C.: Signature files (1992) 0.00
    0.0013492128 = product of:
      0.016190553 = sum of:
        0.016190553 = product of:
          0.032381106 = sum of:
            0.032381106 = weight(_text_:22 in 3499) [ClassicSimilarity], result of:
              0.032381106 = score(doc=3499,freq=2.0), product of:
                0.10461686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029874913 = queryNorm
                0.30952093 = fieldWeight in 3499, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3499)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Date
    7. 5.1999 15:22:48
  16. Losada, D.E.; Barreiro, A.: Emebedding term similarity and inverse document frequency into a logical model of information retrieval (2003) 0.00
    0.0013492128 = product of:
      0.016190553 = sum of:
        0.016190553 = product of:
          0.032381106 = sum of:
            0.032381106 = weight(_text_:22 in 1422) [ClassicSimilarity], result of:
              0.032381106 = score(doc=1422,freq=2.0), product of:
                0.10461686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029874913 = queryNorm
                0.30952093 = fieldWeight in 1422, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1422)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Date
    22. 3.2003 19:27:23
  17. Bornmann, L.; Mutz, R.: From P100 to P100' : a new citation-rank approach (2014) 0.00
    0.0013492128 = product of:
      0.016190553 = sum of:
        0.016190553 = product of:
          0.032381106 = sum of:
            0.032381106 = weight(_text_:22 in 1431) [ClassicSimilarity], result of:
              0.032381106 = score(doc=1431,freq=2.0), product of:
                0.10461686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029874913 = queryNorm
                0.30952093 = fieldWeight in 1431, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1431)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Date
    22. 8.2014 17:05:18
  18. Ravana, S.D.; Rajagopal, P.; Balakrishnan, V.: Ranking retrieval systems using pseudo relevance judgments (2015) 0.00
    0.0011925469 = product of:
      0.014310563 = sum of:
        0.014310563 = product of:
          0.028621126 = sum of:
            0.028621126 = weight(_text_:22 in 2591) [ClassicSimilarity], result of:
              0.028621126 = score(doc=2591,freq=4.0), product of:
                0.10461686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029874913 = queryNorm
                0.27358043 = fieldWeight in 2591, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2591)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Date
    20. 1.2015 18:30:22
    18. 9.2018 18:22:56
  19. Chang, C.-H.; Hsu, C.-C.: Integrating query expansion and conceptual relevance feedback for personalized Web information retrieval (1998) 0.00
    0.0011805613 = product of:
      0.014166734 = sum of:
        0.014166734 = product of:
          0.028333468 = sum of:
            0.028333468 = weight(_text_:22 in 1319) [ClassicSimilarity], result of:
              0.028333468 = score(doc=1319,freq=2.0), product of:
                0.10461686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029874913 = queryNorm
                0.2708308 = fieldWeight in 1319, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1319)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Date
    1. 8.1996 22:08:06
  20. Kanaeva, Z.: Ranking: Google und CiteSeer (2005) 0.00
    0.0011805613 = product of:
      0.014166734 = sum of:
        0.014166734 = product of:
          0.028333468 = sum of:
            0.028333468 = weight(_text_:22 in 3276) [ClassicSimilarity], result of:
              0.028333468 = score(doc=3276,freq=2.0), product of:
                0.10461686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029874913 = queryNorm
                0.2708308 = fieldWeight in 3276, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3276)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Date
    20. 3.2005 16:23:22