Search (359 results, page 1 of 18)

  • × theme_ss:"Retrievalalgorithmen"
  1. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.08
    0.08309671 = product of:
      0.12464507 = sum of:
        0.007165406 = weight(_text_:s in 2051) [ClassicSimilarity], result of:
          0.007165406 = score(doc=2051,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.14414869 = fieldWeight in 2051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.11747967 = sum of:
          0.043146625 = weight(_text_:von in 2051) [ClassicSimilarity], result of:
            0.043146625 = score(doc=2051,freq=2.0), product of:
              0.12197845 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045719936 = queryNorm
              0.35372335 = fieldWeight in 2051, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.09375 = fieldNorm(doc=2051)
          0.07433304 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
            0.07433304 = score(doc=2051,freq=2.0), product of:
              0.16010343 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045719936 = queryNorm
              0.46428138 = fieldWeight in 2051, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.09375 = fieldNorm(doc=2051)
      0.6666667 = coord(2/3)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Frage der Konzeption von Rankingalgorithmen auf Grundlage gewichteter Indexierung mittels statistischer Verfahren.
    Date
    14. 6.2015 22:12:56
    Pages
    S.144-162
  2. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.07
    0.06943583 = product of:
      0.10415374 = sum of:
        0.0047769374 = weight(_text_:s in 1484) [ClassicSimilarity], result of:
          0.0047769374 = score(doc=1484,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.09609913 = fieldWeight in 1484, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
        0.0993768 = sum of:
          0.049821436 = weight(_text_:von in 1484) [ClassicSimilarity], result of:
            0.049821436 = score(doc=1484,freq=6.0), product of:
              0.12197845 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045719936 = queryNorm
              0.40844458 = fieldWeight in 1484, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0625 = fieldNorm(doc=1484)
          0.04955536 = weight(_text_:22 in 1484) [ClassicSimilarity], result of:
            0.04955536 = score(doc=1484,freq=2.0), product of:
              0.16010343 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045719936 = queryNorm
              0.30952093 = fieldWeight in 1484, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1484)
      0.6666667 = coord(2/3)
    
    Abstract
    Dieses Whitepaper beschäftigt sich mit der Definition und Bewertung von Faktoren, die eine hohe Rangkorrelation-Koeffizienz mit organischen Suchergebnissen aufweisen und dient dem Zweck der tieferen Analyse von Suchmaschinen-Algorithmen. Die Datenerhebung samt Auswertung bezieht sich auf Ranking-Faktoren für Google-Deutschland im Jahr 2014. Zusätzlich wurden die Korrelationen und Faktoren unter anderem anhand von Durchschnitts- und Medianwerten sowie Entwicklungstendenzen zu den Vorjahren hinsichtlich ihrer Relevanz für vordere Suchergebnis-Positionen interpretiert.
    Date
    13. 9.2014 14:45:22
    Pages
    91 S
  3. Kanaeva, Z.: Ranking: Google und CiteSeer (2005) 0.07
    0.069213375 = product of:
      0.103820056 = sum of:
        0.00417982 = weight(_text_:s in 3276) [ClassicSimilarity], result of:
          0.00417982 = score(doc=3276,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.08408674 = fieldWeight in 3276, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3276)
        0.099640235 = sum of:
          0.056279294 = weight(_text_:von in 3276) [ClassicSimilarity], result of:
            0.056279294 = score(doc=3276,freq=10.0), product of:
              0.12197845 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045719936 = queryNorm
              0.4613872 = fieldWeight in 3276, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3276)
          0.04336094 = weight(_text_:22 in 3276) [ClassicSimilarity], result of:
            0.04336094 = score(doc=3276,freq=2.0), product of:
              0.16010343 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045719936 = queryNorm
              0.2708308 = fieldWeight in 3276, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3276)
      0.6666667 = coord(2/3)
    
    Abstract
    Im Rahmen des klassischen Information Retrieval wurden verschiedene Verfahren für das Ranking sowie die Suche in einer homogenen strukturlosen Dokumentenmenge entwickelt. Die Erfolge der Suchmaschine Google haben gezeigt dass die Suche in einer zwar inhomogenen aber zusammenhängenden Dokumentenmenge wie dem Internet unter Berücksichtigung der Dokumentenverbindungen (Links) sehr effektiv sein kann. Unter den von der Suchmaschine Google realisierten Konzepten ist ein Verfahren zum Ranking von Suchergebnissen (PageRank), das in diesem Artikel kurz erklärt wird. Darüber hinaus wird auf die Konzepte eines Systems namens CiteSeer eingegangen, welches automatisch bibliographische Angaben indexiert (engl. Autonomous Citation Indexing, ACI). Letzteres erzeugt aus einer Menge von nicht vernetzten wissenschaftlichen Dokumenten eine zusammenhängende Dokumentenmenge und ermöglicht den Einsatz von Banking-Verfahren, die auf den von Google genutzten Verfahren basieren.
    Date
    20. 3.2005 16:23:22
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.2, S.87-92
  4. Voorhees, E.M.: Implementing agglomerative hierarchic clustering algorithms for use in document retrieval (1986) 0.04
    0.039406158 = product of:
      0.059109237 = sum of:
        0.009553875 = weight(_text_:s in 402) [ClassicSimilarity], result of:
          0.009553875 = score(doc=402,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.19219826 = fieldWeight in 402, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.125 = fieldNorm(doc=402)
        0.04955536 = product of:
          0.09911072 = sum of:
            0.09911072 = weight(_text_:22 in 402) [ClassicSimilarity], result of:
              0.09911072 = score(doc=402,freq=2.0), product of:
                0.16010343 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045719936 = queryNorm
                0.61904186 = fieldWeight in 402, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=402)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Source
    Information processing and management. 22(1986) no.6, S.465-476
  5. Smeaton, A.F.; Rijsbergen, C.J. van: ¬The retrieval effects of query expansion on a feedback document retrieval system (1983) 0.03
    0.03448039 = product of:
      0.051720582 = sum of:
        0.00835964 = weight(_text_:s in 2134) [ClassicSimilarity], result of:
          0.00835964 = score(doc=2134,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.16817348 = fieldWeight in 2134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.109375 = fieldNorm(doc=2134)
        0.04336094 = product of:
          0.08672188 = sum of:
            0.08672188 = weight(_text_:22 in 2134) [ClassicSimilarity], result of:
              0.08672188 = score(doc=2134,freq=2.0), product of:
                0.16010343 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045719936 = queryNorm
                0.5416616 = fieldWeight in 2134, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2134)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    30. 3.2001 13:32:22
    Source
    Computer journal. 26(1983), S.239-246
  6. Back, J.: ¬An evaluation of relevancy ranking techniques used by Internet search engines (2000) 0.03
    0.03448039 = product of:
      0.051720582 = sum of:
        0.00835964 = weight(_text_:s in 3445) [ClassicSimilarity], result of:
          0.00835964 = score(doc=3445,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.16817348 = fieldWeight in 3445, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.109375 = fieldNorm(doc=3445)
        0.04336094 = product of:
          0.08672188 = sum of:
            0.08672188 = weight(_text_:22 in 3445) [ClassicSimilarity], result of:
              0.08672188 = score(doc=3445,freq=2.0), product of:
                0.16010343 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045719936 = queryNorm
                0.5416616 = fieldWeight in 3445, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3445)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    25. 8.2005 17:42:22
    Source
    Library and information research news. 24(2000) no.77, S.30-34
  7. Fuhr, N.: Ranking-Experimente mit gewichteter Indexierung (1986) 0.03
    0.029554619 = product of:
      0.044331927 = sum of:
        0.007165406 = weight(_text_:s in 58) [ClassicSimilarity], result of:
          0.007165406 = score(doc=58,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.14414869 = fieldWeight in 58, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.09375 = fieldNorm(doc=58)
        0.03716652 = product of:
          0.07433304 = sum of:
            0.07433304 = weight(_text_:22 in 58) [ClassicSimilarity], result of:
              0.07433304 = score(doc=58,freq=2.0), product of:
                0.16010343 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045719936 = queryNorm
                0.46428138 = fieldWeight in 58, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=58)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    14. 6.2015 22:12:44
    Pages
    S.222-238
  8. Mandl, T.: Web- und Multimedia-Dokumente : Neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen (2003) 0.02
    0.024624355 = product of:
      0.036936533 = sum of:
        0.0047769374 = weight(_text_:s in 1734) [ClassicSimilarity], result of:
          0.0047769374 = score(doc=1734,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.09609913 = fieldWeight in 1734, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0625 = fieldNorm(doc=1734)
        0.032159597 = product of:
          0.06431919 = sum of:
            0.06431919 = weight(_text_:von in 1734) [ClassicSimilarity], result of:
              0.06431919 = score(doc=1734,freq=10.0), product of:
                0.12197845 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045719936 = queryNorm
                0.52729964 = fieldWeight in 1734, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1734)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Die Menge an Daten im Internet steigt weiter rapide an. Damit wächst auch der Bedarf an qualitativ hochwertigen Information Retrieval Diensten zur Orientierung und problemorientierten Suche. Die Entscheidung für die Benutzung oder Beschaffung von Information Retrieval Software erfordert aussagekräftige Evaluierungsergebnisse. Dieser Beitrag stellt neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen vor und zeigt den Trend zu Spezialisierung und Diversifizierung von Evaluierungsstudien, die den Realitätsgrad derErgebnisse erhöhen. DerSchwerpunkt liegt auf dem Retrieval von Fachtexten, Internet-Seiten und Multimedia-Objekten.
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.4, S.203-210
  9. Fuhr, N.: Modelle im Information Retrieval (2013) 0.02
    0.020930378 = product of:
      0.031395566 = sum of:
        0.0059711714 = weight(_text_:s in 724) [ClassicSimilarity], result of:
          0.0059711714 = score(doc=724,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.120123915 = fieldWeight in 724, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.078125 = fieldNorm(doc=724)
        0.025424395 = product of:
          0.05084879 = sum of:
            0.05084879 = weight(_text_:von in 724) [ClassicSimilarity], result of:
              0.05084879 = score(doc=724,freq=4.0), product of:
                0.12197845 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045719936 = queryNorm
                0.416867 = fieldWeight in 724, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.078125 = fieldNorm(doc=724)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Pages
    S.322-335
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
  10. Stock, M.; Stock, W.G.: Internet-Suchwerkzeuge im Vergleich (IV) : Relevance Ranking nach "Popularität" von Webseiten: Google (2001) 0.02
    0.020003006 = product of:
      0.030004507 = sum of:
        0.003582703 = weight(_text_:s in 5771) [ClassicSimilarity], result of:
          0.003582703 = score(doc=5771,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.072074346 = fieldWeight in 5771, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.046875 = fieldNorm(doc=5771)
        0.026421804 = product of:
          0.052843608 = sum of:
            0.052843608 = weight(_text_:von in 5771) [ClassicSimilarity], result of:
              0.052843608 = score(doc=5771,freq=12.0), product of:
                0.12197845 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045719936 = queryNorm
                0.43322086 = fieldWeight in 5771, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5771)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    In unserem Retrievaltest von Suchwerkzeugen im World Wide Web (Password 11/2000) schnitt die Suchmaschine Google am besten ab. Im Vergleich zu anderen Search Engines setzt Google kaum auf Informationslinguistik, sondern auf Algorithmen, die sich aus den Besonderheiten der Web-Dokumente ableiten lassen. Kernstück der informationsstatistischen Technik ist das "PageRank"- Verfahren (benannt nach dem Entwickler Larry Page), das aus der Hypertextstruktur des Web die "Popularität" von Seiten anhand ihrer ein- und ausgehenden Links berechnet. Google besticht durch das Angebot intuitiv verstehbarer Suchbildschirme sowie durch einige sehr nützliche "Kleinigkeiten" wie die Angabe des Rangs einer Seite, Highlighting, Suchen in der Seite, Suchen innerhalb eines Suchergebnisses usw., alles verstaut in einer eigenen Befehlsleiste innerhalb des Browsers. Ähnlich wie RealNames bietet Google mit dem Produkt "AdWords" den Aufkauf von Suchtermen an. Nach einer Reihe von nunmehr vier Password-Artikeln über InternetSuchwerkzeugen im Vergleich wollen wir abschließend zu einer Bewertung kommen. Wie ist der Stand der Technik bei Directories und Search Engines aus informationswissenschaftlicher Sicht einzuschätzen? Werden die "typischen" Internetnutzer, die ja in der Regel keine Information Professionals sind, adäquat bedient? Und können auch Informationsfachleute von den Suchwerkzeugen profitieren?
    Source
    Password. 2001, H.2, S.20-27
  11. Weiß, B.: Verwandte Seiten finden : "Ähnliche Seiten" oder "What's Related" (2005) 0.02
    0.01996815 = product of:
      0.029952224 = sum of:
        0.0029855857 = weight(_text_:s in 868) [ClassicSimilarity], result of:
          0.0029855857 = score(doc=868,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.060061958 = fieldWeight in 868, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0390625 = fieldNorm(doc=868)
        0.026966639 = product of:
          0.053933278 = sum of:
            0.053933278 = weight(_text_:von in 868) [ClassicSimilarity], result of:
              0.053933278 = score(doc=868,freq=18.0), product of:
                0.12197845 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045719936 = queryNorm
                0.44215417 = fieldWeight in 868, product of:
                  4.2426405 = tf(freq=18.0), with freq of:
                    18.0 = termFreq=18.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=868)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Die Link-Struktur-Analyse (LSA) ist nicht nur beim Crawling, dem Webseitenranking, der Abgrenzung geographischer Bereiche, der Vorhersage von Linkverwendungen, dem Auffinden von "Mirror"-Seiten, dem Kategorisieren von Webseiten und beim Generieren von Webseitenstatistiken eines der wichtigsten Analyseverfahren, sondern auch bei der Suche nach verwandten Seiten. Um qualitativ hochwertige verwandte Seiten zu finden, bildet sie nach herrschender Meinung den Hauptbestandteil bei der Identifizierung von ähnlichen Seiten innerhalb themenspezifischer Graphen vernetzter Dokumente. Dabei wird stets von zwei Annahmen ausgegangen: Links zwischen zwei Dokumenten implizieren einen verwandten Inhalt beider Dokumente und wenn die Dokumente aus unterschiedlichen Quellen (von unterschiedlichen Autoren, Hosts, Domänen, .) stammen, so bedeutet dies das eine Quelle die andere über einen Link empfiehlt. Aufbauend auf dieser Idee entwickelte Kleinberg 1998 den HITS Algorithmus um verwandte Seiten über die Link-Struktur-Analyse zu bestimmen. Dieser Ansatz wurde von Bharat und Henzinger weiterentwickelt und später auch in Algorithmen wie dem Companion und Cocitation Algorithmus zur Suche von verwandten Seiten basierend auf nur einer Anfrage-URL weiter verfolgt. In der vorliegenden Seminararbeit sollen dabei die Algorithmen, die hinter diesen Überlegungen stehen, näher erläutert werden und im Anschluss jeweils neuere Forschungsansätze auf diesem Themengebiet aufgezeigt werden.
    Pages
    20 S
  12. Behnert, C.; Borst, T.: Neue Formen der Relevanz-Sortierung in bibliothekarischen Informationssystemen : das DFG-Projekt LibRank (2015) 0.02
    0.01979177 = product of:
      0.029687656 = sum of:
        0.0047769374 = weight(_text_:s in 5392) [ClassicSimilarity], result of:
          0.0047769374 = score(doc=5392,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.09609913 = fieldWeight in 5392, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0625 = fieldNorm(doc=5392)
        0.024910718 = product of:
          0.049821436 = sum of:
            0.049821436 = weight(_text_:von in 5392) [ClassicSimilarity], result of:
              0.049821436 = score(doc=5392,freq=6.0), product of:
                0.12197845 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045719936 = queryNorm
                0.40844458 = fieldWeight in 5392, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5392)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Das von der DFG geförderte Projekt LibRank erforscht neue Rankingverfahren für bibliothekarische Informationssysteme, die aufbauend auf Erkenntnissen aus dem Bereich Websuche qualitätsinduzierende Faktoren wie z. B. Aktualität, Popularität und Verfügbarkeit von einzelnen Medien berücksichtigen. Die konzipierten Verfahren werden im Kontext eines in den Wirtschaftswissenschaften häufig genutzten Rechercheportals (EconBiz) entwickelt und in einem Testsystem systematisch evaluiert. Es werden Rankingfaktoren, die für den Bibliotheksbereich von besonderem Interesse sind, vorgestellt und exemplarisch Probleme und Herausforderungen aufgezeigt.
    Source
    Bibliothek: Forschung und Praxis. 39(2015) H.3, S.384-393
  13. MacFarlane, A.; Robertson, S.E.; McCann, J.A.: Parallel computing for passage retrieval (2004) 0.02
    0.019703079 = product of:
      0.029554619 = sum of:
        0.0047769374 = weight(_text_:s in 5108) [ClassicSimilarity], result of:
          0.0047769374 = score(doc=5108,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.09609913 = fieldWeight in 5108, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0625 = fieldNorm(doc=5108)
        0.02477768 = product of:
          0.04955536 = sum of:
            0.04955536 = weight(_text_:22 in 5108) [ClassicSimilarity], result of:
              0.04955536 = score(doc=5108,freq=2.0), product of:
                0.16010343 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045719936 = queryNorm
                0.30952093 = fieldWeight in 5108, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5108)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    20. 1.2007 18:30:22
    Source
    Aslib proceedings. 56(2004) no.4, S.201-211
  14. Faloutsos, C.: Signature files (1992) 0.02
    0.019703079 = product of:
      0.029554619 = sum of:
        0.0047769374 = weight(_text_:s in 3499) [ClassicSimilarity], result of:
          0.0047769374 = score(doc=3499,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.09609913 = fieldWeight in 3499, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0625 = fieldNorm(doc=3499)
        0.02477768 = product of:
          0.04955536 = sum of:
            0.04955536 = weight(_text_:22 in 3499) [ClassicSimilarity], result of:
              0.04955536 = score(doc=3499,freq=2.0), product of:
                0.16010343 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045719936 = queryNorm
                0.30952093 = fieldWeight in 3499, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3499)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    7. 5.1999 15:22:48
    Pages
    S.44-65
  15. Losada, D.E.; Barreiro, A.: Emebedding term similarity and inverse document frequency into a logical model of information retrieval (2003) 0.02
    0.019703079 = product of:
      0.029554619 = sum of:
        0.0047769374 = weight(_text_:s in 1422) [ClassicSimilarity], result of:
          0.0047769374 = score(doc=1422,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.09609913 = fieldWeight in 1422, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0625 = fieldNorm(doc=1422)
        0.02477768 = product of:
          0.04955536 = sum of:
            0.04955536 = weight(_text_:22 in 1422) [ClassicSimilarity], result of:
              0.04955536 = score(doc=1422,freq=2.0), product of:
                0.16010343 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045719936 = queryNorm
                0.30952093 = fieldWeight in 1422, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1422)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    22. 3.2003 19:27:23
    Source
    Journal of the American Society for Information Science and technology. 54(2003) no.4, S.285-301
  16. Bornmann, L.; Mutz, R.: From P100 to P100' : a new citation-rank approach (2014) 0.02
    0.019703079 = product of:
      0.029554619 = sum of:
        0.0047769374 = weight(_text_:s in 1431) [ClassicSimilarity], result of:
          0.0047769374 = score(doc=1431,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.09609913 = fieldWeight in 1431, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0625 = fieldNorm(doc=1431)
        0.02477768 = product of:
          0.04955536 = sum of:
            0.04955536 = weight(_text_:22 in 1431) [ClassicSimilarity], result of:
              0.04955536 = score(doc=1431,freq=2.0), product of:
                0.16010343 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045719936 = queryNorm
                0.30952093 = fieldWeight in 1431, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1431)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    22. 8.2014 17:05:18
    Source
    Journal of the Association for Information Science and Technology. 65(2014) no.9, S.1939-1943
  17. Behnert, C.; Plassmeier, K.; Borst, T.; Lewandowski, D.: Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme (2019) 0.02
    0.01956579 = product of:
      0.029348686 = sum of:
        0.00417982 = weight(_text_:s in 5023) [ClassicSimilarity], result of:
          0.00417982 = score(doc=5023,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.08408674 = fieldWeight in 5023, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5023)
        0.025168866 = product of:
          0.05033773 = sum of:
            0.05033773 = weight(_text_:von in 5023) [ClassicSimilarity], result of:
              0.05033773 = score(doc=5023,freq=8.0), product of:
                0.12197845 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045719936 = queryNorm
                0.41267726 = fieldWeight in 5023, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5023)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Dieser Beitrag beschreibt eine Studie zur Entwicklung und Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme. Dazu wurden mögliche Faktoren für das Relevanzranking ausgehend von den Verfahren in Websuchmaschinen identifiziert, auf den Bibliothekskontext übertragen und systematisch evaluiert. Mithilfe eines Testsystems, das auf dem ZBW-Informationsportal EconBiz und einer web-basierten Software zur Evaluierung von Suchsystemen aufsetzt, wurden verschiedene Relevanzfaktoren (z. B. Popularität in Verbindung mit Aktualität) getestet. Obwohl die getesteten Rankingverfahren auf einer theoretischen Ebene divers sind, konnten keine einheitlichen Verbesserungen gegenüber den Baseline-Rankings gemessen werden. Die Ergebnisse deuten darauf hin, dass eine Adaptierung des Rankings auf individuelle Nutzer bzw. Nutzungskontexte notwendig sein könnte, um eine höhere Performance zu erzielen.
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.14-23
  18. Fuhr, N.: Theorie des Information Retrieval I : Modelle (2004) 0.02
    0.017845288 = product of:
      0.02676793 = sum of:
        0.0029855857 = weight(_text_:s in 2912) [ClassicSimilarity], result of:
          0.0029855857 = score(doc=2912,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.060061958 = fieldWeight in 2912, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2912)
        0.023782345 = product of:
          0.04756469 = sum of:
            0.04756469 = weight(_text_:von in 2912) [ClassicSimilarity], result of:
              0.04756469 = score(doc=2912,freq=14.0), product of:
                0.12197845 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045719936 = queryNorm
                0.3899434 = fieldWeight in 2912, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2912)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Information-Retrieval-(IR-)Modelle spezifizieren, wie zur einer gegebenen Anfrage die Antwortdokumente aus einer Dokumentenkollektion bestimmt werden. Dabei macht jedes Modell bestimmte Annahmen über die Struktur von Dokumenten und Anfragen und definiert dann die so genannte Retrievalfunktion, die das Retrievalgewicht eines Dokumentes bezüglich einer Anfrage bestimmt - im Falle des Booleschen Retrieval etwa eines der Gewichte 0 oder 1. Die Dokumente werden dann nach fallenden Gewichten sortiert und dem Benutzer präsentiert. Zunächst sollen hier einige grundlegende Charakteristika von Retrievalmodellen beschrieben werden, bevor auf die einzelnen Modelle näher eingegangen wird. Wie eingangs erwähnt, macht jedes Modell Annahmen über die Struktur von Dokumenten und Fragen. Ein Dokument kann entweder als Menge oder Multimenge von so genannten Termen aufgefasst werden, wobei im zweiten Fall das Mehrfachvorkommen berücksichtigt wird. Dabei subsummiert 'Term' einen Suchbegriff, der ein einzelnes Wort, ein mehrgliedriger Begriff oder auch ein komplexes Freitextmuster sein kann. Diese Dokumentrepräsentation wird wiederum auf eine so genannte Dokumentbeschreibung abgebildet, in der die einzelnen Terme gewichtet sein können; dies ist Aufgabe der in Kapitel B 5 beschriebenen Indexierungsmodelle. Im Folgenden unterscheiden wir nur zwischen ungewichteter (Gewicht eines Terms ist entweder 0 oderl) und gewichteter Indexierung (das Gewicht ist eine nichtnegative reelle Zahl). Ebenso wie bei Dokumenten können auch die Terme in der Frage entweder ungewichtet oder gewichtet sein. Daneben unterscheidet man zwischen linearen (Frage als Menge von Termen, ungewichtet oder gewichtet) und Booleschen Anfragen.
    Pages
    S.207-214
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  19. Chang, C.-H.; Hsu, C.-C.: Integrating query expansion and conceptual relevance feedback for personalized Web information retrieval (1998) 0.02
    0.017240195 = product of:
      0.025860291 = sum of:
        0.00417982 = weight(_text_:s in 1319) [ClassicSimilarity], result of:
          0.00417982 = score(doc=1319,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.08408674 = fieldWeight in 1319, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1319)
        0.02168047 = product of:
          0.04336094 = sum of:
            0.04336094 = weight(_text_:22 in 1319) [ClassicSimilarity], result of:
              0.04336094 = score(doc=1319,freq=2.0), product of:
                0.16010343 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045719936 = queryNorm
                0.2708308 = fieldWeight in 1319, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1319)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    1. 8.1996 22:08:06
    Source
    Computer networks and ISDN systems. 30(1998) nos.1/7, S.621-623
  20. Mutschke, P.: Autorennetzwerke : Verfahren zur Netzwerkanalyse als Mehrwertdienste für Informationssysteme (2004) 0.02
    0.016770678 = product of:
      0.025156016 = sum of:
        0.003582703 = weight(_text_:s in 4050) [ClassicSimilarity], result of:
          0.003582703 = score(doc=4050,freq=2.0), product of:
            0.049708433 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.045719936 = queryNorm
            0.072074346 = fieldWeight in 4050, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.046875 = fieldNorm(doc=4050)
        0.021573313 = product of:
          0.043146625 = sum of:
            0.043146625 = weight(_text_:von in 4050) [ClassicSimilarity], result of:
              0.043146625 = score(doc=4050,freq=8.0), product of:
                0.12197845 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045719936 = queryNorm
                0.35372335 = fieldWeight in 4050, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4050)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Virtuelle Bibliotheken enthalten eine Fülle an Informationen, die in ihrer Vielfalt und Tiefe von Standardsuchmaschinen nicht erschöpfend erfasst wird. Der Arbeitsbericht informiert über Entwicklungen am IZ, die darauf abzielen, Wissen über das Interaktionsgeschehen in wissenschaftlichen Communities und den sozialen Status ihrer Akteure für das Retrieval auszunutzen. Grundlage hierfür sind soziale Netzwerke, die sich durch Kooperation der wissenschaftlichen Akteure konstituieren und in den Dokumenten der Datenbasis z.B. als Koautorbeziehungen repräsentiert sind (Autorennetzwerke). Die in dem Bericht beschriebenen Studien zur Small-World-Topologie von Autorennetzwerken zeigen, dass diese Netzwerke ein erhebliches Potential für Informationssysteme haben. Der Bericht diskutiert Szenarios, die beschreiben, wie Autorennetzwerke und hier insbesondere das Konzept der Akteurszentralität für die Informationssuche in Datenbanken sinnvoll genutzt werden können. Kernansatz dieser Retrievalmodelle ist die Suche nach Experten und das Ranking von Dokumenten auf der Basis der Zentralität von Autoren in Autorennetzwerken.
    Pages
    49 S

Languages

Types

  • a 333
  • m 12
  • x 7
  • s 5
  • r 4
  • p 2
  • el 1
  • More… Less…