Search (111 results, page 1 of 6)

  • × theme_ss:"Retrievalalgorithmen"
  • × type_ss:"a"
  1. Chakrabarti, S.; Dom, B.; Kumar, S.R.; Raghavan, P.; Rajagopalan, S.; Tomkins, A.; Kleinberg, J.M.; Gibson, D.: Neue Pfade durch den Internet-Dschungel : Die zweite Generation von Web-Suchmaschinen (1999) 0.01
    0.008876784 = product of:
      0.047342844 = sum of:
        0.020738203 = weight(_text_:internet in 3) [ClassicSimilarity], result of:
          0.020738203 = score(doc=3,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.2609436 = fieldWeight in 3, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
        0.016790302 = weight(_text_:der in 3) [ClassicSimilarity], result of:
          0.016790302 = score(doc=3,freq=4.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.27922085 = fieldWeight in 3, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
        0.009814339 = product of:
          0.029443016 = sum of:
            0.029443016 = weight(_text_:29 in 3) [ClassicSimilarity], result of:
              0.029443016 = score(doc=3,freq=2.0), product of:
                0.09469566 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026919862 = queryNorm
                0.31092256 = fieldWeight in 3, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3)
          0.33333334 = coord(1/3)
      0.1875 = coord(3/16)
    
    Content
    Ausnutzen der Hyperlinks für verbesserte Such- und Findeverfahren; Darstellung des HITS-Algorithmus
    Date
    31.12.1996 19:29:41
    Source
    Spektrum der Wissenschaft. 1999, H.8, S.44-49
  2. Kanaeva, Z.: Ranking: Google und CiteSeer (2005) 0.01
    0.008371796 = product of:
      0.04464958 = sum of:
        0.018145926 = weight(_text_:internet in 3276) [ClassicSimilarity], result of:
          0.018145926 = score(doc=3276,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.22832564 = fieldWeight in 3276, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3276)
        0.017993357 = weight(_text_:der in 3276) [ClassicSimilarity], result of:
          0.017993357 = score(doc=3276,freq=6.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.29922754 = fieldWeight in 3276, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3276)
        0.008510296 = product of:
          0.025530888 = sum of:
            0.025530888 = weight(_text_:22 in 3276) [ClassicSimilarity], result of:
              0.025530888 = score(doc=3276,freq=2.0), product of:
                0.09426877 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026919862 = queryNorm
                0.2708308 = fieldWeight in 3276, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3276)
          0.33333334 = coord(1/3)
      0.1875 = coord(3/16)
    
    Abstract
    Im Rahmen des klassischen Information Retrieval wurden verschiedene Verfahren für das Ranking sowie die Suche in einer homogenen strukturlosen Dokumentenmenge entwickelt. Die Erfolge der Suchmaschine Google haben gezeigt dass die Suche in einer zwar inhomogenen aber zusammenhängenden Dokumentenmenge wie dem Internet unter Berücksichtigung der Dokumentenverbindungen (Links) sehr effektiv sein kann. Unter den von der Suchmaschine Google realisierten Konzepten ist ein Verfahren zum Ranking von Suchergebnissen (PageRank), das in diesem Artikel kurz erklärt wird. Darüber hinaus wird auf die Konzepte eines Systems namens CiteSeer eingegangen, welches automatisch bibliographische Angaben indexiert (engl. Autonomous Citation Indexing, ACI). Letzteres erzeugt aus einer Menge von nicht vernetzten wissenschaftlichen Dokumenten eine zusammenhängende Dokumentenmenge und ermöglicht den Einsatz von Banking-Verfahren, die auf den von Google genutzten Verfahren basieren.
    Date
    20. 3.2005 16:23:22
  3. Notess, G.R.: Search engine relevance : the never-ending quest (2000) 0.01
    0.007133599 = product of:
      0.05706879 = sum of:
        0.036291853 = weight(_text_:internet in 4797) [ClassicSimilarity], result of:
          0.036291853 = score(doc=4797,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.45665127 = fieldWeight in 4797, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.109375 = fieldNorm(doc=4797)
        0.020776939 = weight(_text_:der in 4797) [ClassicSimilarity], result of:
          0.020776939 = score(doc=4797,freq=2.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.34551817 = fieldWeight in 4797, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=4797)
      0.125 = coord(2/16)
    
    Abstract
    Bericht über verschiedene Relevanzverfahren der Suchdienste des Internet
  4. Back, J.: ¬An evaluation of relevancy ranking techniques used by Internet search engines (2000) 0.01
    0.0066640554 = product of:
      0.053312443 = sum of:
        0.036291853 = weight(_text_:internet in 3445) [ClassicSimilarity], result of:
          0.036291853 = score(doc=3445,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.45665127 = fieldWeight in 3445, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.109375 = fieldNorm(doc=3445)
        0.017020592 = product of:
          0.051061776 = sum of:
            0.051061776 = weight(_text_:22 in 3445) [ClassicSimilarity], result of:
              0.051061776 = score(doc=3445,freq=2.0), product of:
                0.09426877 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026919862 = queryNorm
                0.5416616 = fieldWeight in 3445, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3445)
          0.33333334 = coord(1/3)
      0.125 = coord(2/16)
    
    Date
    25. 8.2005 17:42:22
  5. Mandl, T.: Web- und Multimedia-Dokumente : Neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen (2003) 0.01
    0.0062365104 = product of:
      0.049892083 = sum of:
        0.029328248 = weight(_text_:internet in 1734) [ClassicSimilarity], result of:
          0.029328248 = score(doc=1734,freq=4.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.36902997 = fieldWeight in 1734, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=1734)
        0.020563837 = weight(_text_:der in 1734) [ClassicSimilarity], result of:
          0.020563837 = score(doc=1734,freq=6.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.34197432 = fieldWeight in 1734, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1734)
      0.125 = coord(2/16)
    
    Abstract
    Die Menge an Daten im Internet steigt weiter rapide an. Damit wächst auch der Bedarf an qualitativ hochwertigen Information Retrieval Diensten zur Orientierung und problemorientierten Suche. Die Entscheidung für die Benutzung oder Beschaffung von Information Retrieval Software erfordert aussagekräftige Evaluierungsergebnisse. Dieser Beitrag stellt neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen vor und zeigt den Trend zu Spezialisierung und Diversifizierung von Evaluierungsstudien, die den Realitätsgrad derErgebnisse erhöhen. DerSchwerpunkt liegt auf dem Retrieval von Fachtexten, Internet-Seiten und Multimedia-Objekten.
  6. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.00
    0.004971816 = product of:
      0.03977453 = sum of:
        0.025185453 = weight(_text_:der in 2051) [ClassicSimilarity], result of:
          0.025185453 = score(doc=2051,freq=4.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.4188313 = fieldWeight in 2051, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.014589078 = product of:
          0.043767232 = sum of:
            0.043767232 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.043767232 = score(doc=2051,freq=2.0), product of:
                0.09426877 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026919862 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.33333334 = coord(1/3)
      0.125 = coord(2/16)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Frage der Konzeption von Rankingalgorithmen auf Grundlage gewichteter Indexierung mittels statistischer Verfahren.
    Date
    14. 6.2015 22:12:56
  7. Stock, M.; Stock, W.G.: Internet-Suchwerkzeuge im Vergleich (IV) : Relevance Ranking nach "Popularität" von Webseiten: Google (2001) 0.00
    0.0048890607 = product of:
      0.039112486 = sum of:
        0.015553651 = weight(_text_:internet in 5771) [ClassicSimilarity], result of:
          0.015553651 = score(doc=5771,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.1957077 = fieldWeight in 5771, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=5771)
        0.023558835 = weight(_text_:der in 5771) [ClassicSimilarity], result of:
          0.023558835 = score(doc=5771,freq=14.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.3917808 = fieldWeight in 5771, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5771)
      0.125 = coord(2/16)
    
    Abstract
    In unserem Retrievaltest von Suchwerkzeugen im World Wide Web (Password 11/2000) schnitt die Suchmaschine Google am besten ab. Im Vergleich zu anderen Search Engines setzt Google kaum auf Informationslinguistik, sondern auf Algorithmen, die sich aus den Besonderheiten der Web-Dokumente ableiten lassen. Kernstück der informationsstatistischen Technik ist das "PageRank"- Verfahren (benannt nach dem Entwickler Larry Page), das aus der Hypertextstruktur des Web die "Popularität" von Seiten anhand ihrer ein- und ausgehenden Links berechnet. Google besticht durch das Angebot intuitiv verstehbarer Suchbildschirme sowie durch einige sehr nützliche "Kleinigkeiten" wie die Angabe des Rangs einer Seite, Highlighting, Suchen in der Seite, Suchen innerhalb eines Suchergebnisses usw., alles verstaut in einer eigenen Befehlsleiste innerhalb des Browsers. Ähnlich wie RealNames bietet Google mit dem Produkt "AdWords" den Aufkauf von Suchtermen an. Nach einer Reihe von nunmehr vier Password-Artikeln über InternetSuchwerkzeugen im Vergleich wollen wir abschließend zu einer Bewertung kommen. Wie ist der Stand der Technik bei Directories und Search Engines aus informationswissenschaftlicher Sicht einzuschätzen? Werden die "typischen" Internetnutzer, die ja in der Regel keine Information Professionals sind, adäquat bedient? Und können auch Informationsfachleute von den Suchwerkzeugen profitieren?
  8. Koopman, R.: ¬Ein OPAC mit Gewichtungsalgorithmen : Der PICA Micro OPC (1996) 0.00
    0.004792343 = product of:
      0.038338743 = sum of:
        0.012633946 = product of:
          0.037901837 = sum of:
            0.037901837 = weight(_text_:k in 4114) [ClassicSimilarity], result of:
              0.037901837 = score(doc=4114,freq=2.0), product of:
                0.09609793 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.026919862 = queryNorm
                0.39440846 = fieldWeight in 4114, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4114)
          0.33333334 = coord(1/3)
        0.025704795 = weight(_text_:der in 4114) [ClassicSimilarity], result of:
          0.025704795 = score(doc=4114,freq=6.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.42746788 = fieldWeight in 4114, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=4114)
      0.125 = coord(2/16)
    
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; Bd.25
    Source
    Zukunft der Sacherschließung im OPAC: Vorträge des 2. Düsseldorfer OPAC-Kolloquiums am 21. Juni 1995. Hrsg.: E. Niggemann u. K. Lepsky
  9. Maylein, L.; Langenstein, A.: Neues vom Relevanz-Ranking im HEIDI-Katalog der Universitätsbibliothek Heidelberg : Perspektiven für bibliothekarische Dienstleistungen (2013) 0.00
    0.0045452667 = product of:
      0.036362134 = sum of:
        0.026547797 = weight(_text_:der in 775) [ClassicSimilarity], result of:
          0.026547797 = score(doc=775,freq=10.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.44148692 = fieldWeight in 775, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=775)
        0.009814339 = product of:
          0.029443016 = sum of:
            0.029443016 = weight(_text_:29 in 775) [ClassicSimilarity], result of:
              0.029443016 = score(doc=775,freq=2.0), product of:
                0.09469566 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026919862 = queryNorm
                0.31092256 = fieldWeight in 775, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=775)
          0.33333334 = coord(1/3)
      0.125 = coord(2/16)
    
    Abstract
    Das Relevanz-Ranking im Katalog der Universitätsbibliothek Heidelberg HEIDI, bereits 2009 in einem Beitrag in dieser Zeitschrift beschrieben, wurde in den letzten Jahren durch neue Entwicklungen und Methoden stark verbessert. Der Aufsatz beschreibt die Realisierung der bisherigen Rankingmaßnahmen unter der neu eingesetzten Suchmaschinenplattform SOLR. Weiter werden verschiedene neue Möglichkeiten für Rankinganpassungen unter SOLR sowie deren Einsatz im HEIDI-Katalog dargestellt.
    Date
    29. 6.2013 18:06:23
  10. Okada, M.; Ando, K.; Lee, S.S.; Hayashi, Y.; Aoe, J.I.: ¬An efficient substring search method by using delayed keyword extraction (2001) 0.00
    0.0037352806 = product of:
      0.029882245 = sum of:
        0.015160736 = product of:
          0.045482207 = sum of:
            0.045482207 = weight(_text_:k in 6415) [ClassicSimilarity], result of:
              0.045482207 = score(doc=6415,freq=2.0), product of:
                0.09609793 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.026919862 = queryNorm
                0.47329018 = fieldWeight in 6415, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6415)
          0.33333334 = coord(1/3)
        0.014721508 = product of:
          0.044164523 = sum of:
            0.044164523 = weight(_text_:29 in 6415) [ClassicSimilarity], result of:
              0.044164523 = score(doc=6415,freq=2.0), product of:
                0.09469566 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026919862 = queryNorm
                0.46638384 = fieldWeight in 6415, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6415)
          0.33333334 = coord(1/3)
      0.125 = coord(2/16)
    
    Date
    29. 3.2002 17:24:03
  11. Weller, K.; Stock, W.G.: Transitive meronymy : automatic concept-based query expansion using weighted transitive part-whole relations (2008) 0.00
    0.0037025877 = product of:
      0.029620701 = sum of:
        0.008843763 = product of:
          0.026531288 = sum of:
            0.026531288 = weight(_text_:k in 1835) [ClassicSimilarity], result of:
              0.026531288 = score(doc=1835,freq=2.0), product of:
                0.09609793 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.026919862 = queryNorm
                0.27608594 = fieldWeight in 1835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1835)
          0.33333334 = coord(1/3)
        0.020776939 = weight(_text_:der in 1835) [ClassicSimilarity], result of:
          0.020776939 = score(doc=1835,freq=8.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.34551817 = fieldWeight in 1835, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1835)
      0.125 = coord(2/16)
    
    Abstract
    Transitive Meronymie. Automatische begriffsbasierte Suchanfrageerweiterung unter Nutzung gewichteter transitiver Teil-Ganzes-Relationen. Unsere theoretisch orientierte Arbeit isoliert transitive Teil-Ganzes-Beziehungen. Wir diskutieren den Einsatz der Meronymie bei der automatischen begriffsbasierten Suchanfrageerweiterung im Information Retrieval. Aus praktischen Gründen schlagen wir vor, die Bestandsrelationen zu spezifizieren und die einzelnen Arten mit unterschiedlichen Gewichtungswerten zu versehen, die im Retrieval genutzt werden. Für das Design von Wissensordnungen ist bedeutsam, dass innerhalb der Begriffsleiter einer Abstraktionsrelation ein Begriff alle seine Teile (sowie alle transitiven Teile der Teile) an seine Unterbegriffe vererbt.
  12. Mayr, P.: Bradfordizing als Re-Ranking-Ansatz in Literaturinformationssystemen (2011) 0.00
    0.0036464995 = product of:
      0.029171996 = sum of:
        0.021811241 = weight(_text_:der in 4292) [ClassicSimilarity], result of:
          0.021811241 = score(doc=4292,freq=12.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.36271852 = fieldWeight in 4292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.007360754 = product of:
          0.022082262 = sum of:
            0.022082262 = weight(_text_:29 in 4292) [ClassicSimilarity], result of:
              0.022082262 = score(doc=4292,freq=2.0), product of:
                0.09469566 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026919862 = queryNorm
                0.23319192 = fieldWeight in 4292, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4292)
          0.33333334 = coord(1/3)
      0.125 = coord(2/16)
    
    Abstract
    In diesem Artikel wird ein Re-Ranking-Ansatz für Suchsysteme vorgestellt, der die Recherche nach wissenschaftlicher Literatur messbar verbessern kann. Das nichttextorientierte Rankingverfahren Bradfordizing wird eingeführt und anschließend im empirischen Teil des Artikels bzgl. der Effektivität für typische fachbezogene Recherche-Topics evaluiert. Dem Bradford Law of Scattering (BLS), auf dem Bradfordizing basiert, liegt zugrunde, dass sich die Literatur zu einem beliebigen Fachgebiet bzw. -thema in Zonen unterschiedlicher Dokumentenkonzentration verteilt. Dem Kernbereich mit hoher Konzentration der Literatur folgen Bereiche mit mittlerer und geringer Konzentration. Bradfordizing sortiert bzw. rankt eine Dokumentmenge damit nach den sogenannten Kernzeitschriften. Der Retrievaltest mit 164 intellektuell bewerteten Fragestellungen in Fachdatenbanken aus den Bereichen Sozial- und Politikwissenschaften, Wirtschaftswissenschaften, Psychologie und Medizin zeigt, dass die Dokumente der Kernzeitschriften signifikant häufiger relevant bewertet werden als Dokumente der zweiten Dokumentzone bzw. den Peripherie-Zeitschriften. Die Implementierung von Bradfordizing und weiteren Re-Rankingverfahren liefert unmittelbare Mehrwerte für den Nutzer.
    Date
    9. 2.2011 17:47:29
  13. Hüther, H.: Selix im DFG-Projekt Kascade (1998) 0.00
    0.0033885743 = product of:
      0.027108595 = sum of:
        0.01484067 = weight(_text_:der in 5151) [ClassicSimilarity], result of:
          0.01484067 = score(doc=5151,freq=2.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.2467987 = fieldWeight in 5151, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=5151)
        0.012267924 = product of:
          0.03680377 = sum of:
            0.03680377 = weight(_text_:29 in 5151) [ClassicSimilarity], result of:
              0.03680377 = score(doc=5151,freq=2.0), product of:
                0.09469566 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026919862 = queryNorm
                0.38865322 = fieldWeight in 5151, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5151)
          0.33333334 = coord(1/3)
      0.125 = coord(2/16)
    
    Date
    25. 8.2000 19:55:29
    Source
    Knowledge Management und Kommunikationssysteme: Proceedings des 6. Internationalen Symposiums für Informationswissenschaft (ISI '98) Prag, 3.-7. November 1998 / Hochschulverband für Informationswissenschaft (HI) e.V. Konstanz ; Fachrichtung Informationswissenschaft der Universität des Saarlandes, Saarbrücken. Hrsg.: Harald H. Zimmermann u. Volker Schramm
  14. Chang, C.-H.; Hsu, C.-C.: Integrating query expansion and conceptual relevance feedback for personalized Web information retrieval (1998) 0.00
    0.0033320277 = product of:
      0.026656222 = sum of:
        0.018145926 = weight(_text_:internet in 1319) [ClassicSimilarity], result of:
          0.018145926 = score(doc=1319,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.22832564 = fieldWeight in 1319, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1319)
        0.008510296 = product of:
          0.025530888 = sum of:
            0.025530888 = weight(_text_:22 in 1319) [ClassicSimilarity], result of:
              0.025530888 = score(doc=1319,freq=2.0), product of:
                0.09426877 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026919862 = queryNorm
                0.2708308 = fieldWeight in 1319, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1319)
          0.33333334 = coord(1/3)
      0.125 = coord(2/16)
    
    Date
    1. 8.1996 22:08:06
    Theme
    Internet
  15. Fuhr, N.: Modelle im Information Retrieval (2023) 0.00
    0.0030387496 = product of:
      0.024309997 = sum of:
        0.018176034 = weight(_text_:der in 800) [ClassicSimilarity], result of:
          0.018176034 = score(doc=800,freq=12.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.30226544 = fieldWeight in 800, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=800)
        0.006133962 = product of:
          0.018401885 = sum of:
            0.018401885 = weight(_text_:29 in 800) [ClassicSimilarity], result of:
              0.018401885 = score(doc=800,freq=2.0), product of:
                0.09469566 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026919862 = queryNorm
                0.19432661 = fieldWeight in 800, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=800)
          0.33333334 = coord(1/3)
      0.125 = coord(2/16)
    
    Abstract
    Information-Retrieval-Modelle -(IR-Modelle) spezifizieren, wie zu einer gegebenen Anfrage die Antwortdokumente aus einer Dokumentenkollektion bestimmt werden. Ausgangsbasis jedes Modells sind dabei zunächst bestimmte Annahmen über die Wissensrepräsentation (s. Teil B Methoden und Systeme der Inhaltserschließung) von Fragen und Dokumenten. Hier bezeichnen wir die Elemente dieser Repräsentationen als Terme, wobei es aus der Sicht des Modells egal ist, wie diese Terme aus dem Dokument (und analog aus der von Benutzenden eingegebenen Anfrage) abgeleitet werden: Bei Texten werden hierzu häufig computerlinguistische Methoden eingesetzt, aber auch komplexere automatische oder manuelle Erschließungsverfahren können zur Anwendung kommen. Repräsentationen besitzen ferner eine bestimmte Struktur. Ein Dokument wird meist als Menge oder Multimenge von Termen aufgefasst, wobei im zweiten Fall das Mehrfachvorkommen berücksichtigt wird. Diese Dokumentrepräsentation wird wiederum auf eine sogenannte Dokumentbeschreibung abgebildet, in der die einzelnen Terme gewichtet sein können. Im Folgenden unterscheiden wir nur zwischen ungewichteter (Gewicht eines Terms ist entweder 0 oder 1) und gewichteter Indexierung (das Gewicht ist eine nichtnegative reelle Zahl). Analog dazu gibt es eine Fragerepräsentation; legt man eine natürlichsprachige Anfrage zugrunde, so kann man die o. g. Verfahren für Dokumenttexte anwenden. Alternativ werden auch grafische oder formale Anfragesprachen verwendet, wobei aus Sicht der Modelle insbesondere deren logische Struktur (etwa beim Booleschen Retrieval) relevant ist. Die Fragerepräsentation wird dann in eine Fragebeschreibung überführt.
    Date
    24.11.2022 17:20:29
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  16. Sormunen, E.; Kekäläinen, J.; Koivisto, J.; Järvelin, K.: Document text characteristics affect the ranking of the most relevant documents by expanded structured queries (2001) 0.00
    0.002409794 = product of:
      0.019278351 = sum of:
        0.006316973 = product of:
          0.018950919 = sum of:
            0.018950919 = weight(_text_:k in 4487) [ClassicSimilarity], result of:
              0.018950919 = score(doc=4487,freq=2.0), product of:
                0.09609793 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.026919862 = queryNorm
                0.19720423 = fieldWeight in 4487, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4487)
          0.33333334 = coord(1/3)
        0.012961377 = weight(_text_:internet in 4487) [ClassicSimilarity], result of:
          0.012961377 = score(doc=4487,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.16308975 = fieldWeight in 4487, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4487)
      0.125 = coord(2/16)
    
    Abstract
    The increasing flood of documentary information through the Internet and other information sources challenges the developers of information retrieval systems. It is not enough that an IR system is able to make a distinction between relevant and non-relevant documents. The reduction of information overload requires that IR systems provide the capability of screening the most valuable documents out of the mass of potentially or marginally relevant documents. This paper introduces a new concept-based method to analyse the text characteristics of documents at varying relevance levels. The results of the document analysis were applied in an experiment on query expansion (QE) in a probabilistic IR system. Statistical differences in textual characteristics of highly relevant and less relevant documents were investigated by applying a facet analysis technique. In highly relevant documents a larger number of aspects of the request were discussed, searchable expressions for the aspects were distributed over a larger set of text paragraphs, and a larger set of unique expressions were used per aspect than in marginally relevant documents. A query expansion experiment verified that the findings of the text analysis can be exploited in formulating more effective queries for best match retrieval in the search for highly relevant documents. The results revealed that expanded queries with concept-based structures performed better than unexpanded queries or Ñnatural languageÒ queries. Further, it was shown that highly relevant documents benefit essentially more from the concept-based QE in ranking than marginally relevant documents.
  17. Bhansali, D.; Desai, H.; Deulkar, K.: ¬A study of different ranking approaches for semantic search (2015) 0.00
    0.002409794 = product of:
      0.019278351 = sum of:
        0.006316973 = product of:
          0.018950919 = sum of:
            0.018950919 = weight(_text_:k in 2696) [ClassicSimilarity], result of:
              0.018950919 = score(doc=2696,freq=2.0), product of:
                0.09609793 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.026919862 = queryNorm
                0.19720423 = fieldWeight in 2696, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2696)
          0.33333334 = coord(1/3)
        0.012961377 = weight(_text_:internet in 2696) [ClassicSimilarity], result of:
          0.012961377 = score(doc=2696,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.16308975 = fieldWeight in 2696, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2696)
      0.125 = coord(2/16)
    
    Abstract
    Search Engines have become an integral part of our day to day life. Our reliance on search engines increases with every passing day. With the amount of data available on Internet increasing exponentially, it becomes important to develop new methods and tools that help to return results relevant to the queries and reduce the time spent on searching. The results should be diverse but at the same time should return results focused on the queries asked. Relation Based Page Rank [4] algorithms are considered to be the next frontier in improvement of Semantic Web Search. The probability of finding relevance in the search results as posited by the user while entering the query is used to measure the relevance. However, its application is limited by the complexity of determining relation between the terms and assigning explicit meaning to each term. Trust Rank is one of the most widely used ranking algorithms for semantic web search. Few other ranking algorithms like HITS algorithm, PageRank algorithm are also used for Semantic Web Searching. In this paper, we will provide a comparison of few ranking approaches.
  18. Weinstein, A.: Hochprozentig : Tipps and tricks für ein Top-Ranking (2002) 0.00
    0.0022912694 = product of:
      0.03666031 = sum of:
        0.03666031 = weight(_text_:internet in 1083) [ClassicSimilarity], result of:
          0.03666031 = score(doc=1083,freq=4.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.46128747 = fieldWeight in 1083, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.078125 = fieldNorm(doc=1083)
      0.0625 = coord(1/16)
    
    Abstract
    Die Suchmaschinen haben in den letzten Monaten an ihren Ranking-Algorithmen gefeilt, um Spamern das Handwerk zu erschweren. Internet Pro beleuchtet die Trends im Suchmaschinen-Marketing
    Source
    Internet Professionell. 2002, H.9, S.66-71
  19. Zhang, D.; Dong, Y.: ¬An effective algorithm to rank Web resources (2000) 0.00
    0.0022682408 = product of:
      0.036291853 = sum of:
        0.036291853 = weight(_text_:internet in 3662) [ClassicSimilarity], result of:
          0.036291853 = score(doc=3662,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.45665127 = fieldWeight in 3662, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.109375 = fieldNorm(doc=3662)
      0.0625 = coord(1/16)
    
    Theme
    Internet
  20. Dreßler, H.: Fuzzy Information Retrieval (2008) 0.00
    0.0020740468 = product of:
      0.03318475 = sum of:
        0.03318475 = weight(_text_:der in 2300) [ClassicSimilarity], result of:
          0.03318475 = score(doc=2300,freq=10.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.55185866 = fieldWeight in 2300, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=2300)
      0.0625 = coord(1/16)
    
    Abstract
    Nach einer Erläuterung der Grundlagen der Fuzzylogik wird das Prinzip der unscharfen Suche dargestellt und die Unterschiede zum herkömmlichen Information Retrieval beschrieben. Am Beispiel der Suche nach Steinen für ein Mauerwerk wird gezeigt, wie eine unscharfe Suche in der D&WFuzzydatenbank erfolgreich durchgeführt werden kann und zu eindeutigen Ergebnissen führt.

Languages

  • e 81
  • d 29
  • pt 1
  • More… Less…