Search (35 results, page 1 of 2)

  • × author_ss:"Mayr, P."
  1. Mayr, P.; Schaer, P.; Mutschke, P.: ¬A science model driven retrieval prototype (2011) 0.24
    0.23852147 = product of:
      0.28622577 = sum of:
        0.09979041 = weight(_text_:umfeld in 649) [ClassicSimilarity], result of:
          0.09979041 = score(doc=649,freq=2.0), product of:
            0.26788878 = queryWeight, product of:
              5.619245 = idf(docFreq=435, maxDocs=44218)
              0.047673445 = queryNorm
            0.37250686 = fieldWeight in 649, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.619245 = idf(docFreq=435, maxDocs=44218)
              0.046875 = fieldNorm(doc=649)
        0.011695079 = weight(_text_:in in 649) [ClassicSimilarity], result of:
          0.011695079 = score(doc=649,freq=8.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.18034597 = fieldWeight in 649, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=649)
        0.09140319 = weight(_text_:indexierung in 649) [ClassicSimilarity], result of:
          0.09140319 = score(doc=649,freq=2.0), product of:
            0.25638393 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.047673445 = queryNorm
            0.35650903 = fieldWeight in 649, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.046875 = fieldNorm(doc=649)
        0.047920685 = weight(_text_:u in 649) [ClassicSimilarity], result of:
          0.047920685 = score(doc=649,freq=4.0), product of:
            0.15610404 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.047673445 = queryNorm
            0.30697915 = fieldWeight in 649, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.046875 = fieldNorm(doc=649)
        0.03541643 = product of:
          0.07083286 = sum of:
            0.07083286 = weight(_text_:retrieval in 649) [ClassicSimilarity], result of:
              0.07083286 = score(doc=649,freq=12.0), product of:
                0.14420812 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.047673445 = queryNorm
                0.49118498 = fieldWeight in 649, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=649)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    This paper is about a better understanding of the structure and dynamics of science and the usage of these insights for compensating the typical problems that arises in metadata-driven Digital Libraries. Three science model driven retrieval services are presented: co-word analysis based query expansion, re-ranking via Bradfordizing and author centrality. The services are evaluated with relevance assessments from which two important implications emerge: (1) precision values of the retrieval services are the same or better than the tf-idf retrieval baseline and (2) each service retrieved a disjoint set of documents. The different services each favor quite other - but still relevant - documents than pure term-frequency based rankings. The proposed models and derived retrieval services therefore open up new viewpoints on the scientific knowledge space and provide an alternative framework to structure scholarly information systems.
    Source
    Concepts in context: Proceedings of the Cologne Conference on Interoperability and Semantics in Knowledge Organization July 19th - 20th, 2010. Eds.: F. Boteram, W. Gödert u. J. Hubrich
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  2. Mayr, P.; Mutschke, P.; Petras, V.; Schaer, P.; Sure, Y.: Applying science models for search (2010) 0.04
    0.043183856 = product of:
      0.08636771 = sum of:
        0.007796719 = weight(_text_:in in 4663) [ClassicSimilarity], result of:
          0.007796719 = score(doc=4663,freq=2.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.120230645 = fieldWeight in 4663, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=4663)
        0.045180056 = weight(_text_:u in 4663) [ClassicSimilarity], result of:
          0.045180056 = score(doc=4663,freq=2.0), product of:
            0.15610404 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.047673445 = queryNorm
            0.28942272 = fieldWeight in 4663, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0625 = fieldNorm(doc=4663)
        0.03339093 = product of:
          0.06678186 = sum of:
            0.06678186 = weight(_text_:retrieval in 4663) [ClassicSimilarity], result of:
              0.06678186 = score(doc=4663,freq=6.0), product of:
                0.14420812 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.047673445 = queryNorm
                0.46309367 = fieldWeight in 4663, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4663)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    The paper proposes three different kinds of science models as value-added services that are integrated in the retrieval process to enhance retrieval quailty. The paper discusses the approaches Search Term Recommendation, Bradfordizing and Author Centrality on a general level and addresses implementation issues of the models within a real-life retrieval environment.
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  3. Mayr, P.: Thesauri, Klassifikationen & Co - die Renaissance der kontrollierten Vokabulare? (2006) 0.04
    0.03532453 = product of:
      0.07064906 = sum of:
        0.00826967 = weight(_text_:in in 28) [ClassicSimilarity], result of:
          0.00826967 = score(doc=28,freq=4.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.12752387 = fieldWeight in 28, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
        0.047920685 = weight(_text_:u in 28) [ClassicSimilarity], result of:
          0.047920685 = score(doc=28,freq=4.0), product of:
            0.15610404 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.047673445 = queryNorm
            0.30697915 = fieldWeight in 28, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
        0.014458697 = product of:
          0.028917395 = sum of:
            0.028917395 = weight(_text_:retrieval in 28) [ClassicSimilarity], result of:
              0.028917395 = score(doc=28,freq=2.0), product of:
                0.14420812 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.047673445 = queryNorm
                0.20052543 = fieldWeight in 28, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=28)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Der Beitrag beschäftigt sich mit aktuellen Entwicklungen im Bereich des Terminologie Mapping zwischen kontrollierten Vokabularen. Die unterschiedlichen Typen und Ausprägungen von kontrollierten Vokabularen - Thesauri, Klassifikationen, Schlagwortnormdaten und kontrollierte Schlagwortlisten - dienen hauptsächlich der inhaltlichen Erschließung von Literatur und anderen Dokumenttypen und werden u. a. in Datenbanksystemen bei der Deskriptorensuche und zum Browsing angeboten. Die Zusammenführung der heterogenen Indexierungssprachen bei der übergreifenden Datenbankrecherche (crossdatabase retrieval) führt jedoch zu Problemen bei der semantischen Integration der zugrunde liegenden Bestände. Der Beitrag stellt in diesem Kontext den Ansatz sowie die bisherigen Ergebnisse des Projekts" Modellbildung und Heterogenitätsbehandlung" vor. Im Anschluss wird auf Bradford's Law of Scattering (BLS) sowie abgeleitete Einsatzmöglichkeiten des BLS im Projekt Bezug genommen: 1) BLS zur Untersuchung der Auswirkungen der Heterogenitätsbehandlung, 2) BLS bzw. Bradfordizing als alternativer, informationswissenschaftlich begründeter Zugangsmechanismus für Zeitschriftenartikel.
    Source
    Vom Wandel der Wissensorganisation im Informationszeitalter: Festschrift für Walther Umstätter zum 65. Geburtstag, hrsg. von P. Hauke u. K. Umlauf
  4. Carevic, Z.; Krichel, T.; Mayr, P.: Assessing a human mediated current awareness service (2015) 0.02
    0.022073656 = product of:
      0.06622097 = sum of:
        0.0097459 = weight(_text_:in in 2992) [ClassicSimilarity], result of:
          0.0097459 = score(doc=2992,freq=2.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.15028831 = fieldWeight in 2992, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=2992)
        0.056475073 = weight(_text_:u in 2992) [ClassicSimilarity], result of:
          0.056475073 = score(doc=2992,freq=2.0), product of:
            0.15610404 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.047673445 = queryNorm
            0.3617784 = fieldWeight in 2992, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.078125 = fieldNorm(doc=2992)
      0.33333334 = coord(2/6)
    
    Source
    Re:inventing information science in the networked society: Proceedings of the 14th International Symposium on Information Science, Zadar/Croatia, 19th-21st May 2015. Eds.: F. Pehar, C. Schloegl u. C. Wolff
  5. Mayr, P.; Walter, A.-K.: Mapping Knowledge Organization Systems (2008) 0.01
    0.014671094 = product of:
      0.04401328 = sum of:
        0.010128236 = weight(_text_:in in 1676) [ClassicSimilarity], result of:
          0.010128236 = score(doc=1676,freq=6.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.1561842 = fieldWeight in 1676, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=1676)
        0.033885043 = weight(_text_:u in 1676) [ClassicSimilarity], result of:
          0.033885043 = score(doc=1676,freq=2.0), product of:
            0.15610404 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.047673445 = queryNorm
            0.21706703 = fieldWeight in 1676, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.046875 = fieldNorm(doc=1676)
      0.33333334 = coord(2/6)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.10
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
  6. Mutschke, P.; Mayr, P.: Science models for search : a study on combining scholarly information retrieval and scientometrics (2015) 0.01
    0.01460846 = product of:
      0.043825377 = sum of:
        0.0097459 = weight(_text_:in in 1695) [ClassicSimilarity], result of:
          0.0097459 = score(doc=1695,freq=2.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.15028831 = fieldWeight in 1695, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=1695)
        0.034079477 = product of:
          0.068158954 = sum of:
            0.068158954 = weight(_text_:retrieval in 1695) [ClassicSimilarity], result of:
              0.068158954 = score(doc=1695,freq=4.0), product of:
                0.14420812 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.047673445 = queryNorm
                0.47264296 = fieldWeight in 1695, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1695)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Footnote
    Beitrag in einem Special Issue "Combining bibliometrics and information retrieval"
  7. Mayr, P.: Information Retrieval-Mehrwertdienste für Digitale Bibliotheken: : Crosskonkordanzen und Bradfordizing (2010) 0.01
    0.012706233 = product of:
      0.038118698 = sum of:
        0.013075498 = weight(_text_:in in 4910) [ClassicSimilarity], result of:
          0.013075498 = score(doc=4910,freq=10.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.20163295 = fieldWeight in 4910, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
        0.0250432 = product of:
          0.0500864 = sum of:
            0.0500864 = weight(_text_:retrieval in 4910) [ClassicSimilarity], result of:
              0.0500864 = score(doc=4910,freq=6.0), product of:
                0.14420812 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.047673445 = queryNorm
                0.34732026 = fieldWeight in 4910, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4910)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    In dieser Arbeit werden zwei Mehrwertdienste für Suchsysteme vorgestellt, die typische Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden in diesem Buch ausführlich beschrieben und evaluiert. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Ergebnisse dieser Arbeit sind in das GESIS-Projekt IRM eingeflossen.
    Footnote
    Rez. in: iwp 62(2011) H.6/7, S. 323-324 (D. Lewandowski)
    RSWK
    Dokumentationssprache / Heterogenität / Information Retrieval / Ranking / Evaluation
    Subject
    Dokumentationssprache / Heterogenität / Information Retrieval / Ranking / Evaluation
  8. Mayr, P.; Mutschke, P.; Schaer, P.; Sure, Y.: Mehrwertdienste für das Information Retrieval (2013) 0.01
    0.011890637 = product of:
      0.03567191 = sum of:
        0.011816275 = weight(_text_:in in 935) [ClassicSimilarity], result of:
          0.011816275 = score(doc=935,freq=6.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.1822149 = fieldWeight in 935, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=935)
        0.023855632 = product of:
          0.047711264 = sum of:
            0.047711264 = weight(_text_:retrieval in 935) [ClassicSimilarity], result of:
              0.047711264 = score(doc=935,freq=4.0), product of:
                0.14420812 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.047673445 = queryNorm
                0.33085006 = fieldWeight in 935, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=935)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Ziel des Projekts ist die Entwicklung und Erprobung von metadatenbasierten Mehr-wertdiensten für Retrievalumgebungen mit mehreren Datenbanken: a) Search Term Recommender (STR) als Dienst zum automatischen Vorschlagen von Suchbegriffen aus kontrollierten Vokabularen, b) Bradfordizing als Dienst zum Re-Ranking von Ergebnismengen nach Kernzeitschriften und c) Autorenzentralität als Dienst zum Re-Ranking von. Ergebnismengen nach Zentralität der Autoren in Autorennetzwerken. Schwerpunkt des Projektes ist die prototypische mplementierung der drei Mehrwertdienste in einer integrierten Retrieval-Testumgebung und insbesondere deren quantitative und qualitative Evaluation hinsichtlich Verbesserung der Retrievalqualität bei Einsatz der Mehrwertdienste.
    Series
    Fortschritte in der Wissensorganisation; Bd.12
  9. Daniel, F.; Maier, C.; Mayr, P.; Wirtz, H.-C.: ¬Die Kunden dort bedienen, wo sie sind : DigiAuskunft besteht Bewährungsprobe / Seit Anfang 2006 in Betrieb (2006) 0.01
    0.011474367 = product of:
      0.0344231 = sum of:
        0.011816275 = weight(_text_:in in 5991) [ClassicSimilarity], result of:
          0.011816275 = score(doc=5991,freq=6.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.1822149 = fieldWeight in 5991, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5991)
        0.022606827 = product of:
          0.045213655 = sum of:
            0.045213655 = weight(_text_:22 in 5991) [ClassicSimilarity], result of:
              0.045213655 = score(doc=5991,freq=2.0), product of:
                0.16694428 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.047673445 = queryNorm
                0.2708308 = fieldWeight in 5991, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5991)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Informationen werden heute zunächst im Internet gesucht - auch regelmäßige Bibliotheksnutzer machen dies nicht anders. Die Bibliotheken haben sich darauf eingestellt und mit Online-Katalogen, digitalen Bibliotheken, Volltextbanken und der Endnutzer-Fernleihe virtuelle Dependancen im Netz aufgebaut. Diese Angebote werden idealerweise durch einen digitalen Auskunftsdienst ergänzt. Die Internet-Trainerin Anne Lipow sagte schon vor sechs Jahren zutreffend: »It's the librarian's job, to meet the users where they are...« Auch auf zahlreichen deutschsprachigen Bibliothekswebsites gibt es folglich heute individuelle Beratung und Informationsvermittlung in unterschiedlicher Form: als E-MailKontakt, über Webformulare und in den vergangenen Jahren auch vermehrt als Chat.
    Date
    8. 7.2006 21:06:22
  10. Mayr, P.; Petras, V.: Building a Terminology Network for Search : the KoMoHe project (2008) 0.01
    0.011474367 = product of:
      0.0344231 = sum of:
        0.011816275 = weight(_text_:in in 2618) [ClassicSimilarity], result of:
          0.011816275 = score(doc=2618,freq=6.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.1822149 = fieldWeight in 2618, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2618)
        0.022606827 = product of:
          0.045213655 = sum of:
            0.045213655 = weight(_text_:22 in 2618) [ClassicSimilarity], result of:
              0.045213655 = score(doc=2618,freq=2.0), product of:
                0.16694428 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.047673445 = queryNorm
                0.2708308 = fieldWeight in 2618, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2618)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    The paper reports about results on the GESIS-IZ project "Competence Center Modeling and Treatment of Semantic Heterogeneity" (KoMoHe). KoMoHe supervised a terminology mapping effort, in which 'cross-concordances' between major controlled vocabularies were organized, created and managed. In this paper we describe the establishment and implementation of crossconcordances for search in a digital library (DL).
    Source
    Metadata for semantic and social applications : proceedings of the International Conference on Dublin Core and Metadata Applications, Berlin, 22 - 26 September 2008, DC 2008: Berlin, Germany / ed. by Jane Greenberg and Wolfgang Klas
  11. Reichert, S.; Mayr, P.: Untersuchung von Relevanzeigenschaften in einem kontrollierten Eyetracking-Experiment (2012) 0.01
    0.010817593 = product of:
      0.032452777 = sum of:
        0.013075498 = weight(_text_:in in 328) [ClassicSimilarity], result of:
          0.013075498 = score(doc=328,freq=10.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.20163295 = fieldWeight in 328, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=328)
        0.01937728 = product of:
          0.03875456 = sum of:
            0.03875456 = weight(_text_:22 in 328) [ClassicSimilarity], result of:
              0.03875456 = score(doc=328,freq=2.0), product of:
                0.16694428 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.047673445 = queryNorm
                0.23214069 = fieldWeight in 328, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=328)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    In diesem Artikel wird ein Eyetracking-Experiment beschrieben, bei dem untersucht wurde, wann und auf Basis welcher Informationen Relevanzentscheidungen bei der themenbezogenen Dokumentenbewertung fallen und welche Faktoren auf die Relevanzentscheidung einwirken. Nach einer kurzen Einführung werden relevante Studien aufgeführt, in denen Eyetracking als Untersuchungsmethode für Interaktionsverhalten mit Ergebnislisten (Information Seeking Behavior) verwendet wurde. Nutzerverhalten wird hierbei vor allem durch unterschiedliche Aufgaben-Typen, dargestellte Informationen und durch das Ranking eines Ergebnisses beeinflusst. Durch EyetrackingUntersuchungen lassen sich Nutzer außerdem in verschiedene Klassen von Bewertungs- und Lesetypen einordnen. Diese Informationen können als implizites Feedback genutzt werden, um so die Suche zu personalisieren und um die Relevanz von Suchergebnissen ohne aktives Zutun des Users zu erhöhen. In einem explorativen Eyetracking-Experiment mit 12 Studenten der Hochschule Darmstadt werden anhand der Länge der Gesamtbewertung, Anzahl der Fixationen, Anzahl der besuchten Metadatenelemente und Länge des Scanpfades zwei typische Bewertungstypen identifiziert. Das Metadatenfeld Abstract wird im Experiment zuverlässig als wichtigste Dokumenteigenschaft für die Zuordnung von Relevanz ermittelt.
    Date
    22. 7.2012 19:25:54
  12. Mayr, P.; Petras, V.: Crosskonkordanzen : Terminologie Mapping und deren Effektivität für das Information Retrieval 0.01
    0.009561586 = product of:
      0.028684758 = sum of:
        0.011816275 = weight(_text_:in in 1996) [ClassicSimilarity], result of:
          0.011816275 = score(doc=1996,freq=6.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.1822149 = fieldWeight in 1996, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1996)
        0.016868481 = product of:
          0.033736963 = sum of:
            0.033736963 = weight(_text_:retrieval in 1996) [ClassicSimilarity], result of:
              0.033736963 = score(doc=1996,freq=2.0), product of:
                0.14420812 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.047673445 = queryNorm
                0.23394634 = fieldWeight in 1996, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1996)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Bundesministerium für Bildung und Forschung hat eine große Initiative zur Erstellung von Crosskonkordanzen gefördert, die 2007 zu Ende geführt wurde. Die Aufgabe dieser Initiative war die Organisation, die Erstellung und das Management von Crosskonkordanzen zwischen kontrollierten Vokabularen (Thesauri, Klassifikationen, Deskriptorenlisten) in den Sozialwissenschaften und anderen Fachgebieten. 64 Crosskonkordanzen mit mehr als 500.000 Relationen wurden umgesetzt. In der Schlussphase des Projekts wurde eine umfangreiche Evaluation durchgeführt, die die Effektivität der Crosskonkordanzen in unterschiedlichen Informationssystemen testen sollte. Der Artikel berichtet über die Crosskonkordanz-Arbeit und die Evaluationsergebnisse.
  13. Mayr, P.; Mutschke, P.; Petras, V.: Reducing semantic complexity in distributed digital libraries : Treatment of term vagueness and document re-ranking (2008) 0.01
    0.008889254 = product of:
      0.026667763 = sum of:
        0.014618848 = weight(_text_:in in 1909) [ClassicSimilarity], result of:
          0.014618848 = score(doc=1909,freq=18.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.22543246 = fieldWeight in 1909, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1909)
        0.012048915 = product of:
          0.02409783 = sum of:
            0.02409783 = weight(_text_:retrieval in 1909) [ClassicSimilarity], result of:
              0.02409783 = score(doc=1909,freq=2.0), product of:
                0.14420812 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.047673445 = queryNorm
                0.16710453 = fieldWeight in 1909, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1909)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Purpose - The general science portal "vascoda" merges structured, high-quality information collections from more than 40 providers on the basis of search engine technology (FAST) and a concept which treats semantic heterogeneity between different controlled vocabularies. First experiences with the portal show some weaknesses of this approach which come out in most metadata-driven Digital Libraries (DLs) or subject specific portals. The purpose of the paper is to propose models to reduce the semantic complexity in heterogeneous DLs. The aim is to introduce value-added services (treatment of term vagueness and document re-ranking) that gain a certain quality in DLs if they are combined with heterogeneity components established in the project "Competence Center Modeling and Treatment of Semantic Heterogeneity". Design/methodology/approach - Two methods, which are derived from scientometrics and network analysis, will be implemented with the objective to re-rank result sets by the following structural properties: the ranking of the results by core journals (so-called Bradfordizing) and ranking by centrality of authors in co-authorship networks. Findings - The methods, which will be implemented, focus on the query and on the result side of a search and are designed to positively influence each other. Conceptually, they will improve the search quality and guarantee that the most relevant documents in result sets will be ranked higher. Originality/value - The central impact of the paper focuses on the integration of three structural value-adding methods, which aim at reducing the semantic complexity represented in distributed DLs at several stages in the information retrieval process: query construction, search and ranking and re-ranking.
  14. Mayr, P.; Petras, V.: Cross-concordances : terminology mapping and its effectiveness for information retrieval (2008) 0.01
    0.008195645 = product of:
      0.024586935 = sum of:
        0.010128236 = weight(_text_:in in 2323) [ClassicSimilarity], result of:
          0.010128236 = score(doc=2323,freq=6.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.1561842 = fieldWeight in 2323, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2323)
        0.014458697 = product of:
          0.028917395 = sum of:
            0.028917395 = weight(_text_:retrieval in 2323) [ClassicSimilarity], result of:
              0.028917395 = score(doc=2323,freq=2.0), product of:
                0.14420812 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.047673445 = queryNorm
                0.20052543 = fieldWeight in 2323, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2323)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    The German Federal Ministry for Education and Research funded a major terminology mapping initiative, which found its conclusion in 2007. The task of this terminology mapping initiative was to organize, create and manage 'cross-concordances' between controlled vocabularies (thesauri, classification systems, subject heading lists) centred around the social sciences but quickly extending to other subject areas. 64 crosswalks with more than 500,000 relations were established. In the final phase of the project, a major evaluation effort to test and measure the effectiveness of the vocabulary mappings in an information system environment was conducted. The paper reports on the cross-concordance work and evaluation results.
  15. Lauser, B.; Johannsen, G.; Caracciolo, C.; Hage, W.R. van; Keizer, J.; Mayr, P.: Comparing human and automatic thesaurus mapping approaches in the agricultural domain (2008) 0.01
    0.0076797083 = product of:
      0.023039125 = sum of:
        0.0068913912 = weight(_text_:in in 2627) [ClassicSimilarity], result of:
          0.0068913912 = score(doc=2627,freq=4.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.10626988 = fieldWeight in 2627, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2627)
        0.016147735 = product of:
          0.03229547 = sum of:
            0.03229547 = weight(_text_:22 in 2627) [ClassicSimilarity], result of:
              0.03229547 = score(doc=2627,freq=2.0), product of:
                0.16694428 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.047673445 = queryNorm
                0.19345059 = fieldWeight in 2627, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2627)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Knowledge organization systems (KOS), like thesauri and other controlled vocabularies, are used to provide subject access to information systems across the web. Due to the heterogeneity of these systems, mapping between vocabularies becomes crucial for retrieving relevant information. However, mapping thesauri is a laborious task, and thus big efforts are being made to automate the mapping process. This paper examines two mapping approaches involving the agricultural thesaurus AGROVOC, one machine-created and one human created. We are addressing the basic question "What are the pros and cons of human and automatic mapping and how can they complement each other?" By pointing out the difficulties in specific cases or groups of cases and grouping the sample into simple and difficult types of mappings, we show the limitations of current automatic methods and come up with some basic recommendations on what approach to use when.
    Source
    Metadata for semantic and social applications : proceedings of the International Conference on Dublin Core and Metadata Applications, Berlin, 22 - 26 September 2008, DC 2008: Berlin, Germany / ed. by Jane Greenberg and Wolfgang Klas
  16. Mayr, P.: Google Scholar als akademische Suchmaschine (2009) 0.01
    0.007322276 = product of:
      0.021966828 = sum of:
        0.012327696 = weight(_text_:in in 3023) [ClassicSimilarity], result of:
          0.012327696 = score(doc=3023,freq=20.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.19010136 = fieldWeight in 3023, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=3023)
        0.009639132 = product of:
          0.019278264 = sum of:
            0.019278264 = weight(_text_:retrieval in 3023) [ClassicSimilarity], result of:
              0.019278264 = score(doc=3023,freq=2.0), product of:
                0.14420812 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.047673445 = queryNorm
                0.13368362 = fieldWeight in 3023, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3023)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Neben den klassischen Informationsanbietern Bibliothek, Fachinformation und den Verlagen sind Internetsuchmaschinen inzwischen fester Bestandteil bei der Recherche nach wissenschaftlicher Information. Scirus (Elsevier, 2004) und Google Scholar sind zwei Beispiele für Suchdienste kommerzieller Suchmaschinen-Unternehmen, die eine Einschränkung auf den wissenschaftlichen Dokumentenraum anstreben und nennenswerte Dokumentzahlen in allen Disziplinen generieren. Der Vergleich der Treffermengen für beliebige Suchthemen zeigt, dass die Wahl des Suchsystems, des Dokumentenpools und der Dokumenttypen entscheidenden Einfluss auf die Relevanz und damit letztlich auch die Akzeptanz des Suchergebnisses hat. Tabelle 1 verdeutlicht die Mengenunterschiede am Beispiel der Trefferergebnisse für die Suchbegriffe "search engines" bzw. "Suchmaschinen" in der allgemeinen Internetsuchmaschine Google, der wissenschaftlichen Suchmaschine Google Scholar (GS) und der größten fachübergreifenden bibliographischen Literaturdatenbank Web of Science (WoS). Der Anteil der Dokumente, die in diesem Fall eindeutig der Wissenschaft zuzuordnen sind (siehe GS und insbesondere WoS in Tabelle 1), liegt gegenüber der allgemeinen Websuche lediglich im Promille-Bereich. Dieses Beispiel veranschaulicht, dass es ausgesprochen problematisch sein kann, fachwissenschaftliche Fragestellungen ausschließlich mit Internetsuchmaschinen zu recherchieren. Der Anteil der fachwissenschaftlich relevanten Dokumente in diesem Trefferpool ist i. d. R. sehr gering. Damit sinkt die Wahrscheinlichkeit, wissenschaftlich relevantes (z. B. einen Zeitschriftenaufsatz) auf den ersten Trefferseiten zu finden, deutlich ab.
    Die drei oben genannten Suchsysteme (Google, GS und WoS) unterscheiden sich in mehrerlei Hinsicht fundamental und eignen sich daher gut, um in die Grundthematik dieses Artikels einzuleiten. Die obigen Suchsysteme erschließen zunächst unterschiedliche Suchräume, und dies auf sehr spezifische Weise. Während Google frei zugängliche und über Hyperlink adressierbare Dokumente im Internet erfasst, gehen die beiden akademischen Suchsysteme deutlich selektiver bei der Inhaltserschließung vor. Google Scholar erfasst neben frei zugänglichen elektronischen Publikationstypen im Internet hauptsächlich wissenschaftliche Dokumente, die direkt von den akademischen Verlagen bezogen werden. Das WoS, das auf den unterschiedlichen bibliographischen Datenbanken und Zitationsindizes des ehemaligen "Institute for Scientific Information" (ISI) basiert, selektiert gegenüber den rein automatischen brute-force-Ansätzen der Internetsuchmaschine über einen qualitativen Ansatz. In den Datenbanken des WoS werden ausschließlich internationale Fachzeitschriften erfasst, die ein kontrolliertes Peer-Review durchlaufen. Insgesamt werden ca. 12.000 Zeitschriften ausgewertet und über die Datenbank verfügbar gemacht. Wie bereits erwähnt, spielt neben der Abgrenzung der Suchräume und Dokumenttypen die Zugänglichkeit und Relevanz der Dokumente eine entscheidende Bedeutung für den Benutzer. Die neueren technologischen Entwicklungen des Web Information Retrieval (IR), wie sie Google oder GS implementieren, werten insbesondere frei zugängliche Dokumente mit ihrer gesamten Text- und Linkinformation automatisch aus. Diese Verfahren sind vor allem deshalb erfolgreich, weil sie Ergebnislisten nach Relevanz gerankt darstellen, einfach und schnell zu recherchieren sind und direkt auf die Volltexte verweisen. Die qualitativen Verfahren der traditionellen Informationsanbieter (z. B. WoS) hingegen zeigen genau bei diesen Punkten (Ranking, Einfachheit und Volltextzugriff) Schwächen, überzeugen aber vor allem durch ihre Stringenz, in diesem Fall die selektive Aufnahme von qualitätsgeprüften Dokumenten in das System und die inhaltliche Erschließung der Dokumente (siehe dazu Mayr und Petras, 2008).
  17. Mayr, P.; Scharnhorst, A.: Scientometrics and information retrieval - weak-links revitalized (2015) 0.01
    0.0068158954 = product of:
      0.040895373 = sum of:
        0.040895373 = product of:
          0.081790745 = sum of:
            0.081790745 = weight(_text_:retrieval in 1688) [ClassicSimilarity], result of:
              0.081790745 = score(doc=1688,freq=4.0), product of:
                0.14420812 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.047673445 = queryNorm
                0.5671716 = fieldWeight in 1688, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1688)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Footnote
    Editorial zu einem Special Issue "Combining bibliometrics and information retrieval"
  18. Mayr, P.: DigiLink - Die dritte Generation der Linklisten (2005) 0.00
    0.0025989064 = product of:
      0.015593438 = sum of:
        0.015593438 = weight(_text_:in in 3582) [ClassicSimilarity], result of:
          0.015593438 = score(doc=3582,freq=8.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.24046129 = fieldWeight in 3582, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=3582)
      0.16666667 = coord(1/6)
    
    Abstract
    Als Linklisten "der dritten Generation" werden in diesem Artikel Systeme zur kooperativen Verwaltung von Internetlinks und Datenbankbeschreibungen bezeichnet. Mit DigiLink wird ein Vertreter dieses Typs näher vorgestellt. DigiLink ist eine Eigenentwicklung des hbz, die sich besonders durch hohe Anpassungsfähigkeit im Layout und in der Organisation der verwalteten Bestände auszeichnet. Diese Flexibilität begünstigt den Einsatz in unterschiedlichen Bibliothekstypen, derzeit (April 2005) verwalten knapp 70 Standorte die rund 1.000 Einträge. Ursprünglich als Modul der "Digitalen Bibliothek" konzipiert, wird DigiLink zunehmend auch unabhängig davon eingesetzt und direkt in den eigenen Internetauftritt integriert.
  19. Momeni, F.; Mayr, P.: Analyzing the research output presented at European Networked Knowledge Organization Systems workshops (2000-2015) (2016) 0.00
    0.0022971304 = product of:
      0.0137827825 = sum of:
        0.0137827825 = weight(_text_:in in 3106) [ClassicSimilarity], result of:
          0.0137827825 = score(doc=3106,freq=16.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.21253976 = fieldWeight in 3106, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3106)
      0.16666667 = coord(1/6)
    
    Abstract
    In this paper we analyze a major part of the research output of the Networked Knowledge Organization Systems (NKOS) community in the period 2000 to 2015 from a network analytical perspective. We fo- cus on the paper output presented at the European NKOS workshops in the last 15 years. Our open dataset, the "NKOS bibliography", includes 14 workshop agendas (ECDL 2000-2010, TPDL 2011-2015) and 4 special issues on NKOS (2001, 2004, 2006 and 2015) which cover 171 papers with 218 distinct authors in total. A focus of the analysis is the visualization of co-authorship networks in this interdisciplinary eld. We used standard network analytic measures like degree and betweenness centrality to de- scribe the co-authorship distribution in our NKOS dataset. We can see in our dataset that 15% (with degree=0) of authors had no co-authorship with others and 53% of them had a maximum of 3 cooperations with other authors. 32% had at least 4 co-authors for all of their papers. The NKOS co-author network in the "NKOS bibliography" is a typical co- authorship network with one relatively large component, many smaller components and many isolated co-authorships or triples.
  20. Mayr, P.: Bradfordizing mit Katalogdaten : Alternative Sicht auf Suchergebnisse und Publikationsquellen durch Re-Ranking (2010) 0.00
    0.0021792497 = product of:
      0.013075498 = sum of:
        0.013075498 = weight(_text_:in in 4301) [ClassicSimilarity], result of:
          0.013075498 = score(doc=4301,freq=10.0), product of:
            0.06484802 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.047673445 = queryNorm
            0.20163295 = fieldWeight in 4301, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4301)
      0.16666667 = coord(1/6)
    
    Abstract
    Nutzer erwarten für Literaturrecherchen in wissenschaftlichen Suchsystemen einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, für viele Nutzer inzwischen eine entscheidende Rolle. Abgegrenzt wird Ranking oder Relevance Ranking von sogenannten Sortierungen zum Beispiel nach dem Erscheinungsjahr der Publikation, obwohl hier die Grenze zu »nach inhaltlicher Relevanz« gerankten Listen konzeptuell nicht sauber zu ziehen ist. Das Ranking von Dokumenten führt letztlich dazu, dass sich die Benutzer fokussiert mit den oberen Treffermengen eines Suchergebnisses beschäftigen. Der mittlere und untere Bereich eines Suchergebnisses wird häufig nicht mehr in Betracht gezogen. Aufgrund der Vielzahl an relevanten und verfügbaren Informationsquellen ist es daher notwendig, Kernbereiche in den Suchräumen zu identifizieren und diese anschließend dem Nutzer hervorgehoben zu präsentieren. Phillipp Mayr fasst hier die Ergebnisse seiner Dissertation zum Thema »Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken« zusammen.