Search (11 results, page 1 of 1)

  • × author_ss:"Mayr, P."
  1. Reichert, S.; Mayr, P.: Untersuchung von Relevanzeigenschaften in einem kontrollierten Eyetracking-Experiment (2012) 0.07
    0.0684555 = product of:
      0.136911 = sum of:
        0.08451797 = weight(_text_:basis in 328) [ClassicSimilarity], result of:
          0.08451797 = score(doc=328,freq=2.0), product of:
            0.28665534 = queryWeight, product of:
              4.4476724 = idf(docFreq=1406, maxDocs=44218)
              0.064450644 = queryNorm
            0.2948418 = fieldWeight in 328, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4476724 = idf(docFreq=1406, maxDocs=44218)
              0.046875 = fieldNorm(doc=328)
        0.052393034 = weight(_text_:22 in 328) [ClassicSimilarity], result of:
          0.052393034 = score(doc=328,freq=2.0), product of:
            0.22569518 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.064450644 = queryNorm
            0.23214069 = fieldWeight in 328, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.046875 = fieldNorm(doc=328)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Artikel wird ein Eyetracking-Experiment beschrieben, bei dem untersucht wurde, wann und auf Basis welcher Informationen Relevanzentscheidungen bei der themenbezogenen Dokumentenbewertung fallen und welche Faktoren auf die Relevanzentscheidung einwirken. Nach einer kurzen Einführung werden relevante Studien aufgeführt, in denen Eyetracking als Untersuchungsmethode für Interaktionsverhalten mit Ergebnislisten (Information Seeking Behavior) verwendet wurde. Nutzerverhalten wird hierbei vor allem durch unterschiedliche Aufgaben-Typen, dargestellte Informationen und durch das Ranking eines Ergebnisses beeinflusst. Durch EyetrackingUntersuchungen lassen sich Nutzer außerdem in verschiedene Klassen von Bewertungs- und Lesetypen einordnen. Diese Informationen können als implizites Feedback genutzt werden, um so die Suche zu personalisieren und um die Relevanz von Suchergebnissen ohne aktives Zutun des Users zu erhöhen. In einem explorativen Eyetracking-Experiment mit 12 Studenten der Hochschule Darmstadt werden anhand der Länge der Gesamtbewertung, Anzahl der Fixationen, Anzahl der besuchten Metadatenelemente und Länge des Scanpfades zwei typische Bewertungstypen identifiziert. Das Metadatenfeld Abstract wird im Experiment zuverlässig als wichtigste Dokumenteigenschaft für die Zuordnung von Relevanz ermittelt.
    Date
    22. 7.2012 19:25:54
  2. Mayr, P.; Umstätter, W.: ¬Eine bibliometrische Zeitschriftenanalyse mit Jol Scientrometrics und NfD bzw. IWP (2008) 0.02
    0.024651077 = product of:
      0.09860431 = sum of:
        0.09860431 = weight(_text_:basis in 2302) [ClassicSimilarity], result of:
          0.09860431 = score(doc=2302,freq=2.0), product of:
            0.28665534 = queryWeight, product of:
              4.4476724 = idf(docFreq=1406, maxDocs=44218)
              0.064450644 = queryNorm
            0.3439821 = fieldWeight in 2302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4476724 = idf(docFreq=1406, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2302)
      0.25 = coord(1/4)
    
    Abstract
    In der Studie sind 3.889 Datensätze analysiert worden, die im Zeitraum 1976-2004 in der Datenbank Library and Information Science Abstracts (LISA) im Forschungsbereich der Informetrie nachgewiesen sind und das Wachstum auf diesem Gebiet belegen. Die Studie zeigt anhand einer Bradford-Verteilung (power law) die Kernzeitschriften in diesem Feld und bestätigt auf der Basis dieses LISA-Datensatzes, dass die Gründung einer neuen Zeitschrift, "Journals of Informetrics" (JoI), 2007 etwa zur rechten Zeit erfolgte. Im Verhältnis dazu wird die Entwicklung der Zeitschrift Scientometrics betrachtet und auch die der "Nachrichten für Dokumentation" (NfD) bzw. "Information - Wissenschaft und Praxis" (IWP).
  3. Mayr, P.: Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken (2009) 0.02
    0.02439824 = product of:
      0.09759296 = sum of:
        0.09759296 = weight(_text_:basis in 4302) [ClassicSimilarity], result of:
          0.09759296 = score(doc=4302,freq=6.0), product of:
            0.28665534 = queryWeight, product of:
              4.4476724 = idf(docFreq=1406, maxDocs=44218)
              0.064450644 = queryNorm
            0.340454 = fieldWeight in 4302, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.4476724 = idf(docFreq=1406, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
      0.25 = coord(1/4)
    
    Abstract
    Trotz großer Dokumentmengen für datenbankübergreifende Literaturrecherchen erwarten akademische Nutzer einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, inzwischen eine entscheidende Rolle beim Design von Suchsystemen. Nutzer erwarten weiterhin flexible Informationssysteme, die es unter anderem zulassen, Einfluss auf das Ranking der Dokumente zu nehmen bzw. alternative Rankingverfahren zu verwenden. In dieser Arbeit werden zwei Mehrwertverfahren für Suchsysteme vorgestellt, die die typischen Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln und damit die Recherchesituation messbar verbessern können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden hier ausführlich beschrieben und im empirischen Teil der Arbeit bzgl. der Effektivität für typische fachbezogene Recherchen evaluiert. Vorrangiges Ziel der Promotion ist es, zu untersuchen, ob das hier vorgestellte alternative Re-Rankingverfahren Bradfordizing im Anwendungsbereich bibliographischer Datenbanken zum einen operabel ist und zum anderen voraussichtlich gewinnbringend in Informationssystemen eingesetzt und dem Nutzer angeboten werden kann. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben wissenschaftlichen Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Evaluation der Crosskonkordanzen (insgesamt 82 Fragestellungen) zeigt, dass sich die Retrievalergebnisse signifikant für alle Crosskonkordanzen verbessern; es zeigt sich zudem, dass interdisziplinäre Crosskonkordanzen den stärksten (positiven) Effekt auf die Suchergebnisse haben. Die Evaluation des Re-Ranking nach Bradfordizing (insgesamt 164 Fragestellungen) zeigt, dass die Dokumente der Kernzone (Kernzeitschriften) für die meisten Testreihen eine signifikant höhere Precision als Dokumente der Zone 2 und Zone 3 (Peripheriezeitschriften) ergeben. Sowohl für Zeitschriften als auch für Monographien kann dieser Relevanzvorteil nach Bradfordizing auf einer sehr breiten Basis von Themen und Fragestellungen an zwei unabhängigen Dokumentkorpora empirisch nachgewiesen werden.
  4. Mayr, P.; Zapilko, B.; Sure, Y.: ¬Ein Mehr-Thesauri-Szenario auf Basis von SKOS und Crosskonkordanzen (2010) 0.02
    0.021129493 = product of:
      0.08451797 = sum of:
        0.08451797 = weight(_text_:basis in 3392) [ClassicSimilarity], result of:
          0.08451797 = score(doc=3392,freq=2.0), product of:
            0.28665534 = queryWeight, product of:
              4.4476724 = idf(docFreq=1406, maxDocs=44218)
              0.064450644 = queryNorm
            0.2948418 = fieldWeight in 3392, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4476724 = idf(docFreq=1406, maxDocs=44218)
              0.046875 = fieldNorm(doc=3392)
      0.25 = coord(1/4)
    
  5. Mayr, P.: Bradfordizing mit Katalogdaten : Alternative Sicht auf Suchergebnisse und Publikationsquellen durch Re-Ranking (2010) 0.02
    0.021129493 = product of:
      0.08451797 = sum of:
        0.08451797 = weight(_text_:basis in 4301) [ClassicSimilarity], result of:
          0.08451797 = score(doc=4301,freq=2.0), product of:
            0.28665534 = queryWeight, product of:
              4.4476724 = idf(docFreq=1406, maxDocs=44218)
              0.064450644 = queryNorm
            0.2948418 = fieldWeight in 4301, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4476724 = idf(docFreq=1406, maxDocs=44218)
              0.046875 = fieldNorm(doc=4301)
      0.25 = coord(1/4)
    
    Abstract
    Nutzer erwarten für Literaturrecherchen in wissenschaftlichen Suchsystemen einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, für viele Nutzer inzwischen eine entscheidende Rolle. Abgegrenzt wird Ranking oder Relevance Ranking von sogenannten Sortierungen zum Beispiel nach dem Erscheinungsjahr der Publikation, obwohl hier die Grenze zu »nach inhaltlicher Relevanz« gerankten Listen konzeptuell nicht sauber zu ziehen ist. Das Ranking von Dokumenten führt letztlich dazu, dass sich die Benutzer fokussiert mit den oberen Treffermengen eines Suchergebnisses beschäftigen. Der mittlere und untere Bereich eines Suchergebnisses wird häufig nicht mehr in Betracht gezogen. Aufgrund der Vielzahl an relevanten und verfügbaren Informationsquellen ist es daher notwendig, Kernbereiche in den Suchräumen zu identifizieren und diese anschließend dem Nutzer hervorgehoben zu präsentieren. Phillipp Mayr fasst hier die Ergebnisse seiner Dissertation zum Thema »Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken« zusammen.
  6. Mayr, P.: Information Retrieval-Mehrwertdienste für Digitale Bibliotheken: : Crosskonkordanzen und Bradfordizing (2010) 0.02
    0.021129493 = product of:
      0.08451797 = sum of:
        0.08451797 = weight(_text_:basis in 4910) [ClassicSimilarity], result of:
          0.08451797 = score(doc=4910,freq=2.0), product of:
            0.28665534 = queryWeight, product of:
              4.4476724 = idf(docFreq=1406, maxDocs=44218)
              0.064450644 = queryNorm
            0.2948418 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4476724 = idf(docFreq=1406, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
      0.25 = coord(1/4)
    
    Abstract
    In dieser Arbeit werden zwei Mehrwertdienste für Suchsysteme vorgestellt, die typische Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden in diesem Buch ausführlich beschrieben und evaluiert. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Ergebnisse dieser Arbeit sind in das GESIS-Projekt IRM eingeflossen.
  7. Mayr, P.; Mutschke, P.; Petras, V.: Reducing semantic complexity in distributed digital libraries : Treatment of term vagueness and document re-ranking (2008) 0.02
    0.017607912 = product of:
      0.07043165 = sum of:
        0.07043165 = weight(_text_:basis in 1909) [ClassicSimilarity], result of:
          0.07043165 = score(doc=1909,freq=2.0), product of:
            0.28665534 = queryWeight, product of:
              4.4476724 = idf(docFreq=1406, maxDocs=44218)
              0.064450644 = queryNorm
            0.2457015 = fieldWeight in 1909, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4476724 = idf(docFreq=1406, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1909)
      0.25 = coord(1/4)
    
    Abstract
    Purpose - The general science portal "vascoda" merges structured, high-quality information collections from more than 40 providers on the basis of search engine technology (FAST) and a concept which treats semantic heterogeneity between different controlled vocabularies. First experiences with the portal show some weaknesses of this approach which come out in most metadata-driven Digital Libraries (DLs) or subject specific portals. The purpose of the paper is to propose models to reduce the semantic complexity in heterogeneous DLs. The aim is to introduce value-added services (treatment of term vagueness and document re-ranking) that gain a certain quality in DLs if they are combined with heterogeneity components established in the project "Competence Center Modeling and Treatment of Semantic Heterogeneity". Design/methodology/approach - Two methods, which are derived from scientometrics and network analysis, will be implemented with the objective to re-rank result sets by the following structural properties: the ranking of the results by core journals (so-called Bradfordizing) and ranking by centrality of authors in co-authorship networks. Findings - The methods, which will be implemented, focus on the query and on the result side of a search and are designed to positively influence each other. Conceptually, they will improve the search quality and guarantee that the most relevant documents in result sets will be ranked higher. Originality/value - The central impact of the paper focuses on the integration of three structural value-adding methods, which aim at reducing the semantic complexity represented in distributed DLs at several stages in the information retrieval process: query construction, search and ranking and re-ranking.
  8. Daniel, F.; Maier, C.; Mayr, P.; Wirtz, H.-C.: ¬Die Kunden dort bedienen, wo sie sind : DigiAuskunft besteht Bewährungsprobe / Seit Anfang 2006 in Betrieb (2006) 0.02
    0.015281302 = product of:
      0.061125208 = sum of:
        0.061125208 = weight(_text_:22 in 5991) [ClassicSimilarity], result of:
          0.061125208 = score(doc=5991,freq=2.0), product of:
            0.22569518 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.064450644 = queryNorm
            0.2708308 = fieldWeight in 5991, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5991)
      0.25 = coord(1/4)
    
    Date
    8. 7.2006 21:06:22
  9. Mayr, P.; Petras, V.: Building a Terminology Network for Search : the KoMoHe project (2008) 0.02
    0.015281302 = product of:
      0.061125208 = sum of:
        0.061125208 = weight(_text_:22 in 2618) [ClassicSimilarity], result of:
          0.061125208 = score(doc=2618,freq=2.0), product of:
            0.22569518 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.064450644 = queryNorm
            0.2708308 = fieldWeight in 2618, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2618)
      0.25 = coord(1/4)
    
    Source
    Metadata for semantic and social applications : proceedings of the International Conference on Dublin Core and Metadata Applications, Berlin, 22 - 26 September 2008, DC 2008: Berlin, Germany / ed. by Jane Greenberg and Wolfgang Klas
  10. Mayr, P.; Petras, V.; Walter, A.-K.: Results from a German terminology mapping effort : intra- and interdisciplinary cross-concordances between controlled vocabularies (2007) 0.01
    0.012325538 = product of:
      0.049302153 = sum of:
        0.049302153 = weight(_text_:basis in 542) [ClassicSimilarity], result of:
          0.049302153 = score(doc=542,freq=2.0), product of:
            0.28665534 = queryWeight, product of:
              4.4476724 = idf(docFreq=1406, maxDocs=44218)
              0.064450644 = queryNorm
            0.17199105 = fieldWeight in 542, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4476724 = idf(docFreq=1406, maxDocs=44218)
              0.02734375 = fieldNorm(doc=542)
      0.25 = coord(1/4)
    
    Abstract
    In the final phase of the project, a major evaluation effort is under way to test and measure the effectiveness of the vocabulary mappings in an information system environment. Actual user queries are tested in a distributed search environment, where several bibliographic databases with different controlled vocabularies are searched at the same time. Three query variations are compared to each other: a free-text search without focusing on using the controlled vocabulary or terminology mapping; a controlled vocabulary search, where terms from one vocabulary (a 'home' vocabulary thought to be familiar to the user of a particular database) are used to search all databases; and finally, a search, where controlled vocabulary terms are translated into the terms of the respective controlled vocabulary of the database. For evaluation purposes, types of cross-concordances are distinguished between intradisciplinary vocabularies (vocabularies within the social sciences) and interdisciplinary vocabularies (social sciences to other disciplines as well as other combinations). Simultaneously, an extensive quantitative analysis is conducted aimed at finding patterns in terminology mappings that can explain trends in the effectiveness of terminology mappings, particularly looking at overlapping terms, types of determined relations (equivalence, hierarchy etc.), size of participating vocabularies, etc. This project is the largest terminology mapping effort in Germany. The number and variety of controlled vocabularies targeted provide an optimal basis for insights and further research opportunities. To our knowledge, terminology mapping efforts have rarely been evaluated with stringent qualitative and quantitative measures. This research should contribute in this area. For the NKOS workshop, we plan to present an overview of the project and participating vocabularies, an introduction to the heterogeneity service and its application as well as some of the results and findings of the evaluation, which will be concluded in August.
  11. Lauser, B.; Johannsen, G.; Caracciolo, C.; Hage, W.R. van; Keizer, J.; Mayr, P.: Comparing human and automatic thesaurus mapping approaches in the agricultural domain (2008) 0.01
    0.010915216 = product of:
      0.043660864 = sum of:
        0.043660864 = weight(_text_:22 in 2627) [ClassicSimilarity], result of:
          0.043660864 = score(doc=2627,freq=2.0), product of:
            0.22569518 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.064450644 = queryNorm
            0.19345059 = fieldWeight in 2627, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2627)
      0.25 = coord(1/4)
    
    Source
    Metadata for semantic and social applications : proceedings of the International Conference on Dublin Core and Metadata Applications, Berlin, 22 - 26 September 2008, DC 2008: Berlin, Germany / ed. by Jane Greenberg and Wolfgang Klas