Search (14 results, page 1 of 1)

  • × author_ss:"Mayr, P."
  1. Mayr, P.: Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken (2009) 0.02
    0.020669976 = product of:
      0.124019854 = sum of:
        0.06400661 = weight(_text_:monographien in 4302) [ClassicSimilarity], result of:
          0.06400661 = score(doc=4302,freq=2.0), product of:
            0.21725276 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.032588977 = queryNorm
            0.2946182 = fieldWeight in 4302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.060013242 = weight(_text_:verteilte in 4302) [ClassicSimilarity], result of:
          0.060013242 = score(doc=4302,freq=2.0), product of:
            0.21036641 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.032588977 = queryNorm
            0.28527957 = fieldWeight in 4302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
      0.16666667 = coord(2/12)
    
    Abstract
    Trotz großer Dokumentmengen für datenbankübergreifende Literaturrecherchen erwarten akademische Nutzer einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, inzwischen eine entscheidende Rolle beim Design von Suchsystemen. Nutzer erwarten weiterhin flexible Informationssysteme, die es unter anderem zulassen, Einfluss auf das Ranking der Dokumente zu nehmen bzw. alternative Rankingverfahren zu verwenden. In dieser Arbeit werden zwei Mehrwertverfahren für Suchsysteme vorgestellt, die die typischen Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln und damit die Recherchesituation messbar verbessern können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden hier ausführlich beschrieben und im empirischen Teil der Arbeit bzgl. der Effektivität für typische fachbezogene Recherchen evaluiert. Vorrangiges Ziel der Promotion ist es, zu untersuchen, ob das hier vorgestellte alternative Re-Rankingverfahren Bradfordizing im Anwendungsbereich bibliographischer Datenbanken zum einen operabel ist und zum anderen voraussichtlich gewinnbringend in Informationssystemen eingesetzt und dem Nutzer angeboten werden kann. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben wissenschaftlichen Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Evaluation der Crosskonkordanzen (insgesamt 82 Fragestellungen) zeigt, dass sich die Retrievalergebnisse signifikant für alle Crosskonkordanzen verbessern; es zeigt sich zudem, dass interdisziplinäre Crosskonkordanzen den stärksten (positiven) Effekt auf die Suchergebnisse haben. Die Evaluation des Re-Ranking nach Bradfordizing (insgesamt 164 Fragestellungen) zeigt, dass die Dokumente der Kernzone (Kernzeitschriften) für die meisten Testreihen eine signifikant höhere Precision als Dokumente der Zone 2 und Zone 3 (Peripheriezeitschriften) ergeben. Sowohl für Zeitschriften als auch für Monographien kann dieser Relevanzvorteil nach Bradfordizing auf einer sehr breiten Basis von Themen und Fragestellungen an zwei unabhängigen Dokumentkorpora empirisch nachgewiesen werden.
  2. Mayr, P.: Bradfordizing mit Katalogdaten : Alternative Sicht auf Suchergebnisse und Publikationsquellen durch Re-Ranking (2010) 0.02
    0.019973617 = product of:
      0.1198417 = sum of:
        0.09001986 = weight(_text_:verteilte in 4301) [ClassicSimilarity], result of:
          0.09001986 = score(doc=4301,freq=2.0), product of:
            0.21036641 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.032588977 = queryNorm
            0.42791936 = fieldWeight in 4301, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.046875 = fieldNorm(doc=4301)
        0.029821843 = product of:
          0.059643686 = sum of:
            0.059643686 = weight(_text_:allgemein in 4301) [ClassicSimilarity], result of:
              0.059643686 = score(doc=4301,freq=2.0), product of:
                0.17123379 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.032588977 = queryNorm
                0.34831727 = fieldWeight in 4301, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4301)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Abstract
    Nutzer erwarten für Literaturrecherchen in wissenschaftlichen Suchsystemen einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, für viele Nutzer inzwischen eine entscheidende Rolle. Abgegrenzt wird Ranking oder Relevance Ranking von sogenannten Sortierungen zum Beispiel nach dem Erscheinungsjahr der Publikation, obwohl hier die Grenze zu »nach inhaltlicher Relevanz« gerankten Listen konzeptuell nicht sauber zu ziehen ist. Das Ranking von Dokumenten führt letztlich dazu, dass sich die Benutzer fokussiert mit den oberen Treffermengen eines Suchergebnisses beschäftigen. Der mittlere und untere Bereich eines Suchergebnisses wird häufig nicht mehr in Betracht gezogen. Aufgrund der Vielzahl an relevanten und verfügbaren Informationsquellen ist es daher notwendig, Kernbereiche in den Suchräumen zu identifizieren und diese anschließend dem Nutzer hervorgehoben zu präsentieren. Phillipp Mayr fasst hier die Ergebnisse seiner Dissertation zum Thema »Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken« zusammen.
    Theme
    Katalogfragen allgemein
  3. Mayr, P.: DigiLink - Die dritte Generation der Linklisten (2005) 0.02
    0.017931795 = product of:
      0.107590765 = sum of:
        0.08248526 = weight(_text_:systeme in 3582) [ClassicSimilarity], result of:
          0.08248526 = score(doc=3582,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.4729882 = fieldWeight in 3582, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.0625 = fieldNorm(doc=3582)
        0.025105506 = weight(_text_:internet in 3582) [ClassicSimilarity], result of:
          0.025105506 = score(doc=3582,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.2609436 = fieldWeight in 3582, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=3582)
      0.16666667 = coord(2/12)
    
    Abstract
    Als Linklisten "der dritten Generation" werden in diesem Artikel Systeme zur kooperativen Verwaltung von Internetlinks und Datenbankbeschreibungen bezeichnet. Mit DigiLink wird ein Vertreter dieses Typs näher vorgestellt. DigiLink ist eine Eigenentwicklung des hbz, die sich besonders durch hohe Anpassungsfähigkeit im Layout und in der Organisation der verwalteten Bestände auszeichnet. Diese Flexibilität begünstigt den Einsatz in unterschiedlichen Bibliothekstypen, derzeit (April 2005) verwalten knapp 70 Standorte die rund 1.000 Einträge. Ursprünglich als Modul der "Digitalen Bibliothek" konzipiert, wird DigiLink zunehmend auch unabhängig davon eingesetzt und direkt in den eigenen Internetauftritt integriert.
    Theme
    Internet
  4. Daniel, F.; Maier, C.; Mayr, P.; Wirtz, H.-C.: ¬Die Kunden dort bedienen, wo sie sind : DigiAuskunft besteht Bewährungsprobe / Seit Anfang 2006 in Betrieb (2006) 0.01
    0.0077533713 = product of:
      0.046520226 = sum of:
        0.03106648 = weight(_text_:internet in 5991) [ClassicSimilarity], result of:
          0.03106648 = score(doc=5991,freq=4.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.32290122 = fieldWeight in 5991, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5991)
        0.015453748 = product of:
          0.030907497 = sum of:
            0.030907497 = weight(_text_:22 in 5991) [ClassicSimilarity], result of:
              0.030907497 = score(doc=5991,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.2708308 = fieldWeight in 5991, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5991)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Abstract
    Informationen werden heute zunächst im Internet gesucht - auch regelmäßige Bibliotheksnutzer machen dies nicht anders. Die Bibliotheken haben sich darauf eingestellt und mit Online-Katalogen, digitalen Bibliotheken, Volltextbanken und der Endnutzer-Fernleihe virtuelle Dependancen im Netz aufgebaut. Diese Angebote werden idealerweise durch einen digitalen Auskunftsdienst ergänzt. Die Internet-Trainerin Anne Lipow sagte schon vor sechs Jahren zutreffend: »It's the librarian's job, to meet the users where they are...« Auch auf zahlreichen deutschsprachigen Bibliothekswebsites gibt es folglich heute individuelle Beratung und Informationsvermittlung in unterschiedlicher Form: als E-MailKontakt, über Webformulare und in den vergangenen Jahren auch vermehrt als Chat.
    Date
    8. 7.2006 21:06:22
  5. Mayr, P.; Walter, A.-K.: Einsatzmöglichkeiten von Crosskonkordanzen (2007) 0.01
    0.0066033304 = product of:
      0.079239964 = sum of:
        0.079239964 = product of:
          0.15847993 = sum of:
            0.15847993 = weight(_text_:vernetzung in 162) [ClassicSimilarity], result of:
              0.15847993 = score(doc=162,freq=4.0), product of:
                0.20326729 = queryWeight, product of:
                  6.237302 = idf(docFreq=234, maxDocs=44218)
                  0.032588977 = queryNorm
                0.7796627 = fieldWeight in 162, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.237302 = idf(docFreq=234, maxDocs=44218)
                  0.0625 = fieldNorm(doc=162)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Content
    Auch in: Lokal-Global: Vernetzung wissenschaftlicher Infrastrukturen; 12. Kongress der IuK-Initiative der Wissenschaftlichen Fachgesellschaft in Deutschland, Tagungsberichte, GESIS-IZ Sozialwissenschaft, Bonn, S.149-166.
    Source
    http://www.gesis.org/Information/Forschungsuebersichten/Tagungsberichte/Vernetzung/Mayr-Walter.pdf
  6. Mayr, P.; Walter, A.-K.: Mapping Knowledge Organization Systems (2008) 0.00
    0.003501945 = product of:
      0.04202334 = sum of:
        0.04202334 = product of:
          0.08404668 = sum of:
            0.08404668 = weight(_text_:vernetzung in 1676) [ClassicSimilarity], result of:
              0.08404668 = score(doc=1676,freq=2.0), product of:
                0.20326729 = queryWeight, product of:
                  6.237302 = idf(docFreq=234, maxDocs=44218)
                  0.032588977 = queryNorm
                0.4134786 = fieldWeight in 1676, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.237302 = idf(docFreq=234, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1676)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Abstract
    Die Vernetzung der Informationssysteme und Datenbanken aus dem wissenschaftlichen Fachinformationsbereich lässt bislang den Aspekt der Kompatibilität und Konkordanz zwischen kontrollierten Vokabularen (semantische Heterogenität) weitgehend unberücksichtigt. Gerade aber für den inhaltlichen Zugang sachlich heterogen erschlössener Bestände spielen für den Nutzer die semantischen Querverbindungen (Mappings /Crosskonkordanzen) zwischen den zugrunde liegenden Knowledge Organization Systems (KOS) der Datenbanken eine entscheidende Rolle. Der Beitrag stellt Einsatzmöglichkeiten und Beispiele von Crosskonkordanzen (CK) im Projekt "Kompetenznetzwerk Modellbildung und Heterogenitätsbehandlung" (KoMoHe) sowie das Netz der bis dato entstandenen Terminolögie-Überstiege vor. Die am IZ entstandenen CK sollen künftig über einen Terminolögie-Service als Web Service genutzt werden, dieser wird im Beitrag exemplarisch vorgestellt.
  7. Krause, J.; Mayr, P.: Allgemeiner Bibliothekszugang und Varianten der Suchtypologie : Konsequenzen für die Modellbildung in vascoda (2007) 0.00
    0.002899346 = product of:
      0.03479215 = sum of:
        0.03479215 = product of:
          0.0695843 = sum of:
            0.0695843 = weight(_text_:allgemein in 5998) [ClassicSimilarity], result of:
              0.0695843 = score(doc=5998,freq=2.0), product of:
                0.17123379 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.032588977 = queryNorm
                0.40637016 = fieldWeight in 5998, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5998)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Theme
    Katalogfragen allgemein
  8. Lewandowski, D.; Mayr, P.: Exploring the academic invisible Web (2006) 0.00
    0.0018491952 = product of:
      0.022190342 = sum of:
        0.022190342 = weight(_text_:internet in 3752) [ClassicSimilarity], result of:
          0.022190342 = score(doc=3752,freq=4.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.23064373 = fieldWeight in 3752, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3752)
      0.083333336 = coord(1/12)
    
    Abstract
    Purpose: To provide a critical review of Bergman's 2001 study on the Deep Web. In addition, we bring a new concept into the discussion, the Academic Invisible Web (AIW). We define the Academic Invisible Web as consisting of all databases and collections relevant to academia but not searchable by the general-purpose internet search engines. Indexing this part of the Invisible Web is central to scien-tific search engines. We provide an overview of approaches followed thus far. Design/methodology/approach: Discussion of measures and calculations, estima-tion based on informetric laws. Literature review on approaches for uncovering information from the Invisible Web. Findings: Bergman's size estimate of the Invisible Web is highly questionable. We demonstrate some major errors in the conceptual design of the Bergman paper. A new (raw) size estimate is given. Research limitations/implications: The precision of our estimate is limited due to a small sample size and lack of reliable data. Practical implications: We can show that no single library alone will be able to index the Academic Invisible Web. We suggest collaboration to accomplish this task. Originality/value: Provides library managers and those interested in developing academic search engines with data on the size and attributes of the Academic In-visible Web.
    Theme
    Internet
  9. Mayr, P.; Tosques, F.: Webometrische Analysen mit Hilfe der Google Web APIs (2005) 0.00
    0.0018306099 = product of:
      0.021967318 = sum of:
        0.021967318 = weight(_text_:internet in 3189) [ClassicSimilarity], result of:
          0.021967318 = score(doc=3189,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.22832564 = fieldWeight in 3189, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3189)
      0.083333336 = coord(1/12)
    
    Abstract
    Der Report stellt die Möglichkeiten und Einschränkungen der Google Web APIs (Google API) dar. Die Implementierung der Google API anhand einzelner informationswissenschaftlicher Untersuchungen aus der Webometrie ergibt, dass die Google API mit Einschränkungen für internetbezogene Untersuchungen eingesetzt werden können. Vergleiche der Trefferergebnisse über die beiden Google-Schnittstellen Google API und die Standard Weboberfläche Google.com (Google Web) zeigen Unterschiede bezüglich der Reichweite, der Zusammensetzung und Verfügbarkeit. Die Untersuchung basiert auf einfachen und erweiterten Suchanfragen in den Sprachen Deutsch und Englisch. Die analysierten Treffermengen der Google API bestätigen tendenziell frühere Internet-Studien.
  10. Mayr, P.: Google Scholar als akademische Suchmaschine (2009) 0.00
    0.0014793561 = product of:
      0.017752273 = sum of:
        0.017752273 = weight(_text_:internet in 3023) [ClassicSimilarity], result of:
          0.017752273 = score(doc=3023,freq=4.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.18451498 = fieldWeight in 3023, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=3023)
      0.083333336 = coord(1/12)
    
    Abstract
    Die drei oben genannten Suchsysteme (Google, GS und WoS) unterscheiden sich in mehrerlei Hinsicht fundamental und eignen sich daher gut, um in die Grundthematik dieses Artikels einzuleiten. Die obigen Suchsysteme erschließen zunächst unterschiedliche Suchräume, und dies auf sehr spezifische Weise. Während Google frei zugängliche und über Hyperlink adressierbare Dokumente im Internet erfasst, gehen die beiden akademischen Suchsysteme deutlich selektiver bei der Inhaltserschließung vor. Google Scholar erfasst neben frei zugänglichen elektronischen Publikationstypen im Internet hauptsächlich wissenschaftliche Dokumente, die direkt von den akademischen Verlagen bezogen werden. Das WoS, das auf den unterschiedlichen bibliographischen Datenbanken und Zitationsindizes des ehemaligen "Institute for Scientific Information" (ISI) basiert, selektiert gegenüber den rein automatischen brute-force-Ansätzen der Internetsuchmaschine über einen qualitativen Ansatz. In den Datenbanken des WoS werden ausschließlich internationale Fachzeitschriften erfasst, die ein kontrolliertes Peer-Review durchlaufen. Insgesamt werden ca. 12.000 Zeitschriften ausgewertet und über die Datenbank verfügbar gemacht. Wie bereits erwähnt, spielt neben der Abgrenzung der Suchräume und Dokumenttypen die Zugänglichkeit und Relevanz der Dokumente eine entscheidende Bedeutung für den Benutzer. Die neueren technologischen Entwicklungen des Web Information Retrieval (IR), wie sie Google oder GS implementieren, werten insbesondere frei zugängliche Dokumente mit ihrer gesamten Text- und Linkinformation automatisch aus. Diese Verfahren sind vor allem deshalb erfolgreich, weil sie Ergebnislisten nach Relevanz gerankt darstellen, einfach und schnell zu recherchieren sind und direkt auf die Volltexte verweisen. Die qualitativen Verfahren der traditionellen Informationsanbieter (z. B. WoS) hingegen zeigen genau bei diesen Punkten (Ranking, Einfachheit und Volltextzugriff) Schwächen, überzeugen aber vor allem durch ihre Stringenz, in diesem Fall die selektive Aufnahme von qualitätsgeprüften Dokumenten in das System und die inhaltliche Erschließung der Dokumente (siehe dazu Mayr und Petras, 2008).
  11. Lewandowski, D.; Mayr, P.: Exploring the academic invisible Web (2006) 0.00
    0.0013075785 = product of:
      0.015690941 = sum of:
        0.015690941 = weight(_text_:internet in 2580) [ClassicSimilarity], result of:
          0.015690941 = score(doc=2580,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.16308975 = fieldWeight in 2580, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2580)
      0.083333336 = coord(1/12)
    
    Abstract
    Purpose: To provide a critical review of Bergman's 2001 study on the deep web. In addition, we bring a new concept into the discussion, the academic invisible web (AIW). We define the academic invisible web as consisting of all databases and collections relevant to academia but not searchable by the general-purpose internet search engines. Indexing this part of the invisible web is central to scientific search engines. We provide an overview of approaches followed thus far. Design/methodology/approach: Discussion of measures and calculations, estimation based on informetric laws. Literature review on approaches for uncovering information from the invisible web. Findings: Bergman's size estimate of the invisible web is highly questionable. We demonstrate some major errors in the conceptual design of the Bergman paper. A new (raw) size estimate is given. Research limitations/implications: The precision of our estimate is limited due to a small sample size and lack of reliable data. Practical implications: We can show that no single library alone will be able to index the academic invisible web. We suggest collaboration to accomplish this task. Originality/value: Provides library managers and those interested in developing academic search engines with data on the size and attributes of the academic invisible web.
  12. Mayr, P.; Petras, V.: Building a Terminology Network for Search : the KoMoHe project (2008) 0.00
    0.0012878124 = product of:
      0.015453748 = sum of:
        0.015453748 = product of:
          0.030907497 = sum of:
            0.030907497 = weight(_text_:22 in 2618) [ClassicSimilarity], result of:
              0.030907497 = score(doc=2618,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.2708308 = fieldWeight in 2618, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2618)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Source
    Metadata for semantic and social applications : proceedings of the International Conference on Dublin Core and Metadata Applications, Berlin, 22 - 26 September 2008, DC 2008: Berlin, Germany / ed. by Jane Greenberg and Wolfgang Klas
  13. Reichert, S.; Mayr, P.: Untersuchung von Relevanzeigenschaften in einem kontrollierten Eyetracking-Experiment (2012) 0.00
    0.0011038391 = product of:
      0.01324607 = sum of:
        0.01324607 = product of:
          0.02649214 = sum of:
            0.02649214 = weight(_text_:22 in 328) [ClassicSimilarity], result of:
              0.02649214 = score(doc=328,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.23214069 = fieldWeight in 328, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=328)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Date
    22. 7.2012 19:25:54
  14. Lauser, B.; Johannsen, G.; Caracciolo, C.; Hage, W.R. van; Keizer, J.; Mayr, P.: Comparing human and automatic thesaurus mapping approaches in the agricultural domain (2008) 0.00
    9.19866E-4 = product of:
      0.011038392 = sum of:
        0.011038392 = product of:
          0.022076784 = sum of:
            0.022076784 = weight(_text_:22 in 2627) [ClassicSimilarity], result of:
              0.022076784 = score(doc=2627,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.19345059 = fieldWeight in 2627, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2627)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Source
    Metadata for semantic and social applications : proceedings of the International Conference on Dublin Core and Metadata Applications, Berlin, 22 - 26 September 2008, DC 2008: Berlin, Germany / ed. by Jane Greenberg and Wolfgang Klas