Search (25 results, page 1 of 2)

  • × author_ss:"Mayr, P."
  1. Mayr, P.: Google Scholar als akademische Suchmaschine (2009) 0.02
    0.02096533 = product of:
      0.10482665 = sum of:
        0.063223675 = weight(_text_:suchmaschine in 3023) [ClassicSimilarity], result of:
          0.063223675 = score(doc=3023,freq=4.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.3533909 = fieldWeight in 3023, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03125 = fieldNorm(doc=3023)
        0.020541003 = product of:
          0.041082006 = sum of:
            0.041082006 = weight(_text_:recherche in 3023) [ClassicSimilarity], result of:
              0.041082006 = score(doc=3023,freq=2.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.23954318 = fieldWeight in 3023, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3023)
          0.5 = coord(1/2)
        0.021061972 = weight(_text_:web in 3023) [ClassicSimilarity], result of:
          0.021061972 = score(doc=3023,freq=4.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.2039694 = fieldWeight in 3023, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=3023)
      0.2 = coord(3/15)
    
    Abstract
    Neben den klassischen Informationsanbietern Bibliothek, Fachinformation und den Verlagen sind Internetsuchmaschinen inzwischen fester Bestandteil bei der Recherche nach wissenschaftlicher Information. Scirus (Elsevier, 2004) und Google Scholar sind zwei Beispiele für Suchdienste kommerzieller Suchmaschinen-Unternehmen, die eine Einschränkung auf den wissenschaftlichen Dokumentenraum anstreben und nennenswerte Dokumentzahlen in allen Disziplinen generieren. Der Vergleich der Treffermengen für beliebige Suchthemen zeigt, dass die Wahl des Suchsystems, des Dokumentenpools und der Dokumenttypen entscheidenden Einfluss auf die Relevanz und damit letztlich auch die Akzeptanz des Suchergebnisses hat. Tabelle 1 verdeutlicht die Mengenunterschiede am Beispiel der Trefferergebnisse für die Suchbegriffe "search engines" bzw. "Suchmaschinen" in der allgemeinen Internetsuchmaschine Google, der wissenschaftlichen Suchmaschine Google Scholar (GS) und der größten fachübergreifenden bibliographischen Literaturdatenbank Web of Science (WoS). Der Anteil der Dokumente, die in diesem Fall eindeutig der Wissenschaft zuzuordnen sind (siehe GS und insbesondere WoS in Tabelle 1), liegt gegenüber der allgemeinen Websuche lediglich im Promille-Bereich. Dieses Beispiel veranschaulicht, dass es ausgesprochen problematisch sein kann, fachwissenschaftliche Fragestellungen ausschließlich mit Internetsuchmaschinen zu recherchieren. Der Anteil der fachwissenschaftlich relevanten Dokumente in diesem Trefferpool ist i. d. R. sehr gering. Damit sinkt die Wahrscheinlichkeit, wissenschaftlich relevantes (z. B. einen Zeitschriftenaufsatz) auf den ersten Trefferseiten zu finden, deutlich ab.
    Die drei oben genannten Suchsysteme (Google, GS und WoS) unterscheiden sich in mehrerlei Hinsicht fundamental und eignen sich daher gut, um in die Grundthematik dieses Artikels einzuleiten. Die obigen Suchsysteme erschließen zunächst unterschiedliche Suchräume, und dies auf sehr spezifische Weise. Während Google frei zugängliche und über Hyperlink adressierbare Dokumente im Internet erfasst, gehen die beiden akademischen Suchsysteme deutlich selektiver bei der Inhaltserschließung vor. Google Scholar erfasst neben frei zugänglichen elektronischen Publikationstypen im Internet hauptsächlich wissenschaftliche Dokumente, die direkt von den akademischen Verlagen bezogen werden. Das WoS, das auf den unterschiedlichen bibliographischen Datenbanken und Zitationsindizes des ehemaligen "Institute for Scientific Information" (ISI) basiert, selektiert gegenüber den rein automatischen brute-force-Ansätzen der Internetsuchmaschine über einen qualitativen Ansatz. In den Datenbanken des WoS werden ausschließlich internationale Fachzeitschriften erfasst, die ein kontrolliertes Peer-Review durchlaufen. Insgesamt werden ca. 12.000 Zeitschriften ausgewertet und über die Datenbank verfügbar gemacht. Wie bereits erwähnt, spielt neben der Abgrenzung der Suchräume und Dokumenttypen die Zugänglichkeit und Relevanz der Dokumente eine entscheidende Bedeutung für den Benutzer. Die neueren technologischen Entwicklungen des Web Information Retrieval (IR), wie sie Google oder GS implementieren, werten insbesondere frei zugängliche Dokumente mit ihrer gesamten Text- und Linkinformation automatisch aus. Diese Verfahren sind vor allem deshalb erfolgreich, weil sie Ergebnislisten nach Relevanz gerankt darstellen, einfach und schnell zu recherchieren sind und direkt auf die Volltexte verweisen. Die qualitativen Verfahren der traditionellen Informationsanbieter (z. B. WoS) hingegen zeigen genau bei diesen Punkten (Ranking, Einfachheit und Volltextzugriff) Schwächen, überzeugen aber vor allem durch ihre Stringenz, in diesem Fall die selektive Aufnahme von qualitätsgeprüften Dokumenten in das System und die inhaltliche Erschließung der Dokumente (siehe dazu Mayr und Petras, 2008).
  2. Mayr, P.; Walter, A.-K.: Abdeckung und Aktualität des Suchdienstes Google Scholar (2006) 0.01
    0.013049379 = product of:
      0.097870335 = sum of:
        0.06705883 = weight(_text_:suchmaschine in 5131) [ClassicSimilarity], result of:
          0.06705883 = score(doc=5131,freq=2.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.37482765 = fieldWeight in 5131, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.046875 = fieldNorm(doc=5131)
        0.030811504 = product of:
          0.061623007 = sum of:
            0.061623007 = weight(_text_:recherche in 5131) [ClassicSimilarity], result of:
              0.061623007 = score(doc=5131,freq=2.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.35931477 = fieldWeight in 5131, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5131)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Der Beitrag widmet sich dem neuen Google-Suchdienst Google Scholar. Die Suchmaschine, die ausschließlich wissenschaftliche Dokumente durchsuchen soll, wird mit ihren wichtigsten Funktionen beschrieben und anschließend einem empirischen Test unterzogen. Die durchgeführte Studie basiert auf drei Zeitschriftenlisten: Zeitschriften von Thomson Scientific, Open AccessZeitschriften des Verzeichnisses DOAJ und in der Fachdatenbank SOLIS ausgewertete sozialwissenschaftliche Zeitschriften. Die Abdeckung dieser Zeitschriften durch Google Scholar wurde per Abfrage der Zeitschriftentitel überprüft. Die Studie zeigt Defizite in der Abdeckung und Aktualität des Google Scholarlndex. Weiterhin macht die Studie deutlich, wer die wichtigsten Datenlieferanten für den neuen Suchdienst sind und welche wissenschaftlichen Informationsquellen im Index repräsentiert sind. Die Pluspunkte von Google Scholar liegen in seiner Einfachheit, seiner Suchgeschwindigkeit und letztendlich seiner Kostenfreiheit. Die Recherche in Fachdatenbanken kann Google Scholar trotz sichtbarer Potenziale (z. B. Zitationsanalyse) aber heute aufgrund mangelnder fachlicher Abdeckung und Transparenz nicht ersetzen.
  3. Mayr, P.: Information Retrieval-Mehrwertdienste für Digitale Bibliotheken: : Crosskonkordanzen und Bradfordizing (2010) 0.01
    0.011067429 = product of:
      0.08300571 = sum of:
        0.030811504 = product of:
          0.061623007 = sum of:
            0.061623007 = weight(_text_:recherche in 4910) [ClassicSimilarity], result of:
              0.061623007 = score(doc=4910,freq=2.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.35931477 = fieldWeight in 4910, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4910)
          0.5 = coord(1/2)
        0.052194204 = weight(_text_:evaluation in 4910) [ClassicSimilarity], result of:
          0.052194204 = score(doc=4910,freq=4.0), product of:
            0.13272417 = queryWeight, product of:
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.031640913 = queryNorm
            0.3932532 = fieldWeight in 4910, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
      0.13333334 = coord(2/15)
    
    Abstract
    In dieser Arbeit werden zwei Mehrwertdienste für Suchsysteme vorgestellt, die typische Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden in diesem Buch ausführlich beschrieben und evaluiert. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Ergebnisse dieser Arbeit sind in das GESIS-Projekt IRM eingeflossen.
    RSWK
    Dokumentationssprache / Heterogenität / Information Retrieval / Ranking / Evaluation
    Subject
    Dokumentationssprache / Heterogenität / Information Retrieval / Ranking / Evaluation
  4. Daquino, M.; Peroni, S.; Shotton, D.; Colavizza, G.; Ghavimi, B.; Lauscher, A.; Mayr, P.; Romanello, M.; Zumstein, P.: ¬The OpenCitations Data Model (2020) 0.01
    0.010080026 = product of:
      0.07560019 = sum of:
        0.036906876 = weight(_text_:evaluation in 38) [ClassicSimilarity], result of:
          0.036906876 = score(doc=38,freq=2.0), product of:
            0.13272417 = queryWeight, product of:
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.031640913 = queryNorm
            0.278072 = fieldWeight in 38, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.046875 = fieldNorm(doc=38)
        0.038693316 = weight(_text_:web in 38) [ClassicSimilarity], result of:
          0.038693316 = score(doc=38,freq=6.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.37471575 = fieldWeight in 38, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=38)
      0.13333334 = coord(2/15)
    
    Abstract
    A variety of schemas and ontologies are currently used for the machine-readable description of bibliographic entities and citations. This diversity, and the reuse of the same ontology terms with different nuances, generates inconsistencies in data. Adoption of a single data model would facilitate data integration tasks regardless of the data supplier or context application. In this paper we present the OpenCitations Data Model (OCDM), a generic data model for describing bibliographic entities and citations, developed using Semantic Web technologies. We also evaluate the effective reusability of OCDM according to ontology evaluation practices, mention existing users of OCDM, and discuss the use and impact of OCDM in the wider open science community.
    Content
    Erschienen in: The Semantic Web - ISWC 2020, 19th International Semantic Web Conference, Athens, Greece, November 2-6, 2020, Proceedings, Part II. Vgl.: DOI: 10.1007/978-3-030-62466-8_28.
  5. Mayr, P.; Zapilko, B.; Sure, Y.: ¬Ein Mehr-Thesauri-Szenario auf Basis von SKOS und Crosskonkordanzen (2010) 0.01
    0.00926731 = product of:
      0.06950482 = sum of:
        0.030811504 = product of:
          0.061623007 = sum of:
            0.061623007 = weight(_text_:recherche in 3392) [ClassicSimilarity], result of:
              0.061623007 = score(doc=3392,freq=2.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.35931477 = fieldWeight in 3392, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3392)
          0.5 = coord(1/2)
        0.038693316 = weight(_text_:web in 3392) [ClassicSimilarity], result of:
          0.038693316 = score(doc=3392,freq=6.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.37471575 = fieldWeight in 3392, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=3392)
      0.13333334 = coord(2/15)
    
    Abstract
    Im August 2009 wurde SKOS "Simple Knowledge Organization System" als neuer Standard für web-basierte kontrollierte Vokabulare durch das W3C veröffentlicht1. SKOS dient als Datenmodell, um kontrollierte Vokabulare über das Web anzubieten sowie technisch und semantisch interoperabel zu machen. Perspektivisch kann die heterogene Landschaft der Erschließungsvokabulare über SKOS vereinheitlicht und vor allem die Inhalte der klassischen Datenbanken (Bereich Fachinformation) für Anwendungen des Semantic Web, beispielsweise als Linked Open Data2 (LOD), zugänglich und stär-ker miteinander vernetzt werden. Vokabulare im SKOS-Format können dabei eine relevante Funktion einnehmen, indem sie als standardisiertes Brückenvokabular dienen und semantische Verlinkung zwischen erschlossenen, veröffentlichten Daten herstellen. Die folgende Fallstudie skizziert ein Szenario mit drei thematisch verwandten Thesauri, die ins SKOS-Format übertragen und inhaltlich über Crosskonkordanzen aus dem Projekt KoMoHe verbunden werden. Die Mapping Properties von SKOS bieten dazu standardisierte Relationen, die denen der Crosskonkordanzen entsprechen. Die beteiligten Thesauri der Fallstudie sind a) TheSoz (Thesaurus Sozialwissenschaften, GESIS), b) STW (Standard-Thesaurus Wirtschaft, ZBW) und c) IBLK-Thesaurus (SWP).
    Footnote
    Beitrag für: 25. Oberhofer Kolloquium 2010: Recherche im Google-Zeitalter - Vollständig und präzise!?.
  6. Schaer, P.; Mayr, P.; Sünkler, S.; Lewandowski, D.: How relevant is the long tail? : a relevance assessment study on million short (2016) 0.01
    0.008400021 = product of:
      0.06300016 = sum of:
        0.030755727 = weight(_text_:evaluation in 3144) [ClassicSimilarity], result of:
          0.030755727 = score(doc=3144,freq=2.0), product of:
            0.13272417 = queryWeight, product of:
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.031640913 = queryNorm
            0.23172665 = fieldWeight in 3144, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3144)
        0.03224443 = weight(_text_:web in 3144) [ClassicSimilarity], result of:
          0.03224443 = score(doc=3144,freq=6.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.3122631 = fieldWeight in 3144, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3144)
      0.13333334 = coord(2/15)
    
    Abstract
    Users of web search engines are known to mostly focus on the top ranked results of the search engine result page. While many studies support this well known information seeking pattern only few studies concentrate on the question what users are missing by neglecting lower ranked results. To learn more about the relevance distributions in the so-called long tail we conducted a relevance assessment study with the Million Short long-tail web search engine. While we see a clear difference in the content between the head and the tail of the search engine result list we see no statistical significant differences in the binary relevance judgments and weak significant differences when using graded relevance. The tail contains different but still valuable results. We argue that the long tail can be a rich source for the diversification of web search engine result lists but it needs more evaluation to clearly describe the differences.
  7. Mayr, P.: Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken (2009) 0.01
    0.0073782853 = product of:
      0.05533714 = sum of:
        0.020541003 = product of:
          0.041082006 = sum of:
            0.041082006 = weight(_text_:recherche in 4302) [ClassicSimilarity], result of:
              0.041082006 = score(doc=4302,freq=2.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.23954318 = fieldWeight in 4302, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4302)
          0.5 = coord(1/2)
        0.034796134 = weight(_text_:evaluation in 4302) [ClassicSimilarity], result of:
          0.034796134 = score(doc=4302,freq=4.0), product of:
            0.13272417 = queryWeight, product of:
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.031640913 = queryNorm
            0.2621688 = fieldWeight in 4302, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
      0.13333334 = coord(2/15)
    
    Abstract
    Trotz großer Dokumentmengen für datenbankübergreifende Literaturrecherchen erwarten akademische Nutzer einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, inzwischen eine entscheidende Rolle beim Design von Suchsystemen. Nutzer erwarten weiterhin flexible Informationssysteme, die es unter anderem zulassen, Einfluss auf das Ranking der Dokumente zu nehmen bzw. alternative Rankingverfahren zu verwenden. In dieser Arbeit werden zwei Mehrwertverfahren für Suchsysteme vorgestellt, die die typischen Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln und damit die Recherchesituation messbar verbessern können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden hier ausführlich beschrieben und im empirischen Teil der Arbeit bzgl. der Effektivität für typische fachbezogene Recherchen evaluiert. Vorrangiges Ziel der Promotion ist es, zu untersuchen, ob das hier vorgestellte alternative Re-Rankingverfahren Bradfordizing im Anwendungsbereich bibliographischer Datenbanken zum einen operabel ist und zum anderen voraussichtlich gewinnbringend in Informationssystemen eingesetzt und dem Nutzer angeboten werden kann. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben wissenschaftlichen Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Evaluation der Crosskonkordanzen (insgesamt 82 Fragestellungen) zeigt, dass sich die Retrievalergebnisse signifikant für alle Crosskonkordanzen verbessern; es zeigt sich zudem, dass interdisziplinäre Crosskonkordanzen den stärksten (positiven) Effekt auf die Suchergebnisse haben. Die Evaluation des Re-Ranking nach Bradfordizing (insgesamt 164 Fragestellungen) zeigt, dass die Dokumente der Kernzone (Kernzeitschriften) für die meisten Testreihen eine signifikant höhere Precision als Dokumente der Zone 2 und Zone 3 (Peripheriezeitschriften) ergeben. Sowohl für Zeitschriften als auch für Monographien kann dieser Relevanzvorteil nach Bradfordizing auf einer sehr breiten Basis von Themen und Fragestellungen an zwei unabhängigen Dokumentkorpora empirisch nachgewiesen werden.
  8. Mayr, P.; Petras, V.; Walter, A.-K.: Results from a German terminology mapping effort : intra- and interdisciplinary cross-concordances between controlled vocabularies (2007) 0.01
    0.0067094364 = product of:
      0.05032077 = sum of:
        0.03728934 = weight(_text_:evaluation in 542) [ClassicSimilarity], result of:
          0.03728934 = score(doc=542,freq=6.0), product of:
            0.13272417 = queryWeight, product of:
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.031640913 = queryNorm
            0.28095365 = fieldWeight in 542, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.02734375 = fieldNorm(doc=542)
        0.013031431 = weight(_text_:web in 542) [ClassicSimilarity], result of:
          0.013031431 = score(doc=542,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.12619963 = fieldWeight in 542, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=542)
      0.13333334 = coord(2/15)
    
    Abstract
    In 2004, the German Federal Ministry for Education and Research funded a major terminology mapping initiative at the GESIS Social Science Information Centre in Bonn (GESIS-IZ), which will find its conclusion this year. The task of this terminology mapping initiative was to organize, create and manage 'crossconcordances' between major controlled vocabularies (thesauri, classification systems, subject heading lists) centred around the social sciences but quickly extending to other subject areas. Cross-concordances are intellectually (manually) created crosswalks that determine equivalence, hierarchy, and association relations between terms from two controlled vocabularies. Most vocabularies have been related bilaterally, that is, there is a cross-concordance relating terms from vocabulary A to vocabulary B as well as a cross-concordance relating terms from vocabulary B to vocabulary A (bilateral relations are not necessarily symmetrical). Till August 2007, 24 controlled vocabularies from 11 disciplines will be connected with vocabulary sizes ranging from 2,000 - 17,000 terms per vocabulary. To date more than 260,000 relations are generated. A database including all vocabularies and cross-concordances was built and a 'heterogeneity service' developed, a web service, which makes the cross-concordances available for other applications. Many cross-concordances are already implemented and utilized for the German Social Science Information Portal Sowiport (www.sowiport.de), which searches bibliographical and other information resources (incl. 13 databases with 10 different vocabularies and ca. 2.5 million references).
    In the final phase of the project, a major evaluation effort is under way to test and measure the effectiveness of the vocabulary mappings in an information system environment. Actual user queries are tested in a distributed search environment, where several bibliographic databases with different controlled vocabularies are searched at the same time. Three query variations are compared to each other: a free-text search without focusing on using the controlled vocabulary or terminology mapping; a controlled vocabulary search, where terms from one vocabulary (a 'home' vocabulary thought to be familiar to the user of a particular database) are used to search all databases; and finally, a search, where controlled vocabulary terms are translated into the terms of the respective controlled vocabulary of the database. For evaluation purposes, types of cross-concordances are distinguished between intradisciplinary vocabularies (vocabularies within the social sciences) and interdisciplinary vocabularies (social sciences to other disciplines as well as other combinations). Simultaneously, an extensive quantitative analysis is conducted aimed at finding patterns in terminology mappings that can explain trends in the effectiveness of terminology mappings, particularly looking at overlapping terms, types of determined relations (equivalence, hierarchy etc.), size of participating vocabularies, etc. This project is the largest terminology mapping effort in Germany. The number and variety of controlled vocabularies targeted provide an optimal basis for insights and further research opportunities. To our knowledge, terminology mapping efforts have rarely been evaluated with stringent qualitative and quantitative measures. This research should contribute in this area. For the NKOS workshop, we plan to present an overview of the project and participating vocabularies, an introduction to the heterogeneity service and its application as well as some of the results and findings of the evaluation, which will be concluded in August.
  9. Hobert, A.; Jahn, N.; Mayr, P.; Schmidt, B.; Taubert, N.: Open access uptake in Germany 2010-2018 : adoption in a diverse research landscape (2021) 0.01
    0.005396138 = product of:
      0.040471032 = sum of:
        0.021061972 = weight(_text_:web in 250) [ClassicSimilarity], result of:
          0.021061972 = score(doc=250,freq=4.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.2039694 = fieldWeight in 250, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=250)
        0.01940906 = product of:
          0.03881812 = sum of:
            0.03881812 = weight(_text_:analyse in 250) [ClassicSimilarity], result of:
              0.03881812 = score(doc=250,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.23284946 = fieldWeight in 250, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.03125 = fieldNorm(doc=250)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Es handelt sich um eine bibliometrische Untersuchung der Entwicklung der Open-Access-Verfügbarkeit wissenschaftlicher Zeitschriftenartikel in Deutschland, die im Zeitraum 2010-18 erschienen und im Web of Science indexiert sind. Ein besonderes Augenmerk der Analyse lag auf der Frage, ob und inwiefern sich die Open-Access-Profile der Universitäten und außeruniversitären Wissenschaftseinrichtungen in Deutschland voneinander unterscheiden.
    Content
    This study investigates the development of open access (OA) to journal articles from authors affiliated with German universities and non-university research institutions in the period 2010-2018. Beyond determining the overall share of openly available articles, a systematic classification of distinct categories of OA publishing allowed us to identify different patterns of adoption of OA. Taking into account the particularities of the German research landscape, variations in terms of productivity, OA uptake and approaches to OA are examined at the meso-level and possible explanations are discussed. The development of the OA uptake is analysed for the different research sectors in Germany (universities, non-university research institutes of the Helmholtz Association, Fraunhofer Society, Max Planck Society, Leibniz Association, and government research agencies). Combining several data sources (incl. Web of Science, Unpaywall, an authority file of standardised German affiliation information, the ISSN-Gold-OA 3.0 list, and OpenDOAR), the study confirms the growth of the OA share mirroring the international trend reported in related studies. We found that 45% of all considered articles during the observed period were openly available at the time of analysis. Our findings show that subject-specific repositories are the most prevalent type of OA. However, the percentages for publication in fully OA journals and OA via institutional repositories show similarly steep increases. Enabling data-driven decision-making regarding the implementation of OA in Germany at the institutional level, the results of this study furthermore can serve as a baseline to assess the impact recent transformative agreements with major publishers will likely have on scholarly communication.
  10. Lewandowski, D.; Mayr, P.: Exploring the academic invisible Web (2006) 0.00
    0.003924667 = product of:
      0.058870003 = sum of:
        0.058870003 = weight(_text_:web in 3752) [ClassicSimilarity], result of:
          0.058870003 = score(doc=3752,freq=20.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.5701118 = fieldWeight in 3752, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3752)
      0.06666667 = coord(1/15)
    
    Abstract
    Purpose: To provide a critical review of Bergman's 2001 study on the Deep Web. In addition, we bring a new concept into the discussion, the Academic Invisible Web (AIW). We define the Academic Invisible Web as consisting of all databases and collections relevant to academia but not searchable by the general-purpose internet search engines. Indexing this part of the Invisible Web is central to scien-tific search engines. We provide an overview of approaches followed thus far. Design/methodology/approach: Discussion of measures and calculations, estima-tion based on informetric laws. Literature review on approaches for uncovering information from the Invisible Web. Findings: Bergman's size estimate of the Invisible Web is highly questionable. We demonstrate some major errors in the conceptual design of the Bergman paper. A new (raw) size estimate is given. Research limitations/implications: The precision of our estimate is limited due to a small sample size and lack of reliable data. Practical implications: We can show that no single library alone will be able to index the Academic Invisible Web. We suggest collaboration to accomplish this task. Originality/value: Provides library managers and those interested in developing academic search engines with data on the size and attributes of the Academic In-visible Web.
    Content
    Bezug zu: Bergman, M.K.: The Deep Web: surfacing hidden value. In: Journal of Electronic Publishing. 7(2001) no.1, S.xxx-xxx. [Vgl. unter: http://www.press.umich.edu/jep/07-01/bergman.html].
  11. Lauser, B.; Johannsen, G.; Caracciolo, C.; Hage, W.R. van; Keizer, J.; Mayr, P.: Comparing human and automatic thesaurus mapping approaches in the agricultural domain (2008) 0.00
    0.0039111464 = product of:
      0.029333597 = sum of:
        0.01861633 = weight(_text_:web in 2627) [ClassicSimilarity], result of:
          0.01861633 = score(doc=2627,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.18028519 = fieldWeight in 2627, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2627)
        0.010717267 = product of:
          0.021434534 = sum of:
            0.021434534 = weight(_text_:22 in 2627) [ClassicSimilarity], result of:
              0.021434534 = score(doc=2627,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.19345059 = fieldWeight in 2627, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2627)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Knowledge organization systems (KOS), like thesauri and other controlled vocabularies, are used to provide subject access to information systems across the web. Due to the heterogeneity of these systems, mapping between vocabularies becomes crucial for retrieving relevant information. However, mapping thesauri is a laborious task, and thus big efforts are being made to automate the mapping process. This paper examines two mapping approaches involving the agricultural thesaurus AGROVOC, one machine-created and one human created. We are addressing the basic question "What are the pros and cons of human and automatic mapping and how can they complement each other?" By pointing out the difficulties in specific cases or groups of cases and grouping the sample into simple and difficult types of mappings, we show the limitations of current automatic methods and come up with some basic recommendations on what approach to use when.
    Source
    Metadata for semantic and social applications : proceedings of the International Conference on Dublin Core and Metadata Applications, Berlin, 22 - 26 September 2008, DC 2008: Berlin, Germany / ed. by Jane Greenberg and Wolfgang Klas
  12. Lewandowski, D.; Mayr, P.: Exploring the academic invisible Web (2006) 0.00
    0.0037232658 = product of:
      0.055848986 = sum of:
        0.055848986 = weight(_text_:web in 2580) [ClassicSimilarity], result of:
          0.055848986 = score(doc=2580,freq=18.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.5408555 = fieldWeight in 2580, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2580)
      0.06666667 = coord(1/15)
    
    Abstract
    Purpose: To provide a critical review of Bergman's 2001 study on the deep web. In addition, we bring a new concept into the discussion, the academic invisible web (AIW). We define the academic invisible web as consisting of all databases and collections relevant to academia but not searchable by the general-purpose internet search engines. Indexing this part of the invisible web is central to scientific search engines. We provide an overview of approaches followed thus far. Design/methodology/approach: Discussion of measures and calculations, estimation based on informetric laws. Literature review on approaches for uncovering information from the invisible web. Findings: Bergman's size estimate of the invisible web is highly questionable. We demonstrate some major errors in the conceptual design of the Bergman paper. A new (raw) size estimate is given. Research limitations/implications: The precision of our estimate is limited due to a small sample size and lack of reliable data. Practical implications: We can show that no single library alone will be able to index the academic invisible web. We suggest collaboration to accomplish this task. Originality/value: Provides library managers and those interested in developing academic search engines with data on the size and attributes of the academic invisible web.
  13. Daniel, F.; Maier, C.; Mayr, P.; Wirtz, H.-C.: ¬Die Kunden dort bedienen, wo sie sind : DigiAuskunft besteht Bewährungsprobe / Seit Anfang 2006 in Betrieb (2006) 0.00
    0.0035031794 = product of:
      0.026273845 = sum of:
        0.011269671 = product of:
          0.022539342 = sum of:
            0.022539342 = weight(_text_:online in 5991) [ClassicSimilarity], result of:
              0.022539342 = score(doc=5991,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.23471867 = fieldWeight in 5991, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5991)
          0.5 = coord(1/2)
        0.015004174 = product of:
          0.030008348 = sum of:
            0.030008348 = weight(_text_:22 in 5991) [ClassicSimilarity], result of:
              0.030008348 = score(doc=5991,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.2708308 = fieldWeight in 5991, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5991)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Informationen werden heute zunächst im Internet gesucht - auch regelmäßige Bibliotheksnutzer machen dies nicht anders. Die Bibliotheken haben sich darauf eingestellt und mit Online-Katalogen, digitalen Bibliotheken, Volltextbanken und der Endnutzer-Fernleihe virtuelle Dependancen im Netz aufgebaut. Diese Angebote werden idealerweise durch einen digitalen Auskunftsdienst ergänzt. Die Internet-Trainerin Anne Lipow sagte schon vor sechs Jahren zutreffend: »It's the librarian's job, to meet the users where they are...« Auch auf zahlreichen deutschsprachigen Bibliothekswebsites gibt es folglich heute individuelle Beratung und Informationsvermittlung in unterschiedlicher Form: als E-MailKontakt, über Webformulare und in den vergangenen Jahren auch vermehrt als Chat.
    Date
    8. 7.2006 21:06:22
  14. Mayr, P.; Petras, V.: Cross-concordances : terminology mapping and its effectiveness for information retrieval (2008) 0.00
    0.0034796137 = product of:
      0.052194204 = sum of:
        0.052194204 = weight(_text_:evaluation in 2323) [ClassicSimilarity], result of:
          0.052194204 = score(doc=2323,freq=4.0), product of:
            0.13272417 = queryWeight, product of:
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.031640913 = queryNorm
            0.3932532 = fieldWeight in 2323, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.046875 = fieldNorm(doc=2323)
      0.06666667 = coord(1/15)
    
    Abstract
    The German Federal Ministry for Education and Research funded a major terminology mapping initiative, which found its conclusion in 2007. The task of this terminology mapping initiative was to organize, create and manage 'cross-concordances' between controlled vocabularies (thesauri, classification systems, subject heading lists) centred around the social sciences but quickly extending to other subject areas. 64 crosswalks with more than 500,000 relations were established. In the final phase of the project, a major evaluation effort to test and measure the effectiveness of the vocabulary mappings in an information system environment was conducted. The paper reports on the cross-concordance work and evaluation results.
  15. Mayr, P.; Tosques, F.: Webometrische Analysen mit Hilfe der Google Web APIs (2005) 0.00
    0.0030094802 = product of:
      0.0451422 = sum of:
        0.0451422 = weight(_text_:web in 3189) [ClassicSimilarity], result of:
          0.0451422 = score(doc=3189,freq=6.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.43716836 = fieldWeight in 3189, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3189)
      0.06666667 = coord(1/15)
    
    Abstract
    Der Report stellt die Möglichkeiten und Einschränkungen der Google Web APIs (Google API) dar. Die Implementierung der Google API anhand einzelner informationswissenschaftlicher Untersuchungen aus der Webometrie ergibt, dass die Google API mit Einschränkungen für internetbezogene Untersuchungen eingesetzt werden können. Vergleiche der Trefferergebnisse über die beiden Google-Schnittstellen Google API und die Standard Weboberfläche Google.com (Google Web) zeigen Unterschiede bezüglich der Reichweite, der Zusammensetzung und Verfügbarkeit. Die Untersuchung basiert auf einfachen und erweiterten Suchanfragen in den Sprachen Deutsch und Englisch. Die analysierten Treffermengen der Google API bestätigen tendenziell frühere Internet-Studien.
  16. Mayr, P.: Bradfordizing als Re-Ranking-Ansatz in Literaturinformationssystemen (2011) 0.00
    0.0029049367 = product of:
      0.043574046 = sum of:
        0.043574046 = product of:
          0.08714809 = sum of:
            0.08714809 = weight(_text_:recherche in 4292) [ClassicSimilarity], result of:
              0.08714809 = score(doc=4292,freq=4.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.50814784 = fieldWeight in 4292, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4292)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    In diesem Artikel wird ein Re-Ranking-Ansatz für Suchsysteme vorgestellt, der die Recherche nach wissenschaftlicher Literatur messbar verbessern kann. Das nichttextorientierte Rankingverfahren Bradfordizing wird eingeführt und anschließend im empirischen Teil des Artikels bzgl. der Effektivität für typische fachbezogene Recherche-Topics evaluiert. Dem Bradford Law of Scattering (BLS), auf dem Bradfordizing basiert, liegt zugrunde, dass sich die Literatur zu einem beliebigen Fachgebiet bzw. -thema in Zonen unterschiedlicher Dokumentenkonzentration verteilt. Dem Kernbereich mit hoher Konzentration der Literatur folgen Bereiche mit mittlerer und geringer Konzentration. Bradfordizing sortiert bzw. rankt eine Dokumentmenge damit nach den sogenannten Kernzeitschriften. Der Retrievaltest mit 164 intellektuell bewerteten Fragestellungen in Fachdatenbanken aus den Bereichen Sozial- und Politikwissenschaften, Wirtschaftswissenschaften, Psychologie und Medizin zeigt, dass die Dokumente der Kernzeitschriften signifikant häufiger relevant bewertet werden als Dokumente der zweiten Dokumentzone bzw. den Peripherie-Zeitschriften. Die Implementierung von Bradfordizing und weiteren Re-Rankingverfahren liefert unmittelbare Mehrwerte für den Nutzer.
  17. Mayr, P.; Petras, V.: Crosskonkordanzen : Terminologie Mapping und deren Effektivität für das Information Retrieval 0.00
    0.0028705348 = product of:
      0.04305802 = sum of:
        0.04305802 = weight(_text_:evaluation in 1996) [ClassicSimilarity], result of:
          0.04305802 = score(doc=1996,freq=2.0), product of:
            0.13272417 = queryWeight, product of:
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.031640913 = queryNorm
            0.32441732 = fieldWeight in 1996, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1996)
      0.06666667 = coord(1/15)
    
    Abstract
    Das Bundesministerium für Bildung und Forschung hat eine große Initiative zur Erstellung von Crosskonkordanzen gefördert, die 2007 zu Ende geführt wurde. Die Aufgabe dieser Initiative war die Organisation, die Erstellung und das Management von Crosskonkordanzen zwischen kontrollierten Vokabularen (Thesauri, Klassifikationen, Deskriptorenlisten) in den Sozialwissenschaften und anderen Fachgebieten. 64 Crosskonkordanzen mit mehr als 500.000 Relationen wurden umgesetzt. In der Schlussphase des Projekts wurde eine umfangreiche Evaluation durchgeführt, die die Effektivität der Crosskonkordanzen in unterschiedlichen Informationssystemen testen sollte. Der Artikel berichtet über die Crosskonkordanz-Arbeit und die Evaluationsergebnisse.
  18. Mayr, P.; Mutschke, P.; Schaer, P.; Sure, Y.: Mehrwertdienste für das Information Retrieval (2013) 0.00
    0.0028705348 = product of:
      0.04305802 = sum of:
        0.04305802 = weight(_text_:evaluation in 935) [ClassicSimilarity], result of:
          0.04305802 = score(doc=935,freq=2.0), product of:
            0.13272417 = queryWeight, product of:
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.031640913 = queryNorm
            0.32441732 = fieldWeight in 935, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.0546875 = fieldNorm(doc=935)
      0.06666667 = coord(1/15)
    
    Abstract
    Ziel des Projekts ist die Entwicklung und Erprobung von metadatenbasierten Mehr-wertdiensten für Retrievalumgebungen mit mehreren Datenbanken: a) Search Term Recommender (STR) als Dienst zum automatischen Vorschlagen von Suchbegriffen aus kontrollierten Vokabularen, b) Bradfordizing als Dienst zum Re-Ranking von Ergebnismengen nach Kernzeitschriften und c) Autorenzentralität als Dienst zum Re-Ranking von. Ergebnismengen nach Zentralität der Autoren in Autorennetzwerken. Schwerpunkt des Projektes ist die prototypische mplementierung der drei Mehrwertdienste in einer integrierten Retrieval-Testumgebung und insbesondere deren quantitative und qualitative Evaluation hinsichtlich Verbesserung der Retrievalqualität bei Einsatz der Mehrwertdienste.
  19. Mayr, P.; Walter, A.-K.: Einsatzmöglichkeiten von Crosskonkordanzen (2007) 0.00
    0.0019857418 = product of:
      0.029786127 = sum of:
        0.029786127 = weight(_text_:web in 162) [ClassicSimilarity], result of:
          0.029786127 = score(doc=162,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.2884563 = fieldWeight in 162, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=162)
      0.06666667 = coord(1/15)
    
    Abstract
    Der Beitrag stellt Einsatzmöglichkeiten und spezifische Problembereiche von Crosskonkordanzen (CK) im Projekt "Kompetenznetzwerk Modellbildung und Heterogenitätsbehand lung" (KoMoHe) so wie das Netz der bis dato entstandenen Terminologie-Überstiege vor. Die am IZ entstandenen CK sollen künftig über einen Terminologie-Service als Web Service genutzt werden, dieser wird im Beitrag exemplarisch vorgestellt. Des Weiteren wird ein Testszenario samt Evaluationsdesign beschrieben über das der Mehrwert von Crosskonkordanzen empirisch untersucht werden kann.
  20. Mayr, P.; Mutschke, P.; Petras, V.: Reducing semantic complexity in distributed digital libraries : Treatment of term vagueness and document re-ranking (2008) 0.00
    0.0017551646 = product of:
      0.026327467 = sum of:
        0.026327467 = weight(_text_:web in 1909) [ClassicSimilarity], result of:
          0.026327467 = score(doc=1909,freq=4.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.25496176 = fieldWeight in 1909, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1909)
      0.06666667 = coord(1/15)
    
    Footnote
    Beitrag eines Themenheftes "Digital libraries and the semantic web: context, applications and research".
    Theme
    Semantic Web