Search (117 results, page 1 of 6)

  • × year_i:[2010 TO 2020}
  • × theme_ss:"Informetrie"
  1. Schlögl, C.: Internationale Sichtbarkeit der europäischen und insbesondere der deutschsprachigen Informationswissenschaft (2013) 0.04
    0.04048209 = product of:
      0.060723133 = sum of:
        0.044593092 = weight(_text_:im in 900) [ClassicSimilarity], result of:
          0.044593092 = score(doc=900,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.30917975 = fieldWeight in 900, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=900)
        0.01613004 = product of:
          0.048390117 = sum of:
            0.048390117 = weight(_text_:22 in 900) [ClassicSimilarity], result of:
              0.048390117 = score(doc=900,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.2708308 = fieldWeight in 900, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=900)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    In diesem Beitrag wird eine Publikationsanalyse von Beiträgen in von im Web of Science (WoS) indexierten bibliotheks- und informationswissenschaftlichen Zeitschriften vorgestellt. Die Ergebnisse dieser Analyse bestätigen die anglo-amerikanische Dominanz in der facheinschlägigen Literatur, die bei den primär informationswissenschaftlichen Zeitschriften sogar noch deutlicher ausfällt. Die skandinavischen Länder und der Bereich der Szientometrie stellen gewisse Ausnahmen dar. Die internationale Sichtbarkeit Deutschlands und Österreichs ist hingegen "ausbaufähig".
    Content
    Eine englische Version dieses Beitrags erscheint unter dem Titel "International visibility of European and in particular German language publications in library and information science" im Tagungsband des 13. Internationalen Symposiums für Informationswissenschaft (ISI 2013). Vgl.: http://www.degruyter.com/view/j/iwp.2013.64.issue-1/iwp-2013-0001/iwp-2013-0001.xml?format=INT.
    Date
    22. 3.2013 14:04:09
  2. Mayr, P.: Information Retrieval-Mehrwertdienste für Digitale Bibliotheken: : Crosskonkordanzen und Bradfordizing (2010) 0.03
    0.029930595 = product of:
      0.04489589 = sum of:
        0.027027493 = weight(_text_:im in 4910) [ClassicSimilarity], result of:
          0.027027493 = score(doc=4910,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
        0.017868398 = product of:
          0.05360519 = sum of:
            0.05360519 = weight(_text_:retrieval in 4910) [ClassicSimilarity], result of:
              0.05360519 = score(doc=4910,freq=6.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.34732026 = fieldWeight in 4910, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4910)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Content
    Die vorliegende Arbeit wurde von der Philosophischen Fakultät I, der Humboldt-Universität zu Berlin im Jahr 2009 als Dissertation zur Erlangung des akademischen Grades Doctor philosophiae (Dr. phil.) angenommen.
    RSWK
    Dokumentationssprache / Heterogenität / Information Retrieval / Ranking / Evaluation
    Subject
    Dokumentationssprache / Heterogenität / Information Retrieval / Ranking / Evaluation
  3. Jovanovic, M.: ¬Eine kleine Frühgeschichte der Bibliometrie (2012) 0.03
    0.027235493 = product of:
      0.04085324 = sum of:
        0.027027493 = weight(_text_:im in 326) [ClassicSimilarity], result of:
          0.027027493 = score(doc=326,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 326, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=326)
        0.013825747 = product of:
          0.04147724 = sum of:
            0.04147724 = weight(_text_:22 in 326) [ClassicSimilarity], result of:
              0.04147724 = score(doc=326,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.23214069 = fieldWeight in 326, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=326)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    In der Bibliometrie werden meist zwei Größen vermessen: die Anzahl von Publikationen und Zitationen. Publiziert und zitiert haben Menschen bereits sehr früh in der Geschichte. Schon in der Antike sind bei überlieferten Werken Zitationen zu finden. Der englische Begriff "Bibliometrics" selbst wurde aber erst 1969 definiert. In dem folgenden Artikel wird eine kleine Frühgeschichte der Bibliometrie, einer Unterdisziplin der Informationswissenschaft, bis zu diesem wichtigen Jahr anhand von beispielhaften Studien und Arbeiten dargestellt. Es wird auf die Anfänge von Publikationen und Zitationen und den fachlichen Rahmen der Bibliometrie eingegangen. Der Ursprung der Bibliometriegeschichte selbst wird von unterschiedlichen Autoren unterschiedlich früh angesetzt. Die verschiedenen Ansätze werden vorgestellt und diskutiert. Der Artikel schließt mit einer Beschreibung der wachsenden Bedeutung dieses Fachs im heutigen Informationszeitalter.
    Date
    22. 7.2012 19:23:32
  4. Ding, Y.: Applying weighted PageRank to author citation networks (2011) 0.02
    0.018777166 = product of:
      0.056331497 = sum of:
        0.056331497 = product of:
          0.08449724 = sum of:
            0.03610713 = weight(_text_:retrieval in 4188) [ClassicSimilarity], result of:
              0.03610713 = score(doc=4188,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.23394634 = fieldWeight in 4188, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4188)
            0.048390117 = weight(_text_:22 in 4188) [ClassicSimilarity], result of:
              0.048390117 = score(doc=4188,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.2708308 = fieldWeight in 4188, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4188)
          0.6666667 = coord(2/3)
      0.33333334 = coord(1/3)
    
    Abstract
    This article aims to identify whether different weighted PageRank algorithms can be applied to author citation networks to measure the popularity and prestige of a scholar from a citation perspective. Information retrieval (IR) was selected as a test field and data from 1956-2008 were collected from Web of Science. Weighted PageRank with citation and publication as weighted vectors were calculated on author citation networks. The results indicate that both popularity rank and prestige rank were highly correlated with the weighted PageRank. Principal component analysis was conducted to detect relationships among these different measures. For capturing prize winners within the IR field, prestige rank outperformed all the other measures
    Date
    22. 1.2011 13:02:21
  5. Haustein, S.; Sugimoto, C.; Larivière, V.: Social media in scholarly communication : Guest editorial (2015) 0.02
    0.017263312 = product of:
      0.051789932 = sum of:
        0.051789932 = sum of:
          0.015576826 = weight(_text_:online in 3809) [ClassicSimilarity], result of:
            0.015576826 = score(doc=3809,freq=2.0), product of:
              0.1548489 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.051022716 = queryNorm
              0.100593716 = fieldWeight in 3809, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3809)
          0.015474485 = weight(_text_:retrieval in 3809) [ClassicSimilarity], result of:
            0.015474485 = score(doc=3809,freq=2.0), product of:
              0.15433937 = queryWeight, product of:
                3.024915 = idf(docFreq=5836, maxDocs=44218)
                0.051022716 = queryNorm
              0.10026272 = fieldWeight in 3809, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.024915 = idf(docFreq=5836, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3809)
          0.02073862 = weight(_text_:22 in 3809) [ClassicSimilarity], result of:
            0.02073862 = score(doc=3809,freq=2.0), product of:
              0.17867287 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051022716 = queryNorm
              0.116070345 = fieldWeight in 3809, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3809)
      0.33333334 = coord(1/3)
    
    Abstract
    One of the solutions to help scientists filter the most relevant publications and, thus, to stay current on developments in their fields during the transition from "little science" to "big science", was the introduction of citation indexing as a Wellsian "World Brain" (Garfield, 1964) of scientific information: It is too much to expect a research worker to spend an inordinate amount of time searching for the bibliographic descendants of antecedent papers. It would not be excessive to demand that the thorough scholar check all papers that have cited or criticized such papers, if they could be located quickly. The citation index makes this check practicable (Garfield, 1955, p. 108). In retrospective, citation indexing can be perceived as a pre-social web version of crowdsourcing, as it is based on the concept that the community of citing authors outperforms indexers in highlighting cognitive links between papers, particularly on the level of specific ideas and concepts (Garfield, 1983). Over the last 50 years, citation analysis and more generally, bibliometric methods, have developed from information retrieval tools to research evaluation metrics, where they are presumed to make scientific funding more efficient and effective (Moed, 2006). However, the dominance of bibliometric indicators in research evaluation has also led to significant goal displacement (Merton, 1957) and the oversimplification of notions of "research productivity" and "scientific quality", creating adverse effects such as salami publishing, honorary authorships, citation cartels, and misuse of indicators (Binswanger, 2015; Cronin and Sugimoto, 2014; Frey and Osterloh, 2006; Haustein and Larivière, 2015; Weingart, 2005).
    Furthermore, the rise of the web, and subsequently, the social web, has challenged the quasi-monopolistic status of the journal as the main form of scholarly communication and citation indices as the primary assessment mechanisms. Scientific communication is becoming more open, transparent, and diverse: publications are increasingly open access; manuscripts, presentations, code, and data are shared online; research ideas and results are discussed and criticized openly on blogs; and new peer review experiments, with open post publication assessment by anonymous or non-anonymous referees, are underway. The diversification of scholarly production and assessment, paired with the increasing speed of the communication process, leads to an increased information overload (Bawden and Robinson, 2008), demanding new filters. The concept of altmetrics, short for alternative (to citation) metrics, was created out of an attempt to provide a filter (Priem et al., 2010) and to steer against the oversimplification of the measurement of scientific success solely on the basis of number of journal articles published and citations received, by considering a wider range of research outputs and metrics (Piwowar, 2013). Although the term altmetrics was introduced in a tweet in 2010 (Priem, 2010), the idea of capturing traces - "polymorphous mentioning" (Cronin et al., 1998, p. 1320) - of scholars and their documents on the web to measure "impact" of science in a broader manner than citations was introduced years before, largely in the context of webometrics (Almind and Ingwersen, 1997; Thelwall et al., 2005):
    Date
    20. 1.2015 18:30:22
  6. Herb, U.; Beucke, D.: ¬Die Zukunft der Impact-Messung : Social Media, Nutzung und Zitate im World Wide Web (2013) 0.02
    0.016987845 = product of:
      0.050963532 = sum of:
        0.050963532 = weight(_text_:im in 2188) [ClassicSimilarity], result of:
          0.050963532 = score(doc=2188,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.35334828 = fieldWeight in 2188, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
      0.33333334 = coord(1/3)
    
    Abstract
    Wissenschaftliche Karrieren und Publikationen benötigen Reputation und möglichst viel Beachtung. Literatur, die diese Aufmerksamkeit findet, wird - so die gängige Annahme - häufig zitiert. Ausgehend von dieser Überlegung wurden Verfahren der Zitationsmessung entwickelt, die Auskunft über die Relevanz oder (wie im- und explizit oft auch postuliert wird) gar die Qualität einer Publikation oder eines Wissenschaftlers geben sollen.
  7. Tüür-Fröhlich, T.: ¬Eine "autoritative" Datenbank auf dem Prüfstand : der Social Sciences Citation Index (SSCI) und seine Datenqualität (2018) 0.02
    0.015604331 = product of:
      0.046812993 = sum of:
        0.046812993 = weight(_text_:im in 4591) [ClassicSimilarity], result of:
          0.046812993 = score(doc=4591,freq=6.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.32457113 = fieldWeight in 4591, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4591)
      0.33333334 = coord(1/3)
    
    Abstract
    Zitatdatenbanken bilden die Datengrundlagen für zahlreiche szientometrische Untersuchungen, Evaluationen wissenschaftlicher Leistungen und Uni-Rankings. In der Literatur finden sich kaum Hinweise auf endogene Fehler (Original richtig, Datenbankeintrag falsch) in den kostenpflichtigen Datenbanken. Banale Fehler (z. B. Falschschreibung der Namen von Autorinnen oder Autoren) in Datenbanken hätten nur geringe Relevanz. Die Fehlersuche zu Pierre Bourdieu als "cited author" im SSCI (Vergleich Original - SSCI-Record) ergab mehr als 85 Mutationen. Die Fallstudien zeigen eine hohe Anzahl endogener Datenbankfehler. In den Rechtswissenschaften übliche Referenzen in Fußnoten laufen große Gefahr, in Phantomreferenzen verwandelt zu werden (Fallstudie Harvard Law Review: 99 Prozent Fehler). Dem Anspruch des SSCI, die "relevanten" globalen Sozialwissenschaften abzubilden - für alle im SSCI erfassten Disziplinen -, stehen offenbar Mängel in Datenerfassung und -verarbeitung im Wege.
  8. Friedländer, M.B.: Der Kanon der Informationswissenschaft (2015) 0.01
    0.014864365 = product of:
      0.044593092 = sum of:
        0.044593092 = weight(_text_:im in 2079) [ClassicSimilarity], result of:
          0.044593092 = score(doc=2079,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.30917975 = fieldWeight in 2079, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2079)
      0.33333334 = coord(1/3)
    
    Content
    Blaise Cronin hat 2013 die Frage formuliert, ob es so etwas wie einen Kanon der Informationswissenschaft gibt. Er schlägt vor, zur Ermittlung des Kanons auch Namens- und Sachregister von einschlägigen Lehrbüchern informetrisch auszuwerten. Untersucht wurden englischsprachige Publikationen aus der Kategorie Information Science & Library Science der Fachdatenbank Web of Science sowie neun ausgewählte Lehrbücher der Informationswissenschaft. Im Web of Science wurden über 324.000 Publikationen ermittelt. Im Rahmen der szientometrischen Analyse wurden Zitationen, Publikationen und Themen ausgewertet. Zusätzlich zur klassischen Auswertung der Datenbankdokumente wurde erstmals eine Registeranalyse bei den Lehrbuchdokumenten durchgeführt. Die unterschiedlichen Ergebnisse wurden zusammengefasst, um einen gemeinsamen Kanon der Informationswissenschaft bilden zu können.
  9. Klein, A.: Von der Schneeflocke zur Lawine : Möglichkeiten der Nutzung freier Zitationsdaten in Bibliotheken (2017) 0.01
    0.014864365 = product of:
      0.044593092 = sum of:
        0.044593092 = weight(_text_:im in 4002) [ClassicSimilarity], result of:
          0.044593092 = score(doc=4002,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.30917975 = fieldWeight in 4002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4002)
      0.33333334 = coord(1/3)
    
    Abstract
    Zitationen spielen eine wichtige Rolle im wissenschaftlichen Diskurs, in der Recherchepraxis sowie im Bereich der Bibliometrie. In jüngster Zeit gibt es zunehmend Initiativen, die Zitationen als Open Data zur freien Nachnutzung verfügbar machen. Der Beitrag beschreibt den Stand der Entwicklung dieser Initiativen und zeigt, dass in nächster Zeit eine kritische Masse von Daten entstehen könnte, aus denen sich gerade für Bibliotheken neue Perspektiven ergeben. Als konkrete Möglichkeit zur Partizipation für Bibliotheken wird das DFG-Projekt Linked Open Citation Database (LOC-DB) vorgestellt.
  10. Thelwall, M.; Sud, P.: ¬A comparison of methods for collecting web citation data for academic organizations (2011) 0.01
    0.013874464 = product of:
      0.04162339 = sum of:
        0.04162339 = product of:
          0.062435087 = sum of:
            0.025961377 = weight(_text_:online in 4626) [ClassicSimilarity], result of:
              0.025961377 = score(doc=4626,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.16765618 = fieldWeight in 4626, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4626)
            0.03647371 = weight(_text_:retrieval in 4626) [ClassicSimilarity], result of:
              0.03647371 = score(doc=4626,freq=4.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.23632148 = fieldWeight in 4626, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4626)
          0.6666667 = coord(2/3)
      0.33333334 = coord(1/3)
    
    Abstract
    The primary webometric method for estimating the online impact of an organization is to count links to its website. Link counts have been available from commercial search engines for over a decade but this was set to end by early 2012 and so a replacement is needed. This article compares link counts to two alternative methods: URL citations and organization title mentions. New variations of these methods are also introduced. The three methods are compared against each other using Yahoo!. Two of the three methods (URL citations and organization title mentions) are also compared against each other using Bing. Evidence from a case study of 131 UK universities and 49 US Library and Information Science (LIS) departments suggests that Bing's Hit Count Estimates (HCEs) for popular title searches are not useful for webometric research but that Yahoo!'s HCEs for all three types of search and Bing's URL citation HCEs seem to be consistent. For exact URL counts the results of all three methods in Yahoo! and both methods in Bing are also consistent. Four types of accuracy factors are also introduced and defined: search engine coverage, search engine retrieval variation, search engine retrieval anomalies, and query polysemy.
  11. Tsay, M.-y.; Shu, Z.-y.: Journal bibliometric analysis : a case study on the Journal of Documentation (2011) 0.01
    0.013874464 = product of:
      0.04162339 = sum of:
        0.04162339 = product of:
          0.062435087 = sum of:
            0.025961377 = weight(_text_:online in 294) [ClassicSimilarity], result of:
              0.025961377 = score(doc=294,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.16765618 = fieldWeight in 294, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=294)
            0.03647371 = weight(_text_:retrieval in 294) [ClassicSimilarity], result of:
              0.03647371 = score(doc=294,freq=4.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.23632148 = fieldWeight in 294, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=294)
          0.6666667 = coord(2/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Purpose - This study aims to explore the journal bibliometric characteristics of the Journal of Documentation (JOD) and the subject relationship with other disciplines by citation analysis. Design/methodology/approach - The citation data were drawn from references of each article of JOD during 1998 and 2008. Ulrich's Periodicals Directory, Library of Congress Subject Heading, retrieved from the WorldCat and LISA database were used to identify the main class, subclass and subject of cited journals and books. Findings - The results of this study revealed that journal articles are the most cited document, followed by books and book chapters, electronic resources, and conference proceedings, respectively. The three main classes of cited journals in JOD papers are library science, science, and social sciences. The three subclasses of non-LIS journals that were highly cited in JOD papers are Science, "Mathematics. Computer science", and "Industries. Land use. Labor". The three highly cited subjects of library and information science journals encompass searching, information work, and online information retrieval. The most cited main class of books in JOD papers is library and information science, followed by social sciences, science, "Philosophy. Psychology. Religion." The three highly cited subclasses of books in JOD papers are "Books (General). Writing. Paleography. Book industries and trade. Libraries. Bibliography," "Philology and linguistics," and Science, and the most cited subject of books is information storage and retrieval systems. Originality/value - Results for the present research found that information science, as represented by JOD, is a developing discipline with an expanding literature relating to multiple subject areas.
  12. Leydesdorff, L.; Bornmann, L.: How fractional counting of citations affects the impact factor : normalization in terms of differences in citation potentials among fields of science (2011) 0.01
    0.013450166 = product of:
      0.040350497 = sum of:
        0.040350497 = product of:
          0.060525745 = sum of:
            0.025961377 = weight(_text_:online in 4186) [ClassicSimilarity], result of:
              0.025961377 = score(doc=4186,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.16765618 = fieldWeight in 4186, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4186)
            0.03456437 = weight(_text_:22 in 4186) [ClassicSimilarity], result of:
              0.03456437 = score(doc=4186,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.19345059 = fieldWeight in 4186, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4186)
          0.6666667 = coord(2/3)
      0.33333334 = coord(1/3)
    
    Abstract
    The Impact Factors (IFs) of the Institute for Scientific Information suffer from a number of drawbacks, among them the statistics-Why should one use the mean and not the median?-and the incomparability among fields of science because of systematic differences in citation behavior among fields. Can these drawbacks be counteracted by fractionally counting citation weights instead of using whole numbers in the numerators? (a) Fractional citation counts are normalized in terms of the citing sources and thus would take into account differences in citation behavior among fields of science. (b) Differences in the resulting distributions can be tested statistically for their significance at different levels of aggregation. (c) Fractional counting can be generalized to any document set including journals or groups of journals, and thus the significance of differences among both small and large sets can be tested. A list of fractionally counted IFs for 2008 is available online at http:www.leydesdorff.net/weighted_if/weighted_if.xls The between-group variance among the 13 fields of science identified in the U.S. Science and Engineering Indicators is no longer statistically significant after this normalization. Although citation behavior differs largely between disciplines, the reflection of these differences in fractionally counted citation distributions can not be used as a reliable instrument for the classification.
    Date
    22. 1.2011 12:51:07
  13. May, M.: Bibliometrie - ein Aufgabengebiet von Bibliotheken? (2014) 0.01
    0.01201222 = product of:
      0.03603666 = sum of:
        0.03603666 = weight(_text_:im in 2578) [ClassicSimilarity], result of:
          0.03603666 = score(doc=2578,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.24985497 = fieldWeight in 2578, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=2578)
      0.33333334 = coord(1/3)
    
    Abstract
    Bibliometrie zur Evaluation wissenschaftlicher Leistung gewinnt zunehmend an Bedeutung. Vor allem für Hochschulleitungen sind bibliometrische Indices zur Leistungsbeurteilung ihrer Wissenschaftler attraktiv. Die Wissenschaftler hingegen stehen den bibliometrischen Analysen skeptisch gegenüber und nehmen die Indices nur zögerlich an, wie die geringe Nutzung auf ihren Homepages im Internet zeigt. Für Bibliotheken ergibt sich eine neue Aufgabe. Sie sollten sich als Partner beider Gruppen positionieren und durch aktive Beratung ihre Kompetenz auf diesem Feld einbringen.
  14. Glänzel, W.: Bibliometrics-aided retrieval - where information retrieval meets scientometrics (2015) 0.01
    0.011912266 = product of:
      0.035736796 = sum of:
        0.035736796 = product of:
          0.10721038 = sum of:
            0.10721038 = weight(_text_:retrieval in 1690) [ClassicSimilarity], result of:
              0.10721038 = score(doc=1690,freq=6.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.6946405 = fieldWeight in 1690, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1690)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Footnote
    Beitrag in einem Special Issue "Combining bibliometrics and information retrieval"
  15. Schlögl, C.; Gorraiz, J.: Sind Downloads die besseren Zeitschriftennutzungsdaten? : Ein Vergleich von Download- und Zitationsidikatoren (2012) 0.01
    0.010510692 = product of:
      0.031532075 = sum of:
        0.031532075 = weight(_text_:im in 154) [ClassicSimilarity], result of:
          0.031532075 = score(doc=154,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.2186231 = fieldWeight in 154, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=154)
      0.33333334 = coord(1/3)
    
    Abstract
    In diesem Beitrag werden am Beispiel von Onkologie- und Pharmaziezeitschriften Unterschiede zwischen und Gemeinsamkeiten von Downloads und Zitaten herausgearbeitet. Die Download-Daten wurden von Elsevier (ScienceDirect) bereitgestellt, die Zitationsdaten wurden den Journal Citation Reports entnommen bzw. aus dem Web of Science recherchiert. Die Ergebnisse zeigen einen hohen Zusammenhang zwischen Download- und Zitationshäufigkeiten, der für die relativen Zeitschriftenindikatoren und auf Artikelebene etwas geringer ist. Deutliche Unterschiede bestehen hingegen zwischen den Altersstrukturen der herunter-geladenen und der zitierten Artikel. Elektronische Zeitschriften haben maßgeblich dazu beigetragen, dass aktuelle Literatur früher aufgegriffen und deutlich öfter zitiert wird, im Schnitt hat sich das Alter der zitierten Literatur in den letzten zehn Jahren aber kaum verändert.
  16. Dees, W.: "Publication power approach" (2013) 0.01
    0.010510692 = product of:
      0.031532075 = sum of:
        0.031532075 = weight(_text_:im in 924) [ClassicSimilarity], result of:
          0.031532075 = score(doc=924,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.2186231 = fieldWeight in 924, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=924)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Publikationslandschaft der Erziehungswissenschaft ist durch eine enorme Breite undVielfalt sowie zahlreiche Verbindungen in benachbarte Felder gekennzeichnet. Aktuelle Analysen zum Publikationsverhalten von Erziehungswissenschaftlern zeigen, dass diese Hunderte von verschiedenen Zeitschriften und Verlagen zur Veröffentlichung nutzen. Um aus dieser Fülle an Publikationsorten die bedeutendsten zu ermitteln, wird ein neuer Ansatz zur Zeitschriftenbewertung, der "publication power approach" von Holsapple, auf die deutsche Erziehungswissenschaft übertragen. Dieser Ansatz basiert auf dem Publikationsverhalten von Forschern an ausgewählten Institutionen und stellt eine Alternative zu Expertenbefragungen und Zitationsanalysen dar. Der Beitrag stellt wesentlich Ergebnisse zur "publication power" von Zeitschriften und Verlagen der Erziehungswissenschaft vor und diskutiert Vor- und Nachteile dieses Ansatzes im Vergleich zu den herkömmlichen Bewertungsmethoden.
  17. Schmitz, J.; Arning, U.; Peters, I.: handbuch.io : Handbuch CoScience / Messung von wissenschaftlichem Impact (2015) 0.01
    0.010510692 = product of:
      0.031532075 = sum of:
        0.031532075 = weight(_text_:im in 2189) [ClassicSimilarity], result of:
          0.031532075 = score(doc=2189,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.2186231 = fieldWeight in 2189, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2189)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Bewertung der Forschungs- und Publikationsleistung spielt in unterschiedlichen Kontexten im Wissenschaftssystem eine große Rolle, insbesondere weil Drittmittel knapp und mit Renommee verbundene Stellen wie Professuren rar sind. Neben der inhaltlichen und qualitativen Bewertung der wissenschaftlichen Leistung durch Peer Review, wird auch versucht, Publikationsleistungen von Wissenschaftlerinnen und Wissenschaftlern, Instituten oder Arbeitsgruppen zu quantifizieren. Diese "Vermessung" von Publikationen wird auch als Bibliometrie (engl. bibliometrics) oder Szientometrie (engl. scientometrics) bezeichnet. Entscheidend sind hierbei in erster Linie drei Kennzahlen: - Produktivität: Anzahl der Publikationen - Wirkung/Impact: Anzahl der Zitationen - Kooperationen: Anzahl der Artikel, die man gemeinsam mit anderen Autoren oder Institutionen publiziert. Der Zitierung kommt in der Wissenschaft eine besondere Bedeutung zu.
  18. Scientometrics pioneer Eugene Garfield dies : Eugene Garfield, founder of the Institute for Scientific Information and The Scientist, has passed away at age 91 (2017) 0.01
    0.010510692 = product of:
      0.031532075 = sum of:
        0.031532075 = weight(_text_:im in 3460) [ClassicSimilarity], result of:
          0.031532075 = score(doc=3460,freq=8.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.2186231 = fieldWeight in 3460, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3460)
      0.33333334 = coord(1/3)
    
    Content
    Vgl. auch Open Password, Nr.167 vom 01.03.2017 :"Eugene Garfield, Begründer und Pionier der Zitationsindexierung und der Ziationsanalyse, ohne den die Informationswissenschaft heute anders aussähe, ist im Alter von 91 Jahren gestorben. Er hinterlässt Frau, drei Söhne, eine Tochter, eine Stieftochter, zwei Enkeltöchter und zwei Großelternkinder. Garfield machte seinen ersten Abschluss als Bachelor in Chemie an der Columbia University in New York City im Jahre 1949. 1954 sattelte er einen Abschluss in Bibliothekswissenschaft drauf. 1961 sollte er im Fach strukturelle Linguistik promovieren. Als Chemie-Student war er nach eigenen Angaben weder besonders gut noch besonders glücklich. Sein "Erweckungserlebnis" hatte er auf einer Tagung der American Chemical Society, als er entdeckte, dass sich mit der Suche nach Literatur womöglich ein Lebensunterhalt bestreiten lasse. "So I went to the Chairman of the meeting and said: "How do you get a job in this racket?" Ab 1955 war Garfield zunächst als Berater für pharmazeutische Unternehmen tätig. Dort spezialisierte er sich auf Fachinformationen, indem er Inhalte relevanter Fachzeitschriften erarbeitete. 1955 schlug er in "Science" seine bahnbrechende Idee vor, Zitationen wissenschaftlicher Veröffentlichungen systematisch zu erfassen und Zusammenhänge zwischen Zitaten deutlich zu machen. 1960 gründete Garfield das Institute für Scientific Informationen, dessen CEO er bis 1992 blieb. 1964 brachte er den Scientific Information Index heraus. Weitere Maßgrößen wie der Social Science Index (ab 1973), der Arts and Humanities Citation Index (ab 1978) und der Journal Citation Index folgten. Diese Verzeichnisse wurden in dem "Web of Science" zusammengefasst und als Datenbank elektronisch zugänglich gemacht. Damit wurde es den Forschern ermöglich, die für sie relevante Literatur "at their fingertips" zu finden und sich in ihr zurechtzufinden. Darüber hinaus wurde es mit Hilfe der Rankings von Garfields Messgrößen möglich, die relative wissenschaftliche Bedeutung wissenschaftlicher Beiträge, Autoren, wissenschaftlicher Einrichtungen, Regionen und Länder zu messen.
    Garfield wandte sich im Zusammenhang mit seinen Messgrößen gegen "Bibliographic Negligence" und "Citation Amnesia", Er schrieb 2002: "There will never be a perfect solution to the problem of acknowledging intellectual debts. But a beginning can be made if journal editors will demand a signed pledge from authors that they have searched Medline, Science Citation Index, or other appropriate print and electronic databases." Er warnte aber auch vor einen unsachgemäßen Umgang mit seinen Messgößen und vor übertriebenen Erwartungen an sie in Zusammenhang mit Karriereentscheidungen über Wissenschaftler und Überlebensentscheidungen für wissenschaftliche Einrichtungen. 1982 übernahm die Thomson Corporation ISI für 210 Millionen Dollar. In der heutigen Nachfolgeorganisation Clarivate Analytics sind mehr als 4000 Mitarbeitern in über hundert Ländern beschäftigt. Garfield gründete auch eine Zeitung für Wissenschaftler, speziell für Biowissenschaftler, "The Scientist", die weiterbesteht und als kostenfreier Pushdienst bezogen werden kann. In seinen Beiträgen zur Wissenschaftspolitik kritisierte er beispielsweise die Wissenschaftsberater von Präsident Reagen 1986 als "Advocats of the administration´s science policies, rather than as objective conduits for communication between the president and the science community." Seinen Beitrag, mit dem er darum warb, die Förderung von UNESCO-Forschungsprogrammen fortzusetzen, gab er den Titel: "Let´s stand up für Global Science". Das ist auch in Trump-Zeiten ein guter Titel, da die US-Regierung den Wahrheitsbegriff, auf der Wissenschaft basiert, als bedeutungslos verwirft und sich auf Nationalismus und Abschottung statt auf internationale Kommunikation, Kooperation und gemeinsame Ausschöpfung von Interessen fokussiert."
  19. White, H. D.: Co-cited author retrieval and relevance theory : examples from the humanities (2015) 0.01
    0.009726323 = product of:
      0.02917897 = sum of:
        0.02917897 = product of:
          0.08753691 = sum of:
            0.08753691 = weight(_text_:retrieval in 1687) [ClassicSimilarity], result of:
              0.08753691 = score(doc=1687,freq=4.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.5671716 = fieldWeight in 1687, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1687)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Footnote
    Beitrag in einem Special Issue "Combining bibliometrics and information retrieval"
  20. Mayr, P.; Scharnhorst, A.: Scientometrics and information retrieval - weak-links revitalized (2015) 0.01
    0.009726323 = product of:
      0.02917897 = sum of:
        0.02917897 = product of:
          0.08753691 = sum of:
            0.08753691 = weight(_text_:retrieval in 1688) [ClassicSimilarity], result of:
              0.08753691 = score(doc=1688,freq=4.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.5671716 = fieldWeight in 1688, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1688)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Footnote
    Editorial zu einem Special Issue "Combining bibliometrics and information retrieval"

Languages

  • e 100
  • d 16

Types

  • a 111
  • el 4
  • m 4
  • s 1
  • More… Less…