Search (9 results, page 1 of 1)

  • × language_ss:"d"
  • × theme_ss:"Informetrie"
  • × year_i:[2010 TO 2020}
  1. ¬Die deutsche Zeitschrift für Dokumentation, Informationswissenschaft und Informationspraxis von 1950 bis 2011 : eine vorläufige Bilanz in vier Abschnitten (2012) 0.04
    0.037439607 = product of:
      0.074879214 = sum of:
        0.074879214 = sum of:
          0.037876792 = weight(_text_:b in 402) [ClassicSimilarity], result of:
            0.037876792 = score(doc=402,freq=2.0), product of:
              0.16126883 = queryWeight, product of:
                3.542962 = idf(docFreq=3476, maxDocs=44218)
                0.045518078 = queryNorm
              0.23486741 = fieldWeight in 402, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.542962 = idf(docFreq=3476, maxDocs=44218)
                0.046875 = fieldNorm(doc=402)
          0.037002426 = weight(_text_:22 in 402) [ClassicSimilarity], result of:
            0.037002426 = score(doc=402,freq=2.0), product of:
              0.15939656 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045518078 = queryNorm
              0.23214069 = fieldWeight in 402, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=402)
      0.5 = coord(1/2)
    
    Date
    22. 7.2012 19:35:26
    Footnote
    Besteht aus 4 Teilen: Teil 1: Eden, D., A. Arndt, A. Hoffer, T. Raschke u. P. Schön: Die Nachrichten für Dokumentation in den Jahren 1950 bis 1962 (S.159-163). Teil 2: Brose, M., E. durst, D. Nitzsche, D. Veckenstedt u. R. Wein: Statistische Untersuchung der Fachzeitschrift "Nachrichten für Dokumentation" (NfD) 1963-1975 (S.164-170). Teil 3: Bösel, J., G. Ebert, P. Garz,, M. Iwanow u. B. Russ: Methoden und Ergebnisse einer statistischen Auswertung der Fachzeitschrift "Nachrichten für Dokumentation" (NfD) 1976 bis 1988 (S.171-174). Teil 4: Engelage, H., S. Jansen, R. Mertins, K. Redel u. S. Ring: Statistische Untersuchung der Fachzeitschrift "Nachrichten für Dokumentation" (NfD) / "Information. Wissenschaft & Praxis" (IWP) 1989-2011 (S.164-170).
  2. Tüür-Fröhlich, T.: Closed vs. Open Access : Szientometrische Untersuchung dreier sozialwissenschaftlicher Zeitschriften aus der Genderperspektive (2011) 0.01
    0.011047398 = product of:
      0.022094795 = sum of:
        0.022094795 = product of:
          0.04418959 = sum of:
            0.04418959 = weight(_text_:b in 4505) [ClassicSimilarity], result of:
              0.04418959 = score(doc=4505,freq=2.0), product of:
                0.16126883 = queryWeight, product of:
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.045518078 = queryNorm
                0.27401197 = fieldWeight in 4505, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4505)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Artikel ist Teil einer größeren Untersuchung zu den Potentialen von Open Access Publishing zur Erhöhung der Publikations- und damit Karrierechancen von Sozialwissenschaftlerinnen. Es werden drei inhaltlich und methodisch ähnliche sozialwissenschaftliche Zeitschriften verglichen: das Open-Access-Journal "Forum Qualitative Sozialforschung" ("FQS") und die zwei Closed-Access-/Hybridjournale "Zeitschrift für qualitative Forschung" und "Sozialer Sinn". Erhoben wird (a) der jeweilige Frauenanteil unter Redaktions- und Beiratsmitgliedern dieser drei Zeitschriften (N=184 insgesamt), (b) aufwändig rekonstruiert und analysiert wird die Genderstruktur der Autorenschaften aller in den drei Zeitschriften zwischen 2000 und 2008 veröffentlichten Beiträge (Totalerhebung, N=1557 insgesamt).
  3. Hirschmann, B.: Altmetrics - neue Formen der Impact-Messung auf dem Vormarsch? (2013) 0.01
    0.011047398 = product of:
      0.022094795 = sum of:
        0.022094795 = product of:
          0.04418959 = sum of:
            0.04418959 = weight(_text_:b in 2187) [ClassicSimilarity], result of:
              0.04418959 = score(doc=2187,freq=2.0), product of:
                0.16126883 = queryWeight, product of:
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.045518078 = queryNorm
                0.27401197 = fieldWeight in 2187, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2187)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  4. Schlögl, C.: Internationale Sichtbarkeit der europäischen und insbesondere der deutschsprachigen Informationswissenschaft (2013) 0.01
    0.010792375 = product of:
      0.02158475 = sum of:
        0.02158475 = product of:
          0.0431695 = sum of:
            0.0431695 = weight(_text_:22 in 900) [ClassicSimilarity], result of:
              0.0431695 = score(doc=900,freq=2.0), product of:
                0.15939656 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045518078 = queryNorm
                0.2708308 = fieldWeight in 900, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=900)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 3.2013 14:04:09
  5. Bornmann, L.: Lässt sich die Qualität von Forschung messen? (2013) 0.01
    0.009469198 = product of:
      0.018938396 = sum of:
        0.018938396 = product of:
          0.037876792 = sum of:
            0.037876792 = weight(_text_:b in 928) [ClassicSimilarity], result of:
              0.037876792 = score(doc=928,freq=2.0), product of:
                0.16126883 = queryWeight, product of:
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.045518078 = queryNorm
                0.23486741 = fieldWeight in 928, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.046875 = fieldNorm(doc=928)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Grundsätzlich können wir bei Bewertungen in der Wissenschaft zwischen einer 'qualitative' Form, der Bewertung einer wissenschaftlichen Arbeit (z. B. eines Manuskripts oder Forschungsantrags) durch kompetente Peers, und einer 'quantitative' Form, der Bewertung von wissenschaftlicher Arbeit anhand bibliometrischer Indikatoren unterscheiden. Beide Formen der Bewertung sind nicht unumstritten. Die Kritiker des Peer Review sehen vor allem zwei Schwächen des Verfahrens: (1) Verschiedene Gutachter würden kaum in der Bewertung ein und derselben wissenschaftlichen Arbeit übereinstimmen. (2) Gutachterliche Empfehlungen würden systematische Urteilsverzerrungen aufweisen. Gegen die Verwendung von Zitierhäufigkeiten als Indikator für die Qualität einer wissenschaftlichen Arbeit wird seit Jahren eine Vielzahl von Bedenken geäußert. Zitierhäufigkeiten seien keine 'objektiven' Messungen von wissenschaftlicher Qualität, sondern ein kritisierbares Messkonstrukt. So wird unter anderem kritisiert, dass wissenschaftliche Qualität ein komplexes Phänomen darstelle, das nicht auf einer eindimensionalen Skala (d. h. anhand von Zitierhäufigkeiten) gemessen werden könne. Es werden empirische Ergebnisse zur Reliabilität und Fairness des Peer Review Verfahrens sowie Forschungsergebnisse zur Güte von Zitierhäufigkeiten als Indikator für wissenschaftliche Qualität vorgestellt.
  6. Tüür-Fröhlich, T.: ¬Eine "autoritative" Datenbank auf dem Prüfstand : der Social Sciences Citation Index (SSCI) und seine Datenqualität (2018) 0.01
    0.009469198 = product of:
      0.018938396 = sum of:
        0.018938396 = product of:
          0.037876792 = sum of:
            0.037876792 = weight(_text_:b in 4591) [ClassicSimilarity], result of:
              0.037876792 = score(doc=4591,freq=2.0), product of:
                0.16126883 = queryWeight, product of:
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.045518078 = queryNorm
                0.23486741 = fieldWeight in 4591, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4591)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Zitatdatenbanken bilden die Datengrundlagen für zahlreiche szientometrische Untersuchungen, Evaluationen wissenschaftlicher Leistungen und Uni-Rankings. In der Literatur finden sich kaum Hinweise auf endogene Fehler (Original richtig, Datenbankeintrag falsch) in den kostenpflichtigen Datenbanken. Banale Fehler (z. B. Falschschreibung der Namen von Autorinnen oder Autoren) in Datenbanken hätten nur geringe Relevanz. Die Fehlersuche zu Pierre Bourdieu als "cited author" im SSCI (Vergleich Original - SSCI-Record) ergab mehr als 85 Mutationen. Die Fallstudien zeigen eine hohe Anzahl endogener Datenbankfehler. In den Rechtswissenschaften übliche Referenzen in Fußnoten laufen große Gefahr, in Phantomreferenzen verwandelt zu werden (Fallstudie Harvard Law Review: 99 Prozent Fehler). Dem Anspruch des SSCI, die "relevanten" globalen Sozialwissenschaften abzubilden - für alle im SSCI erfassten Disziplinen -, stehen offenbar Mängel in Datenerfassung und -verarbeitung im Wege.
  7. Jovanovic, M.: ¬Eine kleine Frühgeschichte der Bibliometrie (2012) 0.01
    0.009250606 = product of:
      0.018501213 = sum of:
        0.018501213 = product of:
          0.037002426 = sum of:
            0.037002426 = weight(_text_:22 in 326) [ClassicSimilarity], result of:
              0.037002426 = score(doc=326,freq=2.0), product of:
                0.15939656 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045518078 = queryNorm
                0.23214069 = fieldWeight in 326, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=326)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 7.2012 19:23:32
  8. Sieben Fragen zu Bibliometrie : Antworten von Ilka Agricola, Friedrich Götze, Martin Grötschel, Klaus Hulek, Peter Michor, Gabriele Nebe, Hans Jürgen Prömel, Jens Vygen, Gerhard Woeginger (2017) 0.01
    0.007890998 = product of:
      0.015781997 = sum of:
        0.015781997 = product of:
          0.031563994 = sum of:
            0.031563994 = weight(_text_:b in 4216) [ClassicSimilarity], result of:
              0.031563994 = score(doc=4216,freq=2.0), product of:
                0.16126883 = queryWeight, product of:
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.045518078 = queryNorm
                0.19572285 = fieldWeight in 4216, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4216)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Wissenschaftliche Institutionen und einzelne WissenschaftlerInnen werden zunehmend nach bibliometrischen Daten beurteilt. Jeder Mathematiker hat Vorbehalte gegenüber dieser Praxis. Über diese beiden Dinge waren sich alle TeilnemerInnen und Wortmeldungen des Panels zur Bibliometrie auf der DMV-Jahrestagung in Salzburg einig. Für einzelne WissenschaftlerInnen hat die IMU bereits 2014 (tinyurl.com/ycd7wvh7) die Vorbehalte gegenüber rein bibliometrischen Beurteilungen klar formuliert. Universitätsleitungen, Politik und andere bis hin zur öffentlichen Diskussion verlassen sich aber teilweise aif diese Art der Bewertung. Konkret kann das so aussehen: Zur Beurteilung von Departements zählt eine Universität Publikationen und gewichtet sie nach ihrer Güte. Die Güte entnimmt man einer Einteilung von Fachzeitschriften etwa in A, B und C. Liegt eine solche Einteilung nicht vor, sind alle Journale des Faches mit 1 gewichtet, d.h. 'junk'. Die Diskrepanz zwischen unserer Einschätzung und der allgemeinen Wirkmächtigkeit von Biblimetrie wirft für die DMV als Fachgegsellschaft die Frage auf, wie sie Einfluss nehmen kann und soll. Die 'Mitteilungen' versuchen an dieser Stelle zunächst, ein möglichst breites Meinungsbild zu sammeln. Wir haben sieben Fragen an eine Reihe von Kolleginnen und Kollegen gestellt, die am Panel teilgenmmen haben oder aus anderen Gründen mit dem Thema besfasst sind.
  9. Tüür-Fröhlich, T.: Blackbox SSCI : Datenerfassung und Datenverarbeitung bei der kommerziellen Indexierung von Zitaten (2019) 0.01
    0.007890998 = product of:
      0.015781997 = sum of:
        0.015781997 = product of:
          0.031563994 = sum of:
            0.031563994 = weight(_text_:b in 5779) [ClassicSimilarity], result of:
              0.031563994 = score(doc=5779,freq=2.0), product of:
                0.16126883 = queryWeight, product of:
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.045518078 = queryNorm
                0.19572285 = fieldWeight in 5779, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5779)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Zahlreiche Autoren, Autorinnen und kritische Initiativen (z. B. DORA) kritisieren den zu hohen und schädlichen Einfluss quantitativer Daten, welche akademische Instanzen für Evaluationszwecke heranziehen. Wegen des großen Einflusses der globalen Zitatdatenbanken von Thomson Reuters (bzw. Clarivate Analytics) auf die Bewertung der wissenschaftlichen Leistungen von Forscherinnen und Forschern habe ich extensive qualitative und quantitative Fallstudien zur Datenqualität des Social Sciences Citation Index (SSCI) durchgeführt, d. h. die Originaleinträge mit den SSCI-Datensätzen verglichen. Diese Fallstudien zeigten schwerste - nie in der Literatur erwähnte - Fehler, Verstümmelungen, Phantomautoren, Phantomwerke (Fehlerrate in der Fallstudie zu Beebe 2010, Harvard Law Review: 99 Prozent). Über die verwendeten Datenerfassungs- und Indexierungsverfahren von TR bzw. Clarivate Analytics ist nur wenig bekannt. Ein Ergebnis meiner Untersuchungen: Bei der Indexierung von Verweisen in Fußnoten (wie in den Rechtswissenschaften, gerade auch der USA, vorgeschrieben) scheinen die verwendeten Textanalyse-Anwendungen und -Algorithmen völlig überfordert. Eine Qualitätskontrolle scheint nicht stattzufinden. Damit steht der Anspruch des SSCI als einer multidisziplinären Datenbank zur Debatte. Korrekte Zitate in den Fußnoten des Originals können zu Phantom-Autoren, Phantom-Werken und Phantom-Referenzen degenerieren. Das bedeutet: Sämtliche Zeitschriften und Disziplinen, deren Zeitschriften und Büchern dieses oder ähnliche Zitierverfahren verwenden (Oxford-Style), laufen Gefahr, aufgrund starker Zitatverluste falsch, d. h. unterbewertet, zu werden. Wie viele UBOs (Unidentifiable Bibliographic Objects) sich in den Datenbanken SCI, SSCI und AHCI befinden, wäre nur mit sehr aufwändigen Prozeduren zu klären. Unabhängig davon handelt es sich, wie bei fast allen in meinen Untersuchungen gefundenen fatalen Fehlern, eindeutig um endogene Fehler in den Datenbanken, die nicht, wie oft behauptet, angeblich falsch zitierenden Autorinnen und Autoren zugeschrieben werden können, sondern erst im Laufe der Dateneingabe und -verarbeitung entstehen.