Search (24 results, page 1 of 2)

  • × theme_ss:"Informetrie"
  • × language_ss:"d"
  1. Herb, U.; Beucke, D.: ¬Die Zukunft der Impact-Messung : Social Media, Nutzung und Zitate im World Wide Web (2013) 0.04
    0.04439824 = product of:
      0.26638943 = sum of:
        0.26638943 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.26638943 = score(doc=2188,freq=2.0), product of:
            0.3554905 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.041930884 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
      0.16666667 = coord(1/6)
    
    Content
    Vgl. unter: https://www.leibniz-science20.de%2Fforschung%2Fprojekte%2Faltmetrics-in-verschiedenen-wissenschaftsdisziplinen%2F&ei=2jTgVaaXGcK4Udj1qdgB&usg=AFQjCNFOPdONj4RKBDf9YDJOLuz3lkGYlg&sig2=5YI3KWIGxBmk5_kv0P_8iQ.
  2. Stock, W.G.: Themenanalytische informetrische Methoden (1990) 0.02
    0.018704565 = product of:
      0.11222739 = sum of:
        0.11222739 = product of:
          0.22445478 = sum of:
            0.22445478 = weight(_text_:psychologie in 5065) [ClassicSimilarity], result of:
              0.22445478 = score(doc=5065,freq=2.0), product of:
                0.24666919 = queryWeight, product of:
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.041930884 = queryNorm
                0.9099425 = fieldWeight in 5065, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5065)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Source
    Psychologie und Philosophie der Grazer Schule: eine Dokumentation zu Werk und Wirkungsgeschichte. Hrsg.: M. Stock und W.G. Stock
  3. Wagner-Döbler, R.: Kognitive Mobilität und Zipfs "Principle of Least Effort" (2004) 0.02
    0.017807528 = product of:
      0.10684516 = sum of:
        0.10684516 = weight(_text_:kognitive in 3159) [ClassicSimilarity], result of:
          0.10684516 = score(doc=3159,freq=2.0), product of:
            0.28477833 = queryWeight, product of:
              6.7916126 = idf(docFreq=134, maxDocs=44218)
              0.041930884 = queryNorm
            0.37518713 = fieldWeight in 3159, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7916126 = idf(docFreq=134, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3159)
      0.16666667 = coord(1/6)
    
  4. ¬Die deutsche Zeitschrift für Dokumentation, Informationswissenschaft und Informationspraxis von 1950 bis 2011 : eine vorläufige Bilanz in vier Abschnitten (2012) 0.02
    0.017311653 = product of:
      0.051934958 = sum of:
        0.03489179 = weight(_text_:b in 402) [ClassicSimilarity], result of:
          0.03489179 = score(doc=402,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.23486741 = fieldWeight in 402, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=402)
        0.017043166 = product of:
          0.03408633 = sum of:
            0.03408633 = weight(_text_:22 in 402) [ClassicSimilarity], result of:
              0.03408633 = score(doc=402,freq=2.0), product of:
                0.1468348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041930884 = queryNorm
                0.23214069 = fieldWeight in 402, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=402)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    22. 7.2012 19:35:26
    Footnote
    Besteht aus 4 Teilen: Teil 1: Eden, D., A. Arndt, A. Hoffer, T. Raschke u. P. Schön: Die Nachrichten für Dokumentation in den Jahren 1950 bis 1962 (S.159-163). Teil 2: Brose, M., E. durst, D. Nitzsche, D. Veckenstedt u. R. Wein: Statistische Untersuchung der Fachzeitschrift "Nachrichten für Dokumentation" (NfD) 1963-1975 (S.164-170). Teil 3: Bösel, J., G. Ebert, P. Garz,, M. Iwanow u. B. Russ: Methoden und Ergebnisse einer statistischen Auswertung der Fachzeitschrift "Nachrichten für Dokumentation" (NfD) 1976 bis 1988 (S.171-174). Teil 4: Engelage, H., S. Jansen, R. Mertins, K. Redel u. S. Ring: Statistische Untersuchung der Fachzeitschrift "Nachrichten für Dokumentation" (NfD) / "Information. Wissenschaft & Praxis" (IWP) 1989-2011 (S.164-170).
  5. Dederke, J.; Hirschmann, B.; Johann, D.: ¬Der Data Citation Index von Clarivate : Eine wertvolle Ressource für die Forschung und für Bibliotheken? (2022) 0.01
    0.009692165 = product of:
      0.05815299 = sum of:
        0.05815299 = weight(_text_:b in 50) [ClassicSimilarity], result of:
          0.05815299 = score(doc=50,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.3914457 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.078125 = fieldNorm(doc=50)
      0.16666667 = coord(1/6)
    
  6. Mayr, P.: Bradfordizing als Re-Ranking-Ansatz in Literaturinformationssystemen (2011) 0.01
    0.008016243 = product of:
      0.048097454 = sum of:
        0.048097454 = product of:
          0.09619491 = sum of:
            0.09619491 = weight(_text_:psychologie in 4292) [ClassicSimilarity], result of:
              0.09619491 = score(doc=4292,freq=2.0), product of:
                0.24666919 = queryWeight, product of:
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.041930884 = queryNorm
                0.38997537 = fieldWeight in 4292, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4292)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Abstract
    In diesem Artikel wird ein Re-Ranking-Ansatz für Suchsysteme vorgestellt, der die Recherche nach wissenschaftlicher Literatur messbar verbessern kann. Das nichttextorientierte Rankingverfahren Bradfordizing wird eingeführt und anschließend im empirischen Teil des Artikels bzgl. der Effektivität für typische fachbezogene Recherche-Topics evaluiert. Dem Bradford Law of Scattering (BLS), auf dem Bradfordizing basiert, liegt zugrunde, dass sich die Literatur zu einem beliebigen Fachgebiet bzw. -thema in Zonen unterschiedlicher Dokumentenkonzentration verteilt. Dem Kernbereich mit hoher Konzentration der Literatur folgen Bereiche mit mittlerer und geringer Konzentration. Bradfordizing sortiert bzw. rankt eine Dokumentmenge damit nach den sogenannten Kernzeitschriften. Der Retrievaltest mit 164 intellektuell bewerteten Fragestellungen in Fachdatenbanken aus den Bereichen Sozial- und Politikwissenschaften, Wirtschaftswissenschaften, Psychologie und Medizin zeigt, dass die Dokumente der Kernzeitschriften signifikant häufiger relevant bewertet werden als Dokumente der zweiten Dokumentzone bzw. den Peripherie-Zeitschriften. Die Implementierung von Bradfordizing und weiteren Re-Rankingverfahren liefert unmittelbare Mehrwerte für den Nutzer.
  7. Mayr, P.: Information Retrieval-Mehrwertdienste für Digitale Bibliotheken: : Crosskonkordanzen und Bradfordizing (2010) 0.01
    0.008016243 = product of:
      0.048097454 = sum of:
        0.048097454 = product of:
          0.09619491 = sum of:
            0.09619491 = weight(_text_:psychologie in 4910) [ClassicSimilarity], result of:
              0.09619491 = score(doc=4910,freq=2.0), product of:
                0.24666919 = queryWeight, product of:
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.041930884 = queryNorm
                0.38997537 = fieldWeight in 4910, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4910)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Abstract
    In dieser Arbeit werden zwei Mehrwertdienste für Suchsysteme vorgestellt, die typische Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden in diesem Buch ausführlich beschrieben und evaluiert. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Ergebnisse dieser Arbeit sind in das GESIS-Projekt IRM eingeflossen.
  8. Herb, U.; Geith, U.: Kriterien der qualitativen Bewertung wissenschaftlicher Publikationen : Befunde aus dem Projekt visOA (2020) 0.01
    0.007753731 = product of:
      0.046522386 = sum of:
        0.046522386 = weight(_text_:b in 108) [ClassicSimilarity], result of:
          0.046522386 = score(doc=108,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.31315655 = fieldWeight in 108, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0625 = fieldNorm(doc=108)
      0.16666667 = coord(1/6)
    
    Abstract
    Dieser Beitrag beschreibt a) die Ergebnisse einer Literaturstudie zur qualitativen Wahrnehmung wissenschaftlicher Publikationen, b) die Konstruktion eines daraus abgeleiteten Kriterienkatalogs zur Wahrnehmung der Qualität wissenschaftlicher Publikationen sowie c) der Überprüfung dieses Katalogs in qualitativen Interviews mit Wissenschaflterinnen und Wissenschaftlern aus dem Fachspektrum Chemie, Physik, Biologie, Materialwissenschaft und Engineering. Es zeigte sich, dass die Wahrnehmung von Qualität auf äußerlichen und von außen herangetragenen Faktoren, inhaltlichen / semantischen Faktoren und sprachlichen, syntaktischen sowie strukturellen Faktoren beruht.
  9. Tüür-Fröhlich, T.: Closed vs. Open Access : Szientometrische Untersuchung dreier sozialwissenschaftlicher Zeitschriften aus der Genderperspektive (2011) 0.01
    0.006784515 = product of:
      0.04070709 = sum of:
        0.04070709 = weight(_text_:b in 4505) [ClassicSimilarity], result of:
          0.04070709 = score(doc=4505,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.27401197 = fieldWeight in 4505, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4505)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Artikel ist Teil einer größeren Untersuchung zu den Potentialen von Open Access Publishing zur Erhöhung der Publikations- und damit Karrierechancen von Sozialwissenschaftlerinnen. Es werden drei inhaltlich und methodisch ähnliche sozialwissenschaftliche Zeitschriften verglichen: das Open-Access-Journal "Forum Qualitative Sozialforschung" ("FQS") und die zwei Closed-Access-/Hybridjournale "Zeitschrift für qualitative Forschung" und "Sozialer Sinn". Erhoben wird (a) der jeweilige Frauenanteil unter Redaktions- und Beiratsmitgliedern dieser drei Zeitschriften (N=184 insgesamt), (b) aufwändig rekonstruiert und analysiert wird die Genderstruktur der Autorenschaften aller in den drei Zeitschriften zwischen 2000 und 2008 veröffentlichten Beiträge (Totalerhebung, N=1557 insgesamt).
  10. Hirschmann, B.: Altmetrics - neue Formen der Impact-Messung auf dem Vormarsch? (2013) 0.01
    0.006784515 = product of:
      0.04070709 = sum of:
        0.04070709 = weight(_text_:b in 2187) [ClassicSimilarity], result of:
          0.04070709 = score(doc=2187,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.27401197 = fieldWeight in 2187, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2187)
      0.16666667 = coord(1/6)
    
  11. Bornmann, L.: Lässt sich die Qualität von Forschung messen? (2013) 0.01
    0.0058152988 = product of:
      0.03489179 = sum of:
        0.03489179 = weight(_text_:b in 928) [ClassicSimilarity], result of:
          0.03489179 = score(doc=928,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.23486741 = fieldWeight in 928, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=928)
      0.16666667 = coord(1/6)
    
    Abstract
    Grundsätzlich können wir bei Bewertungen in der Wissenschaft zwischen einer 'qualitative' Form, der Bewertung einer wissenschaftlichen Arbeit (z. B. eines Manuskripts oder Forschungsantrags) durch kompetente Peers, und einer 'quantitative' Form, der Bewertung von wissenschaftlicher Arbeit anhand bibliometrischer Indikatoren unterscheiden. Beide Formen der Bewertung sind nicht unumstritten. Die Kritiker des Peer Review sehen vor allem zwei Schwächen des Verfahrens: (1) Verschiedene Gutachter würden kaum in der Bewertung ein und derselben wissenschaftlichen Arbeit übereinstimmen. (2) Gutachterliche Empfehlungen würden systematische Urteilsverzerrungen aufweisen. Gegen die Verwendung von Zitierhäufigkeiten als Indikator für die Qualität einer wissenschaftlichen Arbeit wird seit Jahren eine Vielzahl von Bedenken geäußert. Zitierhäufigkeiten seien keine 'objektiven' Messungen von wissenschaftlicher Qualität, sondern ein kritisierbares Messkonstrukt. So wird unter anderem kritisiert, dass wissenschaftliche Qualität ein komplexes Phänomen darstelle, das nicht auf einer eindimensionalen Skala (d. h. anhand von Zitierhäufigkeiten) gemessen werden könne. Es werden empirische Ergebnisse zur Reliabilität und Fairness des Peer Review Verfahrens sowie Forschungsergebnisse zur Güte von Zitierhäufigkeiten als Indikator für wissenschaftliche Qualität vorgestellt.
  12. Tüür-Fröhlich, T.: ¬Eine "autoritative" Datenbank auf dem Prüfstand : der Social Sciences Citation Index (SSCI) und seine Datenqualität (2018) 0.01
    0.0058152988 = product of:
      0.03489179 = sum of:
        0.03489179 = weight(_text_:b in 4591) [ClassicSimilarity], result of:
          0.03489179 = score(doc=4591,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.23486741 = fieldWeight in 4591, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=4591)
      0.16666667 = coord(1/6)
    
    Abstract
    Zitatdatenbanken bilden die Datengrundlagen für zahlreiche szientometrische Untersuchungen, Evaluationen wissenschaftlicher Leistungen und Uni-Rankings. In der Literatur finden sich kaum Hinweise auf endogene Fehler (Original richtig, Datenbankeintrag falsch) in den kostenpflichtigen Datenbanken. Banale Fehler (z. B. Falschschreibung der Namen von Autorinnen oder Autoren) in Datenbanken hätten nur geringe Relevanz. Die Fehlersuche zu Pierre Bourdieu als "cited author" im SSCI (Vergleich Original - SSCI-Record) ergab mehr als 85 Mutationen. Die Fallstudien zeigen eine hohe Anzahl endogener Datenbankfehler. In den Rechtswissenschaften übliche Referenzen in Fußnoten laufen große Gefahr, in Phantomreferenzen verwandelt zu werden (Fallstudie Harvard Law Review: 99 Prozent Fehler). Dem Anspruch des SSCI, die "relevanten" globalen Sozialwissenschaften abzubilden - für alle im SSCI erfassten Disziplinen -, stehen offenbar Mängel in Datenerfassung und -verarbeitung im Wege.
  13. Glänzel, W.; Debackere, K.: Messen von Wissenschaftlicher Kommunikation und Forschungsleistung : Möglichkeiten und Beschränkungen bibliometrischer Methoden (2005) 0.01
    0.0054827165 = product of:
      0.0328963 = sum of:
        0.0328963 = weight(_text_:b in 3770) [ClassicSimilarity], result of:
          0.0328963 = score(doc=3770,freq=4.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.22143513 = fieldWeight in 3770, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.03125 = fieldNorm(doc=3770)
      0.16666667 = coord(1/6)
    
    Abstract
    In den letzten drei Jahrzehnten hat sich die Bibliometrie (auch Szientometrie genannt) zu einem komplexen Forschungs- und Dienstleistungsgebiet entwickelt. Ergebnisse bibliometrischer Studien haben längst Eingang gefunden in Wissenschaftspolitik und Forschungsmanagement. Allerdings haben sich betreffend der Aufgabe und Funktion der Bibliometrie auch hartnäckig Vorurteile und Mißverständnisse gehalten. Zu diesen gehören Meinungen wie z. B., daß methodische Forschung auf diesem Gebiet unnötig sei und daß Bibliometriker ihre Aktivitäten besser auf den praxisorientierte Einsatz und auf die Erarbeitung leicht verständlicher Guidelines für den Umgang mit ihren Indikatoren konzentrieren sollten. Trotz derverbreiteten Auffassung, daß Bibliometrie lediglich ein Hilfsmittel im Dienste der Wissenschaftspolitik sei, haben Bibliometriker durch ihre Forschung gezeigt, daß sich ihre Disziplin zu einem vielseitigem interdisziplinären Fachgebiet mit eigenen Teilbereichen entwickelt hat: Die strukturelle Szientometrie beschäftigt sich mit der epistemologischen Struktur der Wissenschaft, die dynamische Szientometrie brachte z. B. Modelle des Wachstums der Wissenschaft, der Alterung von Information und der Zitationsprozesse hervor; die evaluative Szientometrie entwickelte schließlich Indikatoren zum Messen und zur Evaluation von Forschungsleistung. Obwohl sich im letztgenannten Bereich ein Anwendungsschwerpunkt herauskristallisiert hat, sollte hierbei noch ein letztes Mißverständins ausgeräumt werden: Bibliometrie kann zwar zur Entwicklung von Methoden für die Forschungsevaluation genutzt werden; es kann aber nicht Aufgabe der Bibliometrie sein, Forschungsergebnisse zu beurteilen. Darüber hinaus hat Bibliometrie auch nicht zum Ziel, qualitative Methoden durch quantitative Verfahren, also im besonderen peer reviews oder Gutachten von Experten durch indikatorbasierte Evaluationen zu ersetzen; qualitative Methoden und Bibliometrie sollten einander stets ergänzen. Im folgenden wollen wir zunächst kurz die Struktur der gegenwärtigen bibliometrischen Forschung abreißen und dann die Möglichkeiten und Beschränkungen bibliometrischer Methoden diskutieren.
  14. Mayr, P.: Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken (2009) 0.01
    0.0053441613 = product of:
      0.032064967 = sum of:
        0.032064967 = product of:
          0.06412993 = sum of:
            0.06412993 = weight(_text_:psychologie in 4302) [ClassicSimilarity], result of:
              0.06412993 = score(doc=4302,freq=2.0), product of:
                0.24666919 = queryWeight, product of:
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.041930884 = queryNorm
                0.25998357 = fieldWeight in 4302, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4302)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Abstract
    Trotz großer Dokumentmengen für datenbankübergreifende Literaturrecherchen erwarten akademische Nutzer einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, inzwischen eine entscheidende Rolle beim Design von Suchsystemen. Nutzer erwarten weiterhin flexible Informationssysteme, die es unter anderem zulassen, Einfluss auf das Ranking der Dokumente zu nehmen bzw. alternative Rankingverfahren zu verwenden. In dieser Arbeit werden zwei Mehrwertverfahren für Suchsysteme vorgestellt, die die typischen Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln und damit die Recherchesituation messbar verbessern können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden hier ausführlich beschrieben und im empirischen Teil der Arbeit bzgl. der Effektivität für typische fachbezogene Recherchen evaluiert. Vorrangiges Ziel der Promotion ist es, zu untersuchen, ob das hier vorgestellte alternative Re-Rankingverfahren Bradfordizing im Anwendungsbereich bibliographischer Datenbanken zum einen operabel ist und zum anderen voraussichtlich gewinnbringend in Informationssystemen eingesetzt und dem Nutzer angeboten werden kann. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben wissenschaftlichen Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Evaluation der Crosskonkordanzen (insgesamt 82 Fragestellungen) zeigt, dass sich die Retrievalergebnisse signifikant für alle Crosskonkordanzen verbessern; es zeigt sich zudem, dass interdisziplinäre Crosskonkordanzen den stärksten (positiven) Effekt auf die Suchergebnisse haben. Die Evaluation des Re-Ranking nach Bradfordizing (insgesamt 164 Fragestellungen) zeigt, dass die Dokumente der Kernzone (Kernzeitschriften) für die meisten Testreihen eine signifikant höhere Precision als Dokumente der Zone 2 und Zone 3 (Peripheriezeitschriften) ergeben. Sowohl für Zeitschriften als auch für Monographien kann dieser Relevanzvorteil nach Bradfordizing auf einer sehr breiten Basis von Themen und Fragestellungen an zwei unabhängigen Dokumentkorpora empirisch nachgewiesen werden.
  15. Sieben Fragen zu Bibliometrie : Antworten von Ilka Agricola, Friedrich Götze, Martin Grötschel, Klaus Hulek, Peter Michor, Gabriele Nebe, Hans Jürgen Prömel, Jens Vygen, Gerhard Woeginger (2017) 0.00
    0.0048460825 = product of:
      0.029076494 = sum of:
        0.029076494 = weight(_text_:b in 4216) [ClassicSimilarity], result of:
          0.029076494 = score(doc=4216,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.19572285 = fieldWeight in 4216, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4216)
      0.16666667 = coord(1/6)
    
    Abstract
    Wissenschaftliche Institutionen und einzelne WissenschaftlerInnen werden zunehmend nach bibliometrischen Daten beurteilt. Jeder Mathematiker hat Vorbehalte gegenüber dieser Praxis. Über diese beiden Dinge waren sich alle TeilnemerInnen und Wortmeldungen des Panels zur Bibliometrie auf der DMV-Jahrestagung in Salzburg einig. Für einzelne WissenschaftlerInnen hat die IMU bereits 2014 (tinyurl.com/ycd7wvh7) die Vorbehalte gegenüber rein bibliometrischen Beurteilungen klar formuliert. Universitätsleitungen, Politik und andere bis hin zur öffentlichen Diskussion verlassen sich aber teilweise aif diese Art der Bewertung. Konkret kann das so aussehen: Zur Beurteilung von Departements zählt eine Universität Publikationen und gewichtet sie nach ihrer Güte. Die Güte entnimmt man einer Einteilung von Fachzeitschriften etwa in A, B und C. Liegt eine solche Einteilung nicht vor, sind alle Journale des Faches mit 1 gewichtet, d.h. 'junk'. Die Diskrepanz zwischen unserer Einschätzung und der allgemeinen Wirkmächtigkeit von Biblimetrie wirft für die DMV als Fachgegsellschaft die Frage auf, wie sie Einfluss nehmen kann und soll. Die 'Mitteilungen' versuchen an dieser Stelle zunächst, ein möglichst breites Meinungsbild zu sammeln. Wir haben sieben Fragen an eine Reihe von Kolleginnen und Kollegen gestellt, die am Panel teilgenmmen haben oder aus anderen Gründen mit dem Thema besfasst sind.
  16. Tüür-Fröhlich, T.: Blackbox SSCI : Datenerfassung und Datenverarbeitung bei der kommerziellen Indexierung von Zitaten (2019) 0.00
    0.0048460825 = product of:
      0.029076494 = sum of:
        0.029076494 = weight(_text_:b in 5779) [ClassicSimilarity], result of:
          0.029076494 = score(doc=5779,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.19572285 = fieldWeight in 5779, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5779)
      0.16666667 = coord(1/6)
    
    Abstract
    Zahlreiche Autoren, Autorinnen und kritische Initiativen (z. B. DORA) kritisieren den zu hohen und schädlichen Einfluss quantitativer Daten, welche akademische Instanzen für Evaluationszwecke heranziehen. Wegen des großen Einflusses der globalen Zitatdatenbanken von Thomson Reuters (bzw. Clarivate Analytics) auf die Bewertung der wissenschaftlichen Leistungen von Forscherinnen und Forschern habe ich extensive qualitative und quantitative Fallstudien zur Datenqualität des Social Sciences Citation Index (SSCI) durchgeführt, d. h. die Originaleinträge mit den SSCI-Datensätzen verglichen. Diese Fallstudien zeigten schwerste - nie in der Literatur erwähnte - Fehler, Verstümmelungen, Phantomautoren, Phantomwerke (Fehlerrate in der Fallstudie zu Beebe 2010, Harvard Law Review: 99 Prozent). Über die verwendeten Datenerfassungs- und Indexierungsverfahren von TR bzw. Clarivate Analytics ist nur wenig bekannt. Ein Ergebnis meiner Untersuchungen: Bei der Indexierung von Verweisen in Fußnoten (wie in den Rechtswissenschaften, gerade auch der USA, vorgeschrieben) scheinen die verwendeten Textanalyse-Anwendungen und -Algorithmen völlig überfordert. Eine Qualitätskontrolle scheint nicht stattzufinden. Damit steht der Anspruch des SSCI als einer multidisziplinären Datenbank zur Debatte. Korrekte Zitate in den Fußnoten des Originals können zu Phantom-Autoren, Phantom-Werken und Phantom-Referenzen degenerieren. Das bedeutet: Sämtliche Zeitschriften und Disziplinen, deren Zeitschriften und Büchern dieses oder ähnliche Zitierverfahren verwenden (Oxford-Style), laufen Gefahr, aufgrund starker Zitatverluste falsch, d. h. unterbewertet, zu werden. Wie viele UBOs (Unidentifiable Bibliographic Objects) sich in den Datenbanken SCI, SSCI und AHCI befinden, wäre nur mit sehr aufwändigen Prozeduren zu klären. Unabhängig davon handelt es sich, wie bei fast allen in meinen Untersuchungen gefundenen fatalen Fehlern, eindeutig um endogene Fehler in den Datenbanken, die nicht, wie oft behauptet, angeblich falsch zitierenden Autorinnen und Autoren zugeschrieben werden können, sondern erst im Laufe der Dateneingabe und -verarbeitung entstehen.
  17. Thelwall, M.; Ruschenburg, T.: Grundlagen und Forschungsfelder der Webometrie (2006) 0.00
    0.0037873704 = product of:
      0.022724222 = sum of:
        0.022724222 = product of:
          0.045448445 = sum of:
            0.045448445 = weight(_text_:22 in 77) [ClassicSimilarity], result of:
              0.045448445 = score(doc=77,freq=2.0), product of:
                0.1468348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041930884 = queryNorm
                0.30952093 = fieldWeight in 77, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=77)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    4.12.2006 12:12:22
  18. Hassler, M.: Web analytics : Metriken auswerten, Besucherverhalten verstehen, Website optimieren ; [Metriken analysieren und interpretieren ; Besucherverhalten verstehen und auswerten ; Website-Ziele definieren, Webauftritt optimieren und den Erfolg steigern] (2009) 0.00
    0.0033922575 = product of:
      0.020353545 = sum of:
        0.020353545 = weight(_text_:b in 3586) [ClassicSimilarity], result of:
          0.020353545 = score(doc=3586,freq=2.0), product of:
            0.14855953 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.041930884 = queryNorm
            0.13700598 = fieldWeight in 3586, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3586)
      0.16666667 = coord(1/6)
    
    Abstract
    Web Analytics bezeichnet die Sammlung, Analyse und Auswertung von Daten der Website-Nutzung mit dem Ziel, diese Informationen zum besseren Verständnis des Besucherverhaltens sowie zur Optimierung der Website zu nutzen. Je nach Ziel der eigenen Website - z.B. die Vermittlung eines Markenwerts oder die Vermehrung von Kontaktanfragen, Bestellungen oder Newsletter-Abonnements - können Sie anhand von Web Analytics herausfinden, wo sich Schwachstellen Ihrer Website befinden und wie Sie Ihre eigenen Ziele durch entsprechende Optimierungen besser erreichen. Dabei ist Web Analytics nicht nur für Website-Betreiber und IT-Abteilungen interessant, sondern wird insbesondere auch mehr und mehr für Marketing und Management nutzbar. Mit diesem Buch lernen Sie, wie Sie die Nutzung Ihrer Website analysieren. Sie können z. B. untersuchen, welche Traffic-Quelle am meisten Umsatz bringt oder welche Bereiche der Website besonders häufig genutzt werden und vieles mehr. Auf diese Weise werden Sie Ihre Besucher, ihr Verhalten und ihre Motivation besser kennen lernen, Ihre Website darauf abstimmen und somit Ihren Erfolg steigern können. Um aus Web Analytics einen wirklichen Mehrwert ziehen zu können, benötigen Sie fundiertes Wissen. Marco Hassler gibt Ihnen in seinem Buch einen umfassenden Einblick in Web Analytics. Er zeigt Ihnen detailliert, wie das Verhalten der Besucher analysiert wird und welche Metriken Sie wann sinnvoll anwenden können. Im letzten Teil des Buches zeigt Ihnen der Autor, wie Sie Ihre Auswertungsergebnisse dafür nutzen, über Conversion-Messungen die Website auf ihre Ziele hin zu optimieren. Ziel dieses Buches ist es, konkrete Web-Analytics-Kenntnisse zu vermitteln und wertvolle praxisorientierte Tipps zu geben. Dazu schlägt das Buch die Brücke zu tangierenden Themenbereichen wie Usability, User-Centered-Design, Online Branding, Online-Marketing oder Suchmaschinenoptimierung. Marco Hassler gibt Ihnen klare Hinweise und Anleitungen, wie Sie Ihre Ziele erreichen.
  19. Schlögl, C.: Internationale Sichtbarkeit der europäischen und insbesondere der deutschsprachigen Informationswissenschaft (2013) 0.00
    0.003313949 = product of:
      0.019883694 = sum of:
        0.019883694 = product of:
          0.03976739 = sum of:
            0.03976739 = weight(_text_:22 in 900) [ClassicSimilarity], result of:
              0.03976739 = score(doc=900,freq=2.0), product of:
                0.1468348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041930884 = queryNorm
                0.2708308 = fieldWeight in 900, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=900)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    22. 3.2013 14:04:09
  20. H-Index auch im Web of Science (2008) 0.00
    0.0028405278 = product of:
      0.017043166 = sum of:
        0.017043166 = product of:
          0.03408633 = sum of:
            0.03408633 = weight(_text_:22 in 590) [ClassicSimilarity], result of:
              0.03408633 = score(doc=590,freq=2.0), product of:
                0.1468348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041930884 = queryNorm
                0.23214069 = fieldWeight in 590, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=590)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    6. 4.2008 19:04:22