Search (14 results, page 1 of 1)

  • × language_ss:"d"
  • × theme_ss:"Elektronisches Publizieren"
  • × type_ss:"el"
  1. Jochum, U.: Digitale Wissenschaftskontrolle (2016) 0.06
    0.058715172 = product of:
      0.17614551 = sum of:
        0.17614551 = weight(_text_:digitale in 3257) [ClassicSimilarity], result of:
          0.17614551 = score(doc=3257,freq=2.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.68395966 = fieldWeight in 3257, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.09375 = fieldNorm(doc=3257)
      0.33333334 = coord(1/3)
    
  2. Datentracking in der Wissenschaft : Aggregation und Verwendung bzw. Verkauf von Nutzungsdaten durch Wissenschaftsverlage. Ein Informationspapier des Ausschusses für Wissenschaftliche Bibliotheken und Informationssysteme der Deutschen Forschungsgemeinschaft (2021) 0.03
    0.029357586 = product of:
      0.088072754 = sum of:
        0.088072754 = weight(_text_:digitale in 248) [ClassicSimilarity], result of:
          0.088072754 = score(doc=248,freq=2.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.34197983 = fieldWeight in 248, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.046875 = fieldNorm(doc=248)
      0.33333334 = coord(1/3)
    
    Abstract
    Das Informationspapier beschreibt die digitale Nachverfolgung von wissenschaftlichen Aktivitäten. Wissenschaftlerinnen und Wissenschaftler nutzen täglich eine Vielzahl von digitalen Informationsressourcen wie zum Beispiel Literatur- und Volltextdatenbanken. Häufig fallen dabei Nutzungsspuren an, die Aufschluss geben über gesuchte und genutzte Inhalte, Verweildauern und andere Arten der wissenschaftlichen Aktivität. Diese Nutzungsspuren können von den Anbietenden der Informationsressourcen festgehalten, aggregiert und weiterverwendet oder verkauft werden. Das Informationspapier legt die Transformation von Wissenschaftsverlagen hin zu Data Analytics Businesses dar, verweist auf die Konsequenzen daraus für die Wissenschaft und deren Einrichtungen und benennt die zum Einsatz kommenden Typen der Datengewinnung. Damit dient es vor allem der Darstellung gegenwärtiger Praktiken und soll zu Diskussionen über deren Konsequenzen für die Wissenschaft anregen. Es richtet sich an alle Wissenschaftlerinnen und Wissenschaftler sowie alle Akteure in der Wissenschaftslandschaft.
  3. Pampel, H.: Empfehlungen für transformative Zeitschriftenverträge mit Publikationsdienstleistern veröffentlicht (2022) 0.03
    0.029357586 = product of:
      0.088072754 = sum of:
        0.088072754 = weight(_text_:digitale in 805) [ClassicSimilarity], result of:
          0.088072754 = score(doc=805,freq=2.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.34197983 = fieldWeight in 805, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.046875 = fieldNorm(doc=805)
      0.33333334 = coord(1/3)
    
    Abstract
    Mailtext: "Im Rahmen der Schwerpunktinitiative "Digitale Information" der Allianz der Wissenschaftsorganisationen wurden jetzt "Empfehlungen für transformative Zeitschriftenverträge mit Publikationsdienstleistern" veröffentlicht. Die formulierten Kriterien dienen als gemeinsamer und handlungsleitender Rahmen der Akteur:innen aus allen Wissenschaftsorganisationen, d.h. Hochschulen ebenso wie außeruniversitäre Forschungseinrichtungen, für Verhandlungen mit Publikationsdienstleistern. Dabei bildet die Forderung nach größtmöglicher Kostentransparenz und Kosteneffizienz im Gesamtsystem den Kern des Handelns der Wissenschaftsorganisationen im Kontext ihrer Open-Access-Strategie für die Jahre 2021-2025. Diese Kriterien gliedern sich in die Aspekte Transformation von Zeitschriften, Preisgestaltung, Transparenz, Workflow, Preprints, Qualitätssicherung, Metadaten und Schnittstellen, Statistiken, Tracking und Waiver. Deutsche Version: https://doi.org/10.48440/allianzoa.045 Englische Version: https://doi.org/10.48440/allianzoa.046 Siehe auch: Empfehlungen für transformative Zeitschriftenverträge mit Publikationsdienstleistern veröffentlicht https://www.allianzinitiative.de/2022/11/24/empfehlungen-fuer-transformative-zeitschriftenvertraege-mit-publikationsdienstleistern-veroeffentlicht/ Recommendations for Transformative Journal Agreements with Providers of Publishing Services published https://www.allianzinitiative.de/2022/11/24/recommendations-for-transformative-journal-agreements-with-providers-of-publishing-services-published/?lang=en"
  4. Taglinger, H.: Ausgevogelt, jetzt wird es ernst (2018) 0.03
    0.026767945 = product of:
      0.08030383 = sum of:
        0.08030383 = sum of:
          0.046484742 = weight(_text_:bibliothek in 4281) [ClassicSimilarity], result of:
            0.046484742 = score(doc=4281,freq=2.0), product of:
              0.20495859 = queryWeight, product of:
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.049922563 = queryNorm
              0.22680065 = fieldWeight in 4281, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4281)
          0.03381909 = weight(_text_:22 in 4281) [ClassicSimilarity], result of:
            0.03381909 = score(doc=4281,freq=2.0), product of:
              0.1748203 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.049922563 = queryNorm
              0.19345059 = fieldWeight in 4281, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4281)
      0.33333334 = coord(1/3)
    
    Abstract
    Das kennt der Sammler: Da fängt man an, sich für eine Sache zu interessieren und alles darüber zusammenzutragen, was man kriegen kann, und dann hat man sich verhoben, weil man die Sache ein wenig zu groß angegangen ist. So ist es zum Beispiel blöd, in der Wüste zu sitzen und sich zu überlegen, alle Kiefernnadeln weltweit zusammentragen zu wollen, weil das ja von dort aus gesehen nicht so viele sein können. Und dann beginnt man nach einiger Zeit diese Website über die Kiefernwälder weltweit zu finden und sich am Kopf zu kratzen. Also beschließt man nur noch "herausragende Kiefernnadeln" zu sammeln, was immer das sein mag. Aber auf jeden Fall hat man es satt, jeden Tag mehrere Tausend Säcke Bioabfall von schwitzenden Postboten vor die Tore gestellt zu bekommen. So ähnlich muss es der Library of Congress gehen, wenn sie im Dezember 2017 genau das beschließt. Also, nicht wirklich das Sammeln von Kiefernnadeln einzustellen. Vielmehr handelt es sich ja um die umfangreichste Bibliothek der Welt, die alle möglichen Inhalte in Büchern, auf Tonbändern und eben auch Tweets sammelt. Das ist ihr jetzt zu viel geworden. Kann man verstehen, kommen wir ja schon mit dem Lesen von Tweets eines kleinhändigen Präsidenten kaum noch nach, dann muss es da draußen ja auch noch eine ganze Menge anderes Zeugs geben. Die armen Bibliothekare in den dortigen Kellern weinen ja schon, wenn sie wieder tonnenweise kommentierte Retweets und diesen Mist auf den Tisch bekamen, alleine das Ausdrucken von bis zu 280 Zeichen und Bildern dauert ja ewig ... ganz zu schweigen vom Einsortieren.
    Date
    22. 1.2018 11:38:55
  5. Wohlgemuth, M.: EQUAP^2: Projektbericht zu Anforderungen und Erfahrungen im Review-Prozess veröffentlicht. 0.02
    0.024464656 = product of:
      0.07339396 = sum of:
        0.07339396 = weight(_text_:digitale in 895) [ClassicSimilarity], result of:
          0.07339396 = score(doc=895,freq=2.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.2849832 = fieldWeight in 895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0390625 = fieldNorm(doc=895)
      0.33333334 = coord(1/3)
    
    Abstract
    "Die digitale Transformation ermöglichte eine Effizienzsteigerung und Beschleunigung der Publikationsprozesse und eröffnete damit neue Wachstumsoptionen auf dem Markt der wissenschaftlichen Zeitschriften. Diese Entwicklung wirft grundsätzliche Fragen auf: Welche Auswirkungen haben diese Beschleunigung und Wachstumsraten auf die Funktion des wissenschaftlichen Publizierens? Werden sie allein durch Effizienzsteigerungen erreicht oder hat die Entwicklung weiterreichende Auswirkungen auf die im Publikationsprozess oft zeitintensiven Begutachtungsprozesse? Was zeichnet vorbildliche Begutachtungsverfahren aus und wie lassen sich mögliche Zielkonflikte erkennen? Die Relevanz des Themas erschien Kolleg:innen aus verschiedenen deutsch-schweizerischen Bibliotheken so groß, dass sie gemeinsam mit empirischen Sozialwissenschaftlern der TU Dresden das Verbundprojekt «Evaluating the Quality Assurance Process in Scholarly Publishing» (EQUAP^2) gründeten. Das Projekt wurde über Eigenleistungen der beteiligten Akteure und eine finanzielle Unterstützung von Schweizer Bibliotheken und Verbänden sowie der TU9-Bibliotheken ermöglicht. In einem Websurvey konnten mehr als 3.200 Wissenschaftlerinnen und Wissenschaftler aus 25 deutschen und schweizerischen Hochschulen und Forschungseinrichtungen zu ihren Erwartungen an den Begutachtungsprozess und ihren verlagsspezifischen Erfahrungen befragt werden. Zusätzlich wurden zwei faktorielle Erhebungsdesigns in die Umfrage implementiert, um die Best Practice der Peer-Review- und Entscheidungsprozesse bei Zeitschriften zu bewerten. Die Studienergebnisse<https://zenodo.org/record/7612114#.Y-OFPHbMJPY> sind auf der Plattform Zenodo<https://zenodo.org/communities/equap2/?page=1&size=20> veröffentlicht. Die Umfrage zeigt, dass die Erwartungen an den Peer-Review-Prozess über alle Disziplinen hinweg sehr homogen sind, sich aber abhängig von der Rolle der Forschenden im Publikationsprozess deutlich unterscheiden. Die Antworten geben Hinweise auf potentielle Interessenkonflikte sowie diskutable Verlagspraktiken, die in wissenschaftlichen Einrichtungen und insbesondere bei Entscheidungen zur Publikationsfinanzierung berücksichtigt werden sollten. Auf der Projekthomepage<https://www.slub-dresden.de/ueber-uns/projekte/evaluating-the-quality-assurance-process-in-scholarly-publishing-equap2> finden Sie weitere Informationen zum Projekt. Das Projektteam ist über die Mailadresse equap2@slub-dresden.de<mailto:equap2@slub-dresden.de> erreichbar."
  6. Borghoff, U.M.; Rödig, P.; Schmalhofer, F.: DFG-Projekt Datenbankgestützte Langzeitarchivierung digitaler Objekte : Schlussbericht Juli 2005 - Geschäftszeichen 554 922(1) UV BW Mänchen (2005) 0.02
    0.019571725 = product of:
      0.058715172 = sum of:
        0.058715172 = weight(_text_:digitale in 4250) [ClassicSimilarity], result of:
          0.058715172 = score(doc=4250,freq=2.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.22798656 = fieldWeight in 4250, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.03125 = fieldNorm(doc=4250)
      0.33333334 = coord(1/3)
    
    Abstract
    Über die letzten Jahrzehnte ist die Menge digitaler Publikationen exponentiell angestiegen. Doch die digitalen Bestände sind durch die schleichende Obsoletheit von Datenformaten, Software und Hardware bedroht. Aber auch die zunehmende Komplexität neuerer Dokumente und zugehöriger Abspielumgebungen stellt ein Problem dar. Das Thema der Langzeitarchivierung wurde lange vernachlässigt, rückt aber zunehmend ins Bewusstsein der Verantwortlichen und der Öffentlichkeit, nicht zuletzt wegen spektakulärer Datenverluste. Ziel dieser Studie ist es, Grundlagen und Bausteine für eine technische Lösung zu entwickeln und deren Einbettung in die Aufgabenbereiche einer Archivierungsorganisation aufzuzeigen. Es fehlt eine systematische Herangehensweise zum Aufbau technischen Wissens, die der Heterogenität und Komplexität sowie der bereits vorhandenen Obsoletheit in der Welt des digitalen Publizierens gerecht wird. In einem ersten Schritt entwickeln wir deshalb ein Modell, das sich spezifisch den technischen Aspekten digitaler Objekte widmet. Dieses Modell erlaubt es, digitale Objekte bezüglich der Archivierungsaspekte zu charakterisieren und zu klassifizieren sowie technische Grundlagen präzise zuzuordnen. Auf dieser Basis können u. a. systematisch modulare Metadatenschemata gewonnen werden, die den Langzeiterhalt gezielt unterstützen. Das Modell liefert außerdem einen Beitrag zur Formulierung von zugehörigen Ontologien. Des Weiteren fördern die Modularität der Metadatenschemata und die einheitliche Begrifflichkeit einer Ontologie die Föderation und Kooperation von Archivierungsorganisationen und -systemen. Die Abstützung auf das entwickelte Modell systematisiert in einem weiteren Schritt die Herleitung von technisch orientierten Prozessen zur Erfüllung von Archivierungsaufgaben. Der Entwicklung eines eigenen Modells liegt die Einschätzung zu Grunde, dass Referenzmodelle, wie OAIS (Open Archival Information System), zwar eine geeignete Ausgangsbasis auf konzeptioneller Ebene bieten, aber sie sind zu generell und beschreiben vor- oder nachgelagerte Prozesse nur als Schnittstelle. Die aus dem Modell hergeleiteten Lösungsansätze sind zunächst unabhängig von einer konkreten Realisierung. Als Beitrag zur Umsetzung wird in einem eigenen Abschnitt der Einsatz von Datenbankmanagementsystemen (DBMS) als Implementierungsbasis ausführlich diskutiert.
  7. Wolchover, N.: Wie ein Aufsehen erregender Beweis kaum Beachtung fand (2017) 0.02
    0.015942473 = product of:
      0.047827415 = sum of:
        0.047827415 = product of:
          0.09565483 = sum of:
            0.09565483 = weight(_text_:22 in 3582) [ClassicSimilarity], result of:
              0.09565483 = score(doc=3582,freq=4.0), product of:
                0.1748203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.049922563 = queryNorm
                0.54716086 = fieldWeight in 3582, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3582)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 4.2017 10:42:05
    22. 4.2017 10:48:38
  8. Gutknecht, C.: Zahlungen der ETH Zürich an Elsevier, Springer und Wiley nun öffentlich (2015) 0.02
    0.015339183 = product of:
      0.046017546 = sum of:
        0.046017546 = product of:
          0.09203509 = sum of:
            0.09203509 = weight(_text_:bibliothek in 4324) [ClassicSimilarity], result of:
              0.09203509 = score(doc=4324,freq=4.0), product of:
                0.20495859 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.049922563 = queryNorm
                0.44904238 = fieldWeight in 4324, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Was bezahlt die ETH Bibliothek an Elsevier, Springer und Wiley? Die Antwort auf diese einfache Frage liegt nun nach gut 14 Monaten und einem Entscheid der ersten Rekursinstanz (EDÖB) vor. Werfen wir nun also einen Blick in diese nun erstmals öffentlich zugänglichen Daten (auch als XLSX). Die ETH-Bibliothek schlüsselte die Ausgaben wie von mir gewünscht in Datenbanken, E-Books und Zeitschriften auf.
  9. Furger, M.; Ball, R.: Weg mit den Büchern! (2016) 0.01
    0.013147871 = product of:
      0.039443612 = sum of:
        0.039443612 = product of:
          0.078887224 = sum of:
            0.078887224 = weight(_text_:bibliothek in 1272) [ClassicSimilarity], result of:
              0.078887224 = score(doc=1272,freq=4.0), product of:
                0.20495859 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.049922563 = queryNorm
                0.38489348 = fieldWeight in 1272, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1272)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Das Internet mache Bibliotheken überflüssig, sagt der Chef der ETH-Bibliothek im Interview. Entweder sie räumen ihre Bücherbestände aus und erfinden sich neu - oder sie werden verschwinden.
    Content
    Vgl. auch den Kommentar von Klaus Graf unter: http://archivalia.hypotheses.org/54235. Vgl. auch: http://ruedimumenthaler.ch/2016/02/08/sind-bibliotheken-uberflussig-eine-replik/ sowie http://ruedimumenthaler.ch/2016/02/12/bibliotheksbranche-im-umbruch-und-in-aufruhr/. Vgl. auch: http://www.researchinformation.info/news/news_story.php?news_id=2077 [Es ist einfach nur peinlich realitätsfremd und dem Amt als ETH-Bibliotheksdirektor unwürdig, die heutige Situation als "established, reliable and sustainable" zu bezeichnen und sich gleichzeitig als "begnadeter Vordenker" (https://dl.dropboxusercontent.com/u/13689512/begnadeter%20Vordenker.pdf) zu ernennen.] Vgl.auch: http://christoph-deeg.com/2016/02/13/quo-vadis-oeffentliche-bibliotheken-gedanken-zum-nzz-interview-von-rafael-ball-eth-bibliothek/. Vgl. auch: http://www.nzz.ch/feuilleton/ueber-eine-zukunftsvision-die-ein-horrorszenario-sein-koennte-1.18693786.
  10. Wolf, C.: Open Access Helper : neue Funktionen kurz vorgestellt (2021) 0.01
    0.013147871 = product of:
      0.039443612 = sum of:
        0.039443612 = product of:
          0.078887224 = sum of:
            0.078887224 = weight(_text_:bibliothek in 138) [ClassicSimilarity], result of:
              0.078887224 = score(doc=138,freq=4.0), product of:
                0.20495859 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.049922563 = queryNorm
                0.38489348 = fieldWeight in 138, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.046875 = fieldNorm(doc=138)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Open Access Helper <https://www.oahelper.org> ist eine Browser-Erweiterung, die es Ihren Nutzern leichter machen soll, Open Access Kopien für wissenschaftliche Literatur zu finden. Dabei prüft Open Access Helper im Hintergrund anhand der ausgezeichneten APIs von unpaywall.org and core.ac.uk. Neben der Möglichkeit Open Access Kopien zu finden, hat Open Access Helper <https://www.oahelper.org> nun einen wichtigen Schritt gemacht, Ihre Nutzer noch besser zu unterstützen. Dank der Zusammenarbeit mit einer Bibliothek in Irland, kann die Erweiterung Ihre Nutzer nun besser unterstützen. Als Bibliothek können Sie für Open Access Helper Ihren* EZProxy* und/oder ein *Anfrageformular* bzw. *Link Resolver* hinterlegen. Es entstehen Ihnen und Ihren Nutzerinnen und Nutzern hierbei keine Kosten. Open Access Helper gibt es für Chrome, Firefox, Safari (macOS) und auch für iPad & iPhone. Download Links finden Sie unter https://www.oahelper.org oder über eine Such im App / Extension Store Ihrer Wahl. Weitere Informationen finden Sie unter https://www.oahelper.org.
  11. "Google Books" darf weitermachen wie bisher : Entscheidung des Supreme Court in den USA (2016) 0.01
    0.010956558 = product of:
      0.032869674 = sum of:
        0.032869674 = product of:
          0.06573935 = sum of:
            0.06573935 = weight(_text_:bibliothek in 2923) [ClassicSimilarity], result of:
              0.06573935 = score(doc=2923,freq=4.0), product of:
                0.20495859 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.049922563 = queryNorm
                0.32074454 = fieldWeight in 2923, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2923)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    " Im Streit mit Google um Urheberrechte ist eine Gruppe von Buchautoren am Obersten US-Gericht gescheitert. Der Supreme Court lehnte es ab, die google-freundliche Entscheidung eines niederen Gerichtes zur Revision zuzulassen. In dem Fall geht es um die Online-Bibliothek "Google Books", für die der kalifornische Konzern Gerichtsunterlagen zufolge mehr als 20 Millionen Bücher digitalisiert hat. Durch das Projekt können Internet-Nutzer innerhalb der Bücher nach Stichworten suchen und die entsprechenden Textstellen lesen. Die drei zuständigen Richter entschieden einstimmig, dass in dem Fall zwar die Grenzen der Fairness ausgetestet würden, aber das Vorgehen von Google letztlich rechtens sei. Entschädigungen in Milliardenhöhe gefürchtet Die von dem Interessensverband Authors Guild angeführten Kläger sahen ihre Urheberrechte durch "Google Books" verletzt. Dazu gehörten auch prominente Künstler wie die Schriftstellerin und Dichterin Margaret Atwood. Google führte dagegen an, die Internet-Bibliothek kurbele den Bücherverkauf an, weil Leser dadurch zusätzlich auf interessante Werke aufmerksam gemacht würden. Google reagierte "dankbar" auf die Entscheidung des Supreme Court. Der Konzern hatte befürchtet, bei einer juristischen Niederlage Entschädigungen in Milliardenhöhe zahlen zu müssen."
  12. Schleim, S.: Warum die Wissenschaft nicht frei ist (2017) 0.01
    0.009018424 = product of:
      0.027055271 = sum of:
        0.027055271 = product of:
          0.054110542 = sum of:
            0.054110542 = weight(_text_:22 in 3882) [ClassicSimilarity], result of:
              0.054110542 = score(doc=3882,freq=2.0), product of:
                0.1748203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.049922563 = queryNorm
                0.30952093 = fieldWeight in 3882, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3882)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    9.10.2017 15:48:22
  13. Krüger, N.; Pianos, T.: Lernmaterialien für junge Forschende in den Wirtschaftswissenschaften als Open Educational Resources (OER) (2021) 0.01
    0.007891121 = product of:
      0.023673363 = sum of:
        0.023673363 = product of:
          0.047346726 = sum of:
            0.047346726 = weight(_text_:22 in 252) [ClassicSimilarity], result of:
              0.047346726 = score(doc=252,freq=2.0), product of:
                0.1748203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.049922563 = queryNorm
                0.2708308 = fieldWeight in 252, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=252)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 5.2021 12:43:05
  14. Strecker, D.: Nutzung der Schattenbibliothek Sci-Hub in Deutschland (2019) 0.01
    0.0067638177 = product of:
      0.020291453 = sum of:
        0.020291453 = product of:
          0.040582906 = sum of:
            0.040582906 = weight(_text_:22 in 596) [ClassicSimilarity], result of:
              0.040582906 = score(doc=596,freq=2.0), product of:
                0.1748203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.049922563 = queryNorm
                0.23214069 = fieldWeight in 596, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=596)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    1. 1.2020 13:22:34