Search (16 results, page 1 of 1)

  • × theme_ss:"Elektronisches Publizieren"
  • × type_ss:"el"
  1. Jochum, U.: Digitale Wissenschaftskontrolle (2016) 0.06
    0.058715172 = product of:
      0.17614551 = sum of:
        0.17614551 = weight(_text_:digitale in 3257) [ClassicSimilarity], result of:
          0.17614551 = score(doc=3257,freq=2.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.68395966 = fieldWeight in 3257, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.09375 = fieldNorm(doc=3257)
      0.33333334 = coord(1/3)
    
  2. Datentracking in der Wissenschaft : Aggregation und Verwendung bzw. Verkauf von Nutzungsdaten durch Wissenschaftsverlage. Ein Informationspapier des Ausschusses für Wissenschaftliche Bibliotheken und Informationssysteme der Deutschen Forschungsgemeinschaft (2021) 0.03
    0.029357586 = product of:
      0.088072754 = sum of:
        0.088072754 = weight(_text_:digitale in 248) [ClassicSimilarity], result of:
          0.088072754 = score(doc=248,freq=2.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.34197983 = fieldWeight in 248, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.046875 = fieldNorm(doc=248)
      0.33333334 = coord(1/3)
    
    Abstract
    Das Informationspapier beschreibt die digitale Nachverfolgung von wissenschaftlichen Aktivitäten. Wissenschaftlerinnen und Wissenschaftler nutzen täglich eine Vielzahl von digitalen Informationsressourcen wie zum Beispiel Literatur- und Volltextdatenbanken. Häufig fallen dabei Nutzungsspuren an, die Aufschluss geben über gesuchte und genutzte Inhalte, Verweildauern und andere Arten der wissenschaftlichen Aktivität. Diese Nutzungsspuren können von den Anbietenden der Informationsressourcen festgehalten, aggregiert und weiterverwendet oder verkauft werden. Das Informationspapier legt die Transformation von Wissenschaftsverlagen hin zu Data Analytics Businesses dar, verweist auf die Konsequenzen daraus für die Wissenschaft und deren Einrichtungen und benennt die zum Einsatz kommenden Typen der Datengewinnung. Damit dient es vor allem der Darstellung gegenwärtiger Praktiken und soll zu Diskussionen über deren Konsequenzen für die Wissenschaft anregen. Es richtet sich an alle Wissenschaftlerinnen und Wissenschaftler sowie alle Akteure in der Wissenschaftslandschaft.
  3. Pampel, H.: Empfehlungen für transformative Zeitschriftenverträge mit Publikationsdienstleistern veröffentlicht (2022) 0.03
    0.029357586 = product of:
      0.088072754 = sum of:
        0.088072754 = weight(_text_:digitale in 805) [ClassicSimilarity], result of:
          0.088072754 = score(doc=805,freq=2.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.34197983 = fieldWeight in 805, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.046875 = fieldNorm(doc=805)
      0.33333334 = coord(1/3)
    
    Abstract
    Mailtext: "Im Rahmen der Schwerpunktinitiative "Digitale Information" der Allianz der Wissenschaftsorganisationen wurden jetzt "Empfehlungen für transformative Zeitschriftenverträge mit Publikationsdienstleistern" veröffentlicht. Die formulierten Kriterien dienen als gemeinsamer und handlungsleitender Rahmen der Akteur:innen aus allen Wissenschaftsorganisationen, d.h. Hochschulen ebenso wie außeruniversitäre Forschungseinrichtungen, für Verhandlungen mit Publikationsdienstleistern. Dabei bildet die Forderung nach größtmöglicher Kostentransparenz und Kosteneffizienz im Gesamtsystem den Kern des Handelns der Wissenschaftsorganisationen im Kontext ihrer Open-Access-Strategie für die Jahre 2021-2025. Diese Kriterien gliedern sich in die Aspekte Transformation von Zeitschriften, Preisgestaltung, Transparenz, Workflow, Preprints, Qualitätssicherung, Metadaten und Schnittstellen, Statistiken, Tracking und Waiver. Deutsche Version: https://doi.org/10.48440/allianzoa.045 Englische Version: https://doi.org/10.48440/allianzoa.046 Siehe auch: Empfehlungen für transformative Zeitschriftenverträge mit Publikationsdienstleistern veröffentlicht https://www.allianzinitiative.de/2022/11/24/empfehlungen-fuer-transformative-zeitschriftenvertraege-mit-publikationsdienstleistern-veroeffentlicht/ Recommendations for Transformative Journal Agreements with Providers of Publishing Services published https://www.allianzinitiative.de/2022/11/24/recommendations-for-transformative-journal-agreements-with-providers-of-publishing-services-published/?lang=en"
  4. Taglinger, H.: Ausgevogelt, jetzt wird es ernst (2018) 0.03
    0.026767945 = product of:
      0.08030383 = sum of:
        0.08030383 = sum of:
          0.046484742 = weight(_text_:bibliothek in 4281) [ClassicSimilarity], result of:
            0.046484742 = score(doc=4281,freq=2.0), product of:
              0.20495859 = queryWeight, product of:
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.049922563 = queryNorm
              0.22680065 = fieldWeight in 4281, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4281)
          0.03381909 = weight(_text_:22 in 4281) [ClassicSimilarity], result of:
            0.03381909 = score(doc=4281,freq=2.0), product of:
              0.1748203 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.049922563 = queryNorm
              0.19345059 = fieldWeight in 4281, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4281)
      0.33333334 = coord(1/3)
    
    Abstract
    Das kennt der Sammler: Da fängt man an, sich für eine Sache zu interessieren und alles darüber zusammenzutragen, was man kriegen kann, und dann hat man sich verhoben, weil man die Sache ein wenig zu groß angegangen ist. So ist es zum Beispiel blöd, in der Wüste zu sitzen und sich zu überlegen, alle Kiefernnadeln weltweit zusammentragen zu wollen, weil das ja von dort aus gesehen nicht so viele sein können. Und dann beginnt man nach einiger Zeit diese Website über die Kiefernwälder weltweit zu finden und sich am Kopf zu kratzen. Also beschließt man nur noch "herausragende Kiefernnadeln" zu sammeln, was immer das sein mag. Aber auf jeden Fall hat man es satt, jeden Tag mehrere Tausend Säcke Bioabfall von schwitzenden Postboten vor die Tore gestellt zu bekommen. So ähnlich muss es der Library of Congress gehen, wenn sie im Dezember 2017 genau das beschließt. Also, nicht wirklich das Sammeln von Kiefernnadeln einzustellen. Vielmehr handelt es sich ja um die umfangreichste Bibliothek der Welt, die alle möglichen Inhalte in Büchern, auf Tonbändern und eben auch Tweets sammelt. Das ist ihr jetzt zu viel geworden. Kann man verstehen, kommen wir ja schon mit dem Lesen von Tweets eines kleinhändigen Präsidenten kaum noch nach, dann muss es da draußen ja auch noch eine ganze Menge anderes Zeugs geben. Die armen Bibliothekare in den dortigen Kellern weinen ja schon, wenn sie wieder tonnenweise kommentierte Retweets und diesen Mist auf den Tisch bekamen, alleine das Ausdrucken von bis zu 280 Zeichen und Bildern dauert ja ewig ... ganz zu schweigen vom Einsortieren.
    Date
    22. 1.2018 11:38:55
  5. Wohlgemuth, M.: EQUAP^2: Projektbericht zu Anforderungen und Erfahrungen im Review-Prozess veröffentlicht. 0.02
    0.024464656 = product of:
      0.07339396 = sum of:
        0.07339396 = weight(_text_:digitale in 895) [ClassicSimilarity], result of:
          0.07339396 = score(doc=895,freq=2.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.2849832 = fieldWeight in 895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0390625 = fieldNorm(doc=895)
      0.33333334 = coord(1/3)
    
    Abstract
    "Die digitale Transformation ermöglichte eine Effizienzsteigerung und Beschleunigung der Publikationsprozesse und eröffnete damit neue Wachstumsoptionen auf dem Markt der wissenschaftlichen Zeitschriften. Diese Entwicklung wirft grundsätzliche Fragen auf: Welche Auswirkungen haben diese Beschleunigung und Wachstumsraten auf die Funktion des wissenschaftlichen Publizierens? Werden sie allein durch Effizienzsteigerungen erreicht oder hat die Entwicklung weiterreichende Auswirkungen auf die im Publikationsprozess oft zeitintensiven Begutachtungsprozesse? Was zeichnet vorbildliche Begutachtungsverfahren aus und wie lassen sich mögliche Zielkonflikte erkennen? Die Relevanz des Themas erschien Kolleg:innen aus verschiedenen deutsch-schweizerischen Bibliotheken so groß, dass sie gemeinsam mit empirischen Sozialwissenschaftlern der TU Dresden das Verbundprojekt «Evaluating the Quality Assurance Process in Scholarly Publishing» (EQUAP^2) gründeten. Das Projekt wurde über Eigenleistungen der beteiligten Akteure und eine finanzielle Unterstützung von Schweizer Bibliotheken und Verbänden sowie der TU9-Bibliotheken ermöglicht. In einem Websurvey konnten mehr als 3.200 Wissenschaftlerinnen und Wissenschaftler aus 25 deutschen und schweizerischen Hochschulen und Forschungseinrichtungen zu ihren Erwartungen an den Begutachtungsprozess und ihren verlagsspezifischen Erfahrungen befragt werden. Zusätzlich wurden zwei faktorielle Erhebungsdesigns in die Umfrage implementiert, um die Best Practice der Peer-Review- und Entscheidungsprozesse bei Zeitschriften zu bewerten. Die Studienergebnisse<https://zenodo.org/record/7612114#.Y-OFPHbMJPY> sind auf der Plattform Zenodo<https://zenodo.org/communities/equap2/?page=1&size=20> veröffentlicht. Die Umfrage zeigt, dass die Erwartungen an den Peer-Review-Prozess über alle Disziplinen hinweg sehr homogen sind, sich aber abhängig von der Rolle der Forschenden im Publikationsprozess deutlich unterscheiden. Die Antworten geben Hinweise auf potentielle Interessenkonflikte sowie diskutable Verlagspraktiken, die in wissenschaftlichen Einrichtungen und insbesondere bei Entscheidungen zur Publikationsfinanzierung berücksichtigt werden sollten. Auf der Projekthomepage<https://www.slub-dresden.de/ueber-uns/projekte/evaluating-the-quality-assurance-process-in-scholarly-publishing-equap2> finden Sie weitere Informationen zum Projekt. Das Projektteam ist über die Mailadresse equap2@slub-dresden.de<mailto:equap2@slub-dresden.de> erreichbar."
  6. Borghoff, U.M.; Rödig, P.; Schmalhofer, F.: DFG-Projekt Datenbankgestützte Langzeitarchivierung digitaler Objekte : Schlussbericht Juli 2005 - Geschäftszeichen 554 922(1) UV BW Mänchen (2005) 0.02
    0.019571725 = product of:
      0.058715172 = sum of:
        0.058715172 = weight(_text_:digitale in 4250) [ClassicSimilarity], result of:
          0.058715172 = score(doc=4250,freq=2.0), product of:
            0.25753787 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.049922563 = queryNorm
            0.22798656 = fieldWeight in 4250, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.03125 = fieldNorm(doc=4250)
      0.33333334 = coord(1/3)
    
    Abstract
    Über die letzten Jahrzehnte ist die Menge digitaler Publikationen exponentiell angestiegen. Doch die digitalen Bestände sind durch die schleichende Obsoletheit von Datenformaten, Software und Hardware bedroht. Aber auch die zunehmende Komplexität neuerer Dokumente und zugehöriger Abspielumgebungen stellt ein Problem dar. Das Thema der Langzeitarchivierung wurde lange vernachlässigt, rückt aber zunehmend ins Bewusstsein der Verantwortlichen und der Öffentlichkeit, nicht zuletzt wegen spektakulärer Datenverluste. Ziel dieser Studie ist es, Grundlagen und Bausteine für eine technische Lösung zu entwickeln und deren Einbettung in die Aufgabenbereiche einer Archivierungsorganisation aufzuzeigen. Es fehlt eine systematische Herangehensweise zum Aufbau technischen Wissens, die der Heterogenität und Komplexität sowie der bereits vorhandenen Obsoletheit in der Welt des digitalen Publizierens gerecht wird. In einem ersten Schritt entwickeln wir deshalb ein Modell, das sich spezifisch den technischen Aspekten digitaler Objekte widmet. Dieses Modell erlaubt es, digitale Objekte bezüglich der Archivierungsaspekte zu charakterisieren und zu klassifizieren sowie technische Grundlagen präzise zuzuordnen. Auf dieser Basis können u. a. systematisch modulare Metadatenschemata gewonnen werden, die den Langzeiterhalt gezielt unterstützen. Das Modell liefert außerdem einen Beitrag zur Formulierung von zugehörigen Ontologien. Des Weiteren fördern die Modularität der Metadatenschemata und die einheitliche Begrifflichkeit einer Ontologie die Föderation und Kooperation von Archivierungsorganisationen und -systemen. Die Abstützung auf das entwickelte Modell systematisiert in einem weiteren Schritt die Herleitung von technisch orientierten Prozessen zur Erfüllung von Archivierungsaufgaben. Der Entwicklung eines eigenen Modells liegt die Einschätzung zu Grunde, dass Referenzmodelle, wie OAIS (Open Archival Information System), zwar eine geeignete Ausgangsbasis auf konzeptioneller Ebene bieten, aber sie sind zu generell und beschreiben vor- oder nachgelagerte Prozesse nur als Schnittstelle. Die aus dem Modell hergeleiteten Lösungsansätze sind zunächst unabhängig von einer konkreten Realisierung. Als Beitrag zur Umsetzung wird in einem eigenen Abschnitt der Einsatz von Datenbankmanagementsystemen (DBMS) als Implementierungsbasis ausführlich diskutiert.
  7. Wolchover, N.: Wie ein Aufsehen erregender Beweis kaum Beachtung fand (2017) 0.02
    0.015942473 = product of:
      0.047827415 = sum of:
        0.047827415 = product of:
          0.09565483 = sum of:
            0.09565483 = weight(_text_:22 in 3582) [ClassicSimilarity], result of:
              0.09565483 = score(doc=3582,freq=4.0), product of:
                0.1748203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.049922563 = queryNorm
                0.54716086 = fieldWeight in 3582, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3582)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 4.2017 10:42:05
    22. 4.2017 10:48:38
  8. Gutknecht, C.: Zahlungen der ETH Zürich an Elsevier, Springer und Wiley nun öffentlich (2015) 0.02
    0.015339183 = product of:
      0.046017546 = sum of:
        0.046017546 = product of:
          0.09203509 = sum of:
            0.09203509 = weight(_text_:bibliothek in 4324) [ClassicSimilarity], result of:
              0.09203509 = score(doc=4324,freq=4.0), product of:
                0.20495859 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.049922563 = queryNorm
                0.44904238 = fieldWeight in 4324, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Was bezahlt die ETH Bibliothek an Elsevier, Springer und Wiley? Die Antwort auf diese einfache Frage liegt nun nach gut 14 Monaten und einem Entscheid der ersten Rekursinstanz (EDÖB) vor. Werfen wir nun also einen Blick in diese nun erstmals öffentlich zugänglichen Daten (auch als XLSX). Die ETH-Bibliothek schlüsselte die Ausgaben wie von mir gewünscht in Datenbanken, E-Books und Zeitschriften auf.
  9. Furger, M.; Ball, R.: Weg mit den Büchern! (2016) 0.01
    0.013147871 = product of:
      0.039443612 = sum of:
        0.039443612 = product of:
          0.078887224 = sum of:
            0.078887224 = weight(_text_:bibliothek in 1272) [ClassicSimilarity], result of:
              0.078887224 = score(doc=1272,freq=4.0), product of:
                0.20495859 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.049922563 = queryNorm
                0.38489348 = fieldWeight in 1272, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1272)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Das Internet mache Bibliotheken überflüssig, sagt der Chef der ETH-Bibliothek im Interview. Entweder sie räumen ihre Bücherbestände aus und erfinden sich neu - oder sie werden verschwinden.
    Content
    Vgl. auch den Kommentar von Klaus Graf unter: http://archivalia.hypotheses.org/54235. Vgl. auch: http://ruedimumenthaler.ch/2016/02/08/sind-bibliotheken-uberflussig-eine-replik/ sowie http://ruedimumenthaler.ch/2016/02/12/bibliotheksbranche-im-umbruch-und-in-aufruhr/. Vgl. auch: http://www.researchinformation.info/news/news_story.php?news_id=2077 [Es ist einfach nur peinlich realitätsfremd und dem Amt als ETH-Bibliotheksdirektor unwürdig, die heutige Situation als "established, reliable and sustainable" zu bezeichnen und sich gleichzeitig als "begnadeter Vordenker" (https://dl.dropboxusercontent.com/u/13689512/begnadeter%20Vordenker.pdf) zu ernennen.] Vgl.auch: http://christoph-deeg.com/2016/02/13/quo-vadis-oeffentliche-bibliotheken-gedanken-zum-nzz-interview-von-rafael-ball-eth-bibliothek/. Vgl. auch: http://www.nzz.ch/feuilleton/ueber-eine-zukunftsvision-die-ein-horrorszenario-sein-koennte-1.18693786.
  10. Wolf, C.: Open Access Helper : neue Funktionen kurz vorgestellt (2021) 0.01
    0.013147871 = product of:
      0.039443612 = sum of:
        0.039443612 = product of:
          0.078887224 = sum of:
            0.078887224 = weight(_text_:bibliothek in 138) [ClassicSimilarity], result of:
              0.078887224 = score(doc=138,freq=4.0), product of:
                0.20495859 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.049922563 = queryNorm
                0.38489348 = fieldWeight in 138, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.046875 = fieldNorm(doc=138)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Open Access Helper <https://www.oahelper.org> ist eine Browser-Erweiterung, die es Ihren Nutzern leichter machen soll, Open Access Kopien für wissenschaftliche Literatur zu finden. Dabei prüft Open Access Helper im Hintergrund anhand der ausgezeichneten APIs von unpaywall.org and core.ac.uk. Neben der Möglichkeit Open Access Kopien zu finden, hat Open Access Helper <https://www.oahelper.org> nun einen wichtigen Schritt gemacht, Ihre Nutzer noch besser zu unterstützen. Dank der Zusammenarbeit mit einer Bibliothek in Irland, kann die Erweiterung Ihre Nutzer nun besser unterstützen. Als Bibliothek können Sie für Open Access Helper Ihren* EZProxy* und/oder ein *Anfrageformular* bzw. *Link Resolver* hinterlegen. Es entstehen Ihnen und Ihren Nutzerinnen und Nutzern hierbei keine Kosten. Open Access Helper gibt es für Chrome, Firefox, Safari (macOS) und auch für iPad & iPhone. Download Links finden Sie unter https://www.oahelper.org oder über eine Such im App / Extension Store Ihrer Wahl. Weitere Informationen finden Sie unter https://www.oahelper.org.
  11. "Google Books" darf weitermachen wie bisher : Entscheidung des Supreme Court in den USA (2016) 0.01
    0.010956558 = product of:
      0.032869674 = sum of:
        0.032869674 = product of:
          0.06573935 = sum of:
            0.06573935 = weight(_text_:bibliothek in 2923) [ClassicSimilarity], result of:
              0.06573935 = score(doc=2923,freq=4.0), product of:
                0.20495859 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.049922563 = queryNorm
                0.32074454 = fieldWeight in 2923, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2923)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    " Im Streit mit Google um Urheberrechte ist eine Gruppe von Buchautoren am Obersten US-Gericht gescheitert. Der Supreme Court lehnte es ab, die google-freundliche Entscheidung eines niederen Gerichtes zur Revision zuzulassen. In dem Fall geht es um die Online-Bibliothek "Google Books", für die der kalifornische Konzern Gerichtsunterlagen zufolge mehr als 20 Millionen Bücher digitalisiert hat. Durch das Projekt können Internet-Nutzer innerhalb der Bücher nach Stichworten suchen und die entsprechenden Textstellen lesen. Die drei zuständigen Richter entschieden einstimmig, dass in dem Fall zwar die Grenzen der Fairness ausgetestet würden, aber das Vorgehen von Google letztlich rechtens sei. Entschädigungen in Milliardenhöhe gefürchtet Die von dem Interessensverband Authors Guild angeführten Kläger sahen ihre Urheberrechte durch "Google Books" verletzt. Dazu gehörten auch prominente Künstler wie die Schriftstellerin und Dichterin Margaret Atwood. Google führte dagegen an, die Internet-Bibliothek kurbele den Bücherverkauf an, weil Leser dadurch zusätzlich auf interessante Werke aufmerksam gemacht würden. Google reagierte "dankbar" auf die Entscheidung des Supreme Court. Der Konzern hatte befürchtet, bei einer juristischen Niederlage Entschädigungen in Milliardenhöhe zahlen zu müssen."
  12. Schleim, S.: Warum die Wissenschaft nicht frei ist (2017) 0.01
    0.009018424 = product of:
      0.027055271 = sum of:
        0.027055271 = product of:
          0.054110542 = sum of:
            0.054110542 = weight(_text_:22 in 3882) [ClassicSimilarity], result of:
              0.054110542 = score(doc=3882,freq=2.0), product of:
                0.1748203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.049922563 = queryNorm
                0.30952093 = fieldWeight in 3882, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3882)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    9.10.2017 15:48:22
  13. Krüger, N.; Pianos, T.: Lernmaterialien für junge Forschende in den Wirtschaftswissenschaften als Open Educational Resources (OER) (2021) 0.01
    0.007891121 = product of:
      0.023673363 = sum of:
        0.023673363 = product of:
          0.047346726 = sum of:
            0.047346726 = weight(_text_:22 in 252) [ClassicSimilarity], result of:
              0.047346726 = score(doc=252,freq=2.0), product of:
                0.1748203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.049922563 = queryNorm
                0.2708308 = fieldWeight in 252, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=252)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 5.2021 12:43:05
  14. Strecker, D.: Nutzung der Schattenbibliothek Sci-Hub in Deutschland (2019) 0.01
    0.0067638177 = product of:
      0.020291453 = sum of:
        0.020291453 = product of:
          0.040582906 = sum of:
            0.040582906 = weight(_text_:22 in 596) [ClassicSimilarity], result of:
              0.040582906 = score(doc=596,freq=2.0), product of:
                0.1748203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.049922563 = queryNorm
                0.23214069 = fieldWeight in 596, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=596)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    1. 1.2020 13:22:34
  15. Dobratz, S.; Neuroth, H.: nestor: Network of Expertise in long-term STOrage of digital Resources : a digital preservation initiative for Germany (2004) 0.00
    0.004648474 = product of:
      0.013945422 = sum of:
        0.013945422 = product of:
          0.027890844 = sum of:
            0.027890844 = weight(_text_:bibliothek in 1195) [ClassicSimilarity], result of:
              0.027890844 = score(doc=1195,freq=2.0), product of:
                0.20495859 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.049922563 = queryNorm
                0.13608038 = fieldWeight in 1195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1195)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Sponsored by the German Ministry of Education and Research with funding of 800.000 EURO, the German Network of Expertise in long-term storage of digital resources (nestor) began in June 2003 as a cooperative effort of 6 partners representing different players within the field of long-term preservation. The partners include: * The German National Library (Die Deutsche Bibliothek) as the lead institution for the project * The State and University Library of Lower Saxony Göttingen (Staats- und Universitätsbibliothek Göttingen) * The Computer and Media Service and the University Library of Humboldt-University Berlin (Humboldt-Universität zu Berlin) * The Bavarian State Library in Munich (Bayerische Staatsbibliothek) * The Institute for Museum Information in Berlin (Institut für Museumskunde) * General Directorate of the Bavarian State Archives (GDAB) As in other countries, long-term preservation of digital resources has become an important issue in Germany in recent years. Nevertheless, coming to agreement with institutions throughout the country to cooperate on tasks for a long-term preservation effort has taken a great deal of effort. Although there had been considerable attention paid to the preservation of physical media like CD-ROMS, technologies available for the long-term preservation of digital publications like e-books, digital dissertations, websites, etc., are still lacking. Considering the importance of the task within the federal structure of Germany, with the responsibility of each federal state for its science and culture activities, it is obvious that the approach to a successful solution of these issues in Germany must be a cooperative approach. Since 2000, there have been discussions about strategies and techniques for long-term archiving of digital information, particularly within the distributed structure of Germany's library and archival institutions. A key part of all the previous activities was focusing on using existing standards and analyzing the context in which those standards would be applied. One such activity, the Digital Library Forum Planning Project, was done on behalf of the German Ministry of Education and Research in 2002, where the vision of a digital library in 2010 that can meet the changing and increasing needs of users was developed and described in detail, including the infrastructure required and how the digital library would work technically, what it would contain and how it would be organized. The outcome was a strategic plan for certain selected specialist areas, where, amongst other topics, a future call for action for long-term preservation was defined, described and explained against the background of practical experience.
  16. Somers, J.: Torching the modern-day library of Alexandria : somewhere at Google there is a database containing 25 million books and nobody is allowed to read them. (2017) 0.00
    0.004509212 = product of:
      0.0135276355 = sum of:
        0.0135276355 = product of:
          0.027055271 = sum of:
            0.027055271 = weight(_text_:22 in 3608) [ClassicSimilarity], result of:
              0.027055271 = score(doc=3608,freq=2.0), product of:
                0.1748203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.049922563 = queryNorm
                0.15476047 = fieldWeight in 3608, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3608)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    You were going to get one-click access to the full text of nearly every book that's ever been published. Books still in print you'd have to pay for, but everything else-a collection slated to grow larger than the holdings at the Library of Congress, Harvard, the University of Michigan, at any of the great national libraries of Europe-would have been available for free at terminals that were going to be placed in every local library that wanted one. At the terminal you were going to be able to search tens of millions of books and read every page of any book you found. You'd be able to highlight passages and make annotations and share them; for the first time, you'd be able to pinpoint an idea somewhere inside the vastness of the printed record, and send somebody straight to it with a link. Books would become as instantly available, searchable, copy-pasteable-as alive in the digital world-as web pages. It was to be the realization of a long-held dream. "The universal library has been talked about for millennia," Richard Ovenden, the head of Oxford's Bodleian Libraries, has said. "It was possible to think in the Renaissance that you might be able to amass the whole of published knowledge in a single room or a single institution." In the spring of 2011, it seemed we'd amassed it in a terminal small enough to fit on a desk. "This is a watershed event and can serve as a catalyst for the reinvention of education, research, and intellectual life," one eager observer wrote at the time. On March 22 of that year, however, the legal agreement that would have unlocked a century's worth of books and peppered the country with access terminals to a universal library was rejected under Rule 23(e)(2) of the Federal Rules of Civil Procedure by the U.S. District Court for the Southern District of New York. When the library at Alexandria burned it was said to be an "international catastrophe." When the most significant humanities project of our time was dismantled in court, the scholars, archivists, and librarians who'd had a hand in its undoing breathed a sigh of relief, for they believed, at the time, that they had narrowly averted disaster.