Search (92 results, page 5 of 5)

  • × theme_ss:"Elektronisches Publizieren"
  • × type_ss:"a"
  1. Röttgers, J.; dpa: ¬Der Kampf ums digitale Buch : Die deutschen Verlage reagieren auf Google - und arbeiten an einer Plattform fürs kostenlose Online-Lesen (2006) 0.01
    0.0069961557 = product of:
      0.013992311 = sum of:
        0.013992311 = product of:
          0.027984623 = sum of:
            0.027984623 = weight(_text_:2003 in 6055) [ClassicSimilarity], result of:
              0.027984623 = score(doc=6055,freq=2.0), product of:
                0.19453894 = queryWeight, product of:
                  4.339969 = idf(docFreq=1566, maxDocs=44218)
                  0.044824958 = queryNorm
                0.14385101 = fieldWeight in 6055, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.339969 = idf(docFreq=1566, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=6055)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Wer Kostproben von neuen Romanen oder ganze Bände online lesen und hören möchte, den lässt die Branche bald nicht mehr allein. Der Börsenverein des Deutschen Buchhandels will im Februar eine Plattform starten. Verlage und Autoren entscheiden dabei selbst, in welchem Umfang sie Inhalte kostenlos oder gegen Entgelt zur Verfügung stellen. Das Projekt "Volltextsuche Online" soll auch der Herausforderung durch Google begegnen: Die Internet-Suchmaschine stellt schon länger Bücher ins Netz. "Wir wollen aber nicht in Konkurrenz zu Google treten", sagt der Hauptgeschäftsführer des Börsenvereins, Alexander Skipis. Die Branche verhandle vielmehr mit Google derzeit über eine Kooperation: Inhalte der "Volltextsuche Online" sollen oben in den Ergebnislisten von Suchabfragen stehen. Derzeit wollen 70 Verlage beim OnlineProjekt mitmachen, 10000 Titel sind erfasst. Skipis will auch Zehntausende von rechtefreien Titeln online verfügbar machen. Die Macher hoffen, auch jene Verlage ins Boot zu kriegen, die schon jetzt im Internet Geschäftsmodelle erproben. Die geplan-. te Plattform werde besser wahrgenommen als verschiedene Angebote einzelner Verlage. "Wenn wir mit 10 000 Titeln nach einem Jahr herumdümpeln, haben wir das Thema vergeigt." Miteingebunden werden soll auch der Buchhandel. Begonnen hatte das Zeitalter der digitalisierten Bücher ;im März 2003 in der Bibliothek der kalifornischen Stanford-Universität. Mit einem raumfüllenden Roboter begann die renommierte Institution damals mit dem Scannen. Das mehrere 100 000 Dollar teure Gerät blättert automatisch, durch Bücher und Magazine und fotografiert jede Seite mit einer hochauflösenden Spezialka-mera. Zusammenklebendes Papier wird sorgsam mit einem sanften Luftstoß geteilt. Theoretisch kann ein Buch-Roboter gut tausend Seiten pro Stunde erfassen. Stanfords Bibliothekare bemerkten aber bald, dass sie ältere Schmöker nur mit, einer Rate von 100 bis 200 Seiten pro Stunde scannen können. 15 Monate später hatten sie gerade einmal 800 Bücher digitalisiert. Die Erfassung des 7,5 Millionen Titel umfassenden Bestands hätte so Jahrtausende gedauert. Ende 2004 bekam die Bibliothek dann Hilfe von Google. Der Suchmaschinenriese erklärte sich bereit, mehrere Millionen Titel zu digitalisieren - täglich bis zu 100000 Seiten. Stanfords Bibliothekar Michael Keller bezeichnete das als "riesigen Schritt vorwärts". Vorher habe man Digitalisierung als Liebhaberprojekt betrieben. "Die Zusammenarbeit mit Google macht daraus ein industrielles Unterfangen."
  2. Dobratz, S.; Neuroth, H.: nestor: Network of Expertise in long-term STOrage of digital Resources : a digital preservation initiative for Germany (2004) 0.01
    0.0069961557 = product of:
      0.013992311 = sum of:
        0.013992311 = product of:
          0.027984623 = sum of:
            0.027984623 = weight(_text_:2003 in 1195) [ClassicSimilarity], result of:
              0.027984623 = score(doc=1195,freq=2.0), product of:
                0.19453894 = queryWeight, product of:
                  4.339969 = idf(docFreq=1566, maxDocs=44218)
                  0.044824958 = queryNorm
                0.14385101 = fieldWeight in 1195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.339969 = idf(docFreq=1566, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1195)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Sponsored by the German Ministry of Education and Research with funding of 800.000 EURO, the German Network of Expertise in long-term storage of digital resources (nestor) began in June 2003 as a cooperative effort of 6 partners representing different players within the field of long-term preservation. The partners include: * The German National Library (Die Deutsche Bibliothek) as the lead institution for the project * The State and University Library of Lower Saxony Göttingen (Staats- und Universitätsbibliothek Göttingen) * The Computer and Media Service and the University Library of Humboldt-University Berlin (Humboldt-Universität zu Berlin) * The Bavarian State Library in Munich (Bayerische Staatsbibliothek) * The Institute for Museum Information in Berlin (Institut für Museumskunde) * General Directorate of the Bavarian State Archives (GDAB) As in other countries, long-term preservation of digital resources has become an important issue in Germany in recent years. Nevertheless, coming to agreement with institutions throughout the country to cooperate on tasks for a long-term preservation effort has taken a great deal of effort. Although there had been considerable attention paid to the preservation of physical media like CD-ROMS, technologies available for the long-term preservation of digital publications like e-books, digital dissertations, websites, etc., are still lacking. Considering the importance of the task within the federal structure of Germany, with the responsibility of each federal state for its science and culture activities, it is obvious that the approach to a successful solution of these issues in Germany must be a cooperative approach. Since 2000, there have been discussions about strategies and techniques for long-term archiving of digital information, particularly within the distributed structure of Germany's library and archival institutions. A key part of all the previous activities was focusing on using existing standards and analyzing the context in which those standards would be applied. One such activity, the Digital Library Forum Planning Project, was done on behalf of the German Ministry of Education and Research in 2002, where the vision of a digital library in 2010 that can meet the changing and increasing needs of users was developed and described in detail, including the infrastructure required and how the digital library would work technically, what it would contain and how it would be organized. The outcome was a strategic plan for certain selected specialist areas, where, amongst other topics, a future call for action for long-term preservation was defined, described and explained against the background of practical experience.
  3. FIZ Karlsruhe unterstützt gemeinsamen Bibliotheksverbund (VZG) bei der Einführung der ESCIDOC-Infrastruktur (2008) 0.01
    0.006073163 = product of:
      0.012146326 = sum of:
        0.012146326 = product of:
          0.024292652 = sum of:
            0.024292652 = weight(_text_:22 in 1810) [ClassicSimilarity], result of:
              0.024292652 = score(doc=1810,freq=2.0), product of:
                0.15696937 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044824958 = queryNorm
                0.15476047 = fieldWeight in 1810, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1810)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    7. 4.2008 11:36:22
  4. Woltering, H.: ¬Der automatische Download von Netzpublikationen durch Bibliotheken und ihre Nutzung (2008) 0.01
    0.006073163 = product of:
      0.012146326 = sum of:
        0.012146326 = product of:
          0.024292652 = sum of:
            0.024292652 = weight(_text_:22 in 1982) [ClassicSimilarity], result of:
              0.024292652 = score(doc=1982,freq=2.0), product of:
                0.15696937 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044824958 = queryNorm
                0.15476047 = fieldWeight in 1982, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1982)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Im "Gesetz über die Deutsche Nationalbibliothek (DNBG)" vom 22. Juni 2006 erhielt die Bibliothek nicht nur den Auftrag, wie bisher Medienwerke in körperlicher Form (alle Darstellungen auf Papier, elektronischen Datenträgern und anderen Trägern), sondern auch Medienwerke in unkörperlicher Form (alle Darstellungen in öffentlichen Netzen) zu sammeln. Die Deutsche Nationalbibliothek (DNB) will zu diesem Zweck zum Sommer 2008 die Pflichtablieferungsverordnung und die Sammelrichtlinien neu fassen. Diese Vorgaben sehen vor, dass die Sammlung von Online-Publikationen (im Folgenden auch: Netzpublikationen, elektronische Publikationen, E-Publikationen) in einem stufenweisen Verfahren ablaufen soll. Die DNB formulierte diese drei Schritte folgendermaßen: - Direkte Kooperation mit Ablieferern oder Kooperation mit aggregierenden Partnern hinsichtlich der Sammlung einzeln identifizierbarer Online-Publikationen. Entsprechende Verfahren wurden bereits vor Inkrafttreten des Gesetzes über die Deutsche Nationalbibliothek genutzt. Die bisherigen Erfahrungen dienen dazu, Weiterentwicklungen und Verbesserungen auf einer praktischen Basis und mittels gängiger vorhandener Standards voranzutreiben. In die Übelegungen fließen auch Möglichkeiten der Nutzung bestehender Vertriebswege einzelner Sparten ein. - Implementierung einer generell nutzbaren Schnittstelle auf der Website der Deutschen Nationalbibliothek für die Ablieferung einzeln identifizierbarer Netzpublikationen in einem standardisierten Verfahren. Diese Schnittstelle wird bereits seit einigen Jahren genutzt und derzeit für größere Ablieferungsvolumina optimiert. - Erprobung von Harvesting-Methoden für die Sammlung bzw. den Abruf definierter kleinerer oder größerer Domainbereiche. In diese Fragestellung fällt auch das Einsammeln ganzer Objektgruppen wie etwa Websites aller Bundesbehörden oder thematische Sammlungen zu besonderen nationalen Ereignissen wie Bundestagswahlen. Deutlich wird hier jedoch, dass der Prozess der Verfahrensfindung noch im Gange ist. Ebenso augenscheinlich ist, dass zwischen der freiwilligen Ablieferung von E-Publikationen durch die publizierenden Organisationen und der Sicherung ganzer Websites noch die automatisierte Sicherung der einzelnen elektronischen Publikationen von den Organisations-Websites stehen könnte und sollte. Der Download durch Bibliotheken erscheint sinnvoll, da die Ablieferung eigener E-Publikationen oft nicht selbständig durch die Organisationen erfolgt, sondern meist regelmäßig eingefordert werden muss. Hinzu kommt, dass sich der Sammelauftrag der DNB naturgemäß auf die Netzpublikationen deutscher Organisationen bezieht, nicht jedoch auf elektronische Veröffentlichungen außerdeutscher Einrichtungen,die z.B. auch für SSG- Bibliotheken mit regional oder thematisch ausgerichtet m Sammelauftrag interessant wären.
  5. Somers, J.: Torching the modern-day library of Alexandria : somewhere at Google there is a database containing 25 million books and nobody is allowed to read them. (2017) 0.01
    0.006073163 = product of:
      0.012146326 = sum of:
        0.012146326 = product of:
          0.024292652 = sum of:
            0.024292652 = weight(_text_:22 in 3608) [ClassicSimilarity], result of:
              0.024292652 = score(doc=3608,freq=2.0), product of:
                0.15696937 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044824958 = queryNorm
                0.15476047 = fieldWeight in 3608, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3608)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    You were going to get one-click access to the full text of nearly every book that's ever been published. Books still in print you'd have to pay for, but everything else-a collection slated to grow larger than the holdings at the Library of Congress, Harvard, the University of Michigan, at any of the great national libraries of Europe-would have been available for free at terminals that were going to be placed in every local library that wanted one. At the terminal you were going to be able to search tens of millions of books and read every page of any book you found. You'd be able to highlight passages and make annotations and share them; for the first time, you'd be able to pinpoint an idea somewhere inside the vastness of the printed record, and send somebody straight to it with a link. Books would become as instantly available, searchable, copy-pasteable-as alive in the digital world-as web pages. It was to be the realization of a long-held dream. "The universal library has been talked about for millennia," Richard Ovenden, the head of Oxford's Bodleian Libraries, has said. "It was possible to think in the Renaissance that you might be able to amass the whole of published knowledge in a single room or a single institution." In the spring of 2011, it seemed we'd amassed it in a terminal small enough to fit on a desk. "This is a watershed event and can serve as a catalyst for the reinvention of education, research, and intellectual life," one eager observer wrote at the time. On March 22 of that year, however, the legal agreement that would have unlocked a century's worth of books and peppered the country with access terminals to a universal library was rejected under Rule 23(e)(2) of the Federal Rules of Civil Procedure by the U.S. District Court for the Southern District of New York. When the library at Alexandria burned it was said to be an "international catastrophe." When the most significant humanities project of our time was dismantled in court, the scholars, archivists, and librarians who'd had a hand in its undoing breathed a sigh of relief, for they believed, at the time, that they had narrowly averted disaster.
  6. Costas, R.; Perianes-Rodríguez, A.; Ruiz-Castillo, J.: On the quest for currencies of science : field "exchange rates" for citations and Mendeley readership (2017) 0.01
    0.006073163 = product of:
      0.012146326 = sum of:
        0.012146326 = product of:
          0.024292652 = sum of:
            0.024292652 = weight(_text_:22 in 4051) [ClassicSimilarity], result of:
              0.024292652 = score(doc=4051,freq=2.0), product of:
                0.15696937 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044824958 = queryNorm
                0.15476047 = fieldWeight in 4051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4051)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    20. 1.2015 18:30:22
  7. Engels, T.C.E; Istenic Starcic, A.; Kulczycki, E.; Pölönen, J.; Sivertsen, G.: Are book publications disappearing from scholarly communication in the social sciences and humanities? (2018) 0.01
    0.006073163 = product of:
      0.012146326 = sum of:
        0.012146326 = product of:
          0.024292652 = sum of:
            0.024292652 = weight(_text_:22 in 4631) [ClassicSimilarity], result of:
              0.024292652 = score(doc=4631,freq=2.0), product of:
                0.15696937 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044824958 = queryNorm
                0.15476047 = fieldWeight in 4631, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4631)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    20. 1.2015 18:30:22
  8. Sülzer, T.: ¬Die komplette Rundschau jetzt im Internet : "E-Paper"-Ausgabe mit sämtlichen Beilagen online lesen - für Abonnenten völlig kostenlos (2005) 0.01
    0.0053140176 = product of:
      0.010628035 = sum of:
        0.010628035 = product of:
          0.02125607 = sum of:
            0.02125607 = weight(_text_:22 in 4026) [ClassicSimilarity], result of:
              0.02125607 = score(doc=4026,freq=2.0), product of:
                0.15696937 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044824958 = queryNorm
                0.1354154 = fieldWeight in 4026, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4026)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    3. 5.1997 8:44:22
  9. Ramm, T.: ¬Der Computer ersetzt den Lesesaal : Die Wissenschaftspublikation im digitalen Zeitalter - Verleger und Bibliothekare müssen künftig Informationsvermeidung betreiben (2001) 0.00
    0.0045548724 = product of:
      0.009109745 = sum of:
        0.009109745 = product of:
          0.01821949 = sum of:
            0.01821949 = weight(_text_:22 in 5634) [ClassicSimilarity], result of:
              0.01821949 = score(doc=5634,freq=2.0), product of:
                0.15696937 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044824958 = queryNorm
                0.116070345 = fieldWeight in 5634, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=5634)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    21. 6.2005 19:53:22
  10. Siegle, J.: Programmabsturz : Immer mehr Internet-Zeitschriften stehen vor dem Aus - jüngstes Opfer ist das US-Magazin 'The Industry Standard' (2000) 0.00
    0.0045548724 = product of:
      0.009109745 = sum of:
        0.009109745 = product of:
          0.01821949 = sum of:
            0.01821949 = weight(_text_:22 in 6494) [ClassicSimilarity], result of:
              0.01821949 = score(doc=6494,freq=2.0), product of:
                0.15696937 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044824958 = queryNorm
                0.116070345 = fieldWeight in 6494, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=6494)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    17. 7.1996 9:33:22
  11. Siegle, J.: @lles hat ein Ende : Im Sog der kriselnden Web-Wirtschaft kämpfen immer mehr Internet-Zeitschriften um ihr Überleben (2001) 0.00
    0.003795727 = product of:
      0.007591454 = sum of:
        0.007591454 = product of:
          0.015182908 = sum of:
            0.015182908 = weight(_text_:22 in 2058) [ClassicSimilarity], result of:
              0.015182908 = score(doc=2058,freq=2.0), product of:
                0.15696937 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044824958 = queryNorm
                0.09672529 = fieldWeight in 2058, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2058)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    17. 7.1996 9:33:22
  12. Lingner, M.: Gutenberg 2.0 oder die Neuerfindung des Buches (2009) 0.00
    0.003795727 = product of:
      0.007591454 = sum of:
        0.007591454 = product of:
          0.015182908 = sum of:
            0.015182908 = weight(_text_:22 in 2869) [ClassicSimilarity], result of:
              0.015182908 = score(doc=2869,freq=2.0), product of:
                0.15696937 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044824958 = queryNorm
                0.09672529 = fieldWeight in 2869, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2869)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    20. 6.2009 15:13:22

Years

Languages

  • d 52
  • e 40