Search (90 results, page 1 of 5)

  • × theme_ss:"Elektronisches Publizieren"
  1. Steinke, T.: Webarchivierung als internationale Aufgabe (2015) 0.04
    0.035134405 = product of:
      0.21080643 = sum of:
        0.10409313 = weight(_text_:standardisierung in 2526) [ClassicSimilarity], result of:
          0.10409313 = score(doc=2526,freq=2.0), product of:
            0.19795702 = queryWeight, product of:
              6.7990475 = idf(docFreq=133, maxDocs=44218)
              0.029115405 = queryNorm
            0.525837 = fieldWeight in 2526, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7990475 = idf(docFreq=133, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2526)
        0.10671331 = weight(_text_:internationale in 2526) [ClassicSimilarity], result of:
          0.10671331 = score(doc=2526,freq=4.0), product of:
            0.16854337 = queryWeight, product of:
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.029115405 = queryNorm
            0.63315046 = fieldWeight in 2526, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2526)
      0.16666667 = coord(2/12)
    
    Abstract
    Das Web selbst ist international, und daher kann eine umfassende Webarchivierung nur in internationaler Zusammenarbeit gelingen. Eine breite Webarchivierung erfolgt vor allem durch die US-amerikanische Organisation Internet Archive und durch Nationalbibliotheken auf nationaler Ebene. Der Artikel stellt einige dieser Webarchive vor. Eine übergreifende Zusammenarbeit sowohl auf technischer als auch organisatorischer Ebene findet im International Internet Preservation Consortium (IIPC) statt. In Arbeitsgruppen und bei Kongressen arbeiten im IIPC Webarchive an Software-Werkzeugen und der Organisation übergreifender Sammlungen. Auch im Bereich der Standardisierung gibt es eine internationale Zusammenarbeit bei der Etablierung einheitlicher Archivformate und gemeinsamer Indikatoren für Statistiken in Webarchiven.
  2. Woltering, H.: ¬Der automatische Download von Netzpublikationen durch Bibliotheken und ihre Nutzung (2008) 0.01
    0.011166459 = product of:
      0.06699875 = sum of:
        0.061739106 = weight(_text_:kooperation in 1982) [ClassicSimilarity], result of:
          0.061739106 = score(doc=1982,freq=4.0), product of:
            0.16959052 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.029115405 = queryNorm
            0.3640481 = fieldWeight in 1982, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.03125 = fieldNorm(doc=1982)
        0.0052596475 = product of:
          0.015778942 = sum of:
            0.015778942 = weight(_text_:22 in 1982) [ClassicSimilarity], result of:
              0.015778942 = score(doc=1982,freq=2.0), product of:
                0.10195719 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029115405 = queryNorm
                0.15476047 = fieldWeight in 1982, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1982)
          0.33333334 = coord(1/3)
      0.16666667 = coord(2/12)
    
    Abstract
    Im "Gesetz über die Deutsche Nationalbibliothek (DNBG)" vom 22. Juni 2006 erhielt die Bibliothek nicht nur den Auftrag, wie bisher Medienwerke in körperlicher Form (alle Darstellungen auf Papier, elektronischen Datenträgern und anderen Trägern), sondern auch Medienwerke in unkörperlicher Form (alle Darstellungen in öffentlichen Netzen) zu sammeln. Die Deutsche Nationalbibliothek (DNB) will zu diesem Zweck zum Sommer 2008 die Pflichtablieferungsverordnung und die Sammelrichtlinien neu fassen. Diese Vorgaben sehen vor, dass die Sammlung von Online-Publikationen (im Folgenden auch: Netzpublikationen, elektronische Publikationen, E-Publikationen) in einem stufenweisen Verfahren ablaufen soll. Die DNB formulierte diese drei Schritte folgendermaßen: - Direkte Kooperation mit Ablieferern oder Kooperation mit aggregierenden Partnern hinsichtlich der Sammlung einzeln identifizierbarer Online-Publikationen. Entsprechende Verfahren wurden bereits vor Inkrafttreten des Gesetzes über die Deutsche Nationalbibliothek genutzt. Die bisherigen Erfahrungen dienen dazu, Weiterentwicklungen und Verbesserungen auf einer praktischen Basis und mittels gängiger vorhandener Standards voranzutreiben. In die Übelegungen fließen auch Möglichkeiten der Nutzung bestehender Vertriebswege einzelner Sparten ein. - Implementierung einer generell nutzbaren Schnittstelle auf der Website der Deutschen Nationalbibliothek für die Ablieferung einzeln identifizierbarer Netzpublikationen in einem standardisierten Verfahren. Diese Schnittstelle wird bereits seit einigen Jahren genutzt und derzeit für größere Ablieferungsvolumina optimiert. - Erprobung von Harvesting-Methoden für die Sammlung bzw. den Abruf definierter kleinerer oder größerer Domainbereiche. In diese Fragestellung fällt auch das Einsammeln ganzer Objektgruppen wie etwa Websites aller Bundesbehörden oder thematische Sammlungen zu besonderen nationalen Ereignissen wie Bundestagswahlen. Deutlich wird hier jedoch, dass der Prozess der Verfahrensfindung noch im Gange ist. Ebenso augenscheinlich ist, dass zwischen der freiwilligen Ablieferung von E-Publikationen durch die publizierenden Organisationen und der Sicherung ganzer Websites noch die automatisierte Sicherung der einzelnen elektronischen Publikationen von den Organisations-Websites stehen könnte und sollte. Der Download durch Bibliotheken erscheint sinnvoll, da die Ablieferung eigener E-Publikationen oft nicht selbständig durch die Organisationen erfolgt, sondern meist regelmäßig eingefordert werden muss. Hinzu kommt, dass sich der Sammelauftrag der DNB naturgemäß auf die Netzpublikationen deutscher Organisationen bezieht, nicht jedoch auf elektronische Veröffentlichungen außerdeutscher Einrichtungen,die z.B. auch für SSG- Bibliotheken mit regional oder thematisch ausgerichtet m Sammelauftrag interessant wären.
  3. Doucet-Rosenstein, D.: Big Bang der Multimedia (1994) 0.01
    0.008983061 = product of:
      0.10779673 = sum of:
        0.10779673 = weight(_text_:internationale in 6650) [ClassicSimilarity], result of:
          0.10779673 = score(doc=6650,freq=2.0), product of:
            0.16854337 = queryWeight, product of:
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.029115405 = queryNorm
            0.6395786 = fieldWeight in 6650, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.078125 = fieldNorm(doc=6650)
      0.083333336 = coord(1/12)
    
    Abstract
    Neuste Technik sucht bereichernden Inhalt zwecks dauerhafter Verbindung. Bericht über die Milia in Cannes, die vom 15.-18.1.94 stattgefunden hat - die erste Internationale Messe für illustrierte Bücher und Neue Medien, an der 1.295 Firmen durch 3.567 Teilnehmer aus 40 Ländern vertreten waren
  4. Malina, Barbara [Red.]: Open Access : Chancen und Herausforderungen ; ein Handbuch (2007) 0.01
    0.008934693 = product of:
      0.053608157 = sum of:
        0.04895924 = weight(_text_:kongress in 677) [ClassicSimilarity], result of:
          0.04895924 = score(doc=677,freq=4.0), product of:
            0.19102874 = queryWeight, product of:
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.029115405 = queryNorm
            0.25629252 = fieldWeight in 677, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.01953125 = fieldNorm(doc=677)
        0.0046489155 = product of:
          0.013946746 = sum of:
            0.013946746 = weight(_text_:22 in 677) [ClassicSimilarity], result of:
              0.013946746 = score(doc=677,freq=4.0), product of:
                0.10195719 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029115405 = queryNorm
                0.13679022 = fieldWeight in 677, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=677)
          0.33333334 = coord(1/3)
      0.16666667 = coord(2/12)
    
    Footnote
    Inhaltsbeschreibung Die verschiedenen Initiativen zum Open Access führen zu zwei Systemen, dem so genannten »grünen Weg«, der bereits in gedruckter Form veröffentlichte Publikationen ins Internet stellt, und dem »goldenen Weg«, bei dem die Volltextspeicherung die einzige oder jedenfalls die vorrangige Form darstellt. Die Internationalisierung des Open Access erfolgte auf drei Konferenzen, die 2001 in Budapest, 2003 in Bethesda und im gleichen Jahr in Berlin stattfanden. Diese Volltextspeicherung war ursprünglich auf die naturwissenschaftlich-technischen Disziplinen konzentriert. Doch treten in zunehmendem Maße auch die Geistes- und Sozialwissenschaften dem Prinzip bei. Dabei entstehen natürlich sehr differenzierende Aspekte, zum Beispiel für die Bibliotheken - etwa der Erwerb gedruckter Zeitschriften, Langzeitarchivierung von Interneteintragungen, für den Buchhandel wie für die Autoren - etwa das Urheberrecht, aber auch dort das ökonomische Interesse, wie der Plan des Börsenvereins des Deutschen Buchhandels zu einer eigenen Volltextspeicherung zeigt, dem die Deutsche UNESCO-Kommission eine Ergänzung zum vorliegenden Text nachsandte. Open Access hat mittlerweile ein so weites Interesse gefunden, dass das Auswärtige Amt zusammen mit der Deutschen UNESCO-Kommission 2006 zu einer Konferenz einlud, über deren Ergebnisse die Deutsche UNESCO-Kommission dieses Handbuch veröffentlicht hat, das neben einer definitorischen und einer historischen Einleitung (Norbert Lossau S.18-22 und Peter Schirmbacher S. 22-25) in vier weiteren Kapiteln die Möglichkeiten und Probleme darstellt. Im zweiten Kapitel werden drei verschiedene Modelle vorgestellt: Open-Access-Repositories am Berliner Beispiel des edoc-Servers (Susanne Dobratz S. 28-32), Open-Access-Journale am Beispiel des New Journal of Physics (Eberhard Bodenschatz S.33-36) und ein Verlagsmodell (Springer Open Choice) von Jan Velterop (S. 37-40). Das dritte Kapitel ist den Formen der Realisierung gewidmet, z. B. der Finanzierung (Stefan Gradmann S.42-45), des Urheberrechts (Karl-Nikolaus Peifer S.46-59), der Qualitätssicherung (Eberhard Bodenschatz und Ulrich Pöschl S.50-55), der Langzeitarchivierung (Ute Schwens und Reinhard Altenhöner S. 50-58), der Struktur der Wissenschaftskommunikation (Hans Pfeiffenberger S.59-62), der Datenverarbeitung (Wolfram Horst-mann S. 65) sowie der Akzeptanz (Johannes Fournier S. 66-70).
    RSWK
    Open Access / Kongress / Berlin <2007>
    Subject
    Open Access / Kongress / Berlin <2007>
  5. FIZ Karlsruhe unterstützt gemeinsamen Bibliotheksverbund (VZG) bei der Einführung der ESCIDOC-Infrastruktur (2008) 0.01
    0.008152631 = product of:
      0.048915785 = sum of:
        0.043656137 = weight(_text_:kooperation in 1810) [ClassicSimilarity], result of:
          0.043656137 = score(doc=1810,freq=2.0), product of:
            0.16959052 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.029115405 = queryNorm
            0.25742087 = fieldWeight in 1810, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.03125 = fieldNorm(doc=1810)
        0.0052596475 = product of:
          0.015778942 = sum of:
            0.015778942 = weight(_text_:22 in 1810) [ClassicSimilarity], result of:
              0.015778942 = score(doc=1810,freq=2.0), product of:
                0.10195719 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029115405 = queryNorm
                0.15476047 = fieldWeight in 1810, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1810)
          0.33333334 = coord(1/3)
      0.16666667 = coord(2/12)
    
    Content
    Zum Vertragsabschluss erklärt Sabine Brünger-Weilandt, Geschäftsführerin von FIZ Karlsruhe: "Als wissenschaftlicher Dienstleister und eScidoc-Partner fühlen wir uns der Nachnutzung und Verbreitung des Systems verpflichtet. Die Kooperation mit der VZG bedeutet einen wichtigen Schritt in diesem Prozess. Damit können wir die VZG effektiv und kompetent dabei unterstützen, ihre Leistungen im Bibliotheksverbund noch besser zu erbringen und wertvolle Kulturgüter der Wissenschaft und Forschung digital verfügbar zu machen." Reiner Diedrichs, Direktor der Verbundzentrale, begründet die Entscheidung: "Die durchdachte Architektur, der flexible Umgang mit Metadaten sowie insbesondere die konsequente Verfolgung des Open-Source-Gedankens haben uns überzeugt. Die eSciDoc-Infrastruktur bietet eine solide Grundlage für die weitere Entwicklung unserer Dienstleistungen." FIZ Karlsruhe arbeitet bereits seit mehr als drei Jahren intensiv an E-Science-Lösungen. Im Projekt eSciDoc entwickeln FIZ Karlsruhe und die MaxPlanck-Gesellschaft (MPG) gemeinsam ein System für offene netzbasierte Zusammenarbeit, Kommunikation und Publikation in wissenschaftlichen Forschungsorganisationen. Aufbauend auf seinen längjährigen Erfahrungen im internationalen Informationstransfer und Wissensmanagement hat FIZ Karlsruhe seine Kompetenzen in Richtung zu E-Science erweitert. Über das neue Geschäftsfeld KnowEsis werden in dem komplexen und beratungsintensiven Umfeld von E-Science innovative Dienstleistungen angeboten. Dazu gehören Consulting, Schulung und kundenspezifische Entwicklungen ebenso wie Support sowohl für die eSciDoc-Infrastruktur als auch für das Repository-System Fedora."
    Date
    7. 4.2008 11:36:22
  6. Digitales Langzeitarchiv geht in Betrieb : Tausende Dokumente erfolgreich in »kopal« eingespielt (2006) 0.01
    0.007276023 = product of:
      0.08731227 = sum of:
        0.08731227 = weight(_text_:kooperation in 61) [ClassicSimilarity], result of:
          0.08731227 = score(doc=61,freq=2.0), product of:
            0.16959052 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.029115405 = queryNorm
            0.51484174 = fieldWeight in 61, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.0625 = fieldNorm(doc=61)
      0.083333336 = coord(1/12)
    
    Abstract
    Das Projekt »kopal« widmet sich einer bislang ungelösten Aufgabe der Informationsgesellschaft: die langfristige Bewahrung und Bereitstellung digitaler Daten. Unter der Leitung der Deutschen Nationalbibliothek entwickeln die Niedersächsische Staats- und Universitätsbibliothek Göttingen (SUB), die Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen (GWDG) und die IBM Deutschland GmbH in Kooperation eine technische und organisatorische Lösung zur Langzeitarchivierung. Inzwischen hat das kopal-System die erste Stufe seines Produktivbetriebs erfolgreich aufgenommen.
  7. Europäische Wissensspeicher werden vernetzt : DRIVER will Forschungsartikel im Internet leichter zugänglich machen (2006) 0.01
    0.007186448 = product of:
      0.08623738 = sum of:
        0.08623738 = weight(_text_:internationale in 5992) [ClassicSimilarity], result of:
          0.08623738 = score(doc=5992,freq=2.0), product of:
            0.16854337 = queryWeight, product of:
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.029115405 = queryNorm
            0.51166284 = fieldWeight in 5992, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.0625 = fieldNorm(doc=5992)
      0.083333336 = coord(1/12)
    
    Abstract
    Die internationale Projektpartnerschaft DRIVER hat begonnen, einer neuartigen öffentlichen Infrastruktur für wissenschaftliche Informationen in Europa den Weg zu bereiten. DRIVER steht für »Digital Repository Infrastructure Vision for European Research«. Das Projekt greift die Vision auf, dass alle Formen wissenschaftlicher Ergebnisse - etwa Forschungsartikel, Berichte, Daten und Zusatzmedien - frei und einfach im Internet zugänglich sein sollten.
  8. Vogt, T.: ¬Die Transformation des renommierten Informationsservices zbMATH zu einer Open Access-Plattform für die Mathematik steht vor dem Abschluss. (2020) 0.01
    0.007186448 = product of:
      0.08623738 = sum of:
        0.08623738 = weight(_text_:internationale in 31) [ClassicSimilarity], result of:
          0.08623738 = score(doc=31,freq=2.0), product of:
            0.16854337 = queryWeight, product of:
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.029115405 = queryNorm
            0.51166284 = fieldWeight in 31, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.0625 = fieldNorm(doc=31)
      0.083333336 = coord(1/12)
    
    Content
    "Mit Beginn des Jahres 2021 wird der umfassende internationale Informationsservice zbMATH in eine Open Access-Plattform überführt. Dann steht dieser bislang kostenpflichtige Dienst weltweit allen Interessierten kostenfrei zur Verfügung. Die Änderung des Geschäftsmodells ermöglicht, die meisten Informationen und Daten von zbMATH für Forschungszwecke und zur Verknüpfung mit anderen nicht-kommerziellen Diensten frei zu nutzen, siehe: https://www.mathematik.de/dmv-blog/2772-transformation-von-zbmath-zu-einer-open-access-plattform-f%C3%BCr-die-mathematik-kurz-vor-dem-abschluss."
  9. Veltman, K.H.: Von der aufgezeichneten Welt zur Aufzeichnung der Welten (2007) 0.01
    0.005457017 = product of:
      0.0654842 = sum of:
        0.0654842 = weight(_text_:kooperation in 200) [ClassicSimilarity], result of:
          0.0654842 = score(doc=200,freq=2.0), product of:
            0.16959052 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.029115405 = queryNorm
            0.3861313 = fieldWeight in 200, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.046875 = fieldNorm(doc=200)
      0.083333336 = coord(1/12)
    
    Content
    "Auf der Tagung "Herausforderung: Digitale Langzeitarchivierung - Strategien und Praxis europäischer Kooperation" welche vom 20. bis 21. April 2007 in der Deutschen Nationalbibliothek (Frankfurt am Main) stattfand, befassten sich die einzelnen Referentinnen nicht nur mit der Bewahrung des Kulturgutes, sondern u.a. auch mit der "Aufzeichnung der Welten". Wie man diese "Weltaufzeichnung" in Anbetracht der Fülle und stetigen Zunahme an Informationen zukünftig (noch) besser bewältigen kann, thematisierte Kim H. Veltman in seinem Vortrag. Er präsentierte dazu vier äußerst denkwürdige Ansätze: - Schaffung einer zentralen europäischen Instanz, welche die Gedächtnisinstitutionen über die neusten technologischen Entwicklungen informiert - Errichtung eines digitalen Referenzraums und einer virtuellen Agora innerhalb der Europäischen Digitalen Bibliothek - Gründung eines Instituts zur Wissensorganisation - Erforschen der Anforderungen für eine "Universal Digital Library"."
  10. Kirsch, M.A.: Plan S in der Diskussion : Reaktionen aus der Wissenschaft auf die internationale Open-Access-Initiative (2020) 0.01
    0.0053898366 = product of:
      0.064678036 = sum of:
        0.064678036 = weight(_text_:internationale in 132) [ClassicSimilarity], result of:
          0.064678036 = score(doc=132,freq=2.0), product of:
            0.16854337 = queryWeight, product of:
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.029115405 = queryNorm
            0.38374713 = fieldWeight in 132, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.046875 = fieldNorm(doc=132)
      0.083333336 = coord(1/12)
    
  11. Schumacher, M.: Modernes Publizieren mit System (2005) 0.01
    0.0050815865 = product of:
      0.060979035 = sum of:
        0.060979035 = weight(_text_:internationale in 3279) [ClassicSimilarity], result of:
          0.060979035 = score(doc=3279,freq=4.0), product of:
            0.16854337 = queryWeight, product of:
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.029115405 = queryNorm
            0.36180025 = fieldWeight in 3279, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.03125 = fieldNorm(doc=3279)
      0.083333336 = coord(1/12)
    
    Abstract
    Prozesse automatisieren, Kosten senken und die Zeit bis zur Publikation reduzieren. Das waren bislang Hauptgründe, warum Wissenschaftsverlage den Einsatz elektronischer Manuskriptverwaltungssysteme wie Editorial Manager von Aries in Erwägung ziehen. Nachdem mittlerweile neben Print- auch Internetprodukte zum Geschäftsalltag der Verlage gehören, müssen heute zusätzlich auch parallele Workflows für Off- und Online-Produkte unterstützt werden. Auch das leistet das System. Auch Wissenschaftsverlage sind den Kräften des Marktes ausgesetzt und müssen auf höchstmögliche Effizienz achten. In einer internationalen Verlagslandschaft, die durch Wettbewerbsdruck, Konzentration und technische Evolution im Zeichen des Internets geprägt ist, versprechen sinkende Produktionskosten, rasche Durchlaufzeiten bis zur Veröffentlichung und zudem eine hohe Akzeptanz bei Autoren, Gutachtern und Herausgebern signifikante Wettbewerbsvorteile. Um diese Ziele zu erreichen, bedienen sich internationale Fachverlage wie Elsevier oder Lippincott Williams & Wilkins der Editorial Manager-Lösung der Aries Systems Corporation. Seit gut einem Jahr ist auch der Berliner Fachverlag Walter de Gruyter Anwender dieser Lösung. Vor wenigen Wochen hat sich mit Springer SBM ein weiteres Schwergewicht der internationalen Verlagsbranche für die weitreichende Nutzung des Aries-Systems entschieden. Bis Ende 2006 wollen die Verantwortlichen bei Springer gleich mehrere hundert Zeitschriften auf eine Arbeitsweise mit Editorial Manager umstellen, was die weltweite Zahl der wissenschaftlichen Zeitschriften, die mit der Aries-Software arbeiten, auf dann knapp 1.500 erhöhen dürfte. Gleichwohl ist Editorial Manager nicht nur für große, internationale Verlage die geeignete Lösung. Auch kleinen und mittelständischen Verlagshäusern empfiehlt sich die Software als passgenaues Werkzeug für ihr jeweiliges Arbeitsumfeld. Diesen winken die generellen Vorteile wie Zeitersparnis bei der Manuskripteinreichung, Kostenersparnis und die automatische Metadatenverwaltung über den kompletten Workflow. 2Viele Arbeitsschritte, die vorher mehrfach händisch erledigt werden müssen, fallen beim Einsatz des Aries-Systems nur einmal an, ganz zu schweigen von der mächtigen Archivfunktionalität, die den Nutzern zugutekommt", weiß Roswitha Nottebaum, Niederlassungsleiterin der Aries GmbH & Co. KG in Langenfeld. Zudem sei das HostingModell, über das Aries die Lösung anbietet, gerade für kleinere Verlage besonders attraktiv, müssten diese dabei doch weder in Hardware noch in Wartungspersonal investieren.
  12. Siegle, J.: @lles hat ein Ende : Im Sog der kriselnden Web-Wirtschaft kämpfen immer mehr Internet-Zeitschriften um ihr Überleben (2001) 0.01
    0.0050394107 = product of:
      0.030236462 = sum of:
        0.026949182 = weight(_text_:internationale in 2058) [ClassicSimilarity], result of:
          0.026949182 = score(doc=2058,freq=2.0), product of:
            0.16854337 = queryWeight, product of:
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.029115405 = queryNorm
            0.15989465 = fieldWeight in 2058, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2058)
        0.0032872797 = product of:
          0.009861839 = sum of:
            0.009861839 = weight(_text_:22 in 2058) [ClassicSimilarity], result of:
              0.009861839 = score(doc=2058,freq=2.0), product of:
                0.10195719 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029115405 = queryNorm
                0.09672529 = fieldWeight in 2058, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2058)
          0.33333334 = coord(1/3)
      0.16666667 = coord(2/12)
    
    Content
    Inhaltlich soll Net-Business zu einem Branchendienst umgebaut werden, wobei die Schwerpunkte neben Köpfen, Konzepten und Karriere auch im Bereich Medien und Marketing liegen sollen. Online-Unternehmer Turi mochte hierbei mit einem Team von drei bis vier Redakteuren auskommen". Entgegen anderslautenden Medienberichten wird die Online-Ausgabe von NetBusiness nicht eingestellt und zunächst weiterhin von der Milchstraßen-Tochter Tomorrow Internet AG betreut. Turis Service Koepfe.de soll in den Web-Ableger von Net-Business integriert werden. Schon seit Monaten munkelte die Szene über ein nahes Ende des im Januar 2000 gestarteten Net-Business. Die zunächst im Zwei-Wochenrhythmus vertriebene Zeitung hatte ihren Erscheinungszyklus im Herbst 2000 auf einen wöchentlichen verkürzt. Nachdem jedoch die Anzeigenumsätze drastisch eingebrochen waren, war der Verlag Ende vergangenen Jahres energisch zurückgerudert und hatte einen rigiden Sparkurs verordnet: Die Erscheinungsweise wurde wieder auf 14-tägig zurückgestellt, zahlreichen Redakteuren, die nur wenige Monate zuvor von anderen Medien abgeworben wurden, gekündigt. Trotz gegenteiliger Beteuerungen blieben Anzeigenverkauf und Auflagenentwicklung deutlich hinter den Erwartungen zurück - im ersten Quartal 2001 erreichte Net-Business nicht einmal eine verkaufte Auflage von 24 000 Exemplaren. Ursprünglich war ein Vielfaches dessen angepeilt. Madzia spricht dennoch nicht von einem Misserfolg des Projekts: Ich denke nicht, dass die Redaktion oder ich gescheitert sind", sagt der Net-Business-Chefredakteur und -Herausgeber gegenüber der FR. "Das Ganze ist natürlich schon enttäuschend, aber der Markt ist momentan einfach ziemlich rau", so Madzia. Net-Business ist alles andere als ein Einzelfall. Pleiten, Pech und Pannen gehören im deutschen Online-Blätterwald längst zum Alltag. Im Frühjahr war Business 2.0 aus dem Münchner Future-Verlag gescheitert. Ende April hatte die internationale Mutter Future Networks die unrentable deutsche Niederlassung gleich komplett dichtgemacht. Anfang Juli folgte das Aus für E-Business, den Ableger der Wirtschaftswoche. Die Verlagsgruppe Handelsblatt zog nach nur vier Monaten kurzerhand den Stecker und entließ fast 40 völlig überraschte Redakteure.
    Date
    17. 7.1996 9:33:22
  13. Broos, S.: Indien empfiehlt sich als Partner beim elektronischen Publizieren (2006) 0.00
    0.0044915304 = product of:
      0.053898364 = sum of:
        0.053898364 = weight(_text_:internationale in 5143) [ClassicSimilarity], result of:
          0.053898364 = score(doc=5143,freq=2.0), product of:
            0.16854337 = queryWeight, product of:
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.029115405 = queryNorm
            0.3197893 = fieldWeight in 5143, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5143)
      0.083333336 = coord(1/12)
    
    Abstract
    Elektronisches Publizieren, Fachinformation und Indien sind drei Begriffe, die immer enger zusammenrücken. Denn Indien ist nicht nur eine große Buchnation und Gastland der diesjährigen Frankfurter Buchmesse, sondern auch Outsourcing-Land Nummer eins für viele internationale Verlage. Das Phänomen ist nicht neu. Bereits in den 1970er Jahren lagerten Verlage wie Macmillan, Oxford University Press oder Thomson Satzarbeiten nach Indien aus. Aus Kostengründen. Noch heute ist es bis zu 60 Prozent günstiger für Verlage, Produktionsprozesse nach Indien auszulagern. Dennoch sind die Kostenvorteile allein mittlerweile nicht mehr ausschlaggebend. Indien hat sich in den neunziger Jahren einen Ruf als Land der exzellenten E-Publishing-Dienstleister erworben und punktet mit Leistung und Qualität. An IT-Spezialisten mit hervorragenden Englischkenntnissen herrscht dort kein Mangel. Zwischenzeitlich hat sich ein ganz eigener Sektor für E-Publishing-Dienstleistungen für Verlage gebildet, dem rund 25 Unternehmen mit viel Branchen-Knowhow angehören. Das Dienstleistungsangebot der Unternehmen mit bis zu 2500 Mitarbeitern ist breit und umfasst die ganze Informationsprozesskette. Hauptauftraggeber für die indischen Dienstleister sind global agierende Wissenschaftsverlage. Laut Crossborder Consulting haben 70 bis 80 Prozent von ihnen ihren Hauptsitz in Europa. Aber auch amerikanische Verlagskonzerne lagern E-Publishing-Aktivitäten verstärkt nach Indien aus.
  14. Migl, J.: Verteilte Ressourcen, zentraler Nachweis: elektronische Dokumente und das "Zentrale Verzeichnis digitalisierter Drucke" (zvdd) : Möglichkeiten und Grenzen eines Portals (2008) 0.00
    0.004337214 = product of:
      0.052046563 = sum of:
        0.052046563 = weight(_text_:standardisierung in 1848) [ClassicSimilarity], result of:
          0.052046563 = score(doc=1848,freq=2.0), product of:
            0.19795702 = queryWeight, product of:
              6.7990475 = idf(docFreq=133, maxDocs=44218)
              0.029115405 = queryNorm
            0.2629185 = fieldWeight in 1848, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7990475 = idf(docFreq=133, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1848)
      0.083333336 = coord(1/12)
    
    Content
    Voraussetzungen und Zielvorgaben Im Laufe der letzten ungefähr 10 Jahre sind in Deutschland zahlreiche Digitalisierungsprojekte durchgeführt worden. Die Mehrzahl davon war und ist an Bibliotheken angesiedelt, daneben stehen aber nicht wenige Projekte, die von Akademien, MaxPlanck-Instituten, einzelnen Universitätsinstituten und anderen Projektnehmern beantragt und durchgeführt wurden. Selbst wenn man die Zählung auf die DFG-finanzierten Projekte beschränkt, ist man schnell in der Größenordnung von weit über 100 Projekten, ohne Berücksichtigung der mindestens noch einmal so vielen von anderer Seite unterstützten oder privat durchgeführten Unternehmungen2. Was am Beginn der großen Digitalisierungskampagnen noch durchaus gewollt war, nämlich die Förderung unterschiedlicher Verfahren und Methoden, die Anwendung verschiedener technischer Lösungen bei Hard- und Software, die freie Hand für die Projektleiter bei der Entwicklung von Zugriffsmöglichkeiten, bei Erschließungsmethoden und Navigationsinstrumenten, entpuppte sich jedoch nach und nach als strategischer Nachteil. Gewiss: Man hatte auf diese Weise eine Vielzahl an Erfahrungen sammeln und für die Formulierung von Empfehlungen nutzen können. Vor allem bei der Ausarbeitung von technischen Standards mag es hilfreich gewesen sein, auf möglichst viele unterschiedliche Erfahrungen zurückgreifen zu können. Im Ergebnis aber entstanden so viele Realisierungen, wie es Projekte gab. Jedes stand für sich mit einem individuellen Auftritt im Netz und wartete auf Kundschaft, die - wie wir heute wissen - aber nicht in der erhofften Frequenz die neuen Angebote nutzte. Spätestens bei einem Seitenblick auf die parallel entstehenden Strukturen im Ausland musste die sehr bunte deutsche Digitalisierungs-landschaft mehr und mehr als ein eher bedenkliches Konzept erscheinen. Der Verzicht auf Standardisierung und Zentralisierung, das Nebeneinander von jeweils für die Projekte sinnvollen, aber in der Regel nicht nachnutzbaren Projektarchitekturen begann sich zu rächen, denn die potenziellen Nutzer der bereitgestellten Dokumente fanden diese entweder nicht oder verloren schnell die Lust, in jedem neuen Projekt wieder mit dem Studium der Betriebsanleitung zu beginnen. Als sich dann vor dem Hintergrund des Erfolges von Google die Vorstellung durchsetzte, das weltweite Netz lasse sich leicht und vollständig von einem einfachen Suchschlitz aus durchkämmen, wuchs hierzulande der Druck, hinter den vielen bunten Mosaiksteinchen doch noch das eigentliche Bild erkennbar werden zu lassen. Ein zweifellos lohnendes Ziel sind doch die in den Projekten erarbeiteten Angebote und Standards zumeist von hoher Qualität. Der Plan fügte sich zudem leicht in die aktuellen strategischen Zielvorstellungen von einer homogenen digitalen Bibliothek Deutschland, sogar einer europäischen digitalen Bibliothek oder gemeinsamen Portalen von Bibliotheken, Museen und Archiven, in welchen die in den Einzelprojekten erzielten Ergebnisse letzten Endes aufgehen sollen.
  15. Röttgers, J.; dpa: ¬Der Kampf ums digitale Buch : Die deutschen Verlage reagieren auf Google - und arbeiten an einer Plattform fürs kostenlose Online-Lesen (2006) 0.00
    0.0038586939 = product of:
      0.046304327 = sum of:
        0.046304327 = weight(_text_:kooperation in 6055) [ClassicSimilarity], result of:
          0.046304327 = score(doc=6055,freq=4.0), product of:
            0.16959052 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.029115405 = queryNorm
            0.27303606 = fieldWeight in 6055, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.0234375 = fieldNorm(doc=6055)
      0.083333336 = coord(1/12)
    
    Content
    "Wer Kostproben von neuen Romanen oder ganze Bände online lesen und hören möchte, den lässt die Branche bald nicht mehr allein. Der Börsenverein des Deutschen Buchhandels will im Februar eine Plattform starten. Verlage und Autoren entscheiden dabei selbst, in welchem Umfang sie Inhalte kostenlos oder gegen Entgelt zur Verfügung stellen. Das Projekt "Volltextsuche Online" soll auch der Herausforderung durch Google begegnen: Die Internet-Suchmaschine stellt schon länger Bücher ins Netz. "Wir wollen aber nicht in Konkurrenz zu Google treten", sagt der Hauptgeschäftsführer des Börsenvereins, Alexander Skipis. Die Branche verhandle vielmehr mit Google derzeit über eine Kooperation: Inhalte der "Volltextsuche Online" sollen oben in den Ergebnislisten von Suchabfragen stehen. Derzeit wollen 70 Verlage beim OnlineProjekt mitmachen, 10000 Titel sind erfasst. Skipis will auch Zehntausende von rechtefreien Titeln online verfügbar machen. Die Macher hoffen, auch jene Verlage ins Boot zu kriegen, die schon jetzt im Internet Geschäftsmodelle erproben. Die geplan-. te Plattform werde besser wahrgenommen als verschiedene Angebote einzelner Verlage. "Wenn wir mit 10 000 Titeln nach einem Jahr herumdümpeln, haben wir das Thema vergeigt." Miteingebunden werden soll auch der Buchhandel. Begonnen hatte das Zeitalter der digitalisierten Bücher ;im März 2003 in der Bibliothek der kalifornischen Stanford-Universität. Mit einem raumfüllenden Roboter begann die renommierte Institution damals mit dem Scannen. Das mehrere 100 000 Dollar teure Gerät blättert automatisch, durch Bücher und Magazine und fotografiert jede Seite mit einer hochauflösenden Spezialka-mera. Zusammenklebendes Papier wird sorgsam mit einem sanften Luftstoß geteilt. Theoretisch kann ein Buch-Roboter gut tausend Seiten pro Stunde erfassen. Stanfords Bibliothekare bemerkten aber bald, dass sie ältere Schmöker nur mit, einer Rate von 100 bis 200 Seiten pro Stunde scannen können. 15 Monate später hatten sie gerade einmal 800 Bücher digitalisiert. Die Erfassung des 7,5 Millionen Titel umfassenden Bestands hätte so Jahrtausende gedauert. Ende 2004 bekam die Bibliothek dann Hilfe von Google. Der Suchmaschinenriese erklärte sich bereit, mehrere Millionen Titel zu digitalisieren - täglich bis zu 100000 Seiten. Stanfords Bibliothekar Michael Keller bezeichnete das als "riesigen Schritt vorwärts". Vorher habe man Digitalisierung als Liebhaberprojekt betrieben. "Die Zusammenarbeit mit Google macht daraus ein industrielles Unterfangen."
    Google legt kräftig vor Knapp zwei Jahre später hat die Suchmaschine sieben Universitäten als Partner gewonnen und viele tausend Bücher mit einer eigens entwickelten Technik digitalisiert. Wie groß der eigene Datenbestand ist, verrät Google nicht. Hinweise auf den Fortschritt des Unterfangens bietet Googles Print-Plattform. Die Firma lässt Nutzer dort im Volltext digitalisierter Bücher suchen. Einige der Titel stammen von Verlagen selbst, der Rest ist das Ergebnis der Bibliotheks-Digitalisierung. Gebräuchliche Begriffe der englischen Sprache resultieren in Fundstellen auf knapp 80 Millionen Seiten. Das wären gut 300000 Werke mit je 250 Seiten. Weitere Indizien gibt die Analyse einer US-Fachzeitschrift für digitale Bibliotheken. Die Autoren des D-Lib-Magazin fanden heraus, dass Google auf dem besten Weg ist, einen Großteil der weltweit verfügbaren Bücher zu digitalisieren. So finden sich in den Katalogen der fünf anfänglichen Projekt-Partner bereits 33 Prozent aller Titel des weltweiten Bibliothekskatalogs Worldcat. Fremdsprachen-Sammlungen sorgen dafür, dass Googles Buch-Katalog trotz seiner amerikanischen Wurzeln vielsprachig ist. Nur die Hälfte ist in englischer Sprache. An zweiter Stelle stehen deutsche Werke mit zehn Prozent. Nun gab Google eine Kooperation mit der Universität Madrid bekannt, dielen Anteil der nicht-englischen Bücher steigern dürfte. Über Pläne für Deutschland will sich die Firma nicht äußern: "Wir sprechen mit zahlreichen Bibliotheken auf der ganzen Welt", sagt eine Sprecherin. Die Geheimnistuerei kommt nicht von ungefähr. Die Konkurrenz Yahoo und Microsoft hat sich zur Open-Content-Alliance zusammengeschlossen, um selbst Millionen von Büchern zu erfassen. Gegenwind gibt es auch von Rechteinhabern, die Klagen wegen Urheberrechtsverletzungen anstreben. Unumstritten ist dagegen Googles Projekt, Bücher mit abgelaufenem Urheberrechtsschutz als komplette Downloads anzubieten. Mit dabei: Goethes Faust - aus dem Buchbestand der Stanford-Universität."
  16. Borghoff, U.M.; Rödig, P.; Schmalhofer, F.: DFG-Projekt Datenbankgestützte Langzeitarchivierung digitaler Objekte : Schlussbericht Juli 2005 - Geschäftszeichen 554 922(1) UV BW Mänchen (2005) 0.00
    0.0036380114 = product of:
      0.043656137 = sum of:
        0.043656137 = weight(_text_:kooperation in 4250) [ClassicSimilarity], result of:
          0.043656137 = score(doc=4250,freq=2.0), product of:
            0.16959052 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.029115405 = queryNorm
            0.25742087 = fieldWeight in 4250, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.03125 = fieldNorm(doc=4250)
      0.083333336 = coord(1/12)
    
    Abstract
    Über die letzten Jahrzehnte ist die Menge digitaler Publikationen exponentiell angestiegen. Doch die digitalen Bestände sind durch die schleichende Obsoletheit von Datenformaten, Software und Hardware bedroht. Aber auch die zunehmende Komplexität neuerer Dokumente und zugehöriger Abspielumgebungen stellt ein Problem dar. Das Thema der Langzeitarchivierung wurde lange vernachlässigt, rückt aber zunehmend ins Bewusstsein der Verantwortlichen und der Öffentlichkeit, nicht zuletzt wegen spektakulärer Datenverluste. Ziel dieser Studie ist es, Grundlagen und Bausteine für eine technische Lösung zu entwickeln und deren Einbettung in die Aufgabenbereiche einer Archivierungsorganisation aufzuzeigen. Es fehlt eine systematische Herangehensweise zum Aufbau technischen Wissens, die der Heterogenität und Komplexität sowie der bereits vorhandenen Obsoletheit in der Welt des digitalen Publizierens gerecht wird. In einem ersten Schritt entwickeln wir deshalb ein Modell, das sich spezifisch den technischen Aspekten digitaler Objekte widmet. Dieses Modell erlaubt es, digitale Objekte bezüglich der Archivierungsaspekte zu charakterisieren und zu klassifizieren sowie technische Grundlagen präzise zuzuordnen. Auf dieser Basis können u. a. systematisch modulare Metadatenschemata gewonnen werden, die den Langzeiterhalt gezielt unterstützen. Das Modell liefert außerdem einen Beitrag zur Formulierung von zugehörigen Ontologien. Des Weiteren fördern die Modularität der Metadatenschemata und die einheitliche Begrifflichkeit einer Ontologie die Föderation und Kooperation von Archivierungsorganisationen und -systemen. Die Abstützung auf das entwickelte Modell systematisiert in einem weiteren Schritt die Herleitung von technisch orientierten Prozessen zur Erfüllung von Archivierungsaufgaben. Der Entwicklung eines eigenen Modells liegt die Einschätzung zu Grunde, dass Referenzmodelle, wie OAIS (Open Archival Information System), zwar eine geeignete Ausgangsbasis auf konzeptioneller Ebene bieten, aber sie sind zu generell und beschreiben vor- oder nachgelagerte Prozesse nur als Schnittstelle. Die aus dem Modell hergeleiteten Lösungsansätze sind zunächst unabhängig von einer konkreten Realisierung. Als Beitrag zur Umsetzung wird in einem eigenen Abschnitt der Einsatz von Datenbankmanagementsystemen (DBMS) als Implementierungsbasis ausführlich diskutiert.
  17. Plath, J.: Geteilte Bücherwelt im grenzenlosen Internet : Google-Vergleich 2.0 ohne Mitteleuropa (2009) 0.00
    0.003593224 = product of:
      0.04311869 = sum of:
        0.04311869 = weight(_text_:internationale in 3208) [ClassicSimilarity], result of:
          0.04311869 = score(doc=3208,freq=2.0), product of:
            0.16854337 = queryWeight, product of:
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.029115405 = queryNorm
            0.25583142 = fieldWeight in 3208, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.03125 = fieldNorm(doc=3208)
      0.083333336 = coord(1/12)
    
    Content
    "Ein Taschenspielertrick", poltert dagegen der Google-Konkurrent Open Book Alliance, in der Microsoft, Amazon und Yahoo gemeinsam Bücher digitalisieren. Kein Wunder: Für US-Amerikaner ändert sich wenig, für die nicht englischsprachige Welt viel. Nicht erledigt sind allerdings die grundsätzlichen Einwände einiger Regierungen, darunter der deutschen, vieler Verleger- und Autorenverbände sowie von Einzelpersonen auch aus den USA: Der private US-Vergleich schaffe ein neues Urheberrecht, entmachte also die zuständige amerikanische Legislative und breche internationale Normen. Googles rechtswidriges Sannen von bisher zehn Millionen Titeln, darunter etwa 100000 deutschen, werde einfach durchgewinkt. Das Unternehmen erhalte, was es auf rechtmäßigem Wege niemals bekommen hätte. Ein Monopol drohe. Über den Vergleich wird das New Yorker Gericht frühestens im Februar entscheiden, wenn nicht später. Denn der zuständige Richter wird wahrscheinlich befördert, der Nachfolger muss sich erst einmal einarbeiten. Sollte das Settlement angenommen werden, arbeitet die Zeit für Google. Der Zugang zur Online-Buchsuche lässt sich technisch nicht dauerhaft auf die englischsprachigen Länder beschränken. Europäer stünden zudem vor einer absurden Situation: Anders als Nordamerikaner oder Australier dürften sie Bücher des EU-Mitglieds Großbritannien nicht einsehen. Verschlossen blieben ihnen auch die französischsprachigen Titel Kanadas. Die Googles Digitalisierungen begrüßende EU-Kommissarin Viviane Reding wird ihren Finger in diese Wunden legen."
  18. Kamke, H.-U.; Dippold, S.; Groß, S.; Bahne, T.; Zimmermann, K.; Schulz, M.; Dobratz, S.; Becker, H.; Diepold, P.: ¬Das DFG-Projekt Dissertationen Online stellt sich vor (1999) 0.00
    0.00318326 = product of:
      0.03819912 = sum of:
        0.03819912 = weight(_text_:kooperation in 5016) [ClassicSimilarity], result of:
          0.03819912 = score(doc=5016,freq=2.0), product of:
            0.16959052 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.029115405 = queryNorm
            0.22524326 = fieldWeight in 5016, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5016)
      0.083333336 = coord(1/12)
    
    Content
    I. Teilbericht 1: A. Überblick über das Projekt von Hans-Ulrich Kamke; Humboldt Universität zu Berlin. - 1. Einleitung - 2. Vorgeschichte - 3. Das Projekt Dissertationen online im Rahmen des DFG-Projektes... - 4. Das DFG-Projekt - 4.1 Aufgaben und Ziele - 4.2 Die Teilprojekte - 4.3 Ergebnisse und Weiterarbeit - B. Teilprojekt Beratung und Unterstützung von Steffi Dippold und Stefan Groß; Humboldt-Universität zu Berlin. - 1. Informationsvermittlung, nicht Informationsüberlastung - 2. Schulung der Doktoranden - 3. Dissinfo - ein Informationsangebot im Internet - 4. Explosion des Wissens - 5. Weg aus der Einbahnstrasse - 6. Kontakt nach außen. II. Teilbericht 2: C. Teilprojekt Metadaten von Thorsten Bahne; Gerhard Mercator; Universität Duisburg. - 1. Hintergrundinformationen zu Metadaten - 2. Metadaten in Dissonline - 2.1 Datensatzentwicklung - 2.2 Tools - 2.3 Installation - 2.4 Nutzung - 3. Suche mit Metadaten. - D. Teilprojekt Retrieval und rechtliche Aspekte von Kerstin Zimmermann; Carl von Ossietzky-Universität Oldenburg: 1. Weltweites Retrieval nach und in Dissertationen - 1.1 Harvest: Funktionsweise - 1.2 Aufbau eines Harvest-Netzwerkes - 1.3 Kooperationen mit anderen Sy stemen - 2. Rechtliche Aspekte bei elektronischen Dissertationen - 2.1 Promotionsverfahren - 2.2 Online Publikation - 2.3 Nationale Datenbanken. - III. Teilbericht 3: E. Teilprojekt Formate von Matthias Schulz und Susanne Dobratz; Humboldt-Universität zu Berlin: 1. Dokumentformate - 1.3 Was ist ein Dokument? - 1.2 Dokumentformate für die Archivierung und das Retrieval - 1.3 Dokumentformate für die Präsentation und den Druck - 2. Die DiML-Dokumenttypdefinition - 2.1 Beschreibung der DiML-DTD - 2.2 Vergleich / Kooperation mit anderen Dissertations-DTD's - 3. Wissensmanagement mit SGML/XML-Dokumenten - F. Teilprojekt Multimedia von N.N.; Computer Chemie Centrum Universität Erlangen:1. Multimediadaten in der Chemie - 1.1 Voraussetzungen für die Nutzung von Strukturdaten (Aufbereitung der Rohdaten) - 1.2 Suche in Chemischen Strukturen - 2. Multimediadaten in anderen Wissen schaften - 2.1 Datenformate - 2.2 Zur Akzeptanz und Nutzung von Multimediadaten in den Wissenschaften -IV. Teilbericht 4. - G. Teilprojekte Bibliotheken und Die Deutsche Bibliothek von Hans Becker; SUB Göttingen: 1. Bibliothekarische Aspekte bei der Publikation elektronischer Dissertationen - 2. Integration in den Workflow der Universitätsbibliotheken - 3. Zusammenarbeit mit Der Deutschen Bibliothek. - H. Dissertationen Online: Ergebnisse und Ausblick von Peter Diepold; Humboldt-Universität zu Berlin: 1. Ergebnisse der 2 Projektjahre - 2. Dissertationen Online im internationalen Kontext - 3. Wie geht es weiter mit Dissertationen Online?
  19. Misslbeck, A.: ¬Der Sesam öffnet sich :-) (2003) 0.00
    0.0031759914 = product of:
      0.038111895 = sum of:
        0.038111895 = weight(_text_:internationale in 3768) [ClassicSimilarity], result of:
          0.038111895 = score(doc=3768,freq=4.0), product of:
            0.16854337 = queryWeight, product of:
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.029115405 = queryNorm
            0.22612515 = fieldWeight in 3768, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3768)
      0.083333336 = coord(1/12)
    
    Content
    "Menschenleer sind die asbestsanierten Gänge der Silberlaube an der Freien Universität Berlin in den Semesterferiem. Doch irgendwo im rechtwinkligen Wirrwarr zwischen Gang K und L steht eine Tür offen. Sie führt zum Büro von Katja Mruck am Fachbereich Erziehungswissenschaft und Psychologie. Die zarte Frau mit langem und dichtem Haar tritt ihren Gesprächspartnern selten persönlich gegenüber. Mit Forschungspartnern verkehrt sie meist auf elektronischem Weg - das aber umso reger. Katja Mruck ist geschäftsführende Herausgeberin der Online-Zeitschrift Forum Qualitative Sozialforschung / Forum: Qualitative Social Research / Foro: Investigación Social Cualitativa, kurz FQS. Der Name verweist schon auf die internationale Ausrichtung. "Überall auf der Welt arbeiten Leute an der gleichen Sache", sagt Mruck, "das ist ein Traum, wie Wissenschaft funktionieren kann." Im dreisprachigen OnlineJournal erscheinen regelmäßig wissenschaftliche Texte aus dem Bereich der qualitativen Forschung einer Methode, bei der die Forscher ihre Erkenntnisse unter anderem aus langen, tief gehende Interviews gewinnen statt standardisierte Fragebögen zu verwenden. Jeder kann sie lesen, wenn er des Englischen, Deutschen oder Spanischen mächtig ist und einen Internetzugang besitzt. Psychologen, Soziologenunf Kulturforscher arbeiten oft qualitativ: doch meist befinden sie sich damit am Rand. ihrer Disziplinen. Das war einer der Anstöß für Katja Mruck, eine gemeinsame Plattform einzurichten, um die Forschung voranzutreiben. Wichtiger war ihr aber. der internationale Ansatz, denn in anderen Ländern hat die qualitative Forschung teilweise einen höheren Stellenwert. Wenn ihr wollt, dass die Leute euch weltweit wahrnehmen, dann müsst ihr bei uns schreiben", sagt Mruck mitunter zu ihren Autoren. Durch das Feedback aus aller Welt weiß sie, dass FQS überall gelesen wird. "Weil es uns gibt, kann diese deutschsprachige Literatur nach draußen, und das Wissen von draußen kommt nach Deutschland", sagt Mruck. Nichts geht mehr ohne Qualitätssicherung. Damit das möglichwurde, kommt in FQS das Peer-Review-Verfahren zum Einsatz, bei dem zwei unabhängige externe Gutachter den Text vor der Veröffentlichung beurteilen, ohne den; Autor zu kennen. Um-gekehrt kennt auch der Autor die Gutachter. nicht: Damit wird sichergestellt, dass die Beurteilung ohne Ansehen der Person geschieht. Nur begrenzt betreibt die deutsche Sozialforschung diese aufwändige Qualitätssicherung bei Veröffentlichungen von qualitativen Forschungsergebnissen. Mruck sagt: "Ich glaube, unsere Standards sind höher als die von manchen sozialwissenschaftlichen Printzeitschriften im deutschen Raum." Zusätzlich arbeiten deutsche, englisch- und spanischsprachige Wissenschaftler finit den Autoren an den eingereichten Texten, bevor sie im Internet erscheinen. Dann stehen sie weltweit-nicht nur anderen Wissenschaftlern, sondern auch dem breiten Publikum zur Verfügung. Jeder kann seinen Kommentar dazu abgeben. Auch die Deutsche Forschungsgemeinschaft (DFG), die FQS fördert, hält die Qualitätssicherung für extrem wichtig. Der Leiter der Gruppe Wissenschaftliche Literaturversorgungs- und Informationssysteme der DFG, Jürgen Bunzel, ist der Meinung, "dass das Peer-Review-Verfahren letztendlich die Erfolgsbedingung der Open-Access-Bewegung" ist.
  20. Subito: Streit um elektronischen Artikel-Versand brodelt weiter : Subito weist Kritik an Lizenzverträgen zurück (2008) 0.00
    0.0031440712 = product of:
      0.037728854 = sum of:
        0.037728854 = weight(_text_:internationale in 1825) [ClassicSimilarity], result of:
          0.037728854 = score(doc=1825,freq=2.0), product of:
            0.16854337 = queryWeight, product of:
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.029115405 = queryNorm
            0.22385249 = fieldWeight in 1825, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1825)
      0.083333336 = coord(1/12)
    
    Content
    Bereits im Jahre 2006 hat subito mit Verlegern einen Rahmenvertrag ausschließlich für internationale Kunden geschlossen. Die Einschränkungen des E-Mail-Versandes durch die neue Gesetzgebung machte nun auch für den deutschsprachigen Raum eine vertragliche Lösung zwingend erforderlich. Resultat ist ein Nachtrag zum bereits ausgehandelten Rahmenvertrag für Deutschland, Österreich, Liechtenstein und die Schweiz. Dieser Nachtrag kann nun von interessierten Verlagen unterschrieben werden, sodass subito deren Publikationen auch weiterhin als grafische Datei auf elektronischem Wege versenden darf subito kommt so seinem Auftrag eines schnellen Dokumentlieferdienstes zu soliden Preisen nach. Neue Gesetzgebung Die Preise setzen sich bei subito zusammen - aus dem Entgelt für die Leistung der Lieferbibliotheken - sowie der VG Wort-Tantieme bei Post- oder Faxversand - oder einer mit den Verlegern ausgehandelten Lizenzgebühr im Rahmen des Nachtrags zum Rahmenvertrag bei elektronischem Versand. Für den Post- oder Faxversand wurden die Preise gesenkt. Zahlten Studierende und Mitarbeiterinnen von Hochschulen und öffentlich finanzierten Forschungseinrichtungen (Kundengruppe la) im Normaldienst vor dem 1. Januar 2008 für ein Dokument 8 Euro, so sind seither noch 6,50 Euro (inklusive einer VG Wort-Tantieme von 1 Euro) zu entrichten. Der lizenzierte E-Mail-Versand hingegen verteuerte sich zum gleichen Zeitpunkt von 5 Euro auf 7,75 Euro. In diesem Preis ist eine Lizenzgebühr von 3,50 Euro zuzüglich 7 Prozent Mehrwertsteuer enthalten.

Years

Languages

  • d 62
  • e 27

Types

  • a 81
  • el 8
  • m 4
  • s 3
  • r 1
  • More… Less…