Search (108 results, page 2 of 6)

  • × theme_ss:"Elektronisches Publizieren"
  • × year_i:[2000 TO 2010}
  1. Subito: Streit um elektronischen Artikel-Versand brodelt weiter : Subito weist Kritik an Lizenzverträgen zurück (2008) 0.03
    0.033519894 = product of:
      0.050279837 = sum of:
        0.041713018 = weight(_text_:im in 1825) [ClassicSimilarity], result of:
          0.041713018 = score(doc=1825,freq=14.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.28921118 = fieldWeight in 1825, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1825)
        0.008566818 = product of:
          0.025700454 = sum of:
            0.025700454 = weight(_text_:online in 1825) [ClassicSimilarity], result of:
              0.025700454 = score(doc=1825,freq=4.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.16597117 = fieldWeight in 1825, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1825)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Der wissenschaftliche Dokumentlieferdienst subito steht mit der Anpassung seiner Geschäftspolitik an die Bedingungen des neuen Urheberrechts massiv in der Kritik. Von unterschiedlicher Seite ist subito vorgeworfen worden, seine Vertragsbedingungen deutlich verschärft, die Preise erhöht und die E-Mail-Lieferungen eingeschränkt zu haben (siehe BuB Heft 3/2008, Seite 182). Im Folgenden druckt BuB die Entgegnung des Lieferdienstes im Wortlaut ab.
    Content
    "Dokumente aus Bibliotheken e.V.« ist ein seit dem Jahr 1997 eingeführter Dokumentlieferdienst. Im Verein subito sind circa 40 Mitgliedsbibliotheken zusammengeschlossen, die über alle Entscheidungen und Verhandlungen demokratisch abstimmen und gleichzeitig mit ihren Beständen als Lieferbibliotheken die Literaturversorgung übernehmen. Damit sind die Lieferbibliotheken auch maßgeblich an der Gestaltung des Rahmenvertrages mit den Verlegern beteiligt gewesen. Das deutsche Urheberecht wurde zum 1. Januar 2008 mit weitreichenden Auswirkungen sowohl auf das Bibliothekswesen als auch auf den Lieferdienst subito geändert. Anpassungen an die neue Gesetzgebung waren für subito zwingend erforderlich, um nicht erneut in den Mittelpunkt einer Klage gerückt zu werden und weil sich subito selbstverständlich an gesetzliche Regelungen hält. Das neue Urheberrecht hat den Kopienversand aus Bibliotheken eigens in dem neu eingefügten Pa ragrafen 53a geregelt und darin den elektronischen Versand von Dokumenten stark reglementiert. Der Kopienversand per Post und Fax ist grundsätzlich erlaubt. Eine Vervielfältigung und Übermittlung in sonstiger elektronischer Form als grafische Datei für Unterrichtszwecke oder Zwecke der wissenschaftlichen Forschung mit nicht gewerblichem Charakter ist jedoch nur dann zulässig, wenn der Verlag kein offensichtliches eigenes Online-Angebot (Pay-per-View) zu angemessenen Bedingungen bereitstellt.
    Bereits im Jahre 2006 hat subito mit Verlegern einen Rahmenvertrag ausschließlich für internationale Kunden geschlossen. Die Einschränkungen des E-Mail-Versandes durch die neue Gesetzgebung machte nun auch für den deutschsprachigen Raum eine vertragliche Lösung zwingend erforderlich. Resultat ist ein Nachtrag zum bereits ausgehandelten Rahmenvertrag für Deutschland, Österreich, Liechtenstein und die Schweiz. Dieser Nachtrag kann nun von interessierten Verlagen unterschrieben werden, sodass subito deren Publikationen auch weiterhin als grafische Datei auf elektronischem Wege versenden darf subito kommt so seinem Auftrag eines schnellen Dokumentlieferdienstes zu soliden Preisen nach. Neue Gesetzgebung Die Preise setzen sich bei subito zusammen - aus dem Entgelt für die Leistung der Lieferbibliotheken - sowie der VG Wort-Tantieme bei Post- oder Faxversand - oder einer mit den Verlegern ausgehandelten Lizenzgebühr im Rahmen des Nachtrags zum Rahmenvertrag bei elektronischem Versand. Für den Post- oder Faxversand wurden die Preise gesenkt. Zahlten Studierende und Mitarbeiterinnen von Hochschulen und öffentlich finanzierten Forschungseinrichtungen (Kundengruppe la) im Normaldienst vor dem 1. Januar 2008 für ein Dokument 8 Euro, so sind seither noch 6,50 Euro (inklusive einer VG Wort-Tantieme von 1 Euro) zu entrichten. Der lizenzierte E-Mail-Versand hingegen verteuerte sich zum gleichen Zeitpunkt von 5 Euro auf 7,75 Euro. In diesem Preis ist eine Lizenzgebühr von 3,50 Euro zuzüglich 7 Prozent Mehrwertsteuer enthalten.
    Realität des Machbaren subito konnte durch die Verhandlungen mit dem Börsenverein erreichen, dass die Elektronische Zeitschriftenbibliothek (EZB) als zentrale Nachweisdatenbank für Pay-per-ViewAngebote der Verlage akzeptiert wird. Dadurch kann die EZB verbindlich zur Prüfung herangezogen werden, oh ein Verlag ein eigenes elektronisches Angebot im Sinne des Gesetzes unterhält, sodass der Passus »offensichtliches« Online-Angebot in seiner Bedeutung nicht erst vor Gericht geklärt werden muss. Liegt ein solches Angebot nicht vor, ist die elektronische Dokumentlieferung für Unterrichtszwecke oder Zwecke der wissenschaftlichen Forschung mit nicht gewerblichem Charakter auch weiterhin erlaubt. Die Lizenzgebühr für den Verlag entfällt in diesem Falle. Der vorliegende Rahmenvertrag ist ein Kompromiss zwischen Verlagsinteressen und dem Auftrag von subito, einen in Preis und Leistung attraktiven Lieferdienst für die Wissenschaft und Forschung bereitzustellen. Dabei musste sich subito an der Realität des Machbaren und der Gesetze orientieren. Es ist daher bedauerlich, wenn anderslautende Spekulationen und Fehlurteile in Teilen der Öffentlichkeit kursieren; insbesondere dann, wenn diese von Personen getragen werden, die es besser wissen müssten."
  2. Wieser, C.; Schaffert, S.: ¬Die Zeitung der Zukunft (2009) 0.03
    0.032443807 = product of:
      0.04866571 = sum of:
        0.031532075 = weight(_text_:im in 4875) [ClassicSimilarity], result of:
          0.031532075 = score(doc=4875,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.2186231 = fieldWeight in 4875, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4875)
        0.017133636 = product of:
          0.051400907 = sum of:
            0.051400907 = weight(_text_:online in 4875) [ClassicSimilarity], result of:
              0.051400907 = score(doc=4875,freq=4.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.33194235 = fieldWeight in 4875, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4875)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Schon lange wird spekuliert, wie wir in Zukunft Zeitung lesen werden. Werden wir am Frühstückstisch wie gewohnt in einer Zeitung aus Papier schmökern oder werden wir die Zeitung als biegsame Folie beschrieben mit elektronischer Tinte in Händen halten? Wird die Zeitung mit anderen Medien wie Radio und Fernsehen verschmelzen? Viele Varianten sind denkbar. Heute lässt sich schon ein Trend ablesen: Immer mehr Leser entdecken die Online-Zeitung als Informationsmedium, eine Voraussetzung für die Nutzung neuer Technologien in der Zeitung der Zukunft. In diesem Kapitel stellen wir Entwicklungsmöglichkeiten der Online-Zeitung dar, wie sie im Social Semantic Web möglich werden.
  3. Oßwald, A.: Proaktives Wissensmanagement für Fachbereiche, Hochschule und externe Partner : Bibliotheksdienstleistungen als Brücke zur Praxis (2000) 0.03
    0.0322804 = product of:
      0.0968412 = sum of:
        0.0968412 = product of:
          0.1452618 = sum of:
            0.062307306 = weight(_text_:online in 4711) [ClassicSimilarity], result of:
              0.062307306 = score(doc=4711,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.40237486 = fieldWeight in 4711, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4711)
            0.08295448 = weight(_text_:22 in 4711) [ClassicSimilarity], result of:
              0.08295448 = score(doc=4711,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.46428138 = fieldWeight in 4711, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4711)
          0.6666667 = coord(2/3)
      0.33333334 = coord(1/3)
    
    Date
    27.10.2001 12:22:54
    Source
    Wissenschaft online: Elektronisches Publizieren in Bibliothek und Hochschule. Hrsg. B. Tröger
  4. Schirmbacher, P.: Möglichkeiten und Grenzen des elektronischen Publizierens auf der Basis der Open-Access-Prinzipien (2006) 0.03
    0.031774744 = product of:
      0.047662117 = sum of:
        0.031532075 = weight(_text_:im in 26) [ClassicSimilarity], result of:
          0.031532075 = score(doc=26,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.2186231 = fieldWeight in 26, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=26)
        0.01613004 = product of:
          0.048390117 = sum of:
            0.048390117 = weight(_text_:22 in 26) [ClassicSimilarity], result of:
              0.048390117 = score(doc=26,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.2708308 = fieldWeight in 26, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=26)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Date
    27.10.2006 14:21:22
    Source
    Vom Wandel der Wissensorganisation im Informationszeitalter: Festschrift für Walther Umstätter zum 65. Geburtstag, hrsg. von P. Hauke u. K. Umlauf
  5. FIZ Karlsruhe unterstützt gemeinsamen Bibliotheksverbund (VZG) bei der Einführung der ESCIDOC-Infrastruktur (2008) 0.03
    0.030169217 = product of:
      0.045253824 = sum of:
        0.03603666 = weight(_text_:im in 1810) [ClassicSimilarity], result of:
          0.03603666 = score(doc=1810,freq=8.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.24985497 = fieldWeight in 1810, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=1810)
        0.009217165 = product of:
          0.027651496 = sum of:
            0.027651496 = weight(_text_:22 in 1810) [ClassicSimilarity], result of:
              0.027651496 = score(doc=1810,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.15476047 = fieldWeight in 1810, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1810)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Content
    "Die Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG) und FIZ Karlsruhe haben beschlossen, zu kooperieren und gemeinsam einen wichtigen Beitrag zum Aufbau der nationalen E-Science-Infrastruktur zu leisten. E-Science steht für "enhanced science" - die neue Form wissenschaftlichen Arbeitens. E-Science folgt der Vision, das Wissen der Wissenschaft global zu vernetzen. Voraussetzung dafür ist eine innovative, nachhaltige Infrastruktur, sowohl technisch als auch organisatorisch. Die VZG verbessert mit Unterstützung der Deutschen Forschungsgemeinschaft (DFG) im Rahmen des Projekts "Nationallizenzen" die Versorgung mit elektronischer Fachinformation an deutschen Hochschulen, Forschungseinrichtungen und wissenschaftlichen Bibliotheken. Jetzt stellt die VZG ihr System für das Hosting von digitalen Inhalten auf eine neue technische Basis: die eSciDoc-Infrastruktur. Deren Kern bildet das international renommierte Repository-System Fedora. Die eSciDoc-Infrastruktur bietet durch zusätzliche Dienste, fertige Datenmodelle und vereinfachte Schnittstellen erhebliche Mehrwerte. Die VZG hat sich nach einer umfänglichen Evaluation der Software und der zugrunde liegenden Konzepte für das System entschieden. FIZ Karlsruhe wird die VZG bei dessen Einführung beraten.
    Zum Vertragsabschluss erklärt Sabine Brünger-Weilandt, Geschäftsführerin von FIZ Karlsruhe: "Als wissenschaftlicher Dienstleister und eScidoc-Partner fühlen wir uns der Nachnutzung und Verbreitung des Systems verpflichtet. Die Kooperation mit der VZG bedeutet einen wichtigen Schritt in diesem Prozess. Damit können wir die VZG effektiv und kompetent dabei unterstützen, ihre Leistungen im Bibliotheksverbund noch besser zu erbringen und wertvolle Kulturgüter der Wissenschaft und Forschung digital verfügbar zu machen." Reiner Diedrichs, Direktor der Verbundzentrale, begründet die Entscheidung: "Die durchdachte Architektur, der flexible Umgang mit Metadaten sowie insbesondere die konsequente Verfolgung des Open-Source-Gedankens haben uns überzeugt. Die eSciDoc-Infrastruktur bietet eine solide Grundlage für die weitere Entwicklung unserer Dienstleistungen." FIZ Karlsruhe arbeitet bereits seit mehr als drei Jahren intensiv an E-Science-Lösungen. Im Projekt eSciDoc entwickeln FIZ Karlsruhe und die MaxPlanck-Gesellschaft (MPG) gemeinsam ein System für offene netzbasierte Zusammenarbeit, Kommunikation und Publikation in wissenschaftlichen Forschungsorganisationen. Aufbauend auf seinen längjährigen Erfahrungen im internationalen Informationstransfer und Wissensmanagement hat FIZ Karlsruhe seine Kompetenzen in Richtung zu E-Science erweitert. Über das neue Geschäftsfeld KnowEsis werden in dem komplexen und beratungsintensiven Umfeld von E-Science innovative Dienstleistungen angeboten. Dazu gehören Consulting, Schulung und kundenspezifische Entwicklungen ebenso wie Support sowohl für die eSciDoc-Infrastruktur als auch für das Repository-System Fedora."
    Date
    7. 4.2008 11:36:22
  6. Harvey, D.R.: Preserving digital materials (2005) 0.03
    0.028639797 = product of:
      0.042959694 = sum of:
        0.03603666 = weight(_text_:im in 643) [ClassicSimilarity], result of:
          0.03603666 = score(doc=643,freq=8.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.24985497 = fieldWeight in 643, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=643)
        0.006923034 = product of:
          0.0207691 = sum of:
            0.0207691 = weight(_text_:online in 643) [ClassicSimilarity], result of:
              0.0207691 = score(doc=643,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.13412495 = fieldWeight in 643, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.03125 = fieldNorm(doc=643)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Footnote
    Rez. in: Mitt VÖB 60(2007) H.3, S.86-89 (C. Müller): "Ross Harvey widmet sich im vorliegenden Buch den aktuellen Methoden und Praktiken im Bereich der Langzeitarchivierung wie sie einerseits in Bibliotheken aber auch in anderen Institutionen, die sich mit der langfristigen Aufbewahrung digitaler Objekte beschäftigen müssen, angewandt werden. Langzeitarchivierung gehört in den letzten Jahren zu den am meisten diskutierten Themen in der Bibliothekswelt. Die Fülle an Materialien, Meinungen und Positionspapieren im Internet ist nahezu unüberschaubar. Den Bedarf an einem praktischen, überschaubaren Band, der sich den komplexen Belangen rund um das Thema digitale Archivierung widmet, möchte der Autor mit diesem Werk decken. Das Buch ist nicht als Gebrauchsanweisung für jene, die technische Maßnahmen zur Langzeitarchivierung durchführen müssen, konzipiert. Es will vielmehr eine Einführung in die Prinzipien, Strategien und Verfahren der Langzeitarchivierung sein, wie sie derzeit in Bibliotheken schon zum Einsatz kommen. Ross Harvey tut dies vor dem Hintergrund der Ergebnisse schon abgeschlossener und noch laufender Forschungen und praktischer Anwendungen in diesem Bereich. Dabei stützt er sich nicht nur auf Erfahrungen aus Bibliotheken, sondern auch auf Erfahrungen anderer Communities, für welche Langzeitarchivierung ein kritischer Punkt ist, wie zum Beispiel die Geowissenschaften. Der Autor beschreibt, dass die Archivierung digitalen Materials viele Herausforderungen birgt, für die vordigitale Modelle der Konservierung nur wenig Unterstützung bieten.
    Er spricht ganz klar aus, dass es zu dieser Frage keine schnelle technologische Lösung geben wird. Die Erhaltung digitaler Archive über eine lange Zeit ist neben einer technischen vielmehr auch eine institutionelle Frage. Auch organisatorische und rechtliche Herausforderungen spielen in diesen Bereich hinein. "Preserving Digital Materials" widmet sich vier großen Fragen, die dem Buch auch seine Struktur geben: - Warum bewahren wir digitales Material auf? - Welches digitale Material bewahren wir auf? - Wie tun wir dies? - Wie managen wir die digitale Langzeitarchivierung? . . . Im gesamten Buch ist eine Fülle an Materialien und Studien eingearbeitet. Abgerundet wird dieser ausführliche, aber trotzdem übersichtliche Band durch ein Literaturverzeichnis, welches auch viele Online-Quellen enthält. "Preserving Digital Material" ist nicht für ausgewiesene Langzeitarchivierungsexperten konzipiert, sondern wendet sich an all jene, die sich mit der Digitalen Bibliothek beschäftigen und einen fundierten Einstieg in das Thema Langzeitarchivierung suchen."
  7. Plath, J.: Geteilte Bücherwelt im grenzenlosen Internet : Google-Vergleich 2.0 ohne Mitteleuropa (2009) 0.03
    0.028639797 = product of:
      0.042959694 = sum of:
        0.03603666 = weight(_text_:im in 3208) [ClassicSimilarity], result of:
          0.03603666 = score(doc=3208,freq=8.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.24985497 = fieldWeight in 3208, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=3208)
        0.006923034 = product of:
          0.0207691 = sum of:
            0.0207691 = weight(_text_:online in 3208) [ClassicSimilarity], result of:
              0.0207691 = score(doc=3208,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.13412495 = fieldWeight in 3208, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3208)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Content
    "Die ausbleibende Häme zeigt die widerstreitenden Gefühle der Beteiligten. Wer wie der Suchmaschinenbetreiber Google 2004 der Welt vollmundig eine "digitale Weltbibliothek" zu schenken verspricht und sich im nun überarbeiteten Vergleich mit den US-Autoren und -Verlegern mit einem lediglich englischsprachigen digitalen Bücherzimmer begnügen will, müsste eigentlich Kübel voller Häme gewärtigen. Doch die Gegenspieler reagieren zurückhaltend. Viele wollen ja ebenfalls Geld mit Büchern im Netz verdienen. Freitagnacht traf der von Google, dem US-Verlegerverband und der Autorengewerkschaft Authors Guild überarbeitete Vergleich beim New Yorker Gericht ein. Mit ihm wollen sie sich die Gewinne teilen aus der kostenpflichtigen Einsicht auf Googles Buchsuche, dem Download und dem Druck (Print on Demand) von Büchern aus den Jahren 1922 bis etwa 2004, die nicht mehr lieferbar, aber urheberrechtlich geschützt sind. Die Neufassung enthält einige Verbesserungen für Autoren und Verlage. Entscheidend aber ist die Beschränkung auf Werke, die beim US-Copyright Office registriert worden sind, sowie auf britische, australische und kanadische Titel. Die nicht englischsprachige Welt ist mit einem Mal außen vor: Ihre Bücher werden bei Google wie bisher nur in kurzen Auszügen gezeigt, und mehr darf sie auch von den englischsprachigen nicht einsehen. Christian Sprang, Justitiar des Börsenvereins des deutschen Buchhandels, hält den Vergleich daher in einer ersten Einschätzung "nicht für paradiesisch, aber trotz einiger Pferdefüße für einen Riesenfortschritt".
    "Ein Taschenspielertrick", poltert dagegen der Google-Konkurrent Open Book Alliance, in der Microsoft, Amazon und Yahoo gemeinsam Bücher digitalisieren. Kein Wunder: Für US-Amerikaner ändert sich wenig, für die nicht englischsprachige Welt viel. Nicht erledigt sind allerdings die grundsätzlichen Einwände einiger Regierungen, darunter der deutschen, vieler Verleger- und Autorenverbände sowie von Einzelpersonen auch aus den USA: Der private US-Vergleich schaffe ein neues Urheberrecht, entmachte also die zuständige amerikanische Legislative und breche internationale Normen. Googles rechtswidriges Sannen von bisher zehn Millionen Titeln, darunter etwa 100000 deutschen, werde einfach durchgewinkt. Das Unternehmen erhalte, was es auf rechtmäßigem Wege niemals bekommen hätte. Ein Monopol drohe. Über den Vergleich wird das New Yorker Gericht frühestens im Februar entscheiden, wenn nicht später. Denn der zuständige Richter wird wahrscheinlich befördert, der Nachfolger muss sich erst einmal einarbeiten. Sollte das Settlement angenommen werden, arbeitet die Zeit für Google. Der Zugang zur Online-Buchsuche lässt sich technisch nicht dauerhaft auf die englischsprachigen Länder beschränken. Europäer stünden zudem vor einer absurden Situation: Anders als Nordamerikaner oder Australier dürften sie Bücher des EU-Mitglieds Großbritannien nicht einsehen. Verschlossen blieben ihnen auch die französischsprachigen Titel Kanadas. Die Googles Digitalisierungen begrüßende EU-Kommissarin Viviane Reding wird ihren Finger in diese Wunden legen."
  8. Heller, L.: Literatur- und Informationsversorgung in der Spitzenforschung (2009) 0.03
    0.027235493 = product of:
      0.04085324 = sum of:
        0.027027493 = weight(_text_:im in 3022) [ClassicSimilarity], result of:
          0.027027493 = score(doc=3022,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 3022, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=3022)
        0.013825747 = product of:
          0.04147724 = sum of:
            0.04147724 = weight(_text_:22 in 3022) [ClassicSimilarity], result of:
              0.04147724 = score(doc=3022,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.23214069 = fieldWeight in 3022, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3022)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Zentrale Erwerbung von wissenschaftlichen Informationsressourcen im Netz der virtuellen Hybridbibliothek der Max-Planck-Gesellschaft »Excellent Information Services for Excellent Research« ist das Motto der Anfang 2007 gegründeten Max Planck Digital Library (MPDL). Diese ambitionierte Leitlinie würdigt die Relevanz eines modernen wissenschaftlichen Informationsmanagements für eine exzellente Spitzenforschung. Mit Gründung der MPDL wurde in der Max-Planck-Gesellschaft (MPG) ein entscheidender Schritt zur zentralen Unterstützung eines bisher weitgehend dezentralen Informationsversorgungsnetzes gegangen. Die Entscheidung zu einer Kombination aus zentraler und dezentraler Informationsversorgung trägt den Veränderungen Rechnung, die sich durch die Möglichkeiten der digitalen Welt ergeben haben. Intention der Neugründung ist jedoch nicht, ein unter der Prämisse der Institutsautonomie etabliertes, wohl durchdachtes Literatur- und Informationsversorgungssystem sukzessive durch eine zentrale Einheit abzulösen, sondern gemäß der Maxime der Subsidiarität Stärken von dezentralen und von zentralen Einheiten zu einem effizienten Gesamtsystem zu ergänzen. Der vorliegende Artikel skizziert das Netz der Informationsversorgung in der MPG mit dem Schwerpunkt auf der Versorgung mit elektronischen Medien des institutsübergreifenden Bedarfs. Dieser Schwerpunkt kennzeichnet eines der Hauptarbeitsfelder der MPDL, deren weitere Services und Arbeitsfelder kontextgebunden und ausgewählt vorgestellt werden sollen?
    Date
    22. 7.2009 13:40:29
  9. Springer fragt Endkunden nach Nutzung und Akzeptanz von eBooks (2008) 0.03
    0.027004002 = product of:
      0.040506 = sum of:
        0.031852208 = weight(_text_:im in 2467) [ClassicSimilarity], result of:
          0.031852208 = score(doc=2467,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.22084267 = fieldWeight in 2467, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2467)
        0.008653793 = product of:
          0.025961377 = sum of:
            0.025961377 = weight(_text_:online in 2467) [ClassicSimilarity], result of:
              0.025961377 = score(doc=2467,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.16765618 = fieldWeight in 2467, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2467)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Content
    "Science+Business Media (www.springer.com) hat in fünf großen Universitätsbibliotheken eine Umfrage durchgeführt, die Aussagen zum Nutzungsverhalten von digitalen Büchern in Forschung und Wissenschaft macht. Ziel der Umfrage war es, aufschlussreiche Informationen über die Akzeptanz und Nutzung von eBooks zu erhalten. Darüber hinaus sollte die Untersuchung auch die Vor- und Nachteile von eBooks aus Sicht der Nutzer deutlich machen. Digitale Bücher sind zwar noch nicht lange auf dem Markt, dennoch zeigt die Studie deutlich, dass die Leser durchaus wissen, dass es eBooks gibt und dass sie sie bereits mindestens einmal benutzt haben - ob nun in Bibliotheken oder andernorts. Die Nutzung von eBooks ist am häufigsten im Forschungsund Studienumfeld zu beobachten, hier gilt das Interesse vor allem den Nachschlagewerken und Lehrbüchern. Auf die Frage nach den Vorteilen von eBooks nannten viele Nutzer, dass Online-Bücher rund um die Uhr zur Verfügung stehen. Auch die Volltextsuche sowie der einfache Zugriff auf Informationen werden als absolute Vorteile gewertet. Bei den Nachteilen führen die Nutzer an erster Stelle an, dass es schwer fällt, Bücher am Bildschirm zu lesen, darüber hinaus geben viele der Umfrageteilnehmer ihre Präferenz für herkömmliche gedruckte Bücher an. Folgende Universitätsbibliotheken waren an der Umfrage beteiligt: University of Illinois in Urbana-Champaign; University of Turku, Finnland; Centre for Mathematics and Computer Science (CWI) Amsterdam, Niederlande; Universität Münster, Deutschland; JRD Tata Memorial Library, Indian Institute of Science, Bangalore, Indien. Im Jahr 2007 hatte Springer Science +Business Media bereits eine Umfrage unter Bibliothekaren in Auftrag gegeben, die deutlich machte, dass das Springer eBook-Programm dort auf große Akzeptanz stößt. Die vollständige PDF-Version der Umfrage (White Paper "eBooks - The End User Perspective") ist unter www.springer.com/ebooks abrufbar."
  10. Erbarth, M.: Wissensrepräsentation mit semantischen Netzen : Grundlagen mit einem Anwendungsbeispiel für das Multi-Channel-Publishing (2006) 0.03
    0.026966095 = product of:
      0.040449142 = sum of:
        0.031852208 = weight(_text_:im in 714) [ClassicSimilarity], result of:
          0.031852208 = score(doc=714,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.22084267 = fieldWeight in 714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=714)
        0.008596936 = product of:
          0.025790809 = sum of:
            0.025790809 = weight(_text_:retrieval in 714) [ClassicSimilarity], result of:
              0.025790809 = score(doc=714,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.16710453 = fieldWeight in 714, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=714)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    "Wir ertrinken in Informationen, aber uns dürstet nach Wissen." Trendforscher John Naisbitt drückt hiermit aus, dass es dem Menschen heute nicht mehr möglich ist die Informationsflut, die sich über ihn ergießt, effizient zu verwerten. Er lebt in einer globalisierten Welt mit einem vielfältigen Angebot an Medien, wie Presse, Radio, Fernsehen und dem Internet. Die Problematik der mangelnden Auswertbarkeit von großen Informationsmengen ist dabei vor allem im Internet akut. Die Quantität, Verbreitung, Aktualität und Verfügbarkeit sind die großen Vorteile des World Wide Web (WWW). Die Probleme liegen in der Qualität und Dichte der Informationen. Das Information Retrieval muss effizienter gestaltet werden, um den wirtschaftlichen und kulturellen Nutzen einer vernetzten Welt zu erhalten.Matthias Erbarth beleuchtet zunächst genau diesen Themenkomplex, um im Anschluss ein Format für elektronische Dokumente, insbesondere kommerzielle Publikationen, zu entwickeln. Dieses Anwendungsbeispiel stellt eine semantische Inhaltsbeschreibung mit Metadaten mittels XML vor, wobei durch Nutzung von Verweisen und Auswertung von Zusammenhängen insbesondere eine netzförmige Darstellung berücksichtigt wird.
  11. Koch, O.: Pyrrhus lässt grüßen (2005) 0.03
    0.02662583 = product of:
      0.039938744 = sum of:
        0.03561185 = weight(_text_:im in 3218) [ClassicSimilarity], result of:
          0.03561185 = score(doc=3218,freq=20.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.24690962 = fieldWeight in 3218, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3218)
        0.0043268963 = product of:
          0.012980688 = sum of:
            0.012980688 = weight(_text_:online in 3218) [ClassicSimilarity], result of:
              0.012980688 = score(doc=3218,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.08382809 = fieldWeight in 3218, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3218)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Ein Umbruch im wissenschaftlichen Publikationswesen steht vor der Tür: Bei Non-Profit-Zeitschriften zahlt nicht mehr der Käufer, sondern der Autor für die Veröffentlichung.
    Content
    "»Das ist der Teufel!«, polterte vor nicht allzu langer Zeit Harold Varmus, Mitbegründer der Public Library of Science (PLoS), als in einem Interview der Name von Derk Haank fiel. Der war damals Chef der Wissenschaftssparte Elsevier innerhalb der britisch-niederländischen Fachverlagsgruppe Reed Elsevier, die mit rund 1700 Magazinen Marktführer im Fachzeitschriftengeschäft ist. Der verbale Ausfall des Medizin-Nobelpreisträgers ist nur ein Indikator dafür, wie heftig der Konflikt in diesem Bereich inzwischen tobt - PLoS und Elsevier sind dabei bloß Stellvertreter zweier Gruppierungen, die sich unversöhnlich gegenüberstehen. Die Fachverlage, angeführt von einigen Großen wie Elsevier, Thomson oder Springer Science+Business Media, wollen am klassischen »Leser-zahlt«-Modell wissenschaftlicher Informationsverbreitung festhalten. Auf der anderen Seite stehen Non-Profit-Initiativen mit ihrem Gegenentwurf des Open-Access-Modells, allen voran PLoS, DOAJ oder Biomed Central. Sie gewähren freien Zugang zu ihren im Internet publizierten Journalen - inzwischen sind es einige tausend. Zahlen müssen in diesem Modell die Wissenschaftler, die ihre Arbeiten veröffentlichen wollen. Die Idee des Open Access ist an sich nichts Neues, stellte doch schon Anfang der 1990er Jahre der amerikanische Physiker Paul Ginsparg mit dem Internetserver Arxiv.org eine Plattform für frei zugängliche Vorabveröffentlichungen bereit. Der jetzt einsetzende Boom von OpenAccess-Journalen hat seine Ursache in der so genannten »Krise der wissenschaftlichen Informationsversorgung« - der seit Jahren wachsenden Kluft zwischen Bibliotheken-Budgets und den Preisen wissenschaftlicher Zeitschriften. Diese sind dem »Library Journal« zufolge innerhalb der letzten 15 Jahre um durchschnittlich 215 Prozent gestiegen. Einzelne Journale kosten die Büchereien inzwischen mehrere tausend Euro im Jahr. Das Geld fließt in die Kassen der hoch profitablen Verlage: So wies etwa Elsevier im Geschäftsbericht 2003 eine Umsatzrendite von 33,8 Prozent aus.
    Problematisch ist dabei, dass die wissenschaftlichen Arbeiten, die in den Fachmagazinen veröffentlicht werden, meist im Rahmen staatlich geförderter Forschungsprojekte entstanden sind. Zugespitzt ausgedrückt: Die Fachverlage profitieren von Forschungsergebnissen, für die sie selbst keinen Cent bezahlt haben, und verkaufen sie anschließend für viel Geld wieder an die Universitäten und Forschungseinrichtungen zurück - zu Lasten des Steuerzahlers. Die Bibliotheken reagieren angesichts dieser Situation mit dem Rotstift und bestellen reihenweise Zeitschriften ab - die Leid Tragenden sind Studenten und Wissenschaftler. Die hohen Kosten, die auch beim Online-Bezug der Journale anfallen, rechtfertigen die Verleger mit dem Aufwand für das Layout und dem so genannten Peer-Review-Verfahren. Hier wacht ein Gremium von Wissenschaftlern, das Editorial Board, darüber, dass nur solche Artikel Eingang in das Magazin finden, die hohen wissenschaftlichen Ansprüchen genügen. Die Argumente wirken jedoch vorgeschoben: Meist sind die Board-Mitglieder Wissenschaftler, die ihre Funktion ehrenamtlich ausüben. Und die hohen Anforderungen, die von den klassischen Journalen hinsichtlich Artikel und Grafiken an die Autoren gestellt werden, lassen den großen Layout-Aufwand der Verlage zumindest fraglich erscheinen. Es sei ungerecht, den Autor zur Kasse zu bitten, die Kosten also vom Konsumenten auf den Produzenten zu verlagern, lautet ein weiteres Standardargument gegen Open Access. In der Regel trägt aber nicht der Wissenschaftler selbst diese Kosten, sondern die Institution, für die er forscht. Diese spart im Gegenzug die Abonnements der herkömmlichen Zeitschriften ein. Das klingt nach rechter Tasche, linker Tasche. Doch nach einer Studie der Bank BNP Paribas soll es die Universitäten unterm Strich tatsächlich billiger kommen. Funktionieren wird es allerdings nur, wenn sich Open Access schnell durchsetzt und viele Journale auf das neue Geschäftsmodell umstellen. Sonst zahlen die Bibliotheken doppelt - und damit drauf. Auch in den traditionellen Fachzeitschriften können die Autoren im Übrigen keineswegs immer kostenfrei publizieren. Für »Extras« wie Fotos oder Grafiken werden oft hohe Zuzahlungen fällig. Zum Beispiel verlangt das renommierte Fachblatt »Cell« 1000 US-Dollar für die erste Abbildung und 250 Dollar für jede weitere - bei PLoS dagegen sind es einmalig 1500 Dollar pro Artikel.
    Wie steht es mit der Qualitätssicherung in Open-Access-Journalen? Dem »Autor-zahlt«-Modell von vornherein Gefälligkeitsveröffentlichungen zu unterstellen, wäre unfair. Dennoch besteht diese Gefahr, wenn diejenigen, die Artikel in einer Zeitschrift veröffentlichen wollen, gleichzeitig die Geldgeber sind. Dagegen spricht jedoch, dass sich Open-Access-Magazine ebenfalls unabhängiger Experten für das Peer Review bedienen. Außerdem streben auch sie nach einem möglichst hohen Renommee, das sich danach bemisst, wie oft und wo ein Journal zitiert wird - und das erreicht man nicht durch minderwertige Beiträge. Vor denen sind übrigens auch klassische Fachzeitschriften nicht gefeit - so muss immer wieder einmal ein zweifelhafter Artikel zurückgezogen werden. Dagegen bewies »PLoS Biology« schon in seiner ersten Ausgabe, dass sich auch in einem Open-Access-Magazin Hochkarätiges findet: Der Artikel einer Forschergruppe um Miguel Nicolelis über ein Gehirn-Maschine-Interface wurde am ersten Tag so oft abgerufen, dass die Server in die Knie gingen. Bleibt abzuwarten, wann die Verlagsriesen auf den Open-Access-Boom von PLoS & Co. reagieren werden. Zwar stellten sich die Chefs von Reed-Elsevier, Morris Tabaksblat und Chrispin Davis, im Geschäftsbericht 2003 noch demonstrativ hinter das klassische Geschäftsmodell. Sie kündigten aber auch an, das »Autor-zahlt«-Modell zu beobachten und zu investieren, »wo Neuerungen nachweisbaren und nachhaltigen Erfolg« für die Wissenschaft brächten. Übernehmen die Großverlage tatsächlich das Open-Access-Geschäftsmodell, hätte Varmus sein Ziel erreicht. Doch Zweifel bleiben. Im Unterschied zu Non-Profit-Organisationen wie PLoS wollen die Großverlage Gewinn machen und haben zudem in den letzten Jahren Millionen in Onlineplattformen und in die Digitalisierung ihrer riesigen Archive investiert. Diese Summen gilt es wieder hereinzuholen - notfalls durch überhöhte Abdruckgebühren für die Autoren. Das wäre dann ein Pyrrhussieg, und Varmus hätte abermals Grund, verbal den Teufel zu bemühen."
  12. Misslbeck, A.: ¬Der Sesam öffnet sich :-) (2003) 0.03
    0.026602348 = product of:
      0.03990352 = sum of:
        0.033784367 = weight(_text_:im in 3768) [ClassicSimilarity], result of:
          0.033784367 = score(doc=3768,freq=18.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.23423903 = fieldWeight in 3768, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3768)
        0.006119156 = product of:
          0.018357467 = sum of:
            0.018357467 = weight(_text_:online in 3768) [ClassicSimilarity], result of:
              0.018357467 = score(doc=3768,freq=4.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.11855084 = fieldWeight in 3768, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3768)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Seit einiger Zeit geistert ein neuer Anglizismus durch die Hallen der Wissenschaft: "Open Access". Das Zauberwort steht für die weltweite kostenlose Verbreitung wissenschaftlicher Texte im Internet
    Content
    "Menschenleer sind die asbestsanierten Gänge der Silberlaube an der Freien Universität Berlin in den Semesterferiem. Doch irgendwo im rechtwinkligen Wirrwarr zwischen Gang K und L steht eine Tür offen. Sie führt zum Büro von Katja Mruck am Fachbereich Erziehungswissenschaft und Psychologie. Die zarte Frau mit langem und dichtem Haar tritt ihren Gesprächspartnern selten persönlich gegenüber. Mit Forschungspartnern verkehrt sie meist auf elektronischem Weg - das aber umso reger. Katja Mruck ist geschäftsführende Herausgeberin der Online-Zeitschrift Forum Qualitative Sozialforschung / Forum: Qualitative Social Research / Foro: Investigación Social Cualitativa, kurz FQS. Der Name verweist schon auf die internationale Ausrichtung. "Überall auf der Welt arbeiten Leute an der gleichen Sache", sagt Mruck, "das ist ein Traum, wie Wissenschaft funktionieren kann." Im dreisprachigen OnlineJournal erscheinen regelmäßig wissenschaftliche Texte aus dem Bereich der qualitativen Forschung einer Methode, bei der die Forscher ihre Erkenntnisse unter anderem aus langen, tief gehende Interviews gewinnen statt standardisierte Fragebögen zu verwenden. Jeder kann sie lesen, wenn er des Englischen, Deutschen oder Spanischen mächtig ist und einen Internetzugang besitzt. Psychologen, Soziologenunf Kulturforscher arbeiten oft qualitativ: doch meist befinden sie sich damit am Rand. ihrer Disziplinen. Das war einer der Anstöß für Katja Mruck, eine gemeinsame Plattform einzurichten, um die Forschung voranzutreiben. Wichtiger war ihr aber. der internationale Ansatz, denn in anderen Ländern hat die qualitative Forschung teilweise einen höheren Stellenwert. Wenn ihr wollt, dass die Leute euch weltweit wahrnehmen, dann müsst ihr bei uns schreiben", sagt Mruck mitunter zu ihren Autoren. Durch das Feedback aus aller Welt weiß sie, dass FQS überall gelesen wird. "Weil es uns gibt, kann diese deutschsprachige Literatur nach draußen, und das Wissen von draußen kommt nach Deutschland", sagt Mruck. Nichts geht mehr ohne Qualitätssicherung. Damit das möglichwurde, kommt in FQS das Peer-Review-Verfahren zum Einsatz, bei dem zwei unabhängige externe Gutachter den Text vor der Veröffentlichung beurteilen, ohne den; Autor zu kennen. Um-gekehrt kennt auch der Autor die Gutachter. nicht: Damit wird sichergestellt, dass die Beurteilung ohne Ansehen der Person geschieht. Nur begrenzt betreibt die deutsche Sozialforschung diese aufwändige Qualitätssicherung bei Veröffentlichungen von qualitativen Forschungsergebnissen. Mruck sagt: "Ich glaube, unsere Standards sind höher als die von manchen sozialwissenschaftlichen Printzeitschriften im deutschen Raum." Zusätzlich arbeiten deutsche, englisch- und spanischsprachige Wissenschaftler finit den Autoren an den eingereichten Texten, bevor sie im Internet erscheinen. Dann stehen sie weltweit-nicht nur anderen Wissenschaftlern, sondern auch dem breiten Publikum zur Verfügung. Jeder kann seinen Kommentar dazu abgeben. Auch die Deutsche Forschungsgemeinschaft (DFG), die FQS fördert, hält die Qualitätssicherung für extrem wichtig. Der Leiter der Gruppe Wissenschaftliche Literaturversorgungs- und Informationssysteme der DFG, Jürgen Bunzel, ist der Meinung, "dass das Peer-Review-Verfahren letztendlich die Erfolgsbedingung der Open-Access-Bewegung" ist.
    Im naturwissenschaftlichen Bereich sind Peer Reviews längst Gang und. Gäbe. Extrem teure Wissenschaftsmagazine begründen unter anderem damit oft ihre hohen Preise. Mit Open Access im Internet geht es plötzlich auch kostenlos. Das empfinden viele Wissenschaftsverlage als Affront. Einer der: geistigen Väter der Bewegung, Nobelpreisträger Harold Varmus, sagte in einem Zeit-Interview: "Es gibt Zeitschriften, die verlangen für ein institutionelles Abonnement bis zu 15.000 Dollar pro Jahr - das ist irrational, denn es behindert den Aus;tausch von Information zwischen den Forschern:" Varmus ist einer der Gründer der US-amerikanischen Public Library of Science (PLoS), die am 9. Oktober mit einem kostenlosen Biologiejournal an die Internet-Öffentlichkeit getreten ist. Die Nonprofit-Organisation verlangt das nötige Geld nicht von den Lesern, sondern von den Autoren oder den wissenschaftlichen Instituten, die durch die Veröffentlichung ihr Renommee erhöhen. Ohne Peer Review könnte PLoS Biology nicht in Konkurrenz zu den teuren Zeitschriften treten. Die wissenschaftliche Gemeinde würde die Online-Veröffentlichung nicht anerkennen. Für den freien Zugang zu den Erstveröffentlichungen nennt Varmus einleuchtende Gründe: "Der größte Teil der Wissenschaft wird durch Steuern finanziert. Deshalb sind wir der festen Überzeugung, dass die Publikationen allen zugänglich sein sollten." Zwar sind geisteswissenschaftlichen Zeitschriften noch vergleichsweise preisgünstig. Dennoch führt Klaus Graf von der Universität Freiburg auch für diesen Bereich an einem Beispiel vor Augen, dass die öffentliche Hand gleich viermal in ihre eigenen Taschen greifen muss, bis die Ergebnisse einer eingeschränkten Öffentlichkeit zur Verfügung stehen: Die Gehälter der Wissenschaftler, Reisekosten und einiges mehr zahlt der Staat. Auch die redaktionelle Überarbeitung finanziert die öffentliche Hand: Der Verlag will kostendeckend arbeiten und holt sich Druckkostenzuschüsse von öffentlichen Geldgebern dazu. Schließlich sind auch die Bibliotheken, die die Publikation anschaffen, vom Steuerzahler finanziert. Graf fasst zusammen: "Der Staat kauft seine eigenen Forschungsergebnisse zurück."
    Damit wissenschaftliche Veröffentlichungen finanziell künftig besser auf eigenen Beinen stehen können; fördert die DFG seit einigen Jahren auch Open-Ac-, cess-Projekte. "Wir stehen der Open-Access-Bewegung mit großer Sympathie gegenüber, sagt Bunzel von der DFG, "aber wir akzeptieren auch den Wunsch nach Veröffentlichung in namhaften Zeitschriften." Ein "Paradeprojekt" der Open-Access-Bewegung in Deutschland seien die German Academic Publishers (GAP), eine Publikationsplattform, die es Hochschulen ermöglichen soll, im Netz zu publizieren. Viele Universitätsbibliotheken, allen voran die Universitäten Hamburg und Karlsruhe; haben sich GAP ange-schlossen. Sie arbeiten mit dem FQS von Katja Mruck zusammen. GAP entwickeln technische Komponenten für den elektronischen Publikationsprozess. Dazu steht FQS gewissermaßen als Übungsterrain zur Verfügung. FQS arbeitet nicht nur, selbst international und vernetzt, sondern engagiert sich: auch in der breit angelegten Budapest Open Access Initiative (BOAI). Sie wird nicht nur von- wissenschaftlichen Projekten unterstützt, sondern zum Beispiel auch von. der Berliner Rosa-Luxemburg-Stiftung. Die Mitglieder unterzeichneten am 17. Januar 2002 die Budapest Open Access Declaration. Sie enthält im Schlusssatz die Vision der Bewegung: "Unsere gemeinsame Anstrengung wird auch zu einer Entwicklung beitragen, in deren Verlauf Wissenschaft und Bildung sich in der Zukunft überall auf der Welt freier und offener entfalten können, als dies bisher der Fall war."
  13. Röttgers, J.; dpa: ¬Der Kampf ums digitale Buch : Die deutschen Verlage reagieren auf Google - und arbeiten an einer Plattform fürs kostenlose Online-Lesen (2006) 0.03
    0.025758518 = product of:
      0.038637776 = sum of:
        0.027027493 = weight(_text_:im in 6055) [ClassicSimilarity], result of:
          0.027027493 = score(doc=6055,freq=8.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 6055, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0234375 = fieldNorm(doc=6055)
        0.011610283 = product of:
          0.034830846 = sum of:
            0.034830846 = weight(_text_:online in 6055) [ClassicSimilarity], result of:
              0.034830846 = score(doc=6055,freq=10.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.2249344 = fieldWeight in 6055, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=6055)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Content
    "Wer Kostproben von neuen Romanen oder ganze Bände online lesen und hören möchte, den lässt die Branche bald nicht mehr allein. Der Börsenverein des Deutschen Buchhandels will im Februar eine Plattform starten. Verlage und Autoren entscheiden dabei selbst, in welchem Umfang sie Inhalte kostenlos oder gegen Entgelt zur Verfügung stellen. Das Projekt "Volltextsuche Online" soll auch der Herausforderung durch Google begegnen: Die Internet-Suchmaschine stellt schon länger Bücher ins Netz. "Wir wollen aber nicht in Konkurrenz zu Google treten", sagt der Hauptgeschäftsführer des Börsenvereins, Alexander Skipis. Die Branche verhandle vielmehr mit Google derzeit über eine Kooperation: Inhalte der "Volltextsuche Online" sollen oben in den Ergebnislisten von Suchabfragen stehen. Derzeit wollen 70 Verlage beim OnlineProjekt mitmachen, 10000 Titel sind erfasst. Skipis will auch Zehntausende von rechtefreien Titeln online verfügbar machen. Die Macher hoffen, auch jene Verlage ins Boot zu kriegen, die schon jetzt im Internet Geschäftsmodelle erproben. Die geplan-. te Plattform werde besser wahrgenommen als verschiedene Angebote einzelner Verlage. "Wenn wir mit 10 000 Titeln nach einem Jahr herumdümpeln, haben wir das Thema vergeigt." Miteingebunden werden soll auch der Buchhandel. Begonnen hatte das Zeitalter der digitalisierten Bücher ;im März 2003 in der Bibliothek der kalifornischen Stanford-Universität. Mit einem raumfüllenden Roboter begann die renommierte Institution damals mit dem Scannen. Das mehrere 100 000 Dollar teure Gerät blättert automatisch, durch Bücher und Magazine und fotografiert jede Seite mit einer hochauflösenden Spezialka-mera. Zusammenklebendes Papier wird sorgsam mit einem sanften Luftstoß geteilt. Theoretisch kann ein Buch-Roboter gut tausend Seiten pro Stunde erfassen. Stanfords Bibliothekare bemerkten aber bald, dass sie ältere Schmöker nur mit, einer Rate von 100 bis 200 Seiten pro Stunde scannen können. 15 Monate später hatten sie gerade einmal 800 Bücher digitalisiert. Die Erfassung des 7,5 Millionen Titel umfassenden Bestands hätte so Jahrtausende gedauert. Ende 2004 bekam die Bibliothek dann Hilfe von Google. Der Suchmaschinenriese erklärte sich bereit, mehrere Millionen Titel zu digitalisieren - täglich bis zu 100000 Seiten. Stanfords Bibliothekar Michael Keller bezeichnete das als "riesigen Schritt vorwärts". Vorher habe man Digitalisierung als Liebhaberprojekt betrieben. "Die Zusammenarbeit mit Google macht daraus ein industrielles Unterfangen."
    Google legt kräftig vor Knapp zwei Jahre später hat die Suchmaschine sieben Universitäten als Partner gewonnen und viele tausend Bücher mit einer eigens entwickelten Technik digitalisiert. Wie groß der eigene Datenbestand ist, verrät Google nicht. Hinweise auf den Fortschritt des Unterfangens bietet Googles Print-Plattform. Die Firma lässt Nutzer dort im Volltext digitalisierter Bücher suchen. Einige der Titel stammen von Verlagen selbst, der Rest ist das Ergebnis der Bibliotheks-Digitalisierung. Gebräuchliche Begriffe der englischen Sprache resultieren in Fundstellen auf knapp 80 Millionen Seiten. Das wären gut 300000 Werke mit je 250 Seiten. Weitere Indizien gibt die Analyse einer US-Fachzeitschrift für digitale Bibliotheken. Die Autoren des D-Lib-Magazin fanden heraus, dass Google auf dem besten Weg ist, einen Großteil der weltweit verfügbaren Bücher zu digitalisieren. So finden sich in den Katalogen der fünf anfänglichen Projekt-Partner bereits 33 Prozent aller Titel des weltweiten Bibliothekskatalogs Worldcat. Fremdsprachen-Sammlungen sorgen dafür, dass Googles Buch-Katalog trotz seiner amerikanischen Wurzeln vielsprachig ist. Nur die Hälfte ist in englischer Sprache. An zweiter Stelle stehen deutsche Werke mit zehn Prozent. Nun gab Google eine Kooperation mit der Universität Madrid bekannt, dielen Anteil der nicht-englischen Bücher steigern dürfte. Über Pläne für Deutschland will sich die Firma nicht äußern: "Wir sprechen mit zahlreichen Bibliotheken auf der ganzen Welt", sagt eine Sprecherin. Die Geheimnistuerei kommt nicht von ungefähr. Die Konkurrenz Yahoo und Microsoft hat sich zur Open-Content-Alliance zusammengeschlossen, um selbst Millionen von Büchern zu erfassen. Gegenwind gibt es auch von Rechteinhabern, die Klagen wegen Urheberrechtsverletzungen anstreben. Unumstritten ist dagegen Googles Projekt, Bücher mit abgelaufenem Urheberrechtsschutz als komplette Downloads anzubieten. Mit dabei: Goethes Faust - aus dem Buchbestand der Stanford-Universität."
  14. Kleinz, T.: ¬Die halbe Freiheit : Scanner wie jene von Google haben in Bibliotheken verborgene Schätze - doch Gemeingut werden die dann selten (2007) 0.02
    0.021479845 = product of:
      0.032219768 = sum of:
        0.027027493 = weight(_text_:im in 185) [ClassicSimilarity], result of:
          0.027027493 = score(doc=185,freq=8.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 185, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0234375 = fieldNorm(doc=185)
        0.0051922756 = product of:
          0.015576826 = sum of:
            0.015576826 = weight(_text_:online in 185) [ClassicSimilarity], result of:
              0.015576826 = score(doc=185,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.100593716 = fieldWeight in 185, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=185)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Content
    "Stolz präsentiert der Bayerische Wissenschaftsminister Thomas Goppel (CSU) die Zusammenarbeit der Bayerischen. Staatsbibliothek mit Google: "Die reichhaltigen und einzigartigen Bestände werden bald jedem Interessierten per Mausklick zur Verfügung stehen." Nicht weniger als eine Million Bände will der Suchmaschinen-Gigant Seite für Seite in München einscannen. Ein Geschäft auf Gegenseitigkeit. Google kann die Inhalte der eine Million Bände in der nach Berlin zweitgrößten Universalbibliothek im deutschen Sprachraum in sein Angebot einbauen. Und die Münchener bekommen eine Kopie der Daten, die sie ihren Nutzern zur Verfügung stellen dürfen. "Der Vertrag gibt uns das Recht, die Daten in den Angeboten unserer Webseite frei zu verwenden", sagt Klaus Ceynova, stellvertretender Generaldirektor der Staatsbibliothek. Gescannt werden Bücher, die gemeinfrei sind - an denen also keine Urheberrechte mehr bestehen. Der Text gehört der Allgemeinheit. Neue Beschränkungen Für den Berliner Bibliothekar Patrick Danowski ist das zu wenig. "Viele Kultureinrichtungen wie Bibliotheken, Archive und Museen stellen ihre Digitalisate unter restriktiven Bedingungen zur Verfügung und beanspruchen für sie teilweise ein neues Copyright. Das schwächt das Gemeingut - und steht damit im im Widerspruch zu der auf dem UN-Weltgipfel zur Informationsgesellschaft beschlossenen Stärkung der Gemeinfreiheit." Danowski, der im Vorstand von Wikimedia Deutschland arbeitet, fordert: "Gemeinfreie Werke müssen auch in digitaler Form gemeinfrei bleiben." Um das zu unterstreichen, hat Danowski ein Empfehlungspapier für den Bibliothekartag in Leipzig verfasst. Zentraler Punkt: Büchereien sollen die digitalen Daten ausdrücklich zu jeder Verwendung freigeben. Dazu gehört das Recht, Werke zu kopieren und an anderer Stelle zu verwenden. Sogar der Verkauf einer neuen Auflage eines Buchs wäre möglich. Doch Danowski stößt auf wenig Gegenliebe bei seinen Kollegen. Klaus Ceynova von der Bayerischen Staatsbibliothek sagt: "Es geht darum, den Nutzern freien Zugang zu den Büchern zu geben." Eine unkontrollierte Weitergabe der Bücher lehnt er ab. Zwar sind die Texte selbst gemeinfrei, doch die Bibliotheken haben Nutzungsrechte an den oft teuren Handschriften und Originalausgaben. Die Kontrolle wollen sie nicht abgeben. Einen anderen Ansatz hat das MaxPlanck-Institut für Wissenschaftsgeschichte in Berlin. Dort ist das von der Europäischen Union geförderte Projekt "European Cultural Heritage Online" angesiedelt, das die kulturellen Schätze Europas verfügbar machen möchte. Eine Kontrolle, wer wann auf die Inhalte zugreift, beansprucht das Institut nicht. "Wir stellen die Materialien zur Verfügung, damit man mit ihnen arbeiten kann", sagt Projektkoordinatorin Simone Rieger. Ihr Institut stellt Werkzeuge bereit, um mit den Texten besser umgehen zu können, Original und Abschrift zu vergleichen oder den Kontrast zu erhöhen. Wenn die Wissenschaftlerin jedoch per Internet in anderen Bibliotheken recherchiert, muss sie auf diese Werkzeuge verzichten; der freie Zugang ist nur in der Arbeitsumgebung der jeweiligen Bibliothek erlaubt.
  15. Palme, J.: SGML-basierte Multimedia-Publikationen, Erschließung und Präsentation im Freien Projekt BIADOK_Publikation (2000) 0.02
    0.021234807 = product of:
      0.063704416 = sum of:
        0.063704416 = weight(_text_:im in 101) [ClassicSimilarity], result of:
          0.063704416 = score(doc=101,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.44168535 = fieldWeight in 101, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.078125 = fieldNorm(doc=101)
      0.33333334 = coord(1/3)
    
    Source
    Grenzenlos in die Zukunft: 89. Deutscher Bibliothekartag in Freiburg im Breisgau 1999. Hrsg.: M. Rützel-Banz
  16. Wissenschaftspublikation im digitalen Zeitalter : Verlage, Buchhandlungen und Bibliotheken in der Informationsgesellschaft. Vorträge eines Symposiums am 8. und 9. Fenruar 2001 in Berlin (2001) 0.02
    0.020805776 = product of:
      0.06241733 = sum of:
        0.06241733 = weight(_text_:im in 6991) [ClassicSimilarity], result of:
          0.06241733 = score(doc=6991,freq=6.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.43276152 = fieldWeight in 6991, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=6991)
      0.33333334 = coord(1/3)
    
    Abstract
    Das wissenschaftliche Verlagswesen befindet sich im Umbruch. Verlage, Buchhandlungen und Bibliotheken definieren ihre Rolle in der Wissensgesellschaft neu. Unter dem Titel Wissenschaftspublikation im digitalen Zeitalter haben der Börsenverein des Deutschen Buchhandels, die Bundesvereinigung Deutscher Bibliotheksverbände und Die Deutsche Bibliothek auf einem Symposium eine Bestandsaufnahme vorgenommen. Die Autoren sind namhafte Persönlichkeiten aus Bibliotheken, Verlagen, Buchhandlungen, Wissenschaft und Politik.
  17. Poworoznek, E.L.: current practices in online physical sciences journals : Linking of errata: (2003) 0.02
    0.020723619 = product of:
      0.062170856 = sum of:
        0.062170856 = product of:
          0.09325628 = sum of:
            0.062307306 = weight(_text_:online in 1874) [ClassicSimilarity], result of:
              0.062307306 = score(doc=1874,freq=8.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.40237486 = fieldWeight in 1874, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1874)
            0.03094897 = weight(_text_:retrieval in 1874) [ClassicSimilarity], result of:
              0.03094897 = score(doc=1874,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.20052543 = fieldWeight in 1874, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1874)
          0.6666667 = coord(2/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Reader awareness of article corrections can be of critical importance in the physical and biomedical sciences. Comparison of errata and corrigenda in online versions of high-impact physical sciences journals across titles and publishers yielded surprising variability. Of 43 online journals surveyed, 17 had no links between original articles and later corrections. When present, hyperlinks between articles and errata showed patterns in presentation style, but lacked consistency. Variability in the presentation, linking, and availability of online errata indicates that practices are not evenly developed across the field. Comparison of finding tools showed excellent coverage of errata by Science Citation Index, lack of indexing in INSPEC, and lack of retrieval with SciFinder Scholar. The development of standards for the linking of original articles to errata is recommended.
  18. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.02
    0.020212915 = product of:
      0.03031937 = sum of:
        0.023406496 = weight(_text_:im in 729) [ClassicSimilarity], result of:
          0.023406496 = score(doc=729,freq=6.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.16228557 = fieldWeight in 729, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.0069128736 = product of:
          0.02073862 = sum of:
            0.02073862 = weight(_text_:22 in 729) [ClassicSimilarity], result of:
              0.02073862 = score(doc=729,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.116070345 = fieldWeight in 729, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=729)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
    Date
    22. 6.2005 15:12:11
  19. Brodersen, M.; Germann, N.; Schwens, U.: Informationsveranstaltung zum Thema Netzpublikationen : Gemeinsamer Workshop der Deutschen Nationalbibliothek und des Arbeitskreises Elektronisches Publizieren (AKEP) (2007) 0.02
    0.020145105 = product of:
      0.060435314 = sum of:
        0.060435314 = weight(_text_:im in 3977) [ClassicSimilarity], result of:
          0.060435314 = score(doc=3977,freq=10.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.41901952 = fieldWeight in 3977, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=3977)
      0.33333334 = coord(1/3)
    
    Abstract
    Am 27. November 2007 veranstalteten die Deutsche Nationalbibliothek (DNB) und der AKEP des Verlegerausschusses des Börsenvereins des Deutschen Buchhandels eine Informationsveranstaltung und einen sich daran anschließenden Expertenworkshop zum Thema Netzpublikationen. Zunächst stand die Vermittlung von Fakten, u. a. zu Ablieferungsverfahren, rechtlichen Rahmenbedingungen und zur Pflichtablieferungsverordnung im Vordergrund. Im weiteren Verlauf des Tages wurde mit Fachleuten der Verlage, insbesondere aus dem Bereich Elektronisches Publizieren, über die Praxis innnerhalb der Verlage und die Auswirkungen der digitalen Pflichtexemplare diskutiert. Zu Veranstaltungsbeginn wurde bereits durch Matthias Ulmer (Ulmer Verlag, Verlegerausschuss im Börsenverein des Deutschen Buchhandels) deutlich, dass sich die Verlage Klarheit hinsichtlich des Ablieferungsverfahrens der elektronischen Pflichtexemplare wünschen, um diese in ihre Pläne zu E-Books im Jahr 2008 einbeziehen zu können. Das Ziel des Workshops bestand im Wesentlichen darin, einen Konsens bezüglich der gemeinsam getragenen Absprachen zu erzielen, die später einem erweiterten Kreis zugänglich gemacht werden sollen. Dies ist ein anspruchsvolles Ziel!
  20. Skowronowski, C.: Heidelberg drückt zum Jubiläum kräftig auf die Tube : Maschinenbauer wartet im Jahr des Drucks mit zwei Neuheiten auf - Xerox bläst zum Angriff auf den Weltmarktführer (2000) 0.02
    0.01801833 = product of:
      0.054054987 = sum of:
        0.054054987 = weight(_text_:im in 3869) [ClassicSimilarity], result of:
          0.054054987 = score(doc=3869,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.37478244 = fieldWeight in 3869, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.09375 = fieldNorm(doc=3869)
      0.33333334 = coord(1/3)
    

Authors

Languages

  • d 83
  • e 24

Types

  • a 89
  • m 18
  • s 2
  • el 1
  • i 1
  • x 1
  • More… Less…

Classifications