Search (2 results, page 1 of 1)

  • × author_ss:"Charlier, M."
  • × theme_ss:"Internet"
  • × language_ss:"d"
  1. Charlier, M.: ¬Die Austreibung des Mittelalters : Von der Wissensgemeinde zum geistigen Eigentum und zurück: Forscher wehren sich gegen die Macht der Verlage (2002) 0.02
    0.019650873 = product of:
      0.039301746 = sum of:
        0.03632721 = weight(_text_:digitale in 623) [ClassicSimilarity], result of:
          0.03632721 = score(doc=623,freq=4.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.20151356 = fieldWeight in 623, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.01953125 = fieldNorm(doc=623)
        0.0029745363 = weight(_text_:information in 623) [ClassicSimilarity], result of:
          0.0029745363 = score(doc=623,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.048488684 = fieldWeight in 623, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=623)
      0.5 = coord(2/4)
    
    Content
    "Das finstere Mittelalter überliefert uns befremdliche Bilder von Bibliotheken: Da sind die Folianten an den Pulten angekettet, damit niemand eines der wertvollen Stücke davonträgt. Wohl auch, damit keiner sich mit dem gefährlichen Gut Wissen außerhalb von Aufsicht und Disziplin der Fakultäten zu schaffen machte. Heute findet das Mittelalter in der Deutschen Bibliothek in Frankfurt am Main und Leipzig statt. Wer die als Belegexemplare eingelieferten digitalen Publikationen einsehen will, kann das weder vom privaten Internetanschluss aus noch von dem eines Instituts oder einer Universitätsbibliothek. Forscher müssen nach Frankfurt reisen und einen Leihschein ausfüllen, um dann dort am Terminal die digital angeketteten Veröffentlichungen einsehen zu können. Die Bibliothek ist dafür am wenigsten zu schelten. Da der Gesetzgeber es versäumt hat, die rechtlichen Vorschriften der technischen Entwicklung des Buchwesens anzupassen, sind die Verlage nicht verpflichtet, digitale Publikationen abzuliefern. Die Bibliothekare haben in langwierigen Verhandlungen wenigstens erreicht, dass die Verlage die Bücher freiwillig einreichen - zu ihren Bedingungen. Nicht nur digitale Publikationen hängen an der Kette der Verlage. Spektakulär ist die Entwicklung bei den wissenschaftlichen Zeitschriften. Teuer waren sie schon immer. Nicht ohne Grund, denn ihre Herstellung verlangt hohen Aufwand: Fachlich kompetente redaktionelle Betreuung, aufwendiger Druck (Sonderschriften, IIlustrationen) in oft kleinen Auflagen, Versand in viele Länder der Erde und dann auch noch Lagerhaltung für lange Zeit. In den vergangenen zehn Jahren haben sich die Preise für solche Spezialzeitschriften im Durchschnitt verdreifacht - sie liegen heute zwischen 5.000 und 20.000 USDollar für das Jahresabonnement. Gleichzeitig hat sich die Zahl der relevanten Publikationen etwa verdreifacht. Für eine solide geführte Bibliothek lässt sich daraus eine Verzehnfachung des für die Anschaffung erforderlichen Budgets errechnen. Doch die Etats stagnieren, und in den Regalen breiten sich Lücken aus. Bibliothekare sprechen von einer "Journal-Crisis". Viele Wissenschaftler hat die Entwicklung kalt erwischt. Sie betrachten wissenschaftliche Ergebnisse oft nicht als Waren mit einem Preisschild, sondern als Tauschobjekte in einer Geschenkökonomie: Alle können verwenden, was andere als Baustein zum gemeinsamen Werk beitragen, solange die Anstandsregeln des sauberen Zitierens und der Anerkennung von Prioritäten eingehalten werden. Damit ist es vorbei, seit man weniger von der Wissen- schaftsgemeinschaft, der "Scientific Community" spricht - und mehr von "Intellectual Property", dem geistigen Eigentum: Erkenntnisse sollen unmittelbar is die Produktion übergeführt und zur konsequenten Verwertung patentiert werden.
    Wissenschaftliche Zeitschriften waren früher oft Herzensangelegenheit oder zumindest Prestigeobjekte engagierter Verleger, die zur Not auch mal eine Zeit lang draufzahlten, um einen Titel über die Runden zu bringen. Nach einem mehrjährigen Konzentrationsprozess werden nun fast alle diese Zeitschriften von wenigen international agierenden Großverlagen herausgebracht, die mit ihnen Profitmaximierungsstrategien verfolgen. Das Geschäftsmodell ist simpel: Die Produktion des Wissens erfolgt an Universitäten und Instituten mit staatlichen oder aus der Wirtschaft eingeworbenen Mitteln - also für die Verlage kostenlos. Viele Wissenschaftler sind sogar bereit, "Druckkostenzuschüsse" aufzutreiben, nur damit ihre Arbeitsergebnisse aufs Papier kommen. Die Eigenleistung der Verlage ist da, wo die Autoren ihre Texte auf Diskette einliefern und der Druck aus dem Computer kommt, kaum der Rede wert. Der Gewinn, der sich so erzielen lässt, umso mehr. Margen von 40 Prozent seien nicht selten, sagen Branchenkenner. So wären die wissenschaftlichen Zeitschriften ein perfektes Instrument zum Abgreifen von Staatsknete - gäbe es nicht das Internet. Vielen Wissenschaftlern dauert es zu lange, bis die Verlage ihre Texte in einer vielleicht nur quartalsweise erscheinenden Publikation an die Kollegen bringen. Sie laden daher ihre Manuskripte auf so genannte Preprint-Server, um sie unmittelbar in die wissenschaftliche Diskussion einzubringen: Einer der größeren davon, der Los Alamos Physics Information Service mit der schönen Adresse xxx.lanl.gov, erhält täglich um die hundert Preprints, während seine Datenbank - ebenfalls täglich - mehr als 50.000 Zugriffe verzeichnet. Inzwischen hat sich ein - stellenweise noch etwas chaotisches - Netz solcher Server etabliert, das nahezu alle naturwissenschaftlichen Bereiche abdeckt. Die Gesellschaftswissenschaften ziehen, wenn auch etwas zögerlich, nach. Viele Wissenschaftler veröffentlichen ihre Texte inzwischen auf eigenen Homepages. Seit einigen Jahren schließlich entstehen echte Netzpublikationen: "Electronic Journals" legen Texte in abgeschlossener Form und auf Dauer ab; eine Veröffentlichung auf Papier ist nicht vorgesehen. Damit stehen die Wissenschaftsverlage, die sich bis eben noch im Besitz einer Gelddruckmaschine geglaubt hatten, plötzlich da wie die Heizer auf der E-Lok unseligen Angedenkens: Keiner braucht sie mehr. Die in die Defensive geratenen Verlage verweisen darauf; ihre Redaktionen organisierten in einem teils tatsächlich aufwendigen Verfahren Peer-Reviews: In den guten Blättern erscheint kein Beitrag, der nicht von mehreren anerkannten Fachkennern gegengelesen und oft auch auf Grund ihrer Hinweise umgearbeitet worden ist. Das überzeugt nur begrenzt. Auch den anerkannten Fachleuten sind in den vergangenen Jahren ziemlich viele bewusste Fälschungen durch die Lappen gegangen. Außerdem halten sich hartnäckig Gerüchte, dass um einige Zeitschriften Zitierkartelle und fragwürdige Strukturen entstanden sind, die ganz andere als Gesichtspunkte der Qualität zur Geltung bringen. Viel überzeugender ist: Was im Internet steht, setzt sich von Anfang an der Kritik sämtlicher Fachleute aus. Wenn jemand starke Thesen mit schwacher Begründung vorträgt, wird das im Netz schneller entdeckt und korrigiert als in der Welt periodischer Papier-Veröffentlichungen. Peer-Reviews und Versionsverwaltung lassen sich im Internet genauso gut organisieren wie mit Zeitschriften - und billiger zudem.
  2. Charlier, M.: Pingpong mit Pingback : Lass mich Deine Suchmaschine sein: Webseiten finden neue Wege der Vernetzung (2003) 0.00
    0.0012619889 = product of:
      0.0050479556 = sum of:
        0.0050479556 = weight(_text_:information in 1475) [ClassicSimilarity], result of:
          0.0050479556 = score(doc=1475,freq=4.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.08228803 = fieldWeight in 1475, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1475)
      0.25 = coord(1/4)
    
    Abstract
    Die Suchmaschine Google erfasst in ihren Datenbanken nach eigener Auskunft mehr als zwei Milliarden Webseiten. Ob das ein Drittel oder nur ein Viertel aller bestehenden Seiten ist, bleibt umstritten. Aber auch so ergeben Suchanfragen schon eine nicht mehr zu bewältigende Zahl an Treffern - die meisten allerdings weit am Thema vorbei. Um die Seiten, die ihnen einmal positiv aufgefallen sind, wiederzufinden, sammeln fleißige Websurfer Tausende von Bookmarks. Und dann finden sie sich in ihren Lesezeichen nicht mehr zurecht. Information vom Rauschen zu trennen und den Reichtum des Netzes zu erschließen, wird immer schwieriger. Es gibt diverse Projekte, die auf eine Verbesserung dieser Situation abzielen. Die meisten werden noch Jahre bis zum Abschluss benötigen und dann vermutlich auch nur gegen Bezahlung nutzbar sein. Deshalb wird an den Graswurzeln und noch tiefer im Untergrund des Webs derzeit mit technischen Verfahren experimentiert, die auf neuartige Weise die Bildung von persönlichen Informationsnetzen möglich machen. Das ist kostenlos, aber noch nicht so leicht anzuwenden. Da ist z.B. die Blogger-Szene (www.blogworld.de). Blogs sind tagebuchartig geführte und oft mehrfach täglich aktualisierte private Webseiten, auf denen sich Menschen mit gemeinsamen technischen, beruflichen oder persönlichen Interessen treffen. Dort sieht man immer öfter einen kleinen roten Button mit den drei Buchstaben: XML - eine prächtige Kollektion davon bietet der "Hirschgarden" auf http://radio.weblogs.com/0117605/. Wenn man darauf klickt, erscheint eine mehr oder weniger rätselhaft ausgezeichnete Datei, die offensichtlich Informationen zu dieser Seite enthält. Diese Dateien sind so genannte RSS-Feeds, was soviel heißt wie: Lieferanten von angereicherten Seiten-Inhaltsangaben (Rich Site summaries. Das "angereichert" bezieht sich darauf, dass auch Bilder oder Sounddateien angelinkt sein können). Für die Besucher, die schon auf der Seite sind, haben diese kaum entzifferbaren Dateien keinen Wert. Sie sind bestimmt zur Auswertung durch so genannte RSS-Reader - und damit wird die Sache spannend. Wer will, kann sich einen solchen Reader - im Netz werden mehrere davon zum kostenlosen Download angeboten, z.B. auf www.feedreadercom - auf seinem Rechner installieren. Dieser Reader kann die Feeds in einer vernünftig lesbaren Form darstellen; meistens so, wie man das von Mailprogrammen kennt: Links eine Liste der Absender, rechts oben die Überschriften der einzelnen Summaries. Und wenn man diese anklickt, erscheint rechts unten eine Inhaltsangabe des zur jeweiligen Überschrift gehörenden Artikels. Zum Reader gehört eine Liste, in der einzutragen ist, welche Webseiten das Programm - unter Umständen mehrmals täglich - vollautomatisch besuchen soll, um dort die jeweils neuesten Inhaltsangaben abzuholen. Damit ist man jederzeit bestens darüber im Bilde, was auf den wichtigen Seiten geschieht. Technisch geht die Initiative dabei immer vom jeweiligen Anwender aus, aber praktisch wirkt das so, als ob die Informationslieferanten ihn jedesmal benachrichtigen, wenn es etwas neues gibt. Der Anbieter muse natürlich dafür sorgen, dass sein Newsfeed immer aktuell und aussagekräftig gestaltet ist. Für einige Blogs gibt es Software, die das vollautomatisch erledigt. Eine rundum feine Sache also, die bald wohl nicht allein von Bloggern und Nachrichtenagenturen eingesetzt werden. Noch weitreichender sind die Veränderungen, die sich - ebenfalls zunächst in der Welt der Blogs - unter Stichworten wie Trackback oder Pingback ankündigen.
    - Links im Rückwärtsgang - Dahinter stehen unterschiedliche technische Verfahren, die aber praktisch auf das Gleiche hinauslaufen: Während Links im www bisher eine buchstäblich einseitige Angelegenheit waren, werden sie nun zweiseitig. Bisher hat derjenige, der "gelinkt worden" ist, davon zunächst einmal gar nichts erfahren. Jetzt sorgt Pingback dafür, dass auf der gelinkten Seite automatisch ein Rückwärts-Link auf die linkende Seite eingerichtet wird, zumindest, wenn beide Webseiten mit der entsprechenden Technik ausgerüstet sind. Natürlich gibt es keinerlei Zwang, sich diesem System anzuschließen. Wer nicht möchte, dass plötzlich Rückwärts-Links auf seinen Seiten auftauchen, richtet die Software einfach nicht ein. Man braucht nicht viel Surferfahrung, um zu ahnen, dass dieses Ping-Pong-Spiel mit Links dem Austausch von Informationen und Meinungen eine ganz neue Dimension eröffnen können - zumindest dann, wenn genug Webseiten mitmachen. Dann wird man auf vielen Webseiten nicht nur Links auf eventuell genutzte Quellen, sondern auch auf Anwender finden können - also auf andere Seiten, deren Betreiber diesen Inhalt für interessant und wichtig genug hielten, um ein Link darauf zu setzen. So entsteht eine Spur, der man nicht nur wie bisher bestenfalls rückwärts, sondern auch vorwärts folgen kann. Das Thema erschließt sich in vielen Varianten und Entwicklungsstadien. Man wird den Weg eines Themas oder einer Information durch das Netz verfolgen können und dabei vermutlich vielen Seiten be-gegnen, die ähnliche Interessen bedienen, die man durch Suchmaschinen nie gefunden hätte. Das "persönliche Netz" wird enger geknüpft, die Bedeutung der Suchmaschinen und ihrer Defizite wird geringer. An die Stelle mechanischer Sucherei treten lebendige Zusammenhänge. Noch ist das Zukunftsmusik. Man findet zwar schon recht viele Blogs, die ihre Aufnahmebereitschaft für Rückwärtslinks signalisieren, aber erst wenige, bei denen diese Möglichkeit auch genutzt wird. Die kritische Masse, ohne die das System seine Vorteile ausspielen könnte, ist anscheinend noch nicht erreicht. Aber die ständig verbesserte Anwendbarkeit der Software und der Umstand, dass sie nichts kostet, machen Lust, es einmal auszuprobieren. Und in dem Maß, in dem Suchmaschinen die Erwartungen immer weniger erfüllen und am Ende noch Geld für gute Positionierungen nehmen, wird es gerade für kleinere Anbieter - nicht nur im Hobby-Bereich - immer interessanter, neue Wege der Vernetzung zu erproben.