Search (3 results, page 1 of 1)

  • × author_ss:"Sixtus, M."
  • × theme_ss:"Informationsmittel"
  1. Sixtus, M.: ¬Das Gemeinschaftsnetz : Im Wiki-Web können alle Surfer Seiten umschreiben und hinzufügen - so entstehen ganze Enzyklopädien (2003) 0.04
    0.040981144 = product of:
      0.08196229 = sum of:
        0.047765557 = weight(_text_:einzelne in 1739) [ClassicSimilarity], result of:
          0.047765557 = score(doc=1739,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.19508676 = fieldWeight in 1739, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1739)
        0.025742542 = weight(_text_:der in 1739) [ClassicSimilarity], result of:
          0.025742542 = score(doc=1739,freq=28.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.27703083 = fieldWeight in 1739, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1739)
        0.008454186 = product of:
          0.016908372 = sum of:
            0.016908372 = weight(_text_:22 in 1739) [ClassicSimilarity], result of:
              0.016908372 = score(doc=1739,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.116070345 = fieldWeight in 1739, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1739)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Content
    "Wissen ist in. Allerorten wird es zum Rohstoffdes 21. Jahrhunderts ausgerufen. Doch je mehr man weiß, desto wichtiger ist es, die Informationen professionell zu verwalten, zu organisieren und zu pflegen. Manche Unternehmen bauen dazu teure, komplexe Knowledge-Management-Systeme ins Firmennetz ein. Doch das Wissensmanagement geht einfacher - mit Wikis. Ein Wiki ist eine Sammlung dynamischer Webseiten, die über Verweise verbunden sind und alle über eine Besonderheit verfügen: Ganz unten fordert ein Button alle Surfer dazu auf, die aktuelle Seite zu verändern. Prinzipiell kann jeder jede Seite ändern, ergänzen, verbessern oder sogar löschen. Rechte-Hierarchien existieren schlicht nicht. Jeder User ist gleichzeitig Leser, Lektor, Redakteur und Autor. Seiten anlegen und verlinken geschieht in einem Arbeitsgang. Einige rudimentäre Möglichkeiten zur Textformatierung und zur Einbindung von Grafiken sowie eine Volltextsuche runden den bescheidenen Funktionsumfang eines Standard-Wikis ab - und machen es verblüffenderweise doch zu einem mächtigen Werkzeug. Geübte User erzeugen mit dem virtuellen Zettelkasten in Windeseile Strukturen, die Hunderte oder Tausende von Einzelseiten umfassen. Die Einsatzmöglichkeiten sind vielfältig: Wikis fungieren als Wissensspeicher, als Basis für gemeinsame Projektdokumentationen, als Materialanforderungsformular oder als Brainstorminghilfe in Kreativberufen. Und selbst bei der Planung von Betriebsfeiern oder als Datenbank für Kochrezepte sollen sie schon zum Einsatz kommen. Wenn jeder Nutzer jedes einzelne Dokument ändern oder löschen kann, herrscht dann nicht das Chaos? Was passiert, wenn Fehler sich einschleichen oder wichtige Passagen verschwinden? Dagegen sind die Wikis gewappnet: Mit der HistoryFunktion und über Differenzberechnungen lässt sich überblicken, wer wann was geändert hat. Bei Bedarf lassen sich alle Anderungen rückgängig machen. Jeder historische Zustand ist so mit wenigen Mausklicks wiederhergestellt. Seit 1999 setzen Teams des Mobilfunkherstellers Motorola auf Wikis als Werkzeuge für das kollaborative Arbeiten, die Lufthansa verwendet sie zur Verwaltung technischer Dokumentationen, und die Konzerne SAP und Disney experimentieren mit den wenigen hundert Kilobyte kleinen Systemen in ihren Firmennetzen. Das erste Wiki hat der Software-Entwickler Ward Cunningham im Jahr 1995 unter der Adresse c2.com/cgi/wiki ins Netz gestellt - und dort steht es heute noch. Der Begriff "Wiki" ist das hawaiianische Wort für "schnell", und genau darum ging es Cunningham: flottes, unkompliziertes Arbeiten, ohne von einem unübersichtlichen Funktionsumfang gebremst zu werden. Mittlerweile existieren etliche Klons und Weiterentwicklungen des UrWikis, in mehreren Programmiersprachen und für fast alle Computerplattformen. Die meisten stehen gratis und unter der Open-Source-Lizenz im Netz.
    Die Idee des editierbaren Internets geht zurück auf den Erfinder des World Wide Web, Tim Berners-Lee, der in seinem Buch Weaving the Web die Grundideen der Wiki-Philosophie aussprach: "Das Web editieren zu können ist genauso wichtig, wie durch es zu browsen." Aber haben Sites, an denen jeder zufällig Vorbeisurfende herumdoktern kann, überhaupt eine Überlebenschance? Wer schon einmal beobachtet hat, wie schnell offene Systeme wie Gästebücher oder Foren im Chaos versinken können, mag berechtigte Zweifel anmelden. Erstaunlicherweise funktionieren offene Wikis aber hervorragend. Beispielsweise Wikipedia: Das seit 2001 laufende Enzyklopädie-Projekt umfasst in der englischsprachigen Variante mehr als 144 000 Artikel. Das Mammutvorhaben, das Wissen der Welt in einem Wiki festzuhalten, wird nicht von einer Hand voll Autoren und Redakteuren angegangen. Vielmehr kann jeder Surfer sein persönliches Know-how dazu beisteuern. Dank der globalen Teamarbeit haben die Wikipedia-Artikel eine beachtliche Qualität erreicht - und können sich bisweilen durchaus mit professionellen und kostspieligen Nachschlagewerken messen. Der Journalist und Bestseller-Autor Sheldon Rampton verfolgt mit seinem Wiki-Projekt Disinfopedia.org speziellere Ziele: Die Enzyklopädie der Propaganda soll dokumentieren, wie PR-Unternehmen, Lobbyisten und Thinktanks die öffentliche Meinung in den USA mit Hilfe von fragwürdigen wissenschaftlichen Studien, fingierten Graswurzelbewegungen oder schlichter Verbreitung von Falschinformationen beeinflussen. Auch Disinfopedia wächst und gedeiht unter Mitarbeit der Netzbewohner, und obwohl man annehmen müsste, dass gerade ein solches politisches Projekt besonders unter Störern und Angreifern leidet, hat sich die Wiki-Technologie bisher als resistent erwiesen. Wer sich mit dem Thema Wissensmanagement beschäftigt, sollte auf jeden Fall ernsthaft prüfen, ob die kleine Wiki-Teeküche für seine Belange ausreicht. Und für manche Netzphilosophen sind die erfolgreichen Experimente mit den offenen Websites dann auch mehr als nur ein gelungenes Beispiel für gemeinschaftliches Arbeiten: Sie seien auch Beweis dafür, dass die menschliche Konstruktivität größer ist als ihre zerstörerischen Kräfte. Ein digitaler Hoffnungsschimmer."
    Date
    17. 7.1996 9:33:22
  2. Sixtus, M.: Füttern erlaubt : Webseiten versorgen zunehmend "Feedreader" mit Informationen - das erlaubt gezieltes Lesen statt langem Surfen (2003) 0.01
    0.012273695 = product of:
      0.036821086 = sum of:
        0.028366901 = weight(_text_:der in 1646) [ClassicSimilarity], result of:
          0.028366901 = score(doc=1646,freq=34.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.30527312 = fieldWeight in 1646, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1646)
        0.008454186 = product of:
          0.016908372 = sum of:
            0.016908372 = weight(_text_:22 in 1646) [ClassicSimilarity], result of:
              0.016908372 = score(doc=1646,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.116070345 = fieldWeight in 1646, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1646)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Content
    "Wer im Jahr 2003 in seinen Lieblingsthemen detailliert informiert sein möchte, klappert täglich Dutzende von News-Sites und Webmagazinen ab. Ein Unterfangen, das mitunter recht mühselig sein kann: Neben, über und unter den gewünschten Nachrichten quälen sich bei jedem Aufruf Menüleisten, Banner und Grafiken durch die Leitung, und oft genug wurde die Seite seit seinem vergangenen Besuch nicht einmal aktualisiert. RSS-Clients, auch Feedreader genannt, könnten künftig Surfern die zeitaufwendige Handarbeit abnehmen. Das Prinzip ist denkbar einfach: Die Betreiber von Webangeboten stellen - neben den HTML-Seiten, die übliche Browser benötigen - einen so genannten Newsfeed zur Verfügung. Genau genommen handelt es sich dabei um nichts Weiteres. als eine speziell kodierte Textdatei mit berschriften, Zusammenfassungen und Textausschnitten der jeweils jüngsten Meldungen. Der Feedreader dreht in regelmäßigen Abständen seine Runden, holt diese Dateien und - wieder daheim - präsentiert die enthaltenen Informationen übersichtlich lesbar. Erst ein Klick auf eine Überschrift lädt den entsprechenden Originalartikel schließlich in den Webbrowser. Statt sich der Reizüberflutung auf Dutzenden, unterschiedlich gestylten Websites auszusetzen, genügt so ein Blick auf die systematisch geordneten Texteinträge im Fenster des Feedreaders, um zu entscheiden, welche Beiträge einer genaueren Betrachtung würdig sind und welche nicht. Diese Sammel-und-Zeige-Programme gibt es mittlerweile in vielen Geschmacksrichtungen und für nahezu jedes Betriebssystem (siehe "Feedreade"). Der Haken: Die Betreiber der Webangebote müssen den Dienst unterstützen und die nötigen RSS-Dateien zur Verfügung stellen. Da sich die meisten News-Magazine allerdings mit Bannerwerbung finanzieren, standen ihre Herausgeber dieser Verbreitung ihrer Texte bisher skeptisch gegenüber. Doch langsam denken viele um: Immerhin kann das System Besucher anlocken. Und nicht irgendwelche. Die Leser sind ausgesprochen interessiert und motiviert, da sie sich explizit für ein bestimmtes Angebot entschieden haben - und nicht zufällig oder unter Zeitdruck durch die einzelnen Seiten stolpern. Spätestens seit mit Yahoo einer der großen Anbieter seine aktuellen Meldungen als Newsfeed verbreitet, darf man davon ausgehen, dass etliche Mitbewerber folgen werden. So könnte die praktische Technologie in absehbarer Zeit zum nützlichen Alltagswerkzeug werden. Bis das soweit ist, übernehmen spezialisierte Dienste den Job des Mittlers zwischen den Welten: Unter NewsIsFree.com kann sich jeder User seine individuelle Auswahl an RSSFeeds zusammenstellen. Sollte das betreffende Internet-Angebot die Technik noch nicht unterstützen, wird einfach kurzerhand der notwendige Feed extern generiert - ob es dem Betreiber nun passt oder nicht. Der Service ist in der Basis-Version kostenlos. RSS steht für "Rich Site Summary". Doch zuletzt werden die drei Buchstaben häufiger als Akronym für "Really Simple Syndication" eingesetzt. Die Idee geht zurück auf das Jahr 1999, als das mittlerweile beinahe verblichene Unternehmen Netscape mit Hilfe dieses Verfahrens die Popularität seines Portals MyNetscape.com erhöhen wollte. Der Durchbruch kam mit der Verbreitung der Weblogs. Angeregt durch die Integration des RSS-Standards in das beliebte Blog-Tool Radio Userland, übernahmen die Hersteller anderer Publishing-Systeme schnell diese Strategie, und heute kommt kaum noch ein Online-Journal ohne eigenen Newsfeed aus - erkennbar am kleinen XML-Button auf der Startseite.
    Die Neuigkeits-Ströme können mehr, als einen schnellen Überblick über frische Artikel zu verschaffen: Mit Hilfe kleiner, handlicher Skripte lassen sich die externen Inhalte problemlos in eigene Webseiten einbinden. Die Aktualisierung läuft dabei automatisch. Einmal integriert, kann man so seinen Besuchern, neben den eigenen, stets aktuelle Meldungen aus anderen Ecken des Netzes anbieten. Vor allem wissenschaftliche oder fachspezifische Portale nutzen das zunehmend. Unterschiedliche Entwicklerteams mit verschiedenen Zielrichtungen haben in den vergangenen Jahren unglücklicherweise für eine recht unübersichtliche Versionsvielfalt im RSS-Lager geführt. Will man auf Nummer sicher gehen, empfiehlt sich der angestaubte Standard 0.91. Zwar hat sich eine Gruppe von Programmierern aufgemacht, News-Syndication mit einem einheitlichen Format aufs nächste Level zu befördern. Doch einstweilen scheinen zunächst noch einige Glaubenskriege ausdiskutiert zu werden. Bislang herrscht noch nicht einmal Einigkeit über den Projektnamen. Davon gänzlich ungerührt schickt sich die RSS-Technologie an, mindestens einen Veteranen aus den Anfangstagen des Internets abzulösen: den Newsletter. In den zunehmend überquellenden Postfächern finden die elektronischen Rundmails sowieso kaum Beachtung, und wer regelmäßig seinen Feedreader im Auge behält, benötigt schlichtweg keine Benachrichtigungen per E-Mail. Ob künftig kommerzielle Websites die Möglichkeiten der News-Syndication nutzen und Hinweise auf fremde Seiten in ihr Angebot integrieren werden, darf bezweifelt werden. Man stelle sich folgendes Szenario in der Offline-Welt vor: Neben einem Artikel im gedruckten Spiegel findet sich ein Kasten mit den Hinweisen: Zu diesem Thema finden Sie im aktuellen Focus diesen Beitrag und im neuen Stern jenen. Unvorstellbar. Aber bei genauerer Betrachtung wahrscheinlich sogar vorteilhaft für alle Beteiligten. Im Web ist das technisch bereits ohne weiteres machbar. Allein der Wille fehlt. Bisher."
    Date
    26. 9.2003 12:42:22
  3. Sixtus, M.: Wikipedia im Meinungsstrudel (2005) 0.01
    0.0052546747 = product of:
      0.03152805 = sum of:
        0.03152805 = weight(_text_:der in 4046) [ClassicSimilarity], result of:
          0.03152805 = score(doc=4046,freq=42.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3392921 = fieldWeight in 4046, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4046)
      0.16666667 = coord(1/6)
    
    Content
    "Was Medienberater ihren Schützlingen aus Politik, Popmusik und Sport als erste Lektion einbläuen, musste in diesem Monat auch die Community um die freie Online-Enzyklopädie Wikipedia lernen: Die Windrichtung der öffentlichen Meinung dreht sich bisweilen blitzartig um 180 Grad. Im Jahr 2005 war das erste Mal eine breite Öffentlichkeit auf das Wikipedia-Projekt aufmerksam geworden. Die Berichterstattung oszillierte meist zwischen Staunen, Wohlwollen und Euphorie. Doch zum Jahresende kippt nun die Stimmung. Auslöser war ein wütender Artikel, den der Publizist John Seigenthaler Anfang Dezember in Amerikas meistgelesener Tageszeitung USA Today veröffentlichte. "Ich habe keine Ahnung, welches kranke Hirn sich das ausgedacht hat", schimpfte Segenthaler und meinte damit einen unbekannten Vandalen, der etliche falsche Aussagen in die Wikipedia-Version von Seigenthalers Biografie hineingepfuscht hatte. Die Stimmung kippt So konnte man dort lesen, es habe der Verdacht bestanden, er sei am Kennedy-Attentat beteiligt gewesen und habe später mehrere Jahre in der Sowjetunion gelebt. "Ich dachte, mit 78 Jahren könnte mich nichts mehr überraschen oder verletzen, was an Negativem über mich gesagt wird, schrieb Seigenthaler und fügte hinzu: "Das stimmt nicht." Was ihn besonders aufregte: 132 Tage lang hatte niemand die falschen Behauptungen korrigiert, obwohl das jedermann möglich gewesen wäre. Im daraufhin losbrechenden Kritik- und Empörungs-Sturm, der durch die internationale Presse fegte, schwingt fast ein wenig Erleichterung mit, darüber, dass die selbst gebaute Wissenssammlung doch nicht perfekt ist. Berufszyniker, die schon immer gewusst hatten, dass die Menschen nun mal schlecht sind und in deren Weltbild eine Gemeinschaft altruistischer Informationssammler partout nicht passen will, triumphierten in aller Öffentlichkeit. So hetzte das britische, im Dauer-Sarkasmus-Modus laufende Online-Magazin The Register. "Es gibt keinen Wikipedia-Eintrag für Moralische Verantwortung." Andere Register-Redakteure freuten sich diebisch, dass es ihnen gelang, eine Fake-Information in die Biografie von Wikipedia-Gründer Jimmy Wales hineinzuschummeln. "Jimmy Wales wurde am 12. Dezember 2005 von einem Freund John Seigenthalers erschossen; stand dort plötzlich zu lesen - laut EditierLog allerdings nur präzise eine Minute lang. Der Software-Entwickler Dave Winer beschwerte sich in seinem Blog lautstark über einen "schlampigen" Artikel, der ihn falsch zitiert. Andere suchten und fanden weitere Haare in der freien Wissens-Suppe. Auch die Tageszeitung Die Welt will plötzlich entdeckt haben, dass sich in der Wikipedia "mehr und mehr Ungereimtheiten, Fehlinformationen, Verdrehungen, Propaganda und Lügen" ansammeln.
    Arne Klempert, zweiter Vorsitzender und Sprecher der Wikimedia e.V sieht die aktuelle Kritikwelle erstaunlich gelassen. "Uns war bei all dem vorangegangenen Lob und all der Schwärmerei der Medien selbst etwas unwohl" beschreibt er die Stimmung unter den Internet-Enzyklopädisten. Vielleicht sei der Hagelsturm sogar förderlich für das Projekt: "Maßnahmen zur Qualitätssicherung und -steigerung diskutieren wir innerhalb der Gemeinschaft bereits seit Jahren." Die Krise als Chance: Nun könnten vielleicht auch Wiki-Puristen und Offenheits-Dogmatiker einsehen, dass grenzenlose Freiheit für jedermann nicht grundsätzlich der beste Weg ist. Die ersten Einschränkungen sind bereits auf den Weg gebracht. So soll es künftig stabile Artikelversionen geben, in die Änderungen erst nach Abnahme durch die Gemeinschaft gelangen können. "Der Nutzer wird dann die Wahl haben, ob er sich die stabile oder die aktuelle Artikelversion anzeigen lässt", erläutert Klempert. "Dieser Schritt war schon länger geplant", weist Arne Klempert einen Zusammenhang mit der aktuellen Qualitätsdebatte zurück. In der deutschen Wikipedia-Version sei diese Hürde jedoch nicht vorgesehen. "Die deutsche Ausgabe hat keinen exponentiellen Zuwachs an neu angelegten Artikeln. Das ist in dein USA ein viel größeres Problem." Doch wer weiß? Vielleicht befindet sich das Medienpendel ja bereits wieder auf dem Rückweg in wohlwollendere Gefilde? Das Wissenschaftsmagazin Nature verglich jüngst Artikel des Online-Lexikons mit ihren Gegenstücken aus der renommierten Enzyclopedia Britannica und kam zu dem Ergebnis: Beide Nachschlagewerke enthalten einige Fehler und Auslassungen, die Wikipedia nur ein wenig mehr. Dieser Umstand reicht offenbar bereits aus, den Blätterwald wieder jubilieren zu lassen. Die Rheinische Post spricht von einem "Ritterschlag für die Online-Enzyklopädie" und auch Die Welt hat ihre erst jüngst so dramatisch vorgetragenen Bedenken schon über Bord geworfen und feiert stattdessen den "Triumph der Lexikon-Amateure". Diese Reaktionen sind Arne Klempert schon wieder entschieden zu hochgestimmt. Er relativiert: "Schließlich waren in diesem Vergleich unsere Artikel nur annähernd so gut wie die professionell geschriebenen und nicht etwa besser." Ein wenig Medienschelte hat er auch dabei: "Wir sagen in Interviews eigentlich immer wieder ganz deutlich, dass die Wikipedia weit von einer eventuellen Perfektion entfernt ist, aber nur die wenigsten Journalisten wollen das hören.""