Search (7 results, page 1 of 1)

  • × author_ss:"Sixtus, M."
  1. Sixtus, M.: ¬Das Gemeinschaftsnetz : Im Wiki-Web können alle Surfer Seiten umschreiben und hinzufügen - so entstehen ganze Enzyklopädien (2003) 0.04
    0.039271276 = product of:
      0.1047234 = sum of:
        0.04300241 = weight(_text_:unternehmen in 1739) [ClassicSimilarity], result of:
          0.04300241 = score(doc=1739,freq=4.0), product of:
            0.17271045 = queryWeight, product of:
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.032515142 = queryNorm
            0.24898559 = fieldWeight in 1739, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1739)
        0.05511296 = weight(_text_:wissensmanagement in 1739) [ClassicSimilarity], result of:
          0.05511296 = score(doc=1739,freq=4.0), product of:
            0.19552355 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.032515142 = queryNorm
            0.2818738 = fieldWeight in 1739, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1739)
        0.006608029 = product of:
          0.013216058 = sum of:
            0.013216058 = weight(_text_:22 in 1739) [ClassicSimilarity], result of:
              0.013216058 = score(doc=1739,freq=2.0), product of:
                0.113862485 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032515142 = queryNorm
                0.116070345 = fieldWeight in 1739, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1739)
          0.5 = coord(1/2)
      0.375 = coord(3/8)
    
    Content
    "Wissen ist in. Allerorten wird es zum Rohstoffdes 21. Jahrhunderts ausgerufen. Doch je mehr man weiß, desto wichtiger ist es, die Informationen professionell zu verwalten, zu organisieren und zu pflegen. Manche Unternehmen bauen dazu teure, komplexe Knowledge-Management-Systeme ins Firmennetz ein. Doch das Wissensmanagement geht einfacher - mit Wikis. Ein Wiki ist eine Sammlung dynamischer Webseiten, die über Verweise verbunden sind und alle über eine Besonderheit verfügen: Ganz unten fordert ein Button alle Surfer dazu auf, die aktuelle Seite zu verändern. Prinzipiell kann jeder jede Seite ändern, ergänzen, verbessern oder sogar löschen. Rechte-Hierarchien existieren schlicht nicht. Jeder User ist gleichzeitig Leser, Lektor, Redakteur und Autor. Seiten anlegen und verlinken geschieht in einem Arbeitsgang. Einige rudimentäre Möglichkeiten zur Textformatierung und zur Einbindung von Grafiken sowie eine Volltextsuche runden den bescheidenen Funktionsumfang eines Standard-Wikis ab - und machen es verblüffenderweise doch zu einem mächtigen Werkzeug. Geübte User erzeugen mit dem virtuellen Zettelkasten in Windeseile Strukturen, die Hunderte oder Tausende von Einzelseiten umfassen. Die Einsatzmöglichkeiten sind vielfältig: Wikis fungieren als Wissensspeicher, als Basis für gemeinsame Projektdokumentationen, als Materialanforderungsformular oder als Brainstorminghilfe in Kreativberufen. Und selbst bei der Planung von Betriebsfeiern oder als Datenbank für Kochrezepte sollen sie schon zum Einsatz kommen. Wenn jeder Nutzer jedes einzelne Dokument ändern oder löschen kann, herrscht dann nicht das Chaos? Was passiert, wenn Fehler sich einschleichen oder wichtige Passagen verschwinden? Dagegen sind die Wikis gewappnet: Mit der HistoryFunktion und über Differenzberechnungen lässt sich überblicken, wer wann was geändert hat. Bei Bedarf lassen sich alle Anderungen rückgängig machen. Jeder historische Zustand ist so mit wenigen Mausklicks wiederhergestellt. Seit 1999 setzen Teams des Mobilfunkherstellers Motorola auf Wikis als Werkzeuge für das kollaborative Arbeiten, die Lufthansa verwendet sie zur Verwaltung technischer Dokumentationen, und die Konzerne SAP und Disney experimentieren mit den wenigen hundert Kilobyte kleinen Systemen in ihren Firmennetzen. Das erste Wiki hat der Software-Entwickler Ward Cunningham im Jahr 1995 unter der Adresse c2.com/cgi/wiki ins Netz gestellt - und dort steht es heute noch. Der Begriff "Wiki" ist das hawaiianische Wort für "schnell", und genau darum ging es Cunningham: flottes, unkompliziertes Arbeiten, ohne von einem unübersichtlichen Funktionsumfang gebremst zu werden. Mittlerweile existieren etliche Klons und Weiterentwicklungen des UrWikis, in mehreren Programmiersprachen und für fast alle Computerplattformen. Die meisten stehen gratis und unter der Open-Source-Lizenz im Netz.
    Die Idee des editierbaren Internets geht zurück auf den Erfinder des World Wide Web, Tim Berners-Lee, der in seinem Buch Weaving the Web die Grundideen der Wiki-Philosophie aussprach: "Das Web editieren zu können ist genauso wichtig, wie durch es zu browsen." Aber haben Sites, an denen jeder zufällig Vorbeisurfende herumdoktern kann, überhaupt eine Überlebenschance? Wer schon einmal beobachtet hat, wie schnell offene Systeme wie Gästebücher oder Foren im Chaos versinken können, mag berechtigte Zweifel anmelden. Erstaunlicherweise funktionieren offene Wikis aber hervorragend. Beispielsweise Wikipedia: Das seit 2001 laufende Enzyklopädie-Projekt umfasst in der englischsprachigen Variante mehr als 144 000 Artikel. Das Mammutvorhaben, das Wissen der Welt in einem Wiki festzuhalten, wird nicht von einer Hand voll Autoren und Redakteuren angegangen. Vielmehr kann jeder Surfer sein persönliches Know-how dazu beisteuern. Dank der globalen Teamarbeit haben die Wikipedia-Artikel eine beachtliche Qualität erreicht - und können sich bisweilen durchaus mit professionellen und kostspieligen Nachschlagewerken messen. Der Journalist und Bestseller-Autor Sheldon Rampton verfolgt mit seinem Wiki-Projekt Disinfopedia.org speziellere Ziele: Die Enzyklopädie der Propaganda soll dokumentieren, wie PR-Unternehmen, Lobbyisten und Thinktanks die öffentliche Meinung in den USA mit Hilfe von fragwürdigen wissenschaftlichen Studien, fingierten Graswurzelbewegungen oder schlichter Verbreitung von Falschinformationen beeinflussen. Auch Disinfopedia wächst und gedeiht unter Mitarbeit der Netzbewohner, und obwohl man annehmen müsste, dass gerade ein solches politisches Projekt besonders unter Störern und Angreifern leidet, hat sich die Wiki-Technologie bisher als resistent erwiesen. Wer sich mit dem Thema Wissensmanagement beschäftigt, sollte auf jeden Fall ernsthaft prüfen, ob die kleine Wiki-Teeküche für seine Belange ausreicht. Und für manche Netzphilosophen sind die erfolgreichen Experimente mit den offenen Websites dann auch mehr als nur ein gelungenes Beispiel für gemeinschaftliches Arbeiten: Sie seien auch Beweis dafür, dass die menschliche Konstruktivität größer ist als ihre zerstörerischen Kräfte. Ein digitaler Hoffnungsschimmer."
    Date
    17. 7.1996 9:33:22
  2. Sixtus, M.: Verirrter Wegweiser : Die Suchmaschine Google findet nicht immer die korrekte Richtung - wie ein ungewöhnlicher Wettbewerb zeigt (2004) 0.01
    0.014818755 = product of:
      0.05927502 = sum of:
        0.052666992 = weight(_text_:unternehmen in 2430) [ClassicSimilarity], result of:
          0.052666992 = score(doc=2430,freq=6.0), product of:
            0.17271045 = queryWeight, product of:
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.032515142 = queryNorm
            0.30494386 = fieldWeight in 2430, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2430)
        0.006608029 = product of:
          0.013216058 = sum of:
            0.013216058 = weight(_text_:22 in 2430) [ClassicSimilarity], result of:
              0.013216058 = score(doc=2430,freq=2.0), product of:
                0.113862485 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032515142 = queryNorm
                0.116070345 = fieldWeight in 2430, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2430)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Content
    Kennen Sie "Nigritude Ultramarine"? Nein? Fragen Sie doch Anil Dash. Oder vielleicht Google - aber dann könnten-Sie ebenfalls bei Dash landen. Der Internetautor ist Sieger eines ungewöhnlichen Wettbewerbs der Online-Werbefirma Darkblue: Einen Monat lang sollten Webseitenmacher Google veräppeln - und dafür sorgen, dass ihre Seite oben steht, wenn Surfer nach dem Phantasiebegriff suchen. Fast eine halbe Million Seiten stehen nun in der Ergebnisliste. Das stärkt Kritiker, die schon lange warnen, Google sei manipulierbar. Zugleich sammelt mit Yahoo und Microsoft die Konkurrenz ihre Kräfte. Die Lage für den Marktführer wird schwieriger - und das just in der Zeit, in der Google an die Börse strebt. Fachleute spekulieren, das Unternehmen wolle noch in diesem Monat seine Aktien über eine Internet-Auktion verkaufen. Die Stärke wird zur Schwäche Googles "Nigritude Ultramarine"-Schwäche ist die Folge einer eigentlichen Stärke: Die Suchmaschine merkt sich die Inhalte von Webseiten - und sie bewertet darüber hinaus deren Wichtigkeit. Als Maßstab prüft sie, wie viele andere Seiten auf die gefundene Adresse verweisen. Die Logik dahinter: Nennen viele Webautoren eine bestimmte Seite, muss sie interessanter sein als andere mit ähnlichem Inhalt. Google schaut zudem nach, mit welchen Begriffen Surfer auf weitere Angebote verwiesen werden - diese Link-Texte sind besonders wichtig für die Bewertung der Zielseiten. Politische Aktivisten nutzen das manchmal aus. Sie sorgen etwa dafür, dass bei einer Suche nach "miserable failure" ("klägliches Versagen") die Biografie von US-Präsident George W. Bush die Ergebnisliste anführt. Auch konservative Internetkenner arbeiten mit dem Trick: Eine Recherche nach "Waffles" (Geschwafel) führt zum Herausforderer John Kerry. Wesentlich ärgerlicher als solche Politik-spielereien sind' die Machenschaften vieler so genannter Search Engines Optimizers, kurz SEO. Der boomende Wirtschaftszweig lebt davon, die Webangebote der Kunden auf Trefferlisten möglichst weit nach oben zu bugsieren. Webmaster aus der Pornobranche nehmen die Grauzonen-Dienstleistungen gerne in Anspruch. Auch professionelle Ebay-Händler und Partner des Webkaufhauses Amazon arbeiten mit Tricks, um ihre Adressen mit allen nur erdenklichen Suchanfragen zu verknüpfen. Die neueste Masche: Die SEO-Branche lässt eine Software auf das Internet los, die automatisiert und massenweise Kommentare schreibt. Die austauschbaren Stellungnahmen der Güteklasse "coole Website" oder "interessanter Text" enthalten einen Verweis zu der Seite, für die geworben werden soll. Das Kalkül dabei: Google findet die Einträge und erhöht die Bewertung der verlinkten Seite. "In einer Nacht sammelten sich Hunderte der Kommentar-Spams in meinem Weblog an", stöhnt der Düsseldorfer Blogger Siggi Becker, "allesamt führten sie zu Porno-Websites des untersten Niveaus." Ihn ärgert der Arbeitsaufwand, um die Roboter-Hinterlassenschaften zu löschen. Und er fügt hinzu: "Man fühlt sich ein wenig beschmutzt."
    - Eine Chance für die Konkurrenz - Des einen Dilemma könnte des anderen Chance sein: Schon seit Monaten arbeitet der Software-Riese Microsoft an einer eigenen Suchmaschinen-Technik, um Google Marktanteile abzujagen. Vor wenigen Tagen ging eine Vorabversion der neuen MSN-Suche online. Die Startseite präsentiert sich schlicht und aufgeräumt, auch der Index wirkt aktuell. An der Relevanzbewertung scheint der Redmonder Konzern jedoch noch zu arbeiten. Eine Testsuche nach "Quitten" lieferte als ersten Treffer das Profil eines russischen Nutzers der Tagebuchschreiber-Gemeinschaft Live Journal, während die gleiche Anfrage bei Google zur Website Quitten -fast vergessene Köstlichkeiten der WDR-Sendung Hobbythek führte. Zweifellos die bessere Wahl. Einen Schritt weiter als Microsoft ist der Portalanbieter Yahoo. Bereits seit Februar indiziert er mit einer selbst entwickelten Technik das Netz. Die Qualität der Ergebnisse kann mit dem Marktführer durchaus konkurrieren, wie Fachleute bestätigen. Kein Wunder: Der Algorithmus orientiert sich an der Seitenbewertungstechnik des großen Vorbilds. Auch von grafisch beladenen Seiten nimmt Yahoo wohl Abschied - die neue Abfragemaske wirkt für YahooVerhältnisse geradezu spartanisch. Einen anderen Ansatz, die Recherche im Web zu vereinfachen, probiert das deutsche Portal Web.de. Das "Smart Search" genannte Verfahren blendet neben der Ergebnisliste einen Themenbaum ein, der helfen soll, die Treffer' einzuordnen. Die Anfrage "Koch" liefert beispielsweise die Ergänzungsvorschläge "Kochbuch" und "Rezepte`; aber auch "Robert Koch". Ein "Ministerpräsident" wurde jedoch nicht angeboten, und Begriffe wie "moved" (verschoben) oder "offers" (Angebote) dürften bei der Suche kaum weiterhelfen. Auch fällt die mangelnde Aktualität des Datenbestands negativ auf, den das Karlsruher Unternehmen vom Zulieferer Inktomi bezieht. Sollte die Konkurrenz von Google wieder stärker werden, könnte das möglicherweise auch den Deutschen Bundestag ein wenig beruhigen. Der Unterausschuss des Parlaments für Neue Medien sorgt sich um den Suchmaschinenmarkt. Um Monopolbildungen und Manipulationen vorzubeugen, sinnierte man in Berlin über die Notwendigkeit einer "öffentlich-rechtlichen" Suchmaschine. Besonders die Grünen befürchten eine mögliche Einschränkung des Rechts auf Informationsfreiheit, sollten nur wenige Unternehmen die Recherchen im Internet anbieten."
    Date
    22. 7.2004 9:40:10
  3. Sixtus, M.: Füttern erlaubt : Webseiten versorgen zunehmend "Feedreader" mit Informationen - das erlaubt gezieltes Lesen statt langem Surfen (2003) 0.01
    0.009253832 = product of:
      0.037015326 = sum of:
        0.030407296 = weight(_text_:unternehmen in 1646) [ClassicSimilarity], result of:
          0.030407296 = score(doc=1646,freq=2.0), product of:
            0.17271045 = queryWeight, product of:
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.032515142 = queryNorm
            0.1760594 = fieldWeight in 1646, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1646)
        0.006608029 = product of:
          0.013216058 = sum of:
            0.013216058 = weight(_text_:22 in 1646) [ClassicSimilarity], result of:
              0.013216058 = score(doc=1646,freq=2.0), product of:
                0.113862485 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032515142 = queryNorm
                0.116070345 = fieldWeight in 1646, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1646)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Content
    "Wer im Jahr 2003 in seinen Lieblingsthemen detailliert informiert sein möchte, klappert täglich Dutzende von News-Sites und Webmagazinen ab. Ein Unterfangen, das mitunter recht mühselig sein kann: Neben, über und unter den gewünschten Nachrichten quälen sich bei jedem Aufruf Menüleisten, Banner und Grafiken durch die Leitung, und oft genug wurde die Seite seit seinem vergangenen Besuch nicht einmal aktualisiert. RSS-Clients, auch Feedreader genannt, könnten künftig Surfern die zeitaufwendige Handarbeit abnehmen. Das Prinzip ist denkbar einfach: Die Betreiber von Webangeboten stellen - neben den HTML-Seiten, die übliche Browser benötigen - einen so genannten Newsfeed zur Verfügung. Genau genommen handelt es sich dabei um nichts Weiteres. als eine speziell kodierte Textdatei mit berschriften, Zusammenfassungen und Textausschnitten der jeweils jüngsten Meldungen. Der Feedreader dreht in regelmäßigen Abständen seine Runden, holt diese Dateien und - wieder daheim - präsentiert die enthaltenen Informationen übersichtlich lesbar. Erst ein Klick auf eine Überschrift lädt den entsprechenden Originalartikel schließlich in den Webbrowser. Statt sich der Reizüberflutung auf Dutzenden, unterschiedlich gestylten Websites auszusetzen, genügt so ein Blick auf die systematisch geordneten Texteinträge im Fenster des Feedreaders, um zu entscheiden, welche Beiträge einer genaueren Betrachtung würdig sind und welche nicht. Diese Sammel-und-Zeige-Programme gibt es mittlerweile in vielen Geschmacksrichtungen und für nahezu jedes Betriebssystem (siehe "Feedreade"). Der Haken: Die Betreiber der Webangebote müssen den Dienst unterstützen und die nötigen RSS-Dateien zur Verfügung stellen. Da sich die meisten News-Magazine allerdings mit Bannerwerbung finanzieren, standen ihre Herausgeber dieser Verbreitung ihrer Texte bisher skeptisch gegenüber. Doch langsam denken viele um: Immerhin kann das System Besucher anlocken. Und nicht irgendwelche. Die Leser sind ausgesprochen interessiert und motiviert, da sie sich explizit für ein bestimmtes Angebot entschieden haben - und nicht zufällig oder unter Zeitdruck durch die einzelnen Seiten stolpern. Spätestens seit mit Yahoo einer der großen Anbieter seine aktuellen Meldungen als Newsfeed verbreitet, darf man davon ausgehen, dass etliche Mitbewerber folgen werden. So könnte die praktische Technologie in absehbarer Zeit zum nützlichen Alltagswerkzeug werden. Bis das soweit ist, übernehmen spezialisierte Dienste den Job des Mittlers zwischen den Welten: Unter NewsIsFree.com kann sich jeder User seine individuelle Auswahl an RSSFeeds zusammenstellen. Sollte das betreffende Internet-Angebot die Technik noch nicht unterstützen, wird einfach kurzerhand der notwendige Feed extern generiert - ob es dem Betreiber nun passt oder nicht. Der Service ist in der Basis-Version kostenlos. RSS steht für "Rich Site Summary". Doch zuletzt werden die drei Buchstaben häufiger als Akronym für "Really Simple Syndication" eingesetzt. Die Idee geht zurück auf das Jahr 1999, als das mittlerweile beinahe verblichene Unternehmen Netscape mit Hilfe dieses Verfahrens die Popularität seines Portals MyNetscape.com erhöhen wollte. Der Durchbruch kam mit der Verbreitung der Weblogs. Angeregt durch die Integration des RSS-Standards in das beliebte Blog-Tool Radio Userland, übernahmen die Hersteller anderer Publishing-Systeme schnell diese Strategie, und heute kommt kaum noch ein Online-Journal ohne eigenen Newsfeed aus - erkennbar am kleinen XML-Button auf der Startseite.
    Date
    26. 9.2003 12:42:22
  4. Sixtus, M.: ¬Der Zündfunke erlischt : Der Browser "Netscape", Wegbereiter des Web, ist tot - hinterlassen hat er das Open-Source-Projekt "Mozilla" (2003) 0.01
    0.006583374 = product of:
      0.052666992 = sum of:
        0.052666992 = weight(_text_:unternehmen in 1740) [ClassicSimilarity], result of:
          0.052666992 = score(doc=1740,freq=6.0), product of:
            0.17271045 = queryWeight, product of:
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.032515142 = queryNorm
            0.30494386 = fieldWeight in 1740, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1740)
      0.125 = coord(1/8)
    
    Content
    "Arbeiter schrauben das Logo an der Firmenfassade ab, die zuletzt verbliebenen 58 Entwickler bekommen ihre Entlassungen. Ein Stück Internet wird Geschichte: Das Medienunternehmen AOL/Time Warner gibt Netscape auf. Damit geht nicht irgendeine Internetsoftware den Weg zum Datenfriedhof; es ist das Computerprogramm, das die explosionsartige Verbreitung des World Wide Web ermöglichte. Der Zündfunke des medialen Urknalls erlischt - und niemand scheint ihm eine Träne nachzuweinen. Wie konnte es so weit kommen? Im Jahre 1993 war das Internet noch eine Spielwiese für Datenfreaks: eine binäre Nebenwelt, die sich durch Forschungs-, Universitäts- und Militäreinrichtungen zog und von deren Existenz nur wenige wussten. Das sollte sich ändern. Der aus dem universitären Projekt NCSA-Mosaic hervorgegangene Webbrowser Netscape Navigator bescherte dem Netz eine grafische Benutzeroberfläche - und ermöglichte es so auch Personen ohne höhere Computerweihen, sich fast problemlos durch das Internet zu bewegen. Es war der Ausgangspunkt einer Medienrevolution. Das Unternehmen Netscape Communications ging am 9. August 1995 an die Börse. Am Ende des ersten Handelstags hatte sich der Aktienkurs von 28 auf 58 Dollar mehr als verdoppelt. Der Anteil am Browsermarkt wurde damals auf vier Fünftel geschätzt. Doch im gleichen Jahr brach die Epoche an, die in Internet-Geschichtsbüchern mittlerweile als "Browserkrieg" ihr eigenes Kapitel erhält. Anfang 1998 ging Spätstarter Microsoft zwar mit einigen Monopolrechtsklagen-Stacheln, sonst aber weitgehend unbeschadet als Sieger aus der zum David-gegen-GoliathKampf stilisierten Machtprobe hervor. Da nutzte es auch nichts mehr, dass Netscape-Gründer Marc Andreessen und Vorstandschef Jim Barksdale im Frühjahr 1998 die Reißleine zogen - und die Programmzeilen des Browsers veröffentlichten. Das Kalkül dabei: Freiwillige Entwickler aus aller Welt sollten helfen, seine Software zu verbessern. Das Open-Source-Projekt Mozilla.org entstand. Viele bewerteten den Schritt freilich als unternehmerischen Offenbarungseid. David hatte vor Goliath kapituliert. Ende des Jahres übernahm schließlich AOL das Unternehmen Netscape - für 4,2 Milliarden US-Dollar. Spätestens mit dem Verkauf sahen Skeptiker den Niedergang besiegelt. Sie wiesen darauf hin, AOL dürfte kaum Interesse an der Software haben, sondern sich eher für das populäre Webportal Netscape.net interessieren. Der Browser sei lediglich Drohkulisse und Joker in Verhandlungen mit Microsoft. Heute scheint es, als hätten die Schwarzseher Recht behalten. Im Rahmen eines Vergleichs, als Abschluss eines langen Kartellrechtsprozes ses, zahlte Microsoft im Mai diesen Jahres 750 Millionen Dollar an AOL - und erlaubte dem Onlinedienst, in den kommenden sieben Jahre den Internet Explorer in seine Zugangssoftware einzubauen. Netscape hatte seine Schuldigkeit getan. Es war als Faustpfand überflüssig geworden. Auch an anderer Stelle war Netscape entbehrlich: als schmückender Einband und Namenshülse für das Open-SourceProjekt Mozilla. Während im Laufe der vergangenen Jahre der unabhängige Browser mit der Echse sich zur schlanken, schnellen und leistungsstarken Alternative zum Internet Explorer mauserte - und ihn nach Ansicht vieler Experten um Längen überholt hat -, gelang es Netscape unter der AOL-Ägide stets, seine Fans mit unausgegorenen und überhastet veröffentlichten Programmversionen zu verärgern, die oft schlampig programmiert und lieblos zusammengeschustert waren - obgleich doch darin das gleiche Herz schlägt wie in Mozilla. So verwundert es kaum, dass sich der Verlustschmerz in Grenzen hält: Die meisten Netscape-Fans sind längst zur Echse gewechselt, und allseits gilt die metaphysische Sprachregelung: "In Mozilla wird Netscape weiterleben."
    Die Leguan-Entwickler finden in der nicht gewinnorientierten Stiftung Mozillafoundation ein neues Zuhause. Zur Gründung überweist AOL eine Anschubspende von zwei Millionen Dollar - ob aus alter Treue oder aus schlechtem Gewissen sei dahingestellt. Lotus-Entwickler und künftiger Vorstand Mitch Kapor steuert 300000 Dollar aus seiner Privatschatulle bei. Mit dem Linux-Distributor Redhat und dem Microsoft-Erzfeind Sun-Microsystems haben die ersten prominenten Unternehmen ihre Unterstützung zugesagt. Die alte und neue Chef-Entwicklerin Mitchell Baker übt sich bereits in unverhohlenen Kampfansagen in Richtung Microsoft: "Wir haben halt den besseren Browser, und das ist es, worum es geht." Laut der Statistiksite OnStat.com verfügt Mozilla derzeit über einen Marktanteil von 1,2 Prozent, Netscape liegt bei 2,9 Prozent. Der Microsoft Internet Explorer kontrolliert mit 95,3 Prozent den Browsermarkt nahezu alleine. Insofern erscheinen die markigen Worte aus der ReptilienFraktion zumindest mutig. Aber über die Ausgangslage ist man sich im MozillaTeam durchaus im Klaren: Nur ein Markenstreit verhinderte, dass die neue Miniversion des Browsers Firebird einen Namen bekam, in dem noch eindeutigere Symbolik mitschwingt: Phoenix. Seit dieser Woche steht die deutsche Version von Netscape 7.1 zum kostenlosen Download bereit. Für Kenner der Materie das beste Stück Software, das je das Label Netscape trug. Leider zu spät."
  5. Sixtus, M.: Falsche Türen : Google kämpft gegen Tricks, mit denen sich Webseiten in den Suchlisten nach oben drängeln - und bestraft BMW (2006) 0.01
    0.0063348534 = product of:
      0.050678827 = sum of:
        0.050678827 = weight(_text_:unternehmen in 4917) [ClassicSimilarity], result of:
          0.050678827 = score(doc=4917,freq=8.0), product of:
            0.17271045 = queryWeight, product of:
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.032515142 = queryNorm
            0.29343233 = fieldWeight in 4917, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4917)
      0.125 = coord(1/8)
    
    Content
    ""Das Suchen hat einen religiösen Charakter angenommen. Die Leute wollen gar nicht mehr finden, sie wollen suchen", sinnierte kürzlich der Netzpionier und Schriftsteller Peter Glaser. Vielleicht bleibt den Menschen nichts anderes übrig als eine Recherche ähnlich wie eine buddhistische Meditation anzugehen. Denn, dass sie finden, was sie suchen, wird immer weniger wahrscheinlich. "Deutschland ist momentan sicher das Spam-Land Nummer eins", bestätigt Stefan Keuchel, nationaler Sprecher von Google. Er meint damit nicht die Massenmails, die für raubkopierte Software und Genitalvergrößerungen werben, sondern SuchmaschinenSpam: Webseiten, die es nur gibt, um weit oben in den Trefferlisten aufzutauchen. Wer eine Suchmaschine nach Test- oder Erfahrungsberichten zu einem bestimmten Produkt bemüht, kennt das: Auf den ersten Seiten tummeln sich Preisvergleichsdienste, ominöse Branchenverzeichnisse, oder man wird ungefragt auf eine Internetauktion umgeleitet. Oft genug haben die Seiten nichts mit der Suchanfrage zu tun. Diese Form der Bauernfängerei ist ärgerlich und zeitraubend für die Nutzer einer Suchmaschine - und gefährlich für ihre Betreiber. Mit der sinkenden Qualität der Ergebnisse verlieren sie Vertrauen - und Werbekunden. BMW wollte mit dutzendfachen Wortwiederholungen täuschen Zwar ändern Google, Yahoo und die anderen ständig ihre Bewertungen, um die falschen Treffer zu verdammen. Allerdings beschränkten sie sich dabei bislang auf ihren englischsprachigen Heimatmarkt. Das soll sich nun ändern. Vor rund drei Wochen gab Software-Ingenieur Matt Cutts, bei Google für die Qualität der Suchergebnisse zuständig, in seinem Weblog bekannt, man wolle sich verstärkt dem nicht-englischsprachigen Internet widmen. Das erste prominente Opfer: BMW. Die Hauptadresse des bayerischen Autobauers www.bmw.de war in dieser Woche bei Google zeitweise nicht zu finden. Mittlerweile taucht sie dort wieder auf. Die Höchststrafe fing sich BMW ein, weil das Unternehmen mit Brückenseiten arbeitete. Das sind Phantomseiten, die mit dutzendfachen Wiederholungen von Worten wie Gebrauchtwagen, Neuwagen, Jahreswagen und natürlich BMW die Suchmaschinenroboter füttern sollen. Menschliche Internetnutzer sehen die Wörtersuppe nicht, sie werden automatisch auf eine andere Seite gelenkt. "Das ist einklarer Verstoß gegen unsere Richtlinien% sagt Google-Sprecher Keuchel. Auch BMW habe Regeln für seine Zulieferer. Naturgemäß sieht das München anders. Zwar gesteht Sprecher Markus Sagemann die umstrittenen Trickseiten ein, aber: "Wir haben den Leuten keine falschen Inhalte vorgespiegelt. Wer auf BMW-Gebrauchtwagen geklickt hat, ist auch dort gelandet." Und man solle das Thema bitte nicht groß reden: "Über Google kommen gerade einmal 0,4 Prozent unserer Besucher."
    Der Experte Philipp Lenssen hatte in seinem Weblog Anfang Februar als erster über die BMW-Praktiken berichtet. Er wundert sich: "Wenn wirklich nur so wenige Besucher via Google bei BMW landen, warum legen die dann Hunderte von Köder-Seiten aus?" Auch die Argumentation, man habe keine falschen Inhalte vorgespiegelt, hält er für verfehlt: "Welche Seiten für einen Suchbegriff relevant sind und welche nicht, bestimmt aus gutem Grund die Suchmaschine und nicht der Seitenbetreiber." Der empfinde seine Seiten stets als relevant. Einige Google-Fänger seien auf Begriffe wie BMW-Testberichte optimiert worden. "Da erwartet man doch eher, auf einer Seite neutraler Herkunft zu landen als direkt beim Hersteller." Allerdings ist es eher unwahrscheinlich, dass der Autobauer mit Methoden aus den virtuellen Rotlicht- und Spielbank-Vierteln auf Kundenfang gehen wollten. Der Griff in die Kiste der dunklen Tricks war eher eine unüberlegte Notlösung, denn zuvor waren große Teile der BMW-Seite überhaupt nicht in Suchmaschinen zu finden. Das wundert Lenssen nicht: "Die Navigation funktioniert nur mit eingeschaltetem Javascript, außerdem besteht die komplette Websites aus ineinander verschachtelten Frames", also Fenstern. Genauso gut hätte man ein "Für Suchmaschinen verboten!" auf die Site kleben können. "Die Seiten sollten einfach wieder bei einer Suche auftauchen", versucht sich BMW zu erklären. Das Sichtbarmachen der versteckten Inhalte sollte das Frankfurter Unternehmen Netbooster übernehmen. Vielleicht nicht die beste Wahl: Die Hauptadresse des Unternehmens fehlt bei Google ebenfalls. In Frankreich war die Firma bereits vor zwei Jahren negativ aufgefallen. Netbooster verweigert eine Stellungnahme. BMW scheint Opfer des Stan-Laurell-Syndroms geworden zu sein: dem Versuch, einen Fehler mit einem weiteren zu vertuschen. Die Unbeholfenheit im Umgang mit dem Internet verwundert Google-Sprecher Keuchel nicht: "Gerade die großen deutschen Unternehmen achten meist nur auf Design und Erscheinungsbild ihrer Seiten." Viele Manager verstünden nicht, wie das Netz und die Suchmaschinen funktionieren. "Und dann wundern sie sich, dass sie nicht zu finden sind", sagt Keuchel. Die Debatte könnte einem anderen Thema Auftrieb geben: barrierefreiem Webdesign. Als Faustregel gilt: Wer seine Seiten so gestaltet, dass sie ohne Zusatzprogramme oder Spezialfunktionen wie Javascript lesbar sind, macht es Suchmaschinen leicht, sie zu finden. Auch sonst könnte die Unstimmigkeit zwischen Google und BMW für ein reinigendes Gewitter sorgen. Viele Fachleute glauben, Suchmaschinen-Spammer würden aus Furcht vor dem drohenden GoogleBann nun ihre vorgeschalteten Seiten einsammeln. Dann könnte Suchen vielleicht wieder etwas mehr mit finden zu tun haben und etwas weniger mit Religion."
    Footnote
    BESSER SUCHEN - Alternativen nutzen: Auch die Konkurrenz von Google ist nicht schlecht. Klassiker sind search.msn.de und search.yahoo.de. Neu auf dem deutschen Markt ist ask.de. Das Unternehmen hat sich mit der Übernahme des vielversprechenden NewcomersTeoma frisches Fachwissen geholt. - Genauerformulieren: Liefert eine erste Anfrage zu viele irrelevante Treffer, lohnt sich ein Wechsel in den erweiterten Modus (bei Google und Yahoo: "erweiterte Suche", MSN: "Such-Assistent"). So kann man die Ergebnisse auf bestimmte Sprachen oder Länder eingrenzen. Wunder wirkt es oft, einzelne Worte (etwa "Auktion") aus der Trefferliste zu verbannen. Man kann auch bestimmte Domains aussieben. Das ist besonders hilfreich, wenn Suchmaschinen-Spammer mit Subdomains arbeiten, etwa mit shop.domain.de, kaufen.domain.de, sparen.domain.de.
  6. Sixtus, M.: Durchblick im Daten-Labyrith : Bescheidener Auftritt, starke Wirkung: Googles "Desktop-Search", das Suchwerkzeug für die heimische Festplatte, im Praxistest (2004) 0.00
    0.003800912 = product of:
      0.030407296 = sum of:
        0.030407296 = weight(_text_:unternehmen in 6751) [ClassicSimilarity], result of:
          0.030407296 = score(doc=6751,freq=2.0), product of:
            0.17271045 = queryWeight, product of:
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.032515142 = queryNorm
            0.1760594 = fieldWeight in 6751, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.0234375 = fieldNorm(doc=6751)
      0.125 = coord(1/8)
    
    Content
    Die Oberfläche spartanisch zu nennen, würde den Kern nicht treffen: Genau genommen gibt es gar keine Oberfläche. Die installierte Suchfunktion erkennt man nur daran, dass die Google-Homepage nun auch den Suchbereich "Desktop" anbietet. Einkleines Symbol am Bildschirmrand neben der Uhrzeit bietet außerdem Zugriff auf die Einstellungen. Was Ungeübte verwirren könnte: Auch nach einer Google-Suche im Web erscheinen Treffer von der eigenen Festplatte unter der Überschrift "Results stored an your Computer". Diese Suchergebnisse sehen natürlich ausschließlich die jeweiligen Anwender. Erst darunter folgen die gewohnten Ergebnisse aus dem Netz. Datenschützer sind auf das kleine Programm aufmerksam geworden: "Die Kernfrage ist, ob dieses Ding nach Hause, zum Mutterschiff telefoniert % sagt Pam Dixon, Direktorin des World Privacy Forums. Google versichert, es würden keinerlei Informationen über den Festplatteninhalt an Unternehmen übermittelt. Auch während unseres Kurztests konnten wir keinerlei verdächtige Verbindungen feststellen. Aller. dings schickt die Desktop-Suche nach eigenen Angaben von Zeit zu Zeit Informationen über Programmabstürze und "nichtpersönliche Nutzungsdaten" auf den Weg.. Skeptische Zeitgenossen können die Funktion unter "Preferences" abstellen. Wer einen Rechner mit anderen Nutzern teilt, sollte sich die Installation der Suchfunktion gründlich überlegen. Denn problematisch könnte werden, dass das fleißige, Progrämmchen-unter anderem auch Seiten im Webbrowser-Zwischenspeicher indiziert, dem,so genannten Cache. Damit legt Google unter Umständen Überbleibsel der letzten Surftour offen. Unfreiwillige Einblicke Wer also den Kontostand über das Internet abgefragt oder seine Mails übers Web gelesen hat, kann dem nächsten PC-Nutzer mitunter unfreiwilligen Einblick in sein Privat-leben geben. Der unabhängige IT-Sicherheitsexperte Richard Smith bezeichnet, die Desktop-Suche deshalb als "Spyware ". Aus dem Hause Google heißt es dazu, das Ganze sei kein Fehler, sondern ein gewolltes Merk mal. Die Suchfunktion sei schlicht nicht für Mehrplatzrechner vorgesehen. In der Praxis gestaltet sich die Arbeit mit dem Suchwerkzeug praktisch und schnell. Allerdings vermisst man Filtermöglichkeiten, um allzu umfangreiche Ergebnisseiten zurechtzustutzen: Eine "Erweiterte Suche"; wie sie Google für das Web bietet, fehlt für den heimischen Rechner bislang. Google ist mit seinem so genannten Page-Rank-Verfahren zum Star der InternetSuchmaschinen aufgestiegen. Das System bewertet die Wichtigkeit einer Seite anhand der Anzahl und der Qualität der darauf verweisenden Webseiten: Mangels Verknüp fangen lässt sich das Prinzip nicht auf -einen isolierten Computer übertragen. Somit ist Googles Werbeslogan "Durchsuchen Sie ihren eigenen Computer so wie das Internet" etwas übertrieben."
  7. Sixtus, M.: Ohne Filter : Weblogs entwickeln sich zu einem Massenphänomen, doch die neue Internet-Publizistik ruft auch Kritiker auf den Plan (2005) 0.00
    0.0031674267 = product of:
      0.025339413 = sum of:
        0.025339413 = weight(_text_:unternehmen in 3343) [ClassicSimilarity], result of:
          0.025339413 = score(doc=3343,freq=2.0), product of:
            0.17271045 = queryWeight, product of:
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.032515142 = queryNorm
            0.14671616 = fieldWeight in 3343, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3116927 = idf(docFreq=592, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3343)
      0.125 = coord(1/8)
    
    Content
    Nicht nur an Politikern und Journalisten erproben Blogger ihre Kräfte: In einem Spezialforum für Biker publizierte ein Nutzer aus San Francisco ein kurzes Video, das demonstrierte, wie leicht man die teuren Bügelschlösser, der Marke "Kryptonite" mit Hilfe eines schlichten Kugelschreibers überlisten kann. Wochenlang verbreitete sich dieser Skandal in der Blogosphäre, bis auch die New York Times darüber berichtete und die Hersteller in Erklärungsnot brachte. In allen diesen Fällen reagierten die Beschuldigten zunächst hilflos auf die Vorwürfe. Auf E-Mail-Anfragen der Blogger reagierten sie meist gar nicht. Solcherlei Arroganz heizt die' Diskussionstemperatur noch an. "Kryptonite schien nicht recht erfasst zu haben, dass sie nicht nur ein kleines Problem, sondern eine handfeste Krise hatten", resümiert der Internet-Berater Martin Roell. Er prophezeit: "Künftig werden immer mehr Produktprobleme online entdeckt werden und Kommunikationskrisen online starten: Nur wenige Unternehmen sind darauf vorbereitet." Laien schaffen Gegenöffentlichkeit Nicht alle sind begeistert von der' neuen Je-dermann-Publizistik. "Ist also jeder Laie berufen, journalistisch eine Art Gegenöffentlichkeit zu schaffen?", fragte kürzlich der Medienjournalist Holger Wenk im Gewerkschaftsmagazin M, um sich kurz darauf selbst die Antwort zu geben: "Mitnichten!" Das Medienmagazin Insight will die Ursache des "Problems" im "Senfstau" entdeckt haben: "Jahrzehntelang unentdeckt und allenfalls vermutet, zeigt sich in Deutschland mehr und mehr die Existenz einer gewaltigen angestauten Menge nicht dazugegebenen Senfes." Auch in den USA beziehen Blogger Prügel von professionellen Publizisten. Beispielsweise von Jonathan Klein: Ein typischer Blogger sei "ein Typ, der in seinem Pyjama im Wohnzimmer sitzt und schreibt`; verkündet der einstige Fernsehjournalist seine Vorstellung über den prototypischen Weblog-Autoren und dessen bevorzugte Kleidung. Der Pyjama-Vorwurf ist seitdem zu einem geflügelten Wort in der Blogosphäre geworden. Der Journalist und Blogger Jon Carroll schrieb kürzlich: "Pyjamas beschädigen nicht zwangsläufig die Qualität der Informationen, die das Gehirn einer Person durchlaufen, die gerade einen Pyjama trägt." Der Journalist und Autor Dan Giltmor verweist auf die selbstkorrigierenden Kräfte im Internet: "Wenn du etwas Unwahres sagst, wird es nicht lange dauern bis jemand es richtig stellt." Tatsächlich unterscheiden sich Blogs in einem wichtigen Detail von herkömmlichen Netzpublikationen: Eine Kommentarfunktion 'erlaubt es jedem Leser, eine eigene Stellungnahme unter dem jeweiligen BlogEintragzu veröffentlichen. Der redaktionelle Prozess der Faktenprüfung und der Korrektur wird an die Öffentlichkeit verlagert. "Ich habe schon vor langer Zeit; begriffen, dass meine Leser immer mehr .wissen als ich sagt Gillmor, der das Manuskript seines Buches "We the Media" komplett im Internet veröffentlichte und von den Lesern seines Blogs korrigieren ließ. "Nachrichten müssen aufhören, ein Vortrag zu sein", sagt er, "stattdessen müssen sie eher einem Seminar oder einem Gespräch gleichen." Der Redakteur der US-Zeitschrift Business Week, Stephan Baker, sieht nur eine Möglichkeit, Unwahrheiten und Gerüchten in der. Blogosphäre zu begegnen: "Der beste Weg, ein gewisses Maß an Kontrolle über diesen Informationsfluss zu gewinnen ist" dazu beizutragen." Seinen Lesern empfiehlt er: "Lesen Sie ein Blog oder zwei und veröffentlichen Sie dort Kommentare. Besser noch: Beginnen Sie Ihr eigenes Blog.""