Search (5 results, page 1 of 1)

  • × author_ss:"Lischka, K."
  • × language_ss:"d"
  • × type_ss:"a"
  1. Lischka, K.: Spurensuche im Datenwust : Data-Mining-Software fahndet nach kriminellen Mitarbeitern, guten Kunden - und bald vielleicht auch nach Terroristen (2002) 0.01
    0.013784983 = product of:
      0.062032424 = sum of:
        0.05407057 = weight(_text_:software in 1178) [ClassicSimilarity], result of:
          0.05407057 = score(doc=1178,freq=14.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.34789976 = fieldWeight in 1178, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1178)
        0.007961854 = product of:
          0.015923709 = sum of:
            0.015923709 = weight(_text_:22 in 1178) [ClassicSimilarity], result of:
              0.015923709 = score(doc=1178,freq=2.0), product of:
                0.13719016 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03917671 = queryNorm
                0.116070345 = fieldWeight in 1178, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1178)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    US-Behörden wollen mit spezieller Software die Datenspuren von Terroristen finden. Wie das funktionieren könnte, zeigen Programmen, die heute schon für Unternehmen Kunden und Mitarbeiter analysieren.
    Content
    "Ob man als Terrorist einen Anschlag gegen die Vereinigten Staaten plant, als Kassierer Scheine aus der Kasse unterschlägt oder für bestimmte Produkte besonders gerne Geld ausgibt - einen Unterschied macht Data-Mining-Software da nicht. Solche Programme analysieren riesige Daten- mengen und fällen statistische Urteile. Mit diesen Methoden wollen nun die For- scher des "Information Awaren in den Vereinigten Staaten Spuren von Terroristen in den Datenbanken von Behörden und privaten Unternehmen wie Kreditkartenfirmen finden. 200 Millionen Dollar umfasst der Jahresetat für die verschiedenen Forschungsprojekte. Dass solche Software in der Praxis funktioniert, zeigen die steigenden Umsätze der Anbieter so genannter Customer-Relationship-Management-Software. Im vergangenen Jahr ist das Potenzial für analytische CRM-Anwendungen laut dem Marktforschungsinstitut IDC weltweit um 22 Prozent gewachsen, bis zum Jahr 2006 soll es in Deutschland mit einem jährlichen Plus von 14,1 Prozent so weitergehen. Und das trotz schwacher Konjunktur - oder gerade deswegen. Denn ähnlich wie Data-Mining der USRegierung helfen soll, Terroristen zu finden, entscheiden CRM-Programme heute, welche Kunden für eine Firma profitabel sind. Und welche es künftig sein werden, wie Manuela Schnaubelt, Sprecherin des CRM-Anbieters SAP, beschreibt: "Die Kundenbewertung ist ein zentraler Bestandteil des analytischen CRM. Sie ermöglicht es Unternehmen, sich auf die für sie wichtigen und richtigen Kunden zu fokussieren. Darüber hinaus können Firmen mit speziellen Scoring- Verfahren ermitteln, welche Kunden langfristig in welchem Maße zum Unternehmenserfolg beitragen." Die Folgen der Bewertungen sind für die Betroffenen nicht immer positiv: Attraktive Kunden profitieren von individuellen Sonderangeboten und besonderer Zuwendung. Andere hängen vielleicht so lauge in der Warteschleife des Telefonservice, bis die profitableren Kunden abgearbeitet sind. So könnte eine praktische Umsetzung dessen aussehen, was SAP-Spreche-rin Schnaubelt abstrakt beschreibt: "In vielen Unternehmen wird Kundenbewertung mit der klassischen ABC-Analyse durchgeführt, bei der Kunden anhand von Daten wie dem Umsatz kategorisiert werden. A-Kunden als besonders wichtige Kunden werden anders betreut als C-Kunden." Noch näher am geplanten Einsatz von Data-Mining zur Terroristenjagd ist eine Anwendung, die heute viele Firmen erfolgreich nutzen: Sie spüren betrügende Mitarbeiter auf. Werner Sülzer vom großen CRM-Anbieter NCR Teradata beschreibt die Möglichkeiten so: "Heute hinterlässt praktisch jeder Täter - ob Mitarbeiter, Kunde oder Lieferant - Datenspuren bei seinen wirtschaftskriminellen Handlungen. Es muss vorrangig darum gehen, einzelne Spuren zu Handlungsmustern und Täterprofilen zu verdichten. Das gelingt mittels zentraler Datenlager und hoch entwickelter Such- und Analyseinstrumente." Von konkreten Erfolgen sprich: Entlas-sungen krimineller Mitarbeiter-nach Einsatz solcher Programme erzählen Unternehmen nicht gerne. Matthias Wilke von der "Beratungsstelle für Technologiefolgen und Qualifizierung" (BTQ) der Gewerkschaft Verdi weiß von einem Fall 'aus der Schweiz. Dort setzt die Handelskette "Pick Pay" das Programm "Lord Lose Prevention" ein. Zwei Monate nach Einfüh-rung seien Unterschlagungen im Wert von etwa 200 000 Franken ermittelt worden. Das kostete mehr als 50 verdächtige Kassiererinnen und Kassierer den Job.
    Jede Kasse schickt die Daten zu Stornos, Rückgaben, Korrekturen und dergleichen an eine zentrale Datenbank. Aus den Informationen errechnet das Programm Kassiererprofile. Wessen Arbeit stark Durchschnitt abweicht, macht sich verdächtig. Die Kriterien" legen im Einzelnen die Revisionsabteilungen fest, doch generell gilt: "Bei Auffälligkeiten wie überdurchschnittlichvielenStornierungen, Off nen der Kassenschublade ohne Verkauf nach einem Storno oder Warenrücknahmen ohne Kassenbon, können die Vorgänge nachträglich einzelnen Personen zugeordnet werden", sagt Rene Schiller, Marketing-Chef des Lord-Herstellers Logware. Ein Kündigungsgrund ist eine solche Datensammlung vor Gericht nicht. Doch auf der Basis können Unternehmen gezielt Detektive einsetzen. Oder sie konfrontieren die Mitarbeiter mit dem Material; woraufhin Schuldige meist gestehen. Wilke sieht Programme wie Lord kritisch:"Jeder, der in dem Raster auffällt, kann ein potenzieller Betrüger oder Dieb sein und verdient besondere Beobachtung." Dabei könne man vom Standard abweichen, weil man unausgeschlafen und deshalb unkonzentriert sei. Hier tut sich für Wilke die Gefahr technisierter Leistungskontrolle auf. "Es ist ja nicht schwierig, mit den Programmen zu berechnen, wie lange beispielsweise das Kassieren eines Samstagseinkaufs durchschnittlich dauert." Die Betriebsräte - ihre Zustimmung ist beim Einsatz technischer Kon trolleinrichtungen nötig - verurteilen die wertende Software weniger eindeutig. Im Gegenteil: Bei Kaufhof und Edeka haben sie dem Einsatz zugestimmt. Denn: "Die wollen ja nicht, dass ganze Abteilungen wegen Inventurverlusten oder dergleichen unter Generalverdacht fallen", erklärt Gewerkschaftler Wilke: "Angesichts der Leistungen kommerzieller Data-Mining-Programme verblüfft es, dass in den Vereinigten Staaten das "Information Awareness Office" noch drei Jahre für Forschung und Erprobung der eigenen Programme veranschlagt. 2005 sollen frühe Prototypen zur Terroristensuche einesgetz werden. Doch schon jetzt regt sich Protest. Datenschützer wie Marc Botenberg vom Informationszentrum für Daten schutz sprechen vom "ehrgeizigsten öffentlichen Überwachungssystem, das je vorgeschlagen wurde". Sie warnen besonders davor, Daten aus der Internetnutzung und private Mails auszuwerten. Das Verteidigungsministerium rudert zurück. Man denke nicht daran, über die Software im Inland aktiv zu werden. "Das werden die Geheimdienste, die Spionageabwehr und die Strafverfolger tun", sagt Unterstaatssekretär Edward Aldridge. Man werde während der Entwicklung und der Tests mit konstruierten und einigen - aus Sicht der Datenschützer unbedenklichen - realen Informationen arbeiten. Zu denken gibt jedoch Aldriges Antwort auf die Frage, warum so viel Geld für die Entwicklung von Übersetzungssoftware eingeplant ist: Damit man Datenbanken in anderen Sprachen nutzen könne - sofern man auf sie rechtmäßigen Zugriff bekommt."
  2. Lischka, K.: Scherzbolde im Whitehouse.net : Die neuen Internet-Adressen wie .info oder.biz brachten nicht die erhoffte Systematik in das Netz (2003) 0.01
    0.013554169 = product of:
      0.040662505 = sum of:
        0.0122639 = weight(_text_:systems in 5) [ClassicSimilarity], result of:
          0.0122639 = score(doc=5,freq=2.0), product of:
            0.12039685 = queryWeight, product of:
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.03917671 = queryNorm
            0.1018623 = fieldWeight in 5, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5)
        0.020436753 = weight(_text_:software in 5) [ClassicSimilarity], result of:
          0.020436753 = score(doc=5,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.13149375 = fieldWeight in 5, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5)
        0.007961854 = product of:
          0.015923709 = sum of:
            0.015923709 = weight(_text_:22 in 5) [ClassicSimilarity], result of:
              0.015923709 = score(doc=5,freq=2.0), product of:
                0.13719016 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03917671 = queryNorm
                0.116070345 = fieldWeight in 5, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=5)
          0.5 = coord(1/2)
      0.33333334 = coord(3/9)
    
    Content
    Wenn man den lange geforderten Namensraum .xxx für Erwachsenenunterhaltung oder.kids für kindgerechte Angebote einrichte, müsse jemand definieren, was global als kindgerecht gilt. Allerdings hat Icann längst politische Entscheidungen getroffen. Etwa im März 2000, als man der palästinensischen Autonomiebehörde die Länder-Domain .ps zusprach. Auch anderswo betreibe Icann schon Politik, wirft Milton Mueller ein: "Die Entscheidungen spiegeln die Interessen von Markeninhabern wieder, die glauben, von einer künstlichen Knappheit im Namensraum zu profitieren." Der Hintergrund: Je weniger Domainarten es gibt, desto weniger Adressen müssen zum Schutz vor Spekulanten gekauft werden. Eine systematische Erweiterung des Namensraums könnte attraktiv für internationale Organisationen oder Firmen sein. Warum soll nicht BMW eine Top Level Domain erhalten, unter der nationale Unterorganisationen auftreten? Die Verknüpfung von Erweiterung und Systematisierung würde der Netzverwaltung mehr Gestaltungsmacht geben. Das aber will kaum ein Kritiker des heutigen Systems. Manche fordern gar beliebige Top Level Domains. Unternehmen wie das deutsche Beat-Nie oder das amerikanische New.net arbeiten daran: Sie errichten parallel zur offiziellen Infrastruktur alternative Namenssysteme. Doch die Nutzer müssen ihre Rechner umkonfigurieren, um die Angebote zu finden. Letztlich könnte das dazu führen, dass abhängig von der installierten Software unterschiedliche Seiten unter demselben Namen erscheinen. Fachleute bezeichnen die Endungen von Internetadressen als Top Level Domains. Die meisten werden für Länder vergeben (etwa .de für Deutschland), manche auch nach Themen und Zielgruppen: Diese generischen Top Level Domains sind: .aero Luftfahrtindustrie - .biz Kommerz - .com früher Kommerz, jetzt offen - .coop Genossenschaften - .edu US-Bildungseinrichtungen - .gov US-Regierung - .info Informationsdienste - .museum Museen - .mil US-Militär - .name Privatpersonen - .net früher Netzbetreiber, jetzt offen- .org früher Organisationen, offen - .pro "Professionals" - bestimmte Berufsgruppen."
    Date
    22. 2.2003 9:55:44
  3. Lischka, K.: 128 Zeichen für die Welt : Vor 40 Jahren schrieben Fachleute das Alphabet des Computers - und schufen damit dem ASCII-Standard (2003) 0.01
    0.0071431217 = product of:
      0.032144047 = sum of:
        0.002646133 = weight(_text_:of in 391) [ClassicSimilarity], result of:
          0.002646133 = score(doc=391,freq=2.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.043193102 = fieldWeight in 391, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.01953125 = fieldNorm(doc=391)
        0.029497914 = weight(_text_:software in 391) [ClassicSimilarity], result of:
          0.029497914 = score(doc=391,freq=6.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.18979488 = fieldWeight in 391, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.01953125 = fieldNorm(doc=391)
      0.22222222 = coord(2/9)
    
    Abstract
    Wollen sich Menschen verständigen, brauchen sie eine gemeinsame Sprache. So wurde vor zwei Jahrtausenden in den Provinzen des römischen Imperiums fleißig Latein gelernt. Ähnlich ist das bei Computern; die miteinander in Kontakt treten: Sie benötigen eine gemeinsame Methode, um die Weltsprache digital abzubilden. Vor vier Jahrzehnten wurde sie geschaffen: Am 17. Juni 1963 bestimmte die "American Standards Association" (ASA), dass ein großes "A" der Zahlenfolge 1000001 entspricht. Genau 128 solcher siebenstelliger Binärcodes gibt es seither - entstanden war der"American National Standard Code for Information Interchange", ASCII. Die Bedeutung des offenen Standards rückt erst neuerdings wieder ins Bewusstsein der Netzöffentlichkeit. Bis vor kurzem war einer der Initiatoren von ASCII, der heute 83jährige Programmierer Bob Bemer, für seine Verdienste bei Programmiersprachen wie Cobol und Fortran bekannt. Jetzt hat ihm das renommierte amerikanische "Institute of Electrical and Electronics Engineer" (IEEE) die Auszeichnung "Computer Pioneer Award" verliehen - wegen seiner Verdienste um ASCII. Dass lange Zeit niemand an ASCII als besondere Errungenschaft dachte, liegt am Erfolg des Standards. Vor der Vereinheitlichung hatte jeder Computerhersteller seine eigenen Methoden, um Zeichen wie Buchstaben digital abzubilden. Bemer erinnert sich: "Es gab kaum Lösungsansätze, die alle Beteiligten befriedigten. Dabei zeichnete sich das Problem ab - immerhin wuchs die Verbreitung von Computer von Ende der 50er Jahre an stark. Zudem war die Entwicklung von Software teuer, und deshalb wollte man natürlich Code wiederverwenden." Also diskutierte Bemer mit den Kollegen und legte 1960 den ASCII-Entwurf vor. Das Konzept ist deshalb beachtlich, weil es bereits die Internationalisierung voraussah und ermöglichte. Bemer hatte unter anderem ein Zeichen definiert, das den Sprung zu ergänzenden Codetabellen anzeigt. So konnte ASCII von einem amerikanischen zu vielen internationalen Standards hatte ASCII eindeutig zu wenige davon für alle Zeichen der Welt. Auch für deutsche Umlaute war kein Platz. Die haben ihre Zuflucht in einem der vielen um ein achtes Bit erweiterten ASCII-Codesätze gefunden. Von den durch die Genfer "International Organization for Standardization" (ISO) genormten Zeichensätzen gibt es viele Varianten. Das große Ü steht im westeuropäischen Zeichensatz ISO 8859-1 - als Zeichen Nummer 220 oder binär ausgedrückt als 11011100. Es gibt die Zeichensätze für das kyrillische, hebräische und griechische Alphabet, und im Jahr 2001 wurde ein ThaiZeichensatz von der ISO angenommen. Der Weg dorthin war für den ASCII-Zeichensatz steinig. Es gab lange Zeit einen konkurrierenden Standard, der von Großrechnern benutzt wurde: EBCDIC. Doch das Betriebssystem Unix nutzte ASCII, ebenso die ersten Personal Computer Schon zu einer Zeit, als niemand an das bunte World-Wide Web dachte, war ASCII auch im Internet; nützlich. Denn um Infor mati en korrekt über das Netz, zu schicken,,müssen Internet-Protokolle allerlei allgemein verständliche Informationen über die Art und Bestimmung der beförderten Daten enthalten. Also etwa, wer der Empfänger einer E-Mail ist oder in welchem Zeichensatz der Autor eine Internetseite erstellt hat. Solche Dinge wurden schon früh in ASCII geschrieben. Der finnische Fachautor Jukka K Korpela, der eine der umfangreichen Geschichtsschreibungen zu ASCII zusammengetragen hat, sagt, der Wert von ASCII sei so versteckt wie diese internen Informationen nach dem Internet Protokoll.
    Nach 40 Jahren lösen neue Konventionen ASCII langsam ab. Auf einer höheren Ebene gibt es Standards wie XML oder RDF Dabei geht es nicht nur darum, Zeichen einheitlich darzustellen, sondern dasselbe auch für die Struktur eines beliebigen Dokumententyps zu erreichen. Auch die bloße Kodierung von Zeichen übernimmt mehr und mehr ein ASCII-Nachfolger: Unicode. Diese Basis für neue Standards wie XML existiert seit 1991. Die Vereinheitlichungs-Methode ist eine andere als bei ASCII: Alle Schriftzeichen der Welt sollen in einem einzigen 16-Bit-Zeichensatz kodiert werden, nicht mehr in vielen einzelnen wie bei ASCII. Industriegrößen wie Apple, HP, IBM, Microsoft und viele andere mehr unterstützen diesen Standard, die aktuelle Version 3.1 enthält 94140 unterschiedliche Zeichen - auch aus Schriften wie Cherokee oder Katakana. So können auch innerhalb eines Dokuments verschiedenste Sprachen und Schriften gemischt werden, zudem unterstützt jede Unicode-kompatible Software . automatisch such seltene Sprachen, die es sonst mangels Marktmacht schwer hätten, überhaupt die Aufmerksamkeit großer Software-Konzerne zu bekommen. Uni! September fälligen Version 4.0 einen großen Teil >der heute noch gebräuchlichen Sprachen abdecken. Auch wenn der technische Ansatz ein anderer als bei ASCII ist, folgt Unicode in einem Punkt Bob Bemers ursprünglicher Idee: "Wir sind mit ASCII in eine ganz andere Richtung als Esperanto gegangen. Statt allen eine neue Sprache aufzuzwingen, gab ASCII allen Nutzern auf der Welt die Möglichkeit, ihre eigene Schrift weiter zu nutzen." Das ist der sprachphilosophische Grund für den Erfolg von ASCII. Es gibt aber auch den technologiephilosophischen: ASCII war ein offener Standard. Bob Bemer sieht darin den wesentlichen Grund für den Erfolg: "Es haben jene Dinge überlebt, die nie patentiert wurden und so ständig verbessert und zu neuen Projekten verwandelt werden konnten." Neben Technikern schätzen auch Künstler ASCII längst. Sie fasziniert die Offenheit und Schlichtheit der ursprünglich 128 Zeichen seit Jahren. Einer der etablierten Netzkünstler, die seit langem mit ASCII arbeiten, ist der New Yorker Andy C. Deck. Er beschreibt seine Begeisterung für nackte, formatlose Zeichen so: "In einer Medienumwelt, die so tief greifend mit Bildern zugestopft ist, hat der Künstler als Bilderproduzent ein Publikum vor sich, das bereits an einer gestörten Wahrnehmungsverteilung leidet." Hier scheint es ASCII ähnlich zu ergehen wie einst der lateinischen Sprache. Seit dem zweiten Jahrhundert berauschten sich Menschen an der Schönheit der Sprache Ciceros - doch abgesehen von einigen neuen Begriffen entwickelte sich Latein nicht mehr weiter. Aber lateinische Einflüsse leben in romanischen Sprachen fort. Genauso geht es auch ASCII: Der Standard verschwindet nicht - er ist ein Bestandteil von Unicode
  4. Lischka, K.: Verlorene Seiten : Das amerikanische Urheberrecht bremst kritische Netzangebote - Beispiel Google (2002) 0.00
    4.116207E-4 = product of:
      0.0037045863 = sum of:
        0.0037045863 = weight(_text_:of in 2167) [ClassicSimilarity], result of:
          0.0037045863 = score(doc=2167,freq=2.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.060470343 = fieldWeight in 2167, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2167)
      0.11111111 = coord(1/9)
    
    Content
    "Dass eine Kirche mit Hilfe des Urheberrechts die Verbreitung ihrer Lehren verhindert, ist ungewöhnlich. Aber es ist ja auch umstritten, ob die "Church of Scientology" sich zu Recht als solche bezeichnet - oder nicht doch ein "weltweit tätiger Wirtschaftskonzern" ist, wovon beispielsweise das Bayerische Innenministerium überzeugt ist. Solchen Kritikern liefert Scientology jetzt neue Argumente: Die Organisation hat Links zu der Seite xenu.net des norwegischen Scientology-Gegners Andreas Heldal-Lund aus der Suchmaschine Google entfernen lassen - ganz legal, und doch ohne die Entscheidung eines Gerichts. Am B. März forderte die Anwaltskanzlei Moxon & Kobrin aus Los Angeles per Mail die US-Niederlassung von Google auf, 126 Internetseiten aus dem Suchindex zu entfernen. Ein Anhang zählte die einzelnen Seiten und die dort verwendeten, urheberrechtlich geschützten Inhalte auf, Dazu gehören 26 Fotos aus Scientology-Magazinen, viel wichtiger aber sind die 85 aufgeführten Texte. Andreas Heldal-Lund zitiert auf seiner Seite beispielsweise aus angeblich internen Scientology-Dokumenten, die eine "dead agenting" genannte Technik beschreiben, die Kritiker gezielt diskreditieren soll. Die E-Mail an Google bestreitet den Wahrheitsgehalt von Heldal-Lunds Ausführungen nicht. Stattdessen verweisen die Anwälte darauf, dass ihre Klienten - das "Religious Technology Center" und "Bridge Publications" - das Urheberrecht an den Unterlagen besitzen und einer Veröffentlichung nicht zugestimmt hätten. Auch würden 54 eingetragene Warenzeichen Scientologys - dazu gehören Begriffe wie Scientology, Dianetics und Hubbard - ohne Genehmigung verwendet. Der Suchdienst Google reagierte am 20. März. In einer E-Mail erfuhr Heldal-Lund, dass alle in der Nachricht der Kanzlei angegebenen Seiten aus dem Suchindex entfernt wurden. Mit anderen Worten: Wer am 20. März bei einer der größten und renommiertesten Suchmaschinen nach kritischen Informationen zu Scientology recherchierte, erfuhr nichts von einem der umfangreichsten Angebote. Heldal-Lund machte den Vorgang am 21. März in einem Internet-Diskussionsforum öffentlich. Ein Proteststurm brach los. Vermutlich nach der Kritik entschloss sich Google, zumindest die wichtigste der betroffenen Seiten, www.xenu.net, wieder in den Index aufzunehmen. Andere Seiten "mit detaillierten Informationen bleiben ausgeschlossen. So zeigt sich, wie schwierig es ist, zu unterscheiden zwischen legitimer Verfolgung von Urheberrechtsverstößen und mit Hilfe des Urheberrechts angestrebter Zensur. Heldal-Lund gibt selbst zu, urheberrechtlich geschütztes Material 'zu verwenden. Allerdings sieht er sich im Recht, weil seiner Meinung nach "Scientology mit Hilfe: des Urheberrechts Informationen über die Lehren des Gründers vor der Öffentlichkeit zurückhält". Die Rechtmäßigkeit der Argumentation ist nie vor Gericht überprüft worden. Ein Gericht war überhaupt nicht nötig, um die Seiten aus dem Suchindex von Google zu entfernen. Der Grund dafür: Ein ServiceProvider wie Google haftet laut dem US amerikanischen Digital Millennium Copyright Act (DMCA) nicht für Inhalte, die er ohne sein Wissen zur Verfügung stellt. Wenn aber jemand einen Provider darauf hinweist, dass er geschützte Inhalte verfügbar macht, steht das Unternehmen vor einer schwierigen Entscheidung: Entweder sperrt es die Inhalte. Dann kann es nicht haftbar gemacht werden, wenn ein Gericht später eine Urheberrechtsverletzung feststellt. Oder der Anbieter wartet ab, bis der Rechte-Inhaber gegen jemanden wie Heldal-Lund vorgeht. Stellt dann jedoch das Gericht eine Verletzung des Urheberrechts fest, ist auch der Service-Provider haftbar, da er zuvor schon um eine Entfernung der problematischen Inhalte ersucht wurde. Das deutsche Informations- und Kommunikationsdienstegesetz sieht ebenso wie die E-Commerce-Richtlinie der Europäischen Gemeinschaft ein ähnliches "notice and take down"-Verfahren vor. Die Entscheidung liegt letztlich beim Service-Provider. Es hat sich bereits in anderen Fällen gezeigt, dass die lieber kritische Inhalte sperren als etwaige Haftungs-Risiken einzugehen.
  5. Lischka, K.: US-Richter misstrauen Internet-Filtern : Jugendschutz contra freie Meinungsäußerung: In Amerika entscheidet wieder mal die Justiz über staatliche Vorgaben (2002) 0.00
    3.5281773E-4 = product of:
      0.0031753597 = sum of:
        0.0031753597 = weight(_text_:of in 456) [ClassicSimilarity], result of:
          0.0031753597 = score(doc=456,freq=2.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.051831722 = fieldWeight in 456, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0234375 = fieldNorm(doc=456)
      0.11111111 = coord(1/9)
    
    Content
    "Was haben die finnische Botschaft in Rumänien, eine dänische Organisation gegen die Todesstrafe in den USA und die schottische Zeitung 'Aberdeen Independent" gemeinsam? Ihre Internet-Seiten gefährden jugendliche Nutzer mit pornografishen Inhalten. So sieht es zumindest das Filterprogramm "N2H2 Internet Filtering 2.0". Diese und 6.774 weitere zu Unrecht blockierte Seiten präsentiert die "American Civil Liberties Union (ACLU)" als Beweis in einem Prozess um den sog. Children's Internet Protection Act (CIPA). Verhandelt wird dabei eine Frage von internationaler Bedeutung: Ab wann gefährdet Jugendschutz im Internet die freie Meinungsäußerung? In Deutschland rückt die Filter-Problematik ins öffentliche Bewusstsein, seit die Düsseldorfer Bezirksregierung von Zugangs-Providern eine Blockade bestimmter Internet-Seiten fordert (siehe Netzwerk-Seite vom 12. März) - und dagegen Protest laut wird, wie am Wochenende mit einer Demonstration in der nordrheinwestfälischen Landeshauptstadt. ln den Vereinigten Staaten befassen sich Bürgerrechtsgruppen und Gerichte bereits seit Mitte der neunziger Jahre mit Online-Filtern. Zwei Gesetze, die Minderjährige vor Pornografie im Netz schützen sollten, haben US-Gerichte bereits für verfassungswidrig erklärt beziehungsweise wegen Verfassungsbedenken vorerst gestoppt: 1996 den "Connmunications Decency Act" und 1998 den "Child Online Protection Ast". ln beiden Fällen war das wesentliche Argument gegen Zwangsfilterung die lneffektivität der Programme. Da auch Internetseiten über Empfängnisverhütung, Aids, die Diskriminierung Homosexueller oder gar die Cartoonfigur Snoopy gesperrt wurden, sahen die Gerichte die vom ersten Verfassungszusatz garantierte Meinungsfreiheit gefährdet. Es scheint wahrscheinlich, dass deshalb auch der jetzt verhandelte "Children's Internet Protestion Act" keinen Bestand haben wird. Das lassen die Äußerungen der Richter während der Verhandlung erwarten. Ihr Urteil werden sie Anfang Mai verkünden. Anders als die beiden früheren Gesetze gehört der CIPA nicht zum Strafrecht. Das Gesetz sieht vor, dass vom Jahr 2003 an Bibliotheken nur dann mit Bundesgeld unterstützt werden, wenn sie minderjährige Surfer von jugendgefährdenden Seiten fern halten. Ob das allerdings möglich ist, zweifelt Harvey Bartle, einer der drei Richter, an: "Ich denke, jedermann würde mir zustimmen, dass wir wahrscheinlich nicht hier sitzen würden, wenn es eine Technologie gäbe, die einfach Obszönitäten, Kinderpornografie und jugendgefährdende Inhalte ausschließen könnte." Solche Filter existieren nicht. Arbeiten die Programme mit von Menschen erstellten Listen, blockieren sie nicht einmal annähernd genügend Seiten. Allerdings kann man gute Entscheidungen erwarten. Denn Menschen verstehen anders als Computer, dass Aufklärungsangebote über Empfängnisverhütung durchaus für Minderjährige zugänglich sein sollten. Freilich sind schon solche Einsätzungen in den Vereinigten Staaten umstritten, wo es unterschiedliche Ansichten etwa über die Zulässigkeit von vorehelichem Sex gibt: Gerade deshalb ist das Schwelgen der meisten Hersteller von Filtersoftware übenden Inhalt ihrer Listen, deren Zustandekommen und die zu Grunde liegenden Wertvorstellungen beängstigend. Richter Bartle fragte einen als Zeugen geladenen Bibliothekar, der Filterprogramme einsetzt: "Sie delegieren die Verantwortung an ein außenstehendes Unternehmen? Wie kontrollieren sie, was der Hersteller der Filtersoftware tut?" Andere Filter arbeiten mit automatischer Texterkennnng. Die genaue Arbeitsweise halten die Produzenten geheim, allerdings dürfte die Suche nach Reizworten dabei eine bedeutende Rollenspielen. Damit ist wohl zu erklären, dass das Programm Cyberpatrol die Internet-Seite zum Buch "Peepshow: Media and Politics in an Age of Scandal" vier angesehener Publizisten blockiert hat. Der Sprachwissenschaftler Geoffrey Nunberg sagte vor Gerietet, eine präzise Analyse des Sinnzusammenhangs liege "weit jenseits der Möglichkeiten heutiger Technologie".