Search (9 results, page 1 of 1)

  • × author_ss:"Lischka, K."
  1. Lischka, K.: Scherzbolde im Whitehouse.net : Die neuen Internet-Adressen wie .info oder.biz brachten nicht die erhoffte Systematik in das Netz (2003) 0.01
    0.012374943 = product of:
      0.074249655 = sum of:
        0.01882913 = weight(_text_:internet in 5) [ClassicSimilarity], result of:
          0.01882913 = score(doc=5,freq=8.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.1957077 = fieldWeight in 5, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5)
        0.055420525 = sum of:
          0.042174455 = weight(_text_:allgemein in 5) [ClassicSimilarity], result of:
            0.042174455 = score(doc=5,freq=4.0), product of:
              0.17123379 = queryWeight, product of:
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.032588977 = queryNorm
              0.24629751 = fieldWeight in 5, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.0234375 = fieldNorm(doc=5)
          0.01324607 = weight(_text_:22 in 5) [ClassicSimilarity], result of:
            0.01324607 = score(doc=5,freq=2.0), product of:
              0.11412105 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.032588977 = queryNorm
              0.116070345 = fieldWeight in 5, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=5)
      0.16666667 = coord(2/12)
    
    Content
    "Fachleute sagten im Juli 1999 voraus, heute werde es mehr als 100 Millionen Domainnamen geben. Die Schätzung ging daneben: Derzeit gibt es nur halb so viele Internet-Adressen. Die befürchteten Probleme dagegen sind schon da: Eingängige Bezeichnungen in populären Namensräumen wie.com oder. net sind knapp und bisweilen teuer: So wurde wallstreet com für gut eine Million Euro verkauft. Neue Adressen, die die Netzverwaltung Icann seit zwei Jahren schrittweise einführt, sollten Abhilfe schaffen. Doch nach den bisherigen Erfahrungen sieht es nicht so aus, als seien.info oder.bix eine Lösung. Sieben neue Namensräume hat Icann genehmigt. Der letzte -.pro für Ärzte, Anwälte und Steuerberater - startet in den nächsten Wochen. Die erfolgreichste neue Top-Level-Domains (TLD) ist info mit mehr als einer Million registrierter Adressen. Doch nur 18 Prozent werden tatsächlich für Inhalte genutzt, sagt Tim Schumacher, Geschäftsführer der Plattform für Domainhandel Sedo: "Ein Großteil ist ungenutzt in den Händen von Spekulanten." 8000 Euro kostet etwa fonds.info. Über Zahlen kann man streiten. Der Verwalter der.info-Domeins Afilias spricht von weit mehr aktiven Seiten. Dennoch ist klar: Der allgemein zugängliche .info-Na-mensraum ist wohl deshalb so erfolgreich, weil Markeninhaber und Spekulanten sich auf die Adressen stürzten. Die einen vorbeugend, die anderen in der Hoffnung auf das große Geschäft. Exemplarisch ist der Streit zwischen Bundespresseamt und einer Duisburger Internet Agentur um bundesregierung.info. Grund für die Probleme: Es mangelt an Systematik im Namensraum. In den Vereinigten Staaten wissen die meisten Nutzer, dass unter whitehouse.net nicht Regierungsmitglieder gebrauchte Spionageflugzeuge verscherbeln, sondern Scherzbolde. Der echte Staatschef findet man unter der Endung.gov für Government (Regierung). International fehlt Vergleichbares; daher die Nöte des Bundespresseamts. Mehr als die Hälfte der weltweit registrierten Adressen liegt in globalen, allgemein offenen Namensräumen wie .com, .org oder.net. Der große Rest fällt in die Länder-Domeins wie de. Die neuen, nur für kleine Zielgruppen registrierbaren Nischenangebote sind bislang kein Erfolg. Was allerdings auch an der Auswahl liegen kann. So ist.coop Arbeitsgemeinschaften vorbehalten. Die Registrierzentrale freut sich über 7000 Anmeldungen-unter anderem von einer landwirtschaftlichen Kooperative aus der Mongolei. Eine Top Level Domain wie mobile für Mobilfunkunternehmen wäre erfolgreicher gewesen. Auch für den Namensbereich name malte sich die "Global Name Registry" mehr Interesse aus. Von etwa einer Million Kunden in 18 Monaten war die Rede. Derzeit sind es etwa 150000. Die Firma bleibt jedoch optimistisch: "Es gibt weltweit vielleicht 25 Millionen Unternehmen mit Interesse an Domainnamen, aber potenziell 600 Millionen Individuen", sagt Mitgründer Hakon Haugnes. Ein Beispiel für sinnvolle Lösungen ist der .aero-Namensraum. Dort gelten Benennungsstandards. Viele weltweit etablierte Codes für Fluggesellschaften führen zum Ziel; Ba.aero kann zum Beispiel nur British Airways registrieren. Derzeit diskutiert die Vergabezentrale eine Ausweitung der Regelung auf die standardisierten Flughafen-Codes und Flugnummern. Das Problem: Solche Vorgaben existieren nur selten a priori. Meist müssten sie mit dem Namensbereich geschaffen werden. Hier kritisiert der US-Rechtsprofessor Milton Mueller scharf die Organisation zur Verwaltung des Namensystems Icann: "Sie haben weder für die Einteilung, noch für die Aufteilung der Ressource Namensraum verbindliche Methoden definiert. Sie arbeiten als ein zentrales Planungsbüro im Sowjetstil und entscheiden nach absolut beliebigen Herangehensweisen auf Ad-hoc-Basis, welche Top Level Domains es gibt, wie sie verteilt werden, wer sie verwaltet." Icann wehrt sich mit der Begründung, sie dürfe als Selbstregulierungs-Organisation keine Politik betreiben.
    Date
    22. 2.2003 9:55:44
    Theme
    Internet
  2. Lischka, K.: Gegengewichte zum Kommerz : Die Folgen der Informationstechnik beschäftigen viele Gruppen (2003) 0.01
    0.0069061676 = product of:
      0.041437004 = sum of:
        0.028122798 = weight(_text_:informatik in 1247) [ClassicSimilarity], result of:
          0.028122798 = score(doc=1247,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.1691247 = fieldWeight in 1247, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1247)
        0.013314205 = weight(_text_:internet in 1247) [ClassicSimilarity], result of:
          0.013314205 = score(doc=1247,freq=4.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.13838623 = fieldWeight in 1247, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1247)
      0.16666667 = coord(2/12)
    
    Content
    Der Unterschied: Hintergrund Kearen weniger als in den achtziger jähren politische Entwicklungen, sondern vielmehr technologische. Computer eroberten als PCs immer mehr Haushalte, und das Internet wurde mit dem World Wide Web populär Vor diesem Hintergrund gründeten 1996 in München sieben Netzaktivisten den "Förderverein Informationstechnik und Gerellschaft" (Fitug). Eigentlich wollten wir nur unsere Aktivitäten bündeln. Damals ging es noch darum, das Medium und seine Benutzung bekannter zu machen - mehr in Richtung Information", erinnert sich Jürgen Plate, Gründungsmitglied und Informatik-Professor an der Münchner Fachhochschule. Seminare und Beratung über Chancen und Risiken der Informationstechtnologie sind heute nicht mehr das wesentliche Tätigkeitsfeld des Fitug. Anfragen werden beantwortet oder an die entsprechenden Experten unter den 80 Mitgliedern weitergeleitet. Die diskutieren vor allem intern. Bei großen Themen wendet sich Fitug auch über Presse und Diskussionsveranstaltungen an die Öffentlichkeit oder mit Briefen an verantwortliche Politiker. Wichtig sind für den Verein derzeit Privacy, Sperrverfügungen, teils das Patentrecht". Fragwürdige Patente sind der Existenzgrund des "Fördervereins für eine Freie Informationelle Infrastruktur" (FFII), der 1999 in München gegründet wurde. Gehörten zuerst vor allem Linux-Freaks dazu, die sich von Münchner Installationsfesten kannten, sind die 187 Mitglieder heute bundesweit verstreut. Sie engagieren sich für offene Schnittstellen und einen fairen Wettbewerb, ohne proprietäre Programme wie Windows per se zu verdammen. Den Mitgliedern schwebt ein Gegengewicht zum Branchenverband Bitkom vor, geführt von Softwarefachleuten statt Juristen, Managern und Werbern. Noch ist der FFII davon weit entfernt - wie alle anderen Initiativen. Zwar gibt es in Deutschland mehr bekannte Organisationen als etwa in den USA, doch ist keine von ihnen groß genug für eine Lobbyarbeit, die sich mit der von Industrieverbänden messen kann. Deshalb waren bisher wohl auch jene Initiativen am erfolgreichsten, bei denen viele der Gruppen sich zu einer Plattform zusammengeschlossen haben: etwa beim Big-Brother-Award oder Privatkopie.net. Vielleicht aber sind die netzartigen Strukturen dem Thema förderlicher als alte Lobbyhierarchien."
    Theme
    Internet
  3. Lischka, K.: 128 Zeichen für die Welt : Vor 40 Jahren schrieben Fachleute das Alphabet des Computers - und schufen damit dem ASCII-Standard (2003) 0.00
    0.0043357536 = product of:
      0.026014522 = sum of:
        0.013588754 = weight(_text_:internet in 391) [ClassicSimilarity], result of:
          0.013588754 = score(doc=391,freq=6.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.14123987 = fieldWeight in 391, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.01953125 = fieldNorm(doc=391)
        0.012425768 = product of:
          0.024851536 = sum of:
            0.024851536 = weight(_text_:allgemein in 391) [ClassicSimilarity], result of:
              0.024851536 = score(doc=391,freq=2.0), product of:
                0.17123379 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.032588977 = queryNorm
                0.1451322 = fieldWeight in 391, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=391)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Abstract
    Wollen sich Menschen verständigen, brauchen sie eine gemeinsame Sprache. So wurde vor zwei Jahrtausenden in den Provinzen des römischen Imperiums fleißig Latein gelernt. Ähnlich ist das bei Computern; die miteinander in Kontakt treten: Sie benötigen eine gemeinsame Methode, um die Weltsprache digital abzubilden. Vor vier Jahrzehnten wurde sie geschaffen: Am 17. Juni 1963 bestimmte die "American Standards Association" (ASA), dass ein großes "A" der Zahlenfolge 1000001 entspricht. Genau 128 solcher siebenstelliger Binärcodes gibt es seither - entstanden war der"American National Standard Code for Information Interchange", ASCII. Die Bedeutung des offenen Standards rückt erst neuerdings wieder ins Bewusstsein der Netzöffentlichkeit. Bis vor kurzem war einer der Initiatoren von ASCII, der heute 83jährige Programmierer Bob Bemer, für seine Verdienste bei Programmiersprachen wie Cobol und Fortran bekannt. Jetzt hat ihm das renommierte amerikanische "Institute of Electrical and Electronics Engineer" (IEEE) die Auszeichnung "Computer Pioneer Award" verliehen - wegen seiner Verdienste um ASCII. Dass lange Zeit niemand an ASCII als besondere Errungenschaft dachte, liegt am Erfolg des Standards. Vor der Vereinheitlichung hatte jeder Computerhersteller seine eigenen Methoden, um Zeichen wie Buchstaben digital abzubilden. Bemer erinnert sich: "Es gab kaum Lösungsansätze, die alle Beteiligten befriedigten. Dabei zeichnete sich das Problem ab - immerhin wuchs die Verbreitung von Computer von Ende der 50er Jahre an stark. Zudem war die Entwicklung von Software teuer, und deshalb wollte man natürlich Code wiederverwenden." Also diskutierte Bemer mit den Kollegen und legte 1960 den ASCII-Entwurf vor. Das Konzept ist deshalb beachtlich, weil es bereits die Internationalisierung voraussah und ermöglichte. Bemer hatte unter anderem ein Zeichen definiert, das den Sprung zu ergänzenden Codetabellen anzeigt. So konnte ASCII von einem amerikanischen zu vielen internationalen Standards hatte ASCII eindeutig zu wenige davon für alle Zeichen der Welt. Auch für deutsche Umlaute war kein Platz. Die haben ihre Zuflucht in einem der vielen um ein achtes Bit erweiterten ASCII-Codesätze gefunden. Von den durch die Genfer "International Organization for Standardization" (ISO) genormten Zeichensätzen gibt es viele Varianten. Das große Ü steht im westeuropäischen Zeichensatz ISO 8859-1 - als Zeichen Nummer 220 oder binär ausgedrückt als 11011100. Es gibt die Zeichensätze für das kyrillische, hebräische und griechische Alphabet, und im Jahr 2001 wurde ein ThaiZeichensatz von der ISO angenommen. Der Weg dorthin war für den ASCII-Zeichensatz steinig. Es gab lange Zeit einen konkurrierenden Standard, der von Großrechnern benutzt wurde: EBCDIC. Doch das Betriebssystem Unix nutzte ASCII, ebenso die ersten Personal Computer Schon zu einer Zeit, als niemand an das bunte World-Wide Web dachte, war ASCII auch im Internet; nützlich. Denn um Infor mati en korrekt über das Netz, zu schicken,,müssen Internet-Protokolle allerlei allgemein verständliche Informationen über die Art und Bestimmung der beförderten Daten enthalten. Also etwa, wer der Empfänger einer E-Mail ist oder in welchem Zeichensatz der Autor eine Internetseite erstellt hat. Solche Dinge wurden schon früh in ASCII geschrieben. Der finnische Fachautor Jukka K Korpela, der eine der umfangreichen Geschichtsschreibungen zu ASCII zusammengetragen hat, sagt, der Wert von ASCII sei so versteckt wie diese internen Informationen nach dem Internet Protokoll.
  4. Lischka, K.: US-Richter misstrauen Internet-Filtern : Jugendschutz contra freie Meinungsäußerung: In Amerika entscheidet wieder mal die Justiz über staatliche Vorgaben (2002) 0.00
    0.0027177508 = product of:
      0.03261301 = sum of:
        0.03261301 = weight(_text_:internet in 456) [ClassicSimilarity], result of:
          0.03261301 = score(doc=456,freq=24.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.33897567 = fieldWeight in 456, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0234375 = fieldNorm(doc=456)
      0.083333336 = coord(1/12)
    
    Content
    "Was haben die finnische Botschaft in Rumänien, eine dänische Organisation gegen die Todesstrafe in den USA und die schottische Zeitung 'Aberdeen Independent" gemeinsam? Ihre Internet-Seiten gefährden jugendliche Nutzer mit pornografishen Inhalten. So sieht es zumindest das Filterprogramm "N2H2 Internet Filtering 2.0". Diese und 6.774 weitere zu Unrecht blockierte Seiten präsentiert die "American Civil Liberties Union (ACLU)" als Beweis in einem Prozess um den sog. Children's Internet Protection Act (CIPA). Verhandelt wird dabei eine Frage von internationaler Bedeutung: Ab wann gefährdet Jugendschutz im Internet die freie Meinungsäußerung? In Deutschland rückt die Filter-Problematik ins öffentliche Bewusstsein, seit die Düsseldorfer Bezirksregierung von Zugangs-Providern eine Blockade bestimmter Internet-Seiten fordert (siehe Netzwerk-Seite vom 12. März) - und dagegen Protest laut wird, wie am Wochenende mit einer Demonstration in der nordrheinwestfälischen Landeshauptstadt. ln den Vereinigten Staaten befassen sich Bürgerrechtsgruppen und Gerichte bereits seit Mitte der neunziger Jahre mit Online-Filtern. Zwei Gesetze, die Minderjährige vor Pornografie im Netz schützen sollten, haben US-Gerichte bereits für verfassungswidrig erklärt beziehungsweise wegen Verfassungsbedenken vorerst gestoppt: 1996 den "Connmunications Decency Act" und 1998 den "Child Online Protection Ast". ln beiden Fällen war das wesentliche Argument gegen Zwangsfilterung die lneffektivität der Programme. Da auch Internetseiten über Empfängnisverhütung, Aids, die Diskriminierung Homosexueller oder gar die Cartoonfigur Snoopy gesperrt wurden, sahen die Gerichte die vom ersten Verfassungszusatz garantierte Meinungsfreiheit gefährdet. Es scheint wahrscheinlich, dass deshalb auch der jetzt verhandelte "Children's Internet Protestion Act" keinen Bestand haben wird. Das lassen die Äußerungen der Richter während der Verhandlung erwarten. Ihr Urteil werden sie Anfang Mai verkünden. Anders als die beiden früheren Gesetze gehört der CIPA nicht zum Strafrecht. Das Gesetz sieht vor, dass vom Jahr 2003 an Bibliotheken nur dann mit Bundesgeld unterstützt werden, wenn sie minderjährige Surfer von jugendgefährdenden Seiten fern halten. Ob das allerdings möglich ist, zweifelt Harvey Bartle, einer der drei Richter, an: "Ich denke, jedermann würde mir zustimmen, dass wir wahrscheinlich nicht hier sitzen würden, wenn es eine Technologie gäbe, die einfach Obszönitäten, Kinderpornografie und jugendgefährdende Inhalte ausschließen könnte." Solche Filter existieren nicht. Arbeiten die Programme mit von Menschen erstellten Listen, blockieren sie nicht einmal annähernd genügend Seiten. Allerdings kann man gute Entscheidungen erwarten. Denn Menschen verstehen anders als Computer, dass Aufklärungsangebote über Empfängnisverhütung durchaus für Minderjährige zugänglich sein sollten. Freilich sind schon solche Einsätzungen in den Vereinigten Staaten umstritten, wo es unterschiedliche Ansichten etwa über die Zulässigkeit von vorehelichem Sex gibt: Gerade deshalb ist das Schwelgen der meisten Hersteller von Filtersoftware übenden Inhalt ihrer Listen, deren Zustandekommen und die zu Grunde liegenden Wertvorstellungen beängstigend. Richter Bartle fragte einen als Zeugen geladenen Bibliothekar, der Filterprogramme einsetzt: "Sie delegieren die Verantwortung an ein außenstehendes Unternehmen? Wie kontrollieren sie, was der Hersteller der Filtersoftware tut?" Andere Filter arbeiten mit automatischer Texterkennnng. Die genaue Arbeitsweise halten die Produzenten geheim, allerdings dürfte die Suche nach Reizworten dabei eine bedeutende Rollenspielen. Damit ist wohl zu erklären, dass das Programm Cyberpatrol die Internet-Seite zum Buch "Peepshow: Media and Politics in an Age of Scandal" vier angesehener Publizisten blockiert hat. Der Sprachwissenschaftler Geoffrey Nunberg sagte vor Gerietet, eine präzise Analyse des Sinnzusammenhangs liege "weit jenseits der Möglichkeiten heutiger Technologie".
    Bei der Entscheidung des Gerichts dürfte es kaum bedeutend sein, wie hoch der Anteil zu Unrecht blockierter Seiten ist. Als der Anwalt des Justizministeriums vor Gericht argumentierte, der liege bei nur sechs Prozent, entgegnete der vorsit-zende Richter Edward Becker: "Und wie hoch ist der absolute Anteil geschützter freier Meinungsäußerung in diesen sechs Prozent? Wir reden hier über vielleicht Zehntausende von Seiten." Auf die Entscheidung des Gerichts - es ist im Gesetz als erste Instanz für juristische Auseinandersetzungen vorgesehen - wird in jedem Fall eine Berufung vor dem Obersten Gerichtshof folgen. Die haben sowohl die ACLU als auch das Justizministerium angekündigt. Ob das Gesetz für verfassungswidrig erklärt wird, ist weniger sicher wie bei den zwei Vorgängern, da es den Einsatz von Filterprogrammen nicht zwingend vorschreibt, sondern lediglich zur Voraussetzung für finanzielle Unterstützung macht. Auf das Geld sind allerdings viele der 40 000 US-Bibliotheken angewiesen. Die Entscheidung, ob der CIPA mit der US-Verfassung zu vereinbaren ist, wird jedoch die zentrale Frage nicht beantworten: Wie kann Jugendschutz im Internet garantiert werden, ohne in Zensur umzuschlagen? Zahlreiche Lösungsvorschläge hat schon vor zwei Jahren die vom USKongress berufene COPA-Rommission gemacht. In ihrem Bericht sind Filterprogramme lediglich ein - keineswegs zentrales - Instrument. Die Information der Eltern sollte an erster, Stelle stehen, da keine Technologie perfekt ist. Wenn Eltern sich nicht mit den Interessen und Internet-Sitzungen ihrer Rinder beschäftigen, nützen Filterprogramme wenig. Die Kommission schlug auch zahlreiche technische Lösungen vor: Ein Selbstklassifizierungssystem für Anbieter von Internet-Inhalten beispielsweise, die Einfüh-rung neuer Top-Level-Domains wie .xxx und .kids, die Verbreitung von Verfahren zur Altersprüfung, die Schaffung von Kommissionen, die Inhalte empfehlen und damit so genannte Greenspaces für Kinder schaffen. Seit Jahren stehen diese Ideen im Raum. Statt sie zu diskutieren, wähnt . man sich - nicht nur in den Vereinigten Staaten - in der falschen Sicherheit der Filterprogramme."
    Theme
    Internet
  5. Lischka, K.: Archiv statt Deponie : Die US-Congressbibliothek soll das digitale Kulturerbe sichern - das dürfte teuer und schwierig werden (2003) 0.00
    0.0017297639 = product of:
      0.020757167 = sum of:
        0.020757167 = weight(_text_:internet in 1418) [ClassicSimilarity], result of:
          0.020757167 = score(doc=1418,freq=14.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.21574748 = fieldWeight in 1418, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1418)
      0.083333336 = coord(1/12)
    
    Content
    "Fast eine Million britische Schulkinder, Beamte und Journalisten haben im Jahr 1986 Informationen über ihr Land gesammelt. Sie trugen 250000 Ortsbeschreibungen zusammen, 50 000 Fotos, 25 000 Landkarten und eine nie quantifizierte Textmenge. Der Sender BBC wollte ein Dokument über den britischen Alltag jener Zeit für die Nachwelt schaffen. Etwa 2,5 Millionen Pfund kostete der Datenberg, der auf einer Videodisk gespeichert wurde. Die galt als unzerstörbar. War sie bis heute auch. Nur gab es 16 Jahre später im Jahr 2002 keinen Computer mehr, der das Material lesen kann. Denn der entsprechende BBC Micro-Rechner war schnell verschwunden, weil ein zu teurer Flop. Ähnlich könnte es dem digital vorliegenden, kulturellen Erbe der Menschheit ergehen, Das denkt zumindest die Mehrheit der US-Kongressabgeordneten. Sie haben der Kongressbibliothek für die Entwicklung eines Systems zur Sammlung und Katalogisierung digitaler Informationen 20 Millionen Dollar bewilligt. Weitere 75 Millionen könnten in den nächsten Jahren vom Staat dazukommen - wenn auch Sponsoren so viel Geld bringen. Halten die sich zurück, knausert auch der Staat beim "National Digital Information Infrastructure and Preservation Program" (NDIIPP). Deutsche Bibliothekare betrachten das Projekt mit gemischten Gefühlen. "Wir sehen neidisch, was in den USA mit Sponsoren möglich ist. Doch andererseits kann man den Erhalt des nationalen Kulturerbes nicht darauf gründen, dass in 50 Jahren noch Sponsoren dafür zu haben sind", erklärt Katrin Ansorge, Sprecherin der Deutschen Bibliothek (DDB). Die hat - noch - keinen gesetzlichen Sammelauftrag für digitale Dokumente, die nicht auf physischen Datenträgern wie CD-ROMs vorliegen. Doch Ansorge ist zuversichtlich, "dass der Bund das Gesetz noch in dieser Legislaturperiode anpasst". Bis dahin dürfte mehr Material verloren sein als beim Brand der Bibliothek von Alexandria. Nach einer Studie der US-Kongressbibliothek war die Hälfte des 1998 im Internet verfügbaren Materials 1999 wieder verschwunden. "Vieles davon war wichtiges, einzigartiges Material. das man nicht zurückholen kann, aber einst dringend suchen wird", sagt der Leiter der Kongressbibliothek, James H. Billington. Den hier wirkenden Widerspruch des Internets als Medium formuliert Franziska Nori, die wissenschaftliche Leiterin der Abteilung Digitalcraft am Frankfurter Museum für Angewandte Kunst (MAK): "Es ist kurzlebig, hat aber alle Bereiche unserer Gesellschaft einschneidend verändert." Einen kleinen Beitrag zur Archivierung digitalen Kunsthandwerks leistet das MAK mit seiner Sammlung Webdesign. Ausgewählte Seiten von Gestaltern, Agenturen, Onlinemagazinen und Angeboten für Kinder werden auf den Servern von Digitalcraft archiviert. Auch die DDB sammelt bestimmte Dokumente wie Onlinedissertationen, Habilitationen oder nur online verfügbare wissenschaftliche Magazine. Die vergleichsweise kleinen Projekte zeigen vor allem eines: Die Archivierung digitaler Dokumente ist teuer. Denn die Probleme sind komplexer und vor allem neuer als der am Papier nagende Säurefraß und die nötige systematische Katalogisierung gedruckter Werke. Die Probleme beginnen schon beim Sammeln. Die von privaten Stiftungen getragene US-Initiative "Internet Archive" speichert beispielsweise jeden Tag 400 Gigabyte an neuem Material. Ausgedruckt wären das mehr als 20 Buchregal-Kilometer. Um zusätzlichen Speicherplatz zu kaufen, gibt das "Internet Archive" jeden Monat etwa 40000 Euro aus. Die Wartung und vor allem die Katalogisierung des vorhandenen Bestands ist weit teurer. Dabei erfasst das "Internet Archive" nur alle zwei Monate komplett einen großen Ausschnitt des Webs. Mit Passworten geschützte Seiten bleiben ebenso außen vor wie Kommunikation in Chaträumen und E-Mails.
    Angesichts der Datenmengen scheint es, dass Bibliotheken beim Sammeln digitaler Dokumente rigider auswählen müssen. Weit drastischer als heute, wo noch immer der Grundgedanke wirkt, spätere Generationen müssten selbst den Wert der Quellen bewerten dürfen. Die DDB denkt laut Kathrin Ansorge an getrennte Sammlungsverfahren: "einerseits für Dokumente, die einen gesicherten Publikationsprozess wie etwa in Verlagen erfahren haben, andererseits für den großen Rest, den man mit Suchrobotern abgreifen könnte". Beim Sammeln werden Bibliotheken dieselben Schwierigkeiten haben, mit denen das "Internet Archive" heute schon kämpft: Urheber schützen ihr Material; Passworte sind das kleinere Problem. Eine gesetzliche Ablieferungspflicht wie bei gedrucktem Material könnte da helfen. Schwieriger sind Dateiformate, die schon heute das Auslesen der Dokumente ebenso wie zu häufige Transfers verhindern. Manche Verlage legen gar ein Verfallsdatum fest. Diese Verschlüsselungen sind nur schwer zu knacken. Die Versuche könnte ein novelliertes Urheberrecht gar strafbar machen. Aber auch Dateiformate ohne solche Schutzmechanismen werden zum Problem. Denn Dokumente sollen ja nicht nur auf Deponien gesammelt werden, sondern vor allem in Archiven zugänglich sein. Die drohende Gefahr: Die Soft- und Hardware zum Lesen bestimmter Formate ist in wenigen Jahren verschwunden. Die Dokumente sind dann so wertvoll wie Text in Geheimtinte ohne das Wissen, wie man sie sichtbar macht. Hier haben digitale Archive drei Möglichkeiten. Die erste ist Migration. Alte Software wird für jede neue Computergeneration neu programmiert. Das ist aufwendig. Und vor allem gehen Informationen verloren, während neue hinzukommen. Es ist so, als würde man ein Gemälde alle fünf Jahre abmalen. Wie Rembrandts Nachtwache dann heute aussähe? Eine andere Möglichkeit ist die Emulation. Dabei ahmen spezielle Programme alte Hardware nach. Man müsste dann nicht jede Software neu schreiben, weil sie sich in einer vertrauten, da emulierten Umgebung wähnt. Der Nachteil: Alle paar Jahre ist eine neue Emulation nötig, um die alten Emulatoren mit neuer Hardware nutzen zu können. Ein auf kurze Sicht bequemer, auf lange Sicht gefährlicher Teufelskreis, sagt David Bearman, Präsident des kanadischen Beratungsunternehmens "Archives and Museum Informatics": "Das gibt Managern und Regierungen auf der Welt eine Entschuldigung, um Entscheidungen herauszuzögern, die jetzt getroffen werden müssen. Eine dritte Möglichkeit wäre, alle Dateien in einer zweiten Version zu speichern, die auf einem so genannten Universal Virtual Computer lesbar ist. Der existiert als Beschreibung auf wenigen Seiten Papier. Er ist einfach und umfasst die bislang unveränderten und in Zukunft sicher reproduzierbaren technischen Grundsätze eines Rechners wie Arbeitsspeicher, Hauptprozessor und dergleichen. Diese Möglichkeit erwägt die Koninklijke Bibliotheek der Niederlande. Sie hat IBM mit der Entwicklung eines Depotsystem für digitale Dokumente beauftragt. Ein auf mittlere Sicht angelegtes Programm läuft schon. Die langfristige, gegenüber Hard- und Softwareänderungen resistente Erhaltung soll auf dem UVC-Konzept aufbauen. Dass es im Prinzip funktioniert, belegt ein Prototyp: Ein PDF-Dokument wurde in das Format für einen UVC konvertiert und ohne Informationsverlust wieder ausgelesen. Noch besteht Hoffnung für das digitale Kulturerbe. Sogar das von der BBC 1986 gesammelte Material konnten Forscher - nach mehr als einem halben Jahr Arbeit - Ende vergangenen Jahres auslesen. Aller- dings wissen sie noch nicht, wie sie es nun für die Ewigkeit archivieren sollen - oder zumindest für die nächsten 16 Jahre."
    Object
    Internet Archive
    Theme
    Internet
  6. Lischka, K.: Verlorene Seiten : Das amerikanische Urheberrecht bremst kritische Netzangebote - Beispiel Google (2002) 0.00
    0.0015853548 = product of:
      0.019024257 = sum of:
        0.019024257 = weight(_text_:internet in 2167) [ClassicSimilarity], result of:
          0.019024257 = score(doc=2167,freq=6.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.19773582 = fieldWeight in 2167, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2167)
      0.083333336 = coord(1/12)
    
    Content
    "Dass eine Kirche mit Hilfe des Urheberrechts die Verbreitung ihrer Lehren verhindert, ist ungewöhnlich. Aber es ist ja auch umstritten, ob die "Church of Scientology" sich zu Recht als solche bezeichnet - oder nicht doch ein "weltweit tätiger Wirtschaftskonzern" ist, wovon beispielsweise das Bayerische Innenministerium überzeugt ist. Solchen Kritikern liefert Scientology jetzt neue Argumente: Die Organisation hat Links zu der Seite xenu.net des norwegischen Scientology-Gegners Andreas Heldal-Lund aus der Suchmaschine Google entfernen lassen - ganz legal, und doch ohne die Entscheidung eines Gerichts. Am B. März forderte die Anwaltskanzlei Moxon & Kobrin aus Los Angeles per Mail die US-Niederlassung von Google auf, 126 Internetseiten aus dem Suchindex zu entfernen. Ein Anhang zählte die einzelnen Seiten und die dort verwendeten, urheberrechtlich geschützten Inhalte auf, Dazu gehören 26 Fotos aus Scientology-Magazinen, viel wichtiger aber sind die 85 aufgeführten Texte. Andreas Heldal-Lund zitiert auf seiner Seite beispielsweise aus angeblich internen Scientology-Dokumenten, die eine "dead agenting" genannte Technik beschreiben, die Kritiker gezielt diskreditieren soll. Die E-Mail an Google bestreitet den Wahrheitsgehalt von Heldal-Lunds Ausführungen nicht. Stattdessen verweisen die Anwälte darauf, dass ihre Klienten - das "Religious Technology Center" und "Bridge Publications" - das Urheberrecht an den Unterlagen besitzen und einer Veröffentlichung nicht zugestimmt hätten. Auch würden 54 eingetragene Warenzeichen Scientologys - dazu gehören Begriffe wie Scientology, Dianetics und Hubbard - ohne Genehmigung verwendet. Der Suchdienst Google reagierte am 20. März. In einer E-Mail erfuhr Heldal-Lund, dass alle in der Nachricht der Kanzlei angegebenen Seiten aus dem Suchindex entfernt wurden. Mit anderen Worten: Wer am 20. März bei einer der größten und renommiertesten Suchmaschinen nach kritischen Informationen zu Scientology recherchierte, erfuhr nichts von einem der umfangreichsten Angebote. Heldal-Lund machte den Vorgang am 21. März in einem Internet-Diskussionsforum öffentlich. Ein Proteststurm brach los. Vermutlich nach der Kritik entschloss sich Google, zumindest die wichtigste der betroffenen Seiten, www.xenu.net, wieder in den Index aufzunehmen. Andere Seiten "mit detaillierten Informationen bleiben ausgeschlossen. So zeigt sich, wie schwierig es ist, zu unterscheiden zwischen legitimer Verfolgung von Urheberrechtsverstößen und mit Hilfe des Urheberrechts angestrebter Zensur. Heldal-Lund gibt selbst zu, urheberrechtlich geschütztes Material 'zu verwenden. Allerdings sieht er sich im Recht, weil seiner Meinung nach "Scientology mit Hilfe: des Urheberrechts Informationen über die Lehren des Gründers vor der Öffentlichkeit zurückhält". Die Rechtmäßigkeit der Argumentation ist nie vor Gericht überprüft worden. Ein Gericht war überhaupt nicht nötig, um die Seiten aus dem Suchindex von Google zu entfernen. Der Grund dafür: Ein ServiceProvider wie Google haftet laut dem US amerikanischen Digital Millennium Copyright Act (DMCA) nicht für Inhalte, die er ohne sein Wissen zur Verfügung stellt. Wenn aber jemand einen Provider darauf hinweist, dass er geschützte Inhalte verfügbar macht, steht das Unternehmen vor einer schwierigen Entscheidung: Entweder sperrt es die Inhalte. Dann kann es nicht haftbar gemacht werden, wenn ein Gericht später eine Urheberrechtsverletzung feststellt. Oder der Anbieter wartet ab, bis der Rechte-Inhaber gegen jemanden wie Heldal-Lund vorgeht. Stellt dann jedoch das Gericht eine Verletzung des Urheberrechts fest, ist auch der Service-Provider haftbar, da er zuvor schon um eine Entfernung der problematischen Inhalte ersucht wurde. Das deutsche Informations- und Kommunikationsdienstegesetz sieht ebenso wie die E-Commerce-Richtlinie der Europäischen Gemeinschaft ein ähnliches "notice and take down"-Verfahren vor. Die Entscheidung liegt letztlich beim Service-Provider. Es hat sich bereits in anderen Fällen gezeigt, dass die lieber kritische Inhalte sperren als etwaige Haftungs-Risiken einzugehen.
    Die Folge: Für Kritiker wie Heldal-Lund wird es schwieriger, im Internet Aufmerksamkeit zu gewinnen. Der Norweger wendet sich nicht an ein US-amerikanisches' Gericht wegen der Sperrung, da er sich die Anwaltskosten nicht leisten kann. Die Scientology-Anwältin Helena Kobrin kommentiert ihr Vorgehen so: "Wir missbrauchen das Gesetz nicht, wir gehen sehr streng nach den Vorgaben des Urheberrechts vor." Da hat sie Recht. Über die Güte der entsprechenden Gesetze sagt das freilich nichts aus."
    Theme
    Internet
  7. Lischka, K.: Falsche Fährten (2002) 0.00
    0.0014619171 = product of:
      0.017543005 = sum of:
        0.017543005 = weight(_text_:internet in 863) [ClassicSimilarity], result of:
          0.017543005 = score(doc=863,freq=10.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.18233988 = fieldWeight in 863, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.01953125 = fieldNorm(doc=863)
      0.083333336 = coord(1/12)
    
    Content
    "Algorithmen wie bei der Suchmaschine und redaktionell ausgewählte Kataloge wie Yahoo vermitteln den Eindruck von Allwissenheit und Neutralität. Doch der täuscht. Manche Anbieter lassen sich für attraktive Platzierungen in den Ergebnislisten bezahlen. Beispielsweise die deutschsprachige Suchmaschine Acoon. Ganz gleich, ob Surfer eine "Marion Müller" oder einen "Karl' Kaninchen" finden wollen: Als viertes Ergebnis taucht immer ein Internet-Reiseservice sui; mit einer angeblichen Relevanz von 87 Prozent. So krass werden Nutzer nur selten getäuscht. Doch auch die Resultate einer Recherche beim deutschsprachigen Angebot des Microsoft Network (MSN) machen stutzig: Wer "Buch" oder "Auto" eintippt, wird als Erstes auf so genannte ausgewählte Websites verwiesen. Und das sind gewiss nicht die wichtigsten. Denn die Ergebnisse ähneln sich erstaunlich: "Bücher bei MSN Shopping" oder "MSN-Carview". Das verdeutlicht: Abgesehen davon, dass Suchmaschinen höchstens ein Viertel der Webdokumente kennen, muss die Auswahl der Algorithmen oder Redakteure keineswegs objektiv oder den Nutzerfinteressen angepasst sein. Der Inhalt hängt vielmehr von einem komplexen Interessengetlecht ab. Beteiligt dabei: die Verantwortlichen für Internetangebote, die Betreiber der Suchmaschinen, der regulierende Staat und die Surfer. Manche Formen ihres Zusammenwirkens sind heikel. Zunächst kann das Gewinnstreben der Suchmaschinenbetreiber und das Interesse der Inhaltsanbieter an Seitenaufrufen die Suchresultate verzerren. Den schmalen Grat beschrieb Ganon Giguiere, Marketingchef bei Altavista, einmal so: "Man muss die feine Balance zwischen einem optimalen Produkt und einem Produkt, das Umsätze bringt, finden." Dass die Suchmaschfinenanbfieter die Herkunft gekaufter Ergebnisse nicht immer ttansparent machen, zeigt ein Brief der, US-amerikanischen Federal Trade Commission an einige Betreiber. Die Behörde mahnt, bezahlte Ergebnisse deutlicher zu kennzeichnen und den Nutzern das Zustandekommen zu erklären. In Deutschland kündigte die Wettbewerbszentrale an" gegen unzureichend kennzeichnende Suchmaschinenbetreiber wegen sittenwidrigen Verhaltens im Wettbewerb vorzugehen. Verwirrende Begriffe verwenden gar seriöse Anbieter Unter "Empfohlene Links" und "Weitere Listings zeigt Altavista Wer-, bung, Web.de nutzt den Begriff "Partnerlinks". Pikant: Einträge in das redaktionelle Verzeichnis von Web.de sind nur ,noch gegen Geld möglich. Wenigstens 27,84 Euro verlangen die Karlsruher jährlich. Ob langfristig die Chancengleichheit etwa zwischen finanzstarken Unternehmen und eher minderbemittelten Nicht-Regierungs-Organisationen gewahrt bleibt? Web.de-Sprecherin Eva Vennemann sieht kein Problem: "Wir konnten seit der Umstellung keine Unterschiede bezüglich der Struktur und Themenvielfalt feststellen. Auch Institutionen und Privatpersonen melden weiter ihre Seiten bei uns an." Bisher verlangen nur wenige Kataloge zwingend Anmeldegebühren. Meist werden gegen Bezahlung die Seiten schneller aufgenommen, sonst kann es schon einmal sechs Monate dauern. Die Zwei-Klas-sen-Aufmerksamkeitsgesellschaft erklärt den Erfolg von Projekten wie dem Open Directory Dmoz.org: Dort begutachten Freiwillige Seiten für einen redaktionellen Katalog, den andere Anbieter in Teilen oder komplett übernehmen - so such das Google-Verzeichnis. Alleine der deutschsprachige Teil zählt etwa 200 000 Einträge.
    Nicht nur Betreiber der Suchseiten streben nach Gewinnen und nehmen zumindest missverständliche Ergebnisse in Kauf Auch Programmierer von Webseiten schummeln zu ihren eigenen Gunsten, etwa indem sie beim Anmelden ihrer Angebote falsche Katalogrubriken nennen - oder Suchmaschinen mit falschen Begriffen füttem. Genau das versuchte die CDU Fuldatal. In den für Surfer unsichtbaren HtmlMetatags trug sie gefragte Begriffe wie "Sex" ein, aber auch Termini wie "Führer" und Deportation". Die Schlagwörter wurden zwischenzeitlich gelöscht. Die Tricks mancher Webmaster gehen inzwischen darüber hinaus. So gibt das Magazin Internet Professionell Tipps wie diesen: "Man manipuliert die Suchmaschinen. mit Tricks wie begriffsoptimierten Cloaking-Pages und Domain-Namen oder speziellen Einträgen zur Steigerung der Link-Fbpularity." Das bedeutet: Seiten, die auf das Bewertungsschema bestimmter Suchmaschinen ausgerichtet sind, werden dem eigentlichen Angebot vorgeschaltet. Die Surfer bemerken davon wegen automatischer Weiterleitungen kaum etwas. So erhöht man die Zahl der auf das eigene Angebot verweisenden Seiten - ein wichtiges Gütekriterium beispielsweise fir den Algorithmus von Google. Wegen solcher Praktiken sah sich der Deutsche Multimedia Verband jüngst gezwungen, eine Empfehlung für korrektes Suchmaschinenmarketing abzugeben. Besonders kritisch werden solche Methoden, wenn sie von Pornographie-Anbietern eingesetzt werden. Wer etwa statt "Anna Kournikova den leicht falsch geschriebenen Namen "Anna Kournikoba" bei Google eintippt, bekommt dank der besonderen Form "der Suchmaschinenoptimierung nackte Haut vorgeschlagen. Friedemann Schiadler, Leiter von Jugendschutz.net, der Zentralstelle der Länder für Jugendschutz im Internet, sieht Handlungsbedarf: "Es ist ein Problem, wenn Kinder und Jugendliche bei einer Suche auf Seiten stoßen, nach denen sie nicht gesucht haben." Hier kommt - zumindest in - Deutschland - die dritte Partei bei der Veränderung von Ergebnislisten ins Spiel: der Staat. Jugendschutz.net hat in den vergangenen Wochen Aufsehen mit einer Initiative erregt, nach der Suchmaschinen ihre Listen jugendgefährdender und illegaler Adressen austauschen sollten Kritiker sehen eine staatliche Vorzensur. Doch soweit kommt es wohl nicht. Schiadler räumt ein, Jugendschutz.net hat keine hoheitlichen Rechte, um Suchmaschinen zu Austausch und Nutzung der Liste zu verpflichten. Bedenklich ist der Vorschlag dennoch. Das Gesetz nennt eindeutig, was auch für Erwachsene unzulässig ist: Tier- und Kinderpornografie, Volksverhetzung und Verletzungen der Menschenwürde. Die Suchmaschinenbetreiber aber bestimmen unzulässige Inhalte auf Grund eigener Kriterien, die teils über das Gesetz hinausgehen. Wie Friedemann Schiadler sagt: "Für viele Betreiber von Suchdiensten verstoßen Darstellungen von Kindern in sexuell aufreizenden Posen gegen die eigene Policy, obwohl sie gesetzlich zulässig sind." Solche Sperren über eine gemeinsame Liste zu zentralisieren, sieht Wolfgang Schulz, Leiter des Hans-Bredow-Instituts für Medienforschung, nur eingeschränkt positiv: ".Strukturell ist der Ansatz zu begrüßen, da er die Suchmaschinenanbieter zur Selbstverantwortung anhält. Allerdings ist es im Hinblick auf die Kommunikationsfreiheit erwachsener Nutzer bedenklich, wenn bestimmte Inhalte sus dem Netz unmerklich verschwinden." Schiadler hingegen sagt, es gebe keinen Anspruch darauf, in einem Suchdienst gelistet zu sein: "Es bleibt den Betreibern vorbehalten, die Auswahl zu treffen." Bei allem Streit, wichtig ist: Die Nutzer sollten die Kriterien der Eingriffe kennen - ganz gleich ob sie der Werbung oder dem Jugendschutz dienen.
    Footnote
    Vgl. auch: Pasch, R.: Mit Sex zur CDU gelockt: Ortsverband operierte mit fragwürdigen Begriffen im Internet. in: Frankfurter Rundschau Nr.178 vom 3.8.2002, S.4.
    Theme
    Internet
  8. Lischka, K.: Digitale Doppelgänger (2003) 0.00
    7.8454707E-4 = product of:
      0.009414565 = sum of:
        0.009414565 = weight(_text_:internet in 1268) [ClassicSimilarity], result of:
          0.009414565 = score(doc=1268,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.09785385 = fieldWeight in 1268, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1268)
      0.083333336 = coord(1/12)
    
    Content
    "Im Film "Metropolis" von 1926 brauchte der Forscher Rotwang viel Metall und Strom für einen Identitätsdiebstahl: Unter Blitzen und Lichtbögen bekam ein Roboter das Aussehen der Arbeiterfihrerin Maria. Das künstliche Wesen sollte sie ersetzen und die Massen kontrollieren. Heute reicht für den Identitätsklau - zumindest- in den' USA - eine neunstellige Ziffernfolge, die auf vielen, nicht immer ausreichend gesicherten Rechnern liegt. Das mussten gut 500000 Angehörige der US-Armee erfahren, deren Sozialversicherungsnummern, Adressen und Namen von Einbrechern aus einem Computer der Krankenkasse Tri West gestohlen wurden Die Versicherung hat 100000 US-Dollar Belohnung ausgesetzt und überwacht auf Wunsch kostenlos die Einträge über die Kreditwürdigkeit der Betroffenen. Denn mit den Daten ist es leicht, Konten zu eröff nen und im Namen anderer einzukaufen. Dazu brauchen die Kriminellen nicht einmal Kreditkartennummern - es geht auch auf ungedeckten Kredit. Eine Studentin schöpfte erstmals im April Verdacht, als eine Fluglinie wegen zwei mit ihrer Kreditkarte gebuchten Tickets nachfragte. Als sich im Juli ein Elektronikhandel für die Deckung des Kredits interessierte, waren auf ihren Namen bereits 50000 Dollar Schulden angehäuft. Die Frau war bis in den Winter beschäftigt, die Firmen von der Unrechtmäßigkeit . der Forderungen zu überzeugen und ihre Kreditwürdigkeit wiederherzustellen. Hysterische US-Medienberichte über solchen Identitätsklau erinnern an Schauerromane des 19. Jahrhunderts. Damals erlebten Menschen in der Arbeitswelt, wie mehr und mehr Aufgaben an Maschinen übergingen. Immer öfter tauchten Doppelgänger in den Geschichten Jean Pauls oder E.TA. Hoffmanns auf. Die damals heftig diskutierte Frage, was Menschlichkeit ausmacht, steht heute etwas nüchterner im Raum: Aus wie vielen Daten besteht die Identität eines Menschen? In Deutschland glücklicherweise aus wesentlich mehr als in den Vereinigten Staaten. Dort identifizieren sich Bürger fast ausschließlich mit der Sozialversicherungsnummer gegenüber Staat und Kreditgebern Denn ein nationaler Personalausweis fehlt, Reisepässe besitzen nur we nige, und die Führerscheine der Bundesstaaten sind selten fälschungssicher. "Diese Probleme haben wir in Deutschland nicht", sagt der stellvertretende Landesbeauftragte für den Datenschutz in Schleswig-Holstein, Thilo Weichert. Hier zu Lande sei "in fast allen Fällen die Identifizierung über den Personalausweis nötig" - und die Angst vor Identitätsklau daher unberechtigt. Ohne den per Ausweis verifizierten Namen und Wohnort gebe es weder Konto noch Kreditkarte. Es sind also mehr Angaben als neun Ziffern nötig. Dennoch ist die einfachste und wirkungsvollste Variante des Identitätsklaus auch- in Deutschland möglich: Mit einer Kreditkartennummer können Kriminelle in fremdem Namen einkaufen. Weichert:' "Das ist ja fast schon klassisch - unberech-tigte Internet-Bestellungen,' da online eine direkte Identifizierung nicht möglich ist." Den größten Teil der Computerkriminalität - die Zahl der Fälle hat sich von 1993 bis 2001 verachtfacht - macht in der deutschen Kriminalstatistik denn auch der Betrug mit solchen rechtswidrig erlangten Karten aus.
  9. Lischka, K.: Spurensuche im Datenwust : Data-Mining-Software fahndet nach kriminellen Mitarbeitern, guten Kunden - und bald vielleicht auch nach Terroristen (2002) 0.00
    5.5191957E-4 = product of:
      0.006623035 = sum of:
        0.006623035 = product of:
          0.01324607 = sum of:
            0.01324607 = weight(_text_:22 in 1178) [ClassicSimilarity], result of:
              0.01324607 = score(doc=1178,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.116070345 = fieldWeight in 1178, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1178)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Content
    "Ob man als Terrorist einen Anschlag gegen die Vereinigten Staaten plant, als Kassierer Scheine aus der Kasse unterschlägt oder für bestimmte Produkte besonders gerne Geld ausgibt - einen Unterschied macht Data-Mining-Software da nicht. Solche Programme analysieren riesige Daten- mengen und fällen statistische Urteile. Mit diesen Methoden wollen nun die For- scher des "Information Awaren in den Vereinigten Staaten Spuren von Terroristen in den Datenbanken von Behörden und privaten Unternehmen wie Kreditkartenfirmen finden. 200 Millionen Dollar umfasst der Jahresetat für die verschiedenen Forschungsprojekte. Dass solche Software in der Praxis funktioniert, zeigen die steigenden Umsätze der Anbieter so genannter Customer-Relationship-Management-Software. Im vergangenen Jahr ist das Potenzial für analytische CRM-Anwendungen laut dem Marktforschungsinstitut IDC weltweit um 22 Prozent gewachsen, bis zum Jahr 2006 soll es in Deutschland mit einem jährlichen Plus von 14,1 Prozent so weitergehen. Und das trotz schwacher Konjunktur - oder gerade deswegen. Denn ähnlich wie Data-Mining der USRegierung helfen soll, Terroristen zu finden, entscheiden CRM-Programme heute, welche Kunden für eine Firma profitabel sind. Und welche es künftig sein werden, wie Manuela Schnaubelt, Sprecherin des CRM-Anbieters SAP, beschreibt: "Die Kundenbewertung ist ein zentraler Bestandteil des analytischen CRM. Sie ermöglicht es Unternehmen, sich auf die für sie wichtigen und richtigen Kunden zu fokussieren. Darüber hinaus können Firmen mit speziellen Scoring- Verfahren ermitteln, welche Kunden langfristig in welchem Maße zum Unternehmenserfolg beitragen." Die Folgen der Bewertungen sind für die Betroffenen nicht immer positiv: Attraktive Kunden profitieren von individuellen Sonderangeboten und besonderer Zuwendung. Andere hängen vielleicht so lauge in der Warteschleife des Telefonservice, bis die profitableren Kunden abgearbeitet sind. So könnte eine praktische Umsetzung dessen aussehen, was SAP-Spreche-rin Schnaubelt abstrakt beschreibt: "In vielen Unternehmen wird Kundenbewertung mit der klassischen ABC-Analyse durchgeführt, bei der Kunden anhand von Daten wie dem Umsatz kategorisiert werden. A-Kunden als besonders wichtige Kunden werden anders betreut als C-Kunden." Noch näher am geplanten Einsatz von Data-Mining zur Terroristenjagd ist eine Anwendung, die heute viele Firmen erfolgreich nutzen: Sie spüren betrügende Mitarbeiter auf. Werner Sülzer vom großen CRM-Anbieter NCR Teradata beschreibt die Möglichkeiten so: "Heute hinterlässt praktisch jeder Täter - ob Mitarbeiter, Kunde oder Lieferant - Datenspuren bei seinen wirtschaftskriminellen Handlungen. Es muss vorrangig darum gehen, einzelne Spuren zu Handlungsmustern und Täterprofilen zu verdichten. Das gelingt mittels zentraler Datenlager und hoch entwickelter Such- und Analyseinstrumente." Von konkreten Erfolgen sprich: Entlas-sungen krimineller Mitarbeiter-nach Einsatz solcher Programme erzählen Unternehmen nicht gerne. Matthias Wilke von der "Beratungsstelle für Technologiefolgen und Qualifizierung" (BTQ) der Gewerkschaft Verdi weiß von einem Fall 'aus der Schweiz. Dort setzt die Handelskette "Pick Pay" das Programm "Lord Lose Prevention" ein. Zwei Monate nach Einfüh-rung seien Unterschlagungen im Wert von etwa 200 000 Franken ermittelt worden. Das kostete mehr als 50 verdächtige Kassiererinnen und Kassierer den Job.

Languages