Search (6 results, page 1 of 1)

  • × author_ss:"Lischka, K."
  1. Lischka, K.: Archiv statt Deponie : Die US-Congressbibliothek soll das digitale Kulturerbe sichern - das dürfte teuer und schwierig werden (2003) 0.02
    0.016951516 = product of:
      0.050854545 = sum of:
        0.028723344 = weight(_text_:neue in 1418) [ClassicSimilarity], result of:
          0.028723344 = score(doc=1418,freq=6.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.19491734 = fieldWeight in 1418, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1418)
        0.0221312 = weight(_text_:medien in 1418) [ClassicSimilarity], result of:
          0.0221312 = score(doc=1418,freq=2.0), product of:
            0.1702354 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03616927 = queryNorm
            0.13000353 = fieldWeight in 1418, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1418)
      0.33333334 = coord(2/6)
    
    Abstract
    Selbst wenn es nach heutigem Ermessen nicht wertvoll wäre, müsste man Onlinematerial zumindest teilweise archivieren. Denn die Bedeutung von Quellen wandelt sich minder Zeit. Heutige Forschergenerationen würden viel für einen Blick auf jene Kurzfilme geben, die man Anfang des vergangenen Jahrhunderts nach einigen Durchläufen als Unterhaltungsmaterial achtlos zur Seite warf. Schon heute ist absehbar, dass lnternetseiten von 1998 Kommunikationswissenschaftler viel über die Beschleunigung und Aufheizung des Mediengeschäfts erzählen können. Wie schnell zogen kommerzielle Medien im Netz im Vergleich zur gedruckten Version der Skandalberichterstattung Matt Drudges über Bill Clintons Affaire nach? Welche Funktion hatten dabei öffentliche Nachrichtenforen? Historiker dürften vom frühen E-Mail-Verkehr in Regierungen und großen Unternehmen einst weit weniger finden als von den früher so geheimen Depeschen.
    Content
    Angesichts der Datenmengen scheint es, dass Bibliotheken beim Sammeln digitaler Dokumente rigider auswählen müssen. Weit drastischer als heute, wo noch immer der Grundgedanke wirkt, spätere Generationen müssten selbst den Wert der Quellen bewerten dürfen. Die DDB denkt laut Kathrin Ansorge an getrennte Sammlungsverfahren: "einerseits für Dokumente, die einen gesicherten Publikationsprozess wie etwa in Verlagen erfahren haben, andererseits für den großen Rest, den man mit Suchrobotern abgreifen könnte". Beim Sammeln werden Bibliotheken dieselben Schwierigkeiten haben, mit denen das "Internet Archive" heute schon kämpft: Urheber schützen ihr Material; Passworte sind das kleinere Problem. Eine gesetzliche Ablieferungspflicht wie bei gedrucktem Material könnte da helfen. Schwieriger sind Dateiformate, die schon heute das Auslesen der Dokumente ebenso wie zu häufige Transfers verhindern. Manche Verlage legen gar ein Verfallsdatum fest. Diese Verschlüsselungen sind nur schwer zu knacken. Die Versuche könnte ein novelliertes Urheberrecht gar strafbar machen. Aber auch Dateiformate ohne solche Schutzmechanismen werden zum Problem. Denn Dokumente sollen ja nicht nur auf Deponien gesammelt werden, sondern vor allem in Archiven zugänglich sein. Die drohende Gefahr: Die Soft- und Hardware zum Lesen bestimmter Formate ist in wenigen Jahren verschwunden. Die Dokumente sind dann so wertvoll wie Text in Geheimtinte ohne das Wissen, wie man sie sichtbar macht. Hier haben digitale Archive drei Möglichkeiten. Die erste ist Migration. Alte Software wird für jede neue Computergeneration neu programmiert. Das ist aufwendig. Und vor allem gehen Informationen verloren, während neue hinzukommen. Es ist so, als würde man ein Gemälde alle fünf Jahre abmalen. Wie Rembrandts Nachtwache dann heute aussähe? Eine andere Möglichkeit ist die Emulation. Dabei ahmen spezielle Programme alte Hardware nach. Man müsste dann nicht jede Software neu schreiben, weil sie sich in einer vertrauten, da emulierten Umgebung wähnt. Der Nachteil: Alle paar Jahre ist eine neue Emulation nötig, um die alten Emulatoren mit neuer Hardware nutzen zu können. Ein auf kurze Sicht bequemer, auf lange Sicht gefährlicher Teufelskreis, sagt David Bearman, Präsident des kanadischen Beratungsunternehmens "Archives and Museum Informatics": "Das gibt Managern und Regierungen auf der Welt eine Entschuldigung, um Entscheidungen herauszuzögern, die jetzt getroffen werden müssen. Eine dritte Möglichkeit wäre, alle Dateien in einer zweiten Version zu speichern, die auf einem so genannten Universal Virtual Computer lesbar ist. Der existiert als Beschreibung auf wenigen Seiten Papier. Er ist einfach und umfasst die bislang unveränderten und in Zukunft sicher reproduzierbaren technischen Grundsätze eines Rechners wie Arbeitsspeicher, Hauptprozessor und dergleichen. Diese Möglichkeit erwägt die Koninklijke Bibliotheek der Niederlande. Sie hat IBM mit der Entwicklung eines Depotsystem für digitale Dokumente beauftragt. Ein auf mittlere Sicht angelegtes Programm läuft schon. Die langfristige, gegenüber Hard- und Softwareänderungen resistente Erhaltung soll auf dem UVC-Konzept aufbauen. Dass es im Prinzip funktioniert, belegt ein Prototyp: Ein PDF-Dokument wurde in das Format für einen UVC konvertiert und ohne Informationsverlust wieder ausgelesen. Noch besteht Hoffnung für das digitale Kulturerbe. Sogar das von der BBC 1986 gesammelte Material konnten Forscher - nach mehr als einem halben Jahr Arbeit - Ende vergangenen Jahres auslesen. Aller- dings wissen sie noch nicht, wie sie es nun für die Ewigkeit archivieren sollen - oder zumindest für die nächsten 16 Jahre."
  2. Lischka, K.: Scherzbolde im Whitehouse.net : Die neuen Internet-Adressen wie .info oder.biz brachten nicht die erhoffte Systematik in das Netz (2003) 0.01
    0.0131228175 = product of:
      0.03936845 = sum of:
        0.034468014 = weight(_text_:neue in 5) [ClassicSimilarity], result of:
          0.034468014 = score(doc=5,freq=6.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.23390082 = fieldWeight in 5, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5)
        0.004900437 = product of:
          0.01470131 = sum of:
            0.01470131 = weight(_text_:22 in 5) [ClassicSimilarity], result of:
              0.01470131 = score(doc=5,freq=2.0), product of:
                0.12665862 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03616927 = queryNorm
                0.116070345 = fieldWeight in 5, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=5)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Fachleute sagten im Juli 1999 voraus, heute werde es mehr als 100 Millionen Domainnamen geben. Die Schätzung ging daneben: Derzeit gibt es nur halb so viele Internet-Adressen. Die befürchteten Probleme dagegen sind schon da: Eingängige Bezeichnungen in populären Namensräumen wie.com oder. net sind knapp und bisweilen teuer: So wurde wallstreet com für gut eine Million Euro verkauft. Neue Adressen, die die Netzverwaltung Icann seit zwei Jahren schrittweise einführt, sollten Abhilfe schaffen. Doch nach den bisherigen Erfahrungen sieht es nicht so aus, als seien.info oder.bix eine Lösung. Sieben neue Namensräume hat Icann genehmigt. Der letzte -.pro für Ärzte, Anwälte und Steuerberater - startet in den nächsten Wochen. Die erfolgreichste neue Top-Level-Domains (TLD) ist info mit mehr als einer Million registrierter Adressen. Doch nur 18 Prozent werden tatsächlich für Inhalte genutzt, sagt Tim Schumacher, Geschäftsführer der Plattform für Domainhandel Sedo: "Ein Großteil ist ungenutzt in den Händen von Spekulanten." 8000 Euro kostet etwa fonds.info. Über Zahlen kann man streiten. Der Verwalter der.info-Domeins Afilias spricht von weit mehr aktiven Seiten. Dennoch ist klar: Der allgemein zugängliche .info-Na-mensraum ist wohl deshalb so erfolgreich, weil Markeninhaber und Spekulanten sich auf die Adressen stürzten. Die einen vorbeugend, die anderen in der Hoffnung auf das große Geschäft. Exemplarisch ist der Streit zwischen Bundespresseamt und einer Duisburger Internet Agentur um bundesregierung.info. Grund für die Probleme: Es mangelt an Systematik im Namensraum. In den Vereinigten Staaten wissen die meisten Nutzer, dass unter whitehouse.net nicht Regierungsmitglieder gebrauchte Spionageflugzeuge verscherbeln, sondern Scherzbolde. Der echte Staatschef findet man unter der Endung.gov für Government (Regierung). International fehlt Vergleichbares; daher die Nöte des Bundespresseamts. Mehr als die Hälfte der weltweit registrierten Adressen liegt in globalen, allgemein offenen Namensräumen wie .com, .org oder.net. Der große Rest fällt in die Länder-Domeins wie de. Die neuen, nur für kleine Zielgruppen registrierbaren Nischenangebote sind bislang kein Erfolg. Was allerdings auch an der Auswahl liegen kann. So ist.coop Arbeitsgemeinschaften vorbehalten. Die Registrierzentrale freut sich über 7000 Anmeldungen-unter anderem von einer landwirtschaftlichen Kooperative aus der Mongolei. Eine Top Level Domain wie mobile für Mobilfunkunternehmen wäre erfolgreicher gewesen. Auch für den Namensbereich name malte sich die "Global Name Registry" mehr Interesse aus. Von etwa einer Million Kunden in 18 Monaten war die Rede. Derzeit sind es etwa 150000. Die Firma bleibt jedoch optimistisch: "Es gibt weltweit vielleicht 25 Millionen Unternehmen mit Interesse an Domainnamen, aber potenziell 600 Millionen Individuen", sagt Mitgründer Hakon Haugnes. Ein Beispiel für sinnvolle Lösungen ist der .aero-Namensraum. Dort gelten Benennungsstandards. Viele weltweit etablierte Codes für Fluggesellschaften führen zum Ziel; Ba.aero kann zum Beispiel nur British Airways registrieren. Derzeit diskutiert die Vergabezentrale eine Ausweitung der Regelung auf die standardisierten Flughafen-Codes und Flugnummern. Das Problem: Solche Vorgaben existieren nur selten a priori. Meist müssten sie mit dem Namensbereich geschaffen werden. Hier kritisiert der US-Rechtsprofessor Milton Mueller scharf die Organisation zur Verwaltung des Namensystems Icann: "Sie haben weder für die Einteilung, noch für die Aufteilung der Ressource Namensraum verbindliche Methoden definiert. Sie arbeiten als ein zentrales Planungsbüro im Sowjetstil und entscheiden nach absolut beliebigen Herangehensweisen auf Ad-hoc-Basis, welche Top Level Domains es gibt, wie sie verteilt werden, wer sie verwaltet." Icann wehrt sich mit der Begründung, sie dürfe als Selbstregulierungs-Organisation keine Politik betreiben.
    Date
    22. 2.2003 9:55:44
  3. Lischka, K.: 128 Zeichen für die Welt : Vor 40 Jahren schrieben Fachleute das Alphabet des Computers - und schufen damit dem ASCII-Standard (2003) 0.00
    0.0047872243 = product of:
      0.028723344 = sum of:
        0.028723344 = weight(_text_:neue in 391) [ClassicSimilarity], result of:
          0.028723344 = score(doc=391,freq=6.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.19491734 = fieldWeight in 391, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.01953125 = fieldNorm(doc=391)
      0.16666667 = coord(1/6)
    
    Abstract
    Nach 40 Jahren lösen neue Konventionen ASCII langsam ab. Auf einer höheren Ebene gibt es Standards wie XML oder RDF Dabei geht es nicht nur darum, Zeichen einheitlich darzustellen, sondern dasselbe auch für die Struktur eines beliebigen Dokumententyps zu erreichen. Auch die bloße Kodierung von Zeichen übernimmt mehr und mehr ein ASCII-Nachfolger: Unicode. Diese Basis für neue Standards wie XML existiert seit 1991. Die Vereinheitlichungs-Methode ist eine andere als bei ASCII: Alle Schriftzeichen der Welt sollen in einem einzigen 16-Bit-Zeichensatz kodiert werden, nicht mehr in vielen einzelnen wie bei ASCII. Industriegrößen wie Apple, HP, IBM, Microsoft und viele andere mehr unterstützen diesen Standard, die aktuelle Version 3.1 enthält 94140 unterschiedliche Zeichen - auch aus Schriften wie Cherokee oder Katakana. So können auch innerhalb eines Dokuments verschiedenste Sprachen und Schriften gemischt werden, zudem unterstützt jede Unicode-kompatible Software . automatisch such seltene Sprachen, die es sonst mangels Marktmacht schwer hätten, überhaupt die Aufmerksamkeit großer Software-Konzerne zu bekommen. Uni! September fälligen Version 4.0 einen großen Teil >der heute noch gebräuchlichen Sprachen abdecken. Auch wenn der technische Ansatz ein anderer als bei ASCII ist, folgt Unicode in einem Punkt Bob Bemers ursprünglicher Idee: "Wir sind mit ASCII in eine ganz andere Richtung als Esperanto gegangen. Statt allen eine neue Sprache aufzuzwingen, gab ASCII allen Nutzern auf der Welt die Möglichkeit, ihre eigene Schrift weiter zu nutzen." Das ist der sprachphilosophische Grund für den Erfolg von ASCII. Es gibt aber auch den technologiephilosophischen: ASCII war ein offener Standard. Bob Bemer sieht darin den wesentlichen Grund für den Erfolg: "Es haben jene Dinge überlebt, die nie patentiert wurden und so ständig verbessert und zu neuen Projekten verwandelt werden konnten." Neben Technikern schätzen auch Künstler ASCII längst. Sie fasziniert die Offenheit und Schlichtheit der ursprünglich 128 Zeichen seit Jahren. Einer der etablierten Netzkünstler, die seit langem mit ASCII arbeiten, ist der New Yorker Andy C. Deck. Er beschreibt seine Begeisterung für nackte, formatlose Zeichen so: "In einer Medienumwelt, die so tief greifend mit Bildern zugestopft ist, hat der Künstler als Bilderproduzent ein Publikum vor sich, das bereits an einer gestörten Wahrnehmungsverteilung leidet." Hier scheint es ASCII ähnlich zu ergehen wie einst der lateinischen Sprache. Seit dem zweiten Jahrhundert berauschten sich Menschen an der Schönheit der Sprache Ciceros - doch abgesehen von einigen neuen Begriffen entwickelte sich Latein nicht mehr weiter. Aber lateinische Einflüsse leben in romanischen Sprachen fort. Genauso geht es auch ASCII: Der Standard verschwindet nicht - er ist ein Bestandteil von Unicode
  4. Lischka, K.: Digitale Doppelgänger (2003) 0.00
    0.004690503 = product of:
      0.028143015 = sum of:
        0.028143015 = weight(_text_:neue in 1268) [ClassicSimilarity], result of:
          0.028143015 = score(doc=1268,freq=4.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.19097921 = fieldWeight in 1268, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1268)
      0.16666667 = coord(1/6)
    
    Content
    Gut 60 Prozent von 80000 Fällen waren es 2001. Die Kreditkartennummern beschaffen sich unliebsame Zeitgenossen auf verschiedenen Wegen. Meist stehlen sie die Daten. Wie Unternehmen wichtige Kundeninformationen auf ihren Rechnern schützen, darüber sagen selbst bekannte Vertreter wie Amazon und E-Bay nichts, nicht einmal Allgemeines. Öffentlich geworden ist daher bislang eher Negatives, etwa dass im Jahr 2001 Hacker bei der Amazon-Tochter Bibliofind die Kreditkartendaten von fast 100 000 Kunden klauten. Die Anbieter der elektronischen Geldbörsen sind dabei, Diebstahl und Nutzung erschwindelter Informationen zu erschweren: Neue Verfahren prüfen und belasten die Kartennummer online auf einem Zentralrechner der Gesellschaften; die Angaben werden nicht bei den Händlern gespeichert. In einem nächsten Schritt sollen Passwörter folgen, die ebenfalls über die Infrastruktur der Kreditkartenunternehmen kontrolliert werden. Es geht aber nicht nur ums Geld. Auch viele andere Aspekte der Identität jedes Bürgem sind digitalisierte lnformationen über Verdienst, Arbeitgeber, Schulzeiten, Arbeitslosigkeit und Kinder schlummern etwa in den Datenbanken der Bundesversicherungsanstalt für Angestellte. Ärzte und Krankenkassen arbeiten mit Gesundheitsdaten. Und Auskunfteien wie die Schufa kennen Informationen über die finanzielle Vergangenheit. Den Schutz all der Angaben reglementieren in Deutschland die Datenschutzgesetze stark, weit stärker als in den Vereinigten Staaten. Dort lockerte 1989 die "Federal Trade Commission" auf Druck von Auskunfteien, Kautionsbüros und Privatdetektiven den Schutz für Informationen über die Kreditwürdigkeit. Folge: Für 49 Dollar liefern Anbieter wje docusearch.com die Sozialversicherungsnummer jeder beliebigen Person. In Deutschland sind die Schufa; und ihre Konkurrenten verpflichtet, stichpro benartig die Berechtigung von Anfragen zur Kreditwürdigkeit zu prüfen. Die spannendsten Dinge geben die Bürger manchmal ohnehin freiwillig preis - vor allem in den Diskussionsforen des Usenets. Im Archiv der Suchmaschine Google (groups.google.de) stehen Beiträge aus mehr als einem Jahrzehnt. Einzeln betrachtet sind viele harmlos; mehrere Texte eines Autors zusammen liefern aber oft weit mehr Details, als man etwa Marktforschern anvertrauen würde. Ganz zu schweigen von den erotischen Kurzgeschichten einer hochrangigen Universitätsangestellten, die man in Verbindung mit ihrer offiziellen E-Mail-Adresse ohne Mühe findet. Nicht ohne Grund gehört zur Recherche von Personalvermittlern längst die Suche in den Newsgroups. Das Bewusstsein für die digitalisierten Lebensspuren wächst nur langsam - langsamer jedenfalls als die Technologie. In etwa vier Jahren soll laut Gordon Bell, Chef der Microsoft-Forschungsgruppe "My LifeBits" eine Technologie marktreif sein, die den Alltag eines Menschen in Form von digitalisierten Dokumenten, Bildern, Tönen und Videos speichert. Die nötige Speicherkapazität für die digitalen Erinnerungen eines Menschenlebens sieht Bell bei 1000 Gigabyte. Er selbst hat seit 1995 in seinem Zweitgedächtnis auf einer Festplatte 30 Gigabyte angehäuft: Viel neuer Stoff für Datenschützer - und neue Jean Pauls."
  5. Lischka, K.: Verlorene Seiten : Das amerikanische Urheberrecht bremst kritische Netzangebote - Beispiel Google (2002) 0.00
    0.003869467 = product of:
      0.0232168 = sum of:
        0.0232168 = weight(_text_:neue in 2167) [ClassicSimilarity], result of:
          0.0232168 = score(doc=2167,freq=2.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.1575498 = fieldWeight in 2167, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2167)
      0.16666667 = coord(1/6)
    
    Content
    "Dass eine Kirche mit Hilfe des Urheberrechts die Verbreitung ihrer Lehren verhindert, ist ungewöhnlich. Aber es ist ja auch umstritten, ob die "Church of Scientology" sich zu Recht als solche bezeichnet - oder nicht doch ein "weltweit tätiger Wirtschaftskonzern" ist, wovon beispielsweise das Bayerische Innenministerium überzeugt ist. Solchen Kritikern liefert Scientology jetzt neue Argumente: Die Organisation hat Links zu der Seite xenu.net des norwegischen Scientology-Gegners Andreas Heldal-Lund aus der Suchmaschine Google entfernen lassen - ganz legal, und doch ohne die Entscheidung eines Gerichts. Am B. März forderte die Anwaltskanzlei Moxon & Kobrin aus Los Angeles per Mail die US-Niederlassung von Google auf, 126 Internetseiten aus dem Suchindex zu entfernen. Ein Anhang zählte die einzelnen Seiten und die dort verwendeten, urheberrechtlich geschützten Inhalte auf, Dazu gehören 26 Fotos aus Scientology-Magazinen, viel wichtiger aber sind die 85 aufgeführten Texte. Andreas Heldal-Lund zitiert auf seiner Seite beispielsweise aus angeblich internen Scientology-Dokumenten, die eine "dead agenting" genannte Technik beschreiben, die Kritiker gezielt diskreditieren soll. Die E-Mail an Google bestreitet den Wahrheitsgehalt von Heldal-Lunds Ausführungen nicht. Stattdessen verweisen die Anwälte darauf, dass ihre Klienten - das "Religious Technology Center" und "Bridge Publications" - das Urheberrecht an den Unterlagen besitzen und einer Veröffentlichung nicht zugestimmt hätten. Auch würden 54 eingetragene Warenzeichen Scientologys - dazu gehören Begriffe wie Scientology, Dianetics und Hubbard - ohne Genehmigung verwendet. Der Suchdienst Google reagierte am 20. März. In einer E-Mail erfuhr Heldal-Lund, dass alle in der Nachricht der Kanzlei angegebenen Seiten aus dem Suchindex entfernt wurden. Mit anderen Worten: Wer am 20. März bei einer der größten und renommiertesten Suchmaschinen nach kritischen Informationen zu Scientology recherchierte, erfuhr nichts von einem der umfangreichsten Angebote. Heldal-Lund machte den Vorgang am 21. März in einem Internet-Diskussionsforum öffentlich. Ein Proteststurm brach los. Vermutlich nach der Kritik entschloss sich Google, zumindest die wichtigste der betroffenen Seiten, www.xenu.net, wieder in den Index aufzunehmen. Andere Seiten "mit detaillierten Informationen bleiben ausgeschlossen. So zeigt sich, wie schwierig es ist, zu unterscheiden zwischen legitimer Verfolgung von Urheberrechtsverstößen und mit Hilfe des Urheberrechts angestrebter Zensur. Heldal-Lund gibt selbst zu, urheberrechtlich geschütztes Material 'zu verwenden. Allerdings sieht er sich im Recht, weil seiner Meinung nach "Scientology mit Hilfe: des Urheberrechts Informationen über die Lehren des Gründers vor der Öffentlichkeit zurückhält". Die Rechtmäßigkeit der Argumentation ist nie vor Gericht überprüft worden. Ein Gericht war überhaupt nicht nötig, um die Seiten aus dem Suchindex von Google zu entfernen. Der Grund dafür: Ein ServiceProvider wie Google haftet laut dem US amerikanischen Digital Millennium Copyright Act (DMCA) nicht für Inhalte, die er ohne sein Wissen zur Verfügung stellt. Wenn aber jemand einen Provider darauf hinweist, dass er geschützte Inhalte verfügbar macht, steht das Unternehmen vor einer schwierigen Entscheidung: Entweder sperrt es die Inhalte. Dann kann es nicht haftbar gemacht werden, wenn ein Gericht später eine Urheberrechtsverletzung feststellt. Oder der Anbieter wartet ab, bis der Rechte-Inhaber gegen jemanden wie Heldal-Lund vorgeht. Stellt dann jedoch das Gericht eine Verletzung des Urheberrechts fest, ist auch der Service-Provider haftbar, da er zuvor schon um eine Entfernung der problematischen Inhalte ersucht wurde. Das deutsche Informations- und Kommunikationsdienstegesetz sieht ebenso wie die E-Commerce-Richtlinie der Europäischen Gemeinschaft ein ähnliches "notice and take down"-Verfahren vor. Die Entscheidung liegt letztlich beim Service-Provider. Es hat sich bereits in anderen Fällen gezeigt, dass die lieber kritische Inhalte sperren als etwaige Haftungs-Risiken einzugehen.
  6. Lischka, K.: Spurensuche im Datenwust : Data-Mining-Software fahndet nach kriminellen Mitarbeitern, guten Kunden - und bald vielleicht auch nach Terroristen (2002) 0.00
    8.167395E-4 = product of:
      0.004900437 = sum of:
        0.004900437 = product of:
          0.01470131 = sum of:
            0.01470131 = weight(_text_:22 in 1178) [ClassicSimilarity], result of:
              0.01470131 = score(doc=1178,freq=2.0), product of:
                0.12665862 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03616927 = queryNorm
                0.116070345 = fieldWeight in 1178, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1178)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Content
    "Ob man als Terrorist einen Anschlag gegen die Vereinigten Staaten plant, als Kassierer Scheine aus der Kasse unterschlägt oder für bestimmte Produkte besonders gerne Geld ausgibt - einen Unterschied macht Data-Mining-Software da nicht. Solche Programme analysieren riesige Daten- mengen und fällen statistische Urteile. Mit diesen Methoden wollen nun die For- scher des "Information Awaren in den Vereinigten Staaten Spuren von Terroristen in den Datenbanken von Behörden und privaten Unternehmen wie Kreditkartenfirmen finden. 200 Millionen Dollar umfasst der Jahresetat für die verschiedenen Forschungsprojekte. Dass solche Software in der Praxis funktioniert, zeigen die steigenden Umsätze der Anbieter so genannter Customer-Relationship-Management-Software. Im vergangenen Jahr ist das Potenzial für analytische CRM-Anwendungen laut dem Marktforschungsinstitut IDC weltweit um 22 Prozent gewachsen, bis zum Jahr 2006 soll es in Deutschland mit einem jährlichen Plus von 14,1 Prozent so weitergehen. Und das trotz schwacher Konjunktur - oder gerade deswegen. Denn ähnlich wie Data-Mining der USRegierung helfen soll, Terroristen zu finden, entscheiden CRM-Programme heute, welche Kunden für eine Firma profitabel sind. Und welche es künftig sein werden, wie Manuela Schnaubelt, Sprecherin des CRM-Anbieters SAP, beschreibt: "Die Kundenbewertung ist ein zentraler Bestandteil des analytischen CRM. Sie ermöglicht es Unternehmen, sich auf die für sie wichtigen und richtigen Kunden zu fokussieren. Darüber hinaus können Firmen mit speziellen Scoring- Verfahren ermitteln, welche Kunden langfristig in welchem Maße zum Unternehmenserfolg beitragen." Die Folgen der Bewertungen sind für die Betroffenen nicht immer positiv: Attraktive Kunden profitieren von individuellen Sonderangeboten und besonderer Zuwendung. Andere hängen vielleicht so lauge in der Warteschleife des Telefonservice, bis die profitableren Kunden abgearbeitet sind. So könnte eine praktische Umsetzung dessen aussehen, was SAP-Spreche-rin Schnaubelt abstrakt beschreibt: "In vielen Unternehmen wird Kundenbewertung mit der klassischen ABC-Analyse durchgeführt, bei der Kunden anhand von Daten wie dem Umsatz kategorisiert werden. A-Kunden als besonders wichtige Kunden werden anders betreut als C-Kunden." Noch näher am geplanten Einsatz von Data-Mining zur Terroristenjagd ist eine Anwendung, die heute viele Firmen erfolgreich nutzen: Sie spüren betrügende Mitarbeiter auf. Werner Sülzer vom großen CRM-Anbieter NCR Teradata beschreibt die Möglichkeiten so: "Heute hinterlässt praktisch jeder Täter - ob Mitarbeiter, Kunde oder Lieferant - Datenspuren bei seinen wirtschaftskriminellen Handlungen. Es muss vorrangig darum gehen, einzelne Spuren zu Handlungsmustern und Täterprofilen zu verdichten. Das gelingt mittels zentraler Datenlager und hoch entwickelter Such- und Analyseinstrumente." Von konkreten Erfolgen sprich: Entlas-sungen krimineller Mitarbeiter-nach Einsatz solcher Programme erzählen Unternehmen nicht gerne. Matthias Wilke von der "Beratungsstelle für Technologiefolgen und Qualifizierung" (BTQ) der Gewerkschaft Verdi weiß von einem Fall 'aus der Schweiz. Dort setzt die Handelskette "Pick Pay" das Programm "Lord Lose Prevention" ein. Zwei Monate nach Einfüh-rung seien Unterschlagungen im Wert von etwa 200 000 Franken ermittelt worden. Das kostete mehr als 50 verdächtige Kassiererinnen und Kassierer den Job.

Languages