Search (9 results, page 1 of 1)

  • × author_ss:"Lischka, K."
  1. Lischka, K.; Kremp, M.: Was der Google-Gegner weiß - und was nicht (2009) 0.04
    0.04279042 = product of:
      0.12837125 = sum of:
        0.0513301 = weight(_text_:web in 4443) [ClassicSimilarity], result of:
          0.0513301 = score(doc=4443,freq=2.0), product of:
            0.14235806 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.043621145 = queryNorm
            0.36057037 = fieldWeight in 4443, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.078125 = fieldNorm(doc=4443)
        0.07704116 = product of:
          0.15408231 = sum of:
            0.15408231 = weight(_text_:suchmaschine in 4443) [ClassicSimilarity], result of:
              0.15408231 = score(doc=4443,freq=2.0), product of:
                0.24664505 = queryWeight, product of:
                  5.6542544 = idf(docFreq=420, maxDocs=44218)
                  0.043621145 = queryNorm
                0.62471277 = fieldWeight in 4443, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.6542544 = idf(docFreq=420, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4443)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Clevere Präsentation, schwache Datenbasis: Die Suchmaschine Wolfram Alpha wurde vorab schon als "Google Killer" gehandelt - jetzt hat SPIEGEL ONLINE eine erste Version getestet. Sie weiß viel über Aspirin, versagt bei Kultur - und hält die CDU für einen Regionalflughafen.
    Source
    http://www.spiegel.de/netzwelt/web/0,1518,623122,00.html
  2. Lischka, K.: Gegengewichte zum Kommerz : Die Folgen der Informationstechnik beschäftigen viele Gruppen (2003) 0.01
    0.014594471 = product of:
      0.04378341 = sum of:
        0.028384384 = weight(_text_:wide in 1247) [ClassicSimilarity], result of:
          0.028384384 = score(doc=1247,freq=2.0), product of:
            0.19327477 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.043621145 = queryNorm
            0.14686027 = fieldWeight in 1247, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1247)
        0.0153990295 = weight(_text_:web in 1247) [ClassicSimilarity], result of:
          0.0153990295 = score(doc=1247,freq=2.0), product of:
            0.14235806 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.043621145 = queryNorm
            0.108171105 = fieldWeight in 1247, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1247)
      0.33333334 = coord(2/6)
    
    Content
    Der Unterschied: Hintergrund Kearen weniger als in den achtziger jähren politische Entwicklungen, sondern vielmehr technologische. Computer eroberten als PCs immer mehr Haushalte, und das Internet wurde mit dem World Wide Web populär Vor diesem Hintergrund gründeten 1996 in München sieben Netzaktivisten den "Förderverein Informationstechnik und Gerellschaft" (Fitug). Eigentlich wollten wir nur unsere Aktivitäten bündeln. Damals ging es noch darum, das Medium und seine Benutzung bekannter zu machen - mehr in Richtung Information", erinnert sich Jürgen Plate, Gründungsmitglied und Informatik-Professor an der Münchner Fachhochschule. Seminare und Beratung über Chancen und Risiken der Informationstechtnologie sind heute nicht mehr das wesentliche Tätigkeitsfeld des Fitug. Anfragen werden beantwortet oder an die entsprechenden Experten unter den 80 Mitgliedern weitergeleitet. Die diskutieren vor allem intern. Bei großen Themen wendet sich Fitug auch über Presse und Diskussionsveranstaltungen an die Öffentlichkeit oder mit Briefen an verantwortliche Politiker. Wichtig sind für den Verein derzeit Privacy, Sperrverfügungen, teils das Patentrecht". Fragwürdige Patente sind der Existenzgrund des "Fördervereins für eine Freie Informationelle Infrastruktur" (FFII), der 1999 in München gegründet wurde. Gehörten zuerst vor allem Linux-Freaks dazu, die sich von Münchner Installationsfesten kannten, sind die 187 Mitglieder heute bundesweit verstreut. Sie engagieren sich für offene Schnittstellen und einen fairen Wettbewerb, ohne proprietäre Programme wie Windows per se zu verdammen. Den Mitgliedern schwebt ein Gegengewicht zum Branchenverband Bitkom vor, geführt von Softwarefachleuten statt Juristen, Managern und Werbern. Noch ist der FFII davon weit entfernt - wie alle anderen Initiativen. Zwar gibt es in Deutschland mehr bekannte Organisationen als etwa in den USA, doch ist keine von ihnen groß genug für eine Lobbyarbeit, die sich mit der von Industrieverbänden messen kann. Deshalb waren bisher wohl auch jene Initiativen am erfolgreichsten, bei denen viele der Gruppen sich zu einer Plattform zusammengeschlossen haben: etwa beim Big-Brother-Award oder Privatkopie.net. Vielleicht aber sind die netzartigen Strukturen dem Thema förderlicher als alte Lobbyhierarchien."
  3. Lischka, K.: 128 Zeichen für die Welt : Vor 40 Jahren schrieben Fachleute das Alphabet des Computers - und schufen damit dem ASCII-Standard (2003) 0.01
    0.01216206 = product of:
      0.03648618 = sum of:
        0.023653654 = weight(_text_:wide in 391) [ClassicSimilarity], result of:
          0.023653654 = score(doc=391,freq=2.0), product of:
            0.19327477 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.043621145 = queryNorm
            0.122383565 = fieldWeight in 391, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.01953125 = fieldNorm(doc=391)
        0.012832525 = weight(_text_:web in 391) [ClassicSimilarity], result of:
          0.012832525 = score(doc=391,freq=2.0), product of:
            0.14235806 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.043621145 = queryNorm
            0.09014259 = fieldWeight in 391, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=391)
      0.33333334 = coord(2/6)
    
    Abstract
    Wollen sich Menschen verständigen, brauchen sie eine gemeinsame Sprache. So wurde vor zwei Jahrtausenden in den Provinzen des römischen Imperiums fleißig Latein gelernt. Ähnlich ist das bei Computern; die miteinander in Kontakt treten: Sie benötigen eine gemeinsame Methode, um die Weltsprache digital abzubilden. Vor vier Jahrzehnten wurde sie geschaffen: Am 17. Juni 1963 bestimmte die "American Standards Association" (ASA), dass ein großes "A" der Zahlenfolge 1000001 entspricht. Genau 128 solcher siebenstelliger Binärcodes gibt es seither - entstanden war der"American National Standard Code for Information Interchange", ASCII. Die Bedeutung des offenen Standards rückt erst neuerdings wieder ins Bewusstsein der Netzöffentlichkeit. Bis vor kurzem war einer der Initiatoren von ASCII, der heute 83jährige Programmierer Bob Bemer, für seine Verdienste bei Programmiersprachen wie Cobol und Fortran bekannt. Jetzt hat ihm das renommierte amerikanische "Institute of Electrical and Electronics Engineer" (IEEE) die Auszeichnung "Computer Pioneer Award" verliehen - wegen seiner Verdienste um ASCII. Dass lange Zeit niemand an ASCII als besondere Errungenschaft dachte, liegt am Erfolg des Standards. Vor der Vereinheitlichung hatte jeder Computerhersteller seine eigenen Methoden, um Zeichen wie Buchstaben digital abzubilden. Bemer erinnert sich: "Es gab kaum Lösungsansätze, die alle Beteiligten befriedigten. Dabei zeichnete sich das Problem ab - immerhin wuchs die Verbreitung von Computer von Ende der 50er Jahre an stark. Zudem war die Entwicklung von Software teuer, und deshalb wollte man natürlich Code wiederverwenden." Also diskutierte Bemer mit den Kollegen und legte 1960 den ASCII-Entwurf vor. Das Konzept ist deshalb beachtlich, weil es bereits die Internationalisierung voraussah und ermöglichte. Bemer hatte unter anderem ein Zeichen definiert, das den Sprung zu ergänzenden Codetabellen anzeigt. So konnte ASCII von einem amerikanischen zu vielen internationalen Standards hatte ASCII eindeutig zu wenige davon für alle Zeichen der Welt. Auch für deutsche Umlaute war kein Platz. Die haben ihre Zuflucht in einem der vielen um ein achtes Bit erweiterten ASCII-Codesätze gefunden. Von den durch die Genfer "International Organization for Standardization" (ISO) genormten Zeichensätzen gibt es viele Varianten. Das große Ü steht im westeuropäischen Zeichensatz ISO 8859-1 - als Zeichen Nummer 220 oder binär ausgedrückt als 11011100. Es gibt die Zeichensätze für das kyrillische, hebräische und griechische Alphabet, und im Jahr 2001 wurde ein ThaiZeichensatz von der ISO angenommen. Der Weg dorthin war für den ASCII-Zeichensatz steinig. Es gab lange Zeit einen konkurrierenden Standard, der von Großrechnern benutzt wurde: EBCDIC. Doch das Betriebssystem Unix nutzte ASCII, ebenso die ersten Personal Computer Schon zu einer Zeit, als niemand an das bunte World-Wide Web dachte, war ASCII auch im Internet; nützlich. Denn um Infor mati en korrekt über das Netz, zu schicken,,müssen Internet-Protokolle allerlei allgemein verständliche Informationen über die Art und Bestimmung der beförderten Daten enthalten. Also etwa, wer der Empfänger einer E-Mail ist oder in welchem Zeichensatz der Autor eine Internetseite erstellt hat. Solche Dinge wurden schon früh in ASCII geschrieben. Der finnische Fachautor Jukka K Korpela, der eine der umfangreichen Geschichtsschreibungen zu ASCII zusammengetragen hat, sagt, der Wert von ASCII sei so versteckt wie diese internen Informationen nach dem Internet Protokoll.
  4. Lischka, K.: US-Richter misstrauen Internet-Filtern : Jugendschutz contra freie Meinungsäußerung: In Amerika entscheidet wieder mal die Justiz über staatliche Vorgaben (2002) 0.01
    0.008105654 = product of:
      0.048633926 = sum of:
        0.048633926 = weight(_text_:2.0 in 456) [ClassicSimilarity], result of:
          0.048633926 = score(doc=456,freq=2.0), product of:
            0.252991 = queryWeight, product of:
              5.799733 = idf(docFreq=363, maxDocs=44218)
              0.043621145 = queryNorm
            0.1922358 = fieldWeight in 456, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.799733 = idf(docFreq=363, maxDocs=44218)
              0.0234375 = fieldNorm(doc=456)
      0.16666667 = coord(1/6)
    
    Content
    "Was haben die finnische Botschaft in Rumänien, eine dänische Organisation gegen die Todesstrafe in den USA und die schottische Zeitung 'Aberdeen Independent" gemeinsam? Ihre Internet-Seiten gefährden jugendliche Nutzer mit pornografishen Inhalten. So sieht es zumindest das Filterprogramm "N2H2 Internet Filtering 2.0". Diese und 6.774 weitere zu Unrecht blockierte Seiten präsentiert die "American Civil Liberties Union (ACLU)" als Beweis in einem Prozess um den sog. Children's Internet Protection Act (CIPA). Verhandelt wird dabei eine Frage von internationaler Bedeutung: Ab wann gefährdet Jugendschutz im Internet die freie Meinungsäußerung? In Deutschland rückt die Filter-Problematik ins öffentliche Bewusstsein, seit die Düsseldorfer Bezirksregierung von Zugangs-Providern eine Blockade bestimmter Internet-Seiten fordert (siehe Netzwerk-Seite vom 12. März) - und dagegen Protest laut wird, wie am Wochenende mit einer Demonstration in der nordrheinwestfälischen Landeshauptstadt. ln den Vereinigten Staaten befassen sich Bürgerrechtsgruppen und Gerichte bereits seit Mitte der neunziger Jahre mit Online-Filtern. Zwei Gesetze, die Minderjährige vor Pornografie im Netz schützen sollten, haben US-Gerichte bereits für verfassungswidrig erklärt beziehungsweise wegen Verfassungsbedenken vorerst gestoppt: 1996 den "Connmunications Decency Act" und 1998 den "Child Online Protection Ast". ln beiden Fällen war das wesentliche Argument gegen Zwangsfilterung die lneffektivität der Programme. Da auch Internetseiten über Empfängnisverhütung, Aids, die Diskriminierung Homosexueller oder gar die Cartoonfigur Snoopy gesperrt wurden, sahen die Gerichte die vom ersten Verfassungszusatz garantierte Meinungsfreiheit gefährdet. Es scheint wahrscheinlich, dass deshalb auch der jetzt verhandelte "Children's Internet Protestion Act" keinen Bestand haben wird. Das lassen die Äußerungen der Richter während der Verhandlung erwarten. Ihr Urteil werden sie Anfang Mai verkünden. Anders als die beiden früheren Gesetze gehört der CIPA nicht zum Strafrecht. Das Gesetz sieht vor, dass vom Jahr 2003 an Bibliotheken nur dann mit Bundesgeld unterstützt werden, wenn sie minderjährige Surfer von jugendgefährdenden Seiten fern halten. Ob das allerdings möglich ist, zweifelt Harvey Bartle, einer der drei Richter, an: "Ich denke, jedermann würde mir zustimmen, dass wir wahrscheinlich nicht hier sitzen würden, wenn es eine Technologie gäbe, die einfach Obszönitäten, Kinderpornografie und jugendgefährdende Inhalte ausschließen könnte." Solche Filter existieren nicht. Arbeiten die Programme mit von Menschen erstellten Listen, blockieren sie nicht einmal annähernd genügend Seiten. Allerdings kann man gute Entscheidungen erwarten. Denn Menschen verstehen anders als Computer, dass Aufklärungsangebote über Empfängnisverhütung durchaus für Minderjährige zugänglich sein sollten. Freilich sind schon solche Einsätzungen in den Vereinigten Staaten umstritten, wo es unterschiedliche Ansichten etwa über die Zulässigkeit von vorehelichem Sex gibt: Gerade deshalb ist das Schwelgen der meisten Hersteller von Filtersoftware übenden Inhalt ihrer Listen, deren Zustandekommen und die zu Grunde liegenden Wertvorstellungen beängstigend. Richter Bartle fragte einen als Zeugen geladenen Bibliothekar, der Filterprogramme einsetzt: "Sie delegieren die Verantwortung an ein außenstehendes Unternehmen? Wie kontrollieren sie, was der Hersteller der Filtersoftware tut?" Andere Filter arbeiten mit automatischer Texterkennnng. Die genaue Arbeitsweise halten die Produzenten geheim, allerdings dürfte die Suche nach Reizworten dabei eine bedeutende Rollenspielen. Damit ist wohl zu erklären, dass das Programm Cyberpatrol die Internet-Seite zum Buch "Peepshow: Media and Politics in an Age of Scandal" vier angesehener Publizisten blockiert hat. Der Sprachwissenschaftler Geoffrey Nunberg sagte vor Gerietet, eine präzise Analyse des Sinnzusammenhangs liege "weit jenseits der Möglichkeiten heutiger Technologie".
  5. Lischka, K.: Falsche Fährten (2002) 0.00
    0.0045396937 = product of:
      0.027238162 = sum of:
        0.027238162 = product of:
          0.054476324 = sum of:
            0.054476324 = weight(_text_:suchmaschine in 863) [ClassicSimilarity], result of:
              0.054476324 = score(doc=863,freq=4.0), product of:
                0.24664505 = queryWeight, product of:
                  5.6542544 = idf(docFreq=420, maxDocs=44218)
                  0.043621145 = queryNorm
                0.22086932 = fieldWeight in 863, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.6542544 = idf(docFreq=420, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=863)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Content
    "Algorithmen wie bei der Suchmaschine und redaktionell ausgewählte Kataloge wie Yahoo vermitteln den Eindruck von Allwissenheit und Neutralität. Doch der täuscht. Manche Anbieter lassen sich für attraktive Platzierungen in den Ergebnislisten bezahlen. Beispielsweise die deutschsprachige Suchmaschine Acoon. Ganz gleich, ob Surfer eine "Marion Müller" oder einen "Karl' Kaninchen" finden wollen: Als viertes Ergebnis taucht immer ein Internet-Reiseservice sui; mit einer angeblichen Relevanz von 87 Prozent. So krass werden Nutzer nur selten getäuscht. Doch auch die Resultate einer Recherche beim deutschsprachigen Angebot des Microsoft Network (MSN) machen stutzig: Wer "Buch" oder "Auto" eintippt, wird als Erstes auf so genannte ausgewählte Websites verwiesen. Und das sind gewiss nicht die wichtigsten. Denn die Ergebnisse ähneln sich erstaunlich: "Bücher bei MSN Shopping" oder "MSN-Carview". Das verdeutlicht: Abgesehen davon, dass Suchmaschinen höchstens ein Viertel der Webdokumente kennen, muss die Auswahl der Algorithmen oder Redakteure keineswegs objektiv oder den Nutzerfinteressen angepasst sein. Der Inhalt hängt vielmehr von einem komplexen Interessengetlecht ab. Beteiligt dabei: die Verantwortlichen für Internetangebote, die Betreiber der Suchmaschinen, der regulierende Staat und die Surfer. Manche Formen ihres Zusammenwirkens sind heikel. Zunächst kann das Gewinnstreben der Suchmaschinenbetreiber und das Interesse der Inhaltsanbieter an Seitenaufrufen die Suchresultate verzerren. Den schmalen Grat beschrieb Ganon Giguiere, Marketingchef bei Altavista, einmal so: "Man muss die feine Balance zwischen einem optimalen Produkt und einem Produkt, das Umsätze bringt, finden." Dass die Suchmaschfinenanbfieter die Herkunft gekaufter Ergebnisse nicht immer ttansparent machen, zeigt ein Brief der, US-amerikanischen Federal Trade Commission an einige Betreiber. Die Behörde mahnt, bezahlte Ergebnisse deutlicher zu kennzeichnen und den Nutzern das Zustandekommen zu erklären. In Deutschland kündigte die Wettbewerbszentrale an" gegen unzureichend kennzeichnende Suchmaschinenbetreiber wegen sittenwidrigen Verhaltens im Wettbewerb vorzugehen. Verwirrende Begriffe verwenden gar seriöse Anbieter Unter "Empfohlene Links" und "Weitere Listings zeigt Altavista Wer-, bung, Web.de nutzt den Begriff "Partnerlinks". Pikant: Einträge in das redaktionelle Verzeichnis von Web.de sind nur ,noch gegen Geld möglich. Wenigstens 27,84 Euro verlangen die Karlsruher jährlich. Ob langfristig die Chancengleichheit etwa zwischen finanzstarken Unternehmen und eher minderbemittelten Nicht-Regierungs-Organisationen gewahrt bleibt? Web.de-Sprecherin Eva Vennemann sieht kein Problem: "Wir konnten seit der Umstellung keine Unterschiede bezüglich der Struktur und Themenvielfalt feststellen. Auch Institutionen und Privatpersonen melden weiter ihre Seiten bei uns an." Bisher verlangen nur wenige Kataloge zwingend Anmeldegebühren. Meist werden gegen Bezahlung die Seiten schneller aufgenommen, sonst kann es schon einmal sechs Monate dauern. Die Zwei-Klas-sen-Aufmerksamkeitsgesellschaft erklärt den Erfolg von Projekten wie dem Open Directory Dmoz.org: Dort begutachten Freiwillige Seiten für einen redaktionellen Katalog, den andere Anbieter in Teilen oder komplett übernehmen - so such das Google-Verzeichnis. Alleine der deutschsprachige Teil zählt etwa 200 000 Einträge.
  6. Lischka, K.: Verlorene Seiten : Das amerikanische Urheberrecht bremst kritische Netzangebote - Beispiel Google (2002) 0.00
    0.0044940673 = product of:
      0.026964404 = sum of:
        0.026964404 = product of:
          0.053928807 = sum of:
            0.053928807 = weight(_text_:suchmaschine in 2167) [ClassicSimilarity], result of:
              0.053928807 = score(doc=2167,freq=2.0), product of:
                0.24664505 = queryWeight, product of:
                  5.6542544 = idf(docFreq=420, maxDocs=44218)
                  0.043621145 = queryNorm
                0.21864946 = fieldWeight in 2167, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.6542544 = idf(docFreq=420, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2167)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Content
    "Dass eine Kirche mit Hilfe des Urheberrechts die Verbreitung ihrer Lehren verhindert, ist ungewöhnlich. Aber es ist ja auch umstritten, ob die "Church of Scientology" sich zu Recht als solche bezeichnet - oder nicht doch ein "weltweit tätiger Wirtschaftskonzern" ist, wovon beispielsweise das Bayerische Innenministerium überzeugt ist. Solchen Kritikern liefert Scientology jetzt neue Argumente: Die Organisation hat Links zu der Seite xenu.net des norwegischen Scientology-Gegners Andreas Heldal-Lund aus der Suchmaschine Google entfernen lassen - ganz legal, und doch ohne die Entscheidung eines Gerichts. Am B. März forderte die Anwaltskanzlei Moxon & Kobrin aus Los Angeles per Mail die US-Niederlassung von Google auf, 126 Internetseiten aus dem Suchindex zu entfernen. Ein Anhang zählte die einzelnen Seiten und die dort verwendeten, urheberrechtlich geschützten Inhalte auf, Dazu gehören 26 Fotos aus Scientology-Magazinen, viel wichtiger aber sind die 85 aufgeführten Texte. Andreas Heldal-Lund zitiert auf seiner Seite beispielsweise aus angeblich internen Scientology-Dokumenten, die eine "dead agenting" genannte Technik beschreiben, die Kritiker gezielt diskreditieren soll. Die E-Mail an Google bestreitet den Wahrheitsgehalt von Heldal-Lunds Ausführungen nicht. Stattdessen verweisen die Anwälte darauf, dass ihre Klienten - das "Religious Technology Center" und "Bridge Publications" - das Urheberrecht an den Unterlagen besitzen und einer Veröffentlichung nicht zugestimmt hätten. Auch würden 54 eingetragene Warenzeichen Scientologys - dazu gehören Begriffe wie Scientology, Dianetics und Hubbard - ohne Genehmigung verwendet. Der Suchdienst Google reagierte am 20. März. In einer E-Mail erfuhr Heldal-Lund, dass alle in der Nachricht der Kanzlei angegebenen Seiten aus dem Suchindex entfernt wurden. Mit anderen Worten: Wer am 20. März bei einer der größten und renommiertesten Suchmaschinen nach kritischen Informationen zu Scientology recherchierte, erfuhr nichts von einem der umfangreichsten Angebote. Heldal-Lund machte den Vorgang am 21. März in einem Internet-Diskussionsforum öffentlich. Ein Proteststurm brach los. Vermutlich nach der Kritik entschloss sich Google, zumindest die wichtigste der betroffenen Seiten, www.xenu.net, wieder in den Index aufzunehmen. Andere Seiten "mit detaillierten Informationen bleiben ausgeschlossen. So zeigt sich, wie schwierig es ist, zu unterscheiden zwischen legitimer Verfolgung von Urheberrechtsverstößen und mit Hilfe des Urheberrechts angestrebter Zensur. Heldal-Lund gibt selbst zu, urheberrechtlich geschütztes Material 'zu verwenden. Allerdings sieht er sich im Recht, weil seiner Meinung nach "Scientology mit Hilfe: des Urheberrechts Informationen über die Lehren des Gründers vor der Öffentlichkeit zurückhält". Die Rechtmäßigkeit der Argumentation ist nie vor Gericht überprüft worden. Ein Gericht war überhaupt nicht nötig, um die Seiten aus dem Suchindex von Google zu entfernen. Der Grund dafür: Ein ServiceProvider wie Google haftet laut dem US amerikanischen Digital Millennium Copyright Act (DMCA) nicht für Inhalte, die er ohne sein Wissen zur Verfügung stellt. Wenn aber jemand einen Provider darauf hinweist, dass er geschützte Inhalte verfügbar macht, steht das Unternehmen vor einer schwierigen Entscheidung: Entweder sperrt es die Inhalte. Dann kann es nicht haftbar gemacht werden, wenn ein Gericht später eine Urheberrechtsverletzung feststellt. Oder der Anbieter wartet ab, bis der Rechte-Inhaber gegen jemanden wie Heldal-Lund vorgeht. Stellt dann jedoch das Gericht eine Verletzung des Urheberrechts fest, ist auch der Service-Provider haftbar, da er zuvor schon um eine Entfernung der problematischen Inhalte ersucht wurde. Das deutsche Informations- und Kommunikationsdienstegesetz sieht ebenso wie die E-Commerce-Richtlinie der Europäischen Gemeinschaft ein ähnliches "notice and take down"-Verfahren vor. Die Entscheidung liegt letztlich beim Service-Provider. Es hat sich bereits in anderen Fällen gezeigt, dass die lieber kritische Inhalte sperren als etwaige Haftungs-Risiken einzugehen.
  7. Lischka, K.: Digitale Doppelgänger (2003) 0.00
    0.0038520577 = product of:
      0.023112345 = sum of:
        0.023112345 = product of:
          0.04622469 = sum of:
            0.04622469 = weight(_text_:suchmaschine in 1268) [ClassicSimilarity], result of:
              0.04622469 = score(doc=1268,freq=2.0), product of:
                0.24664505 = queryWeight, product of:
                  5.6542544 = idf(docFreq=420, maxDocs=44218)
                  0.043621145 = queryNorm
                0.18741383 = fieldWeight in 1268, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.6542544 = idf(docFreq=420, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1268)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Content
    Gut 60 Prozent von 80000 Fällen waren es 2001. Die Kreditkartennummern beschaffen sich unliebsame Zeitgenossen auf verschiedenen Wegen. Meist stehlen sie die Daten. Wie Unternehmen wichtige Kundeninformationen auf ihren Rechnern schützen, darüber sagen selbst bekannte Vertreter wie Amazon und E-Bay nichts, nicht einmal Allgemeines. Öffentlich geworden ist daher bislang eher Negatives, etwa dass im Jahr 2001 Hacker bei der Amazon-Tochter Bibliofind die Kreditkartendaten von fast 100 000 Kunden klauten. Die Anbieter der elektronischen Geldbörsen sind dabei, Diebstahl und Nutzung erschwindelter Informationen zu erschweren: Neue Verfahren prüfen und belasten die Kartennummer online auf einem Zentralrechner der Gesellschaften; die Angaben werden nicht bei den Händlern gespeichert. In einem nächsten Schritt sollen Passwörter folgen, die ebenfalls über die Infrastruktur der Kreditkartenunternehmen kontrolliert werden. Es geht aber nicht nur ums Geld. Auch viele andere Aspekte der Identität jedes Bürgem sind digitalisierte lnformationen über Verdienst, Arbeitgeber, Schulzeiten, Arbeitslosigkeit und Kinder schlummern etwa in den Datenbanken der Bundesversicherungsanstalt für Angestellte. Ärzte und Krankenkassen arbeiten mit Gesundheitsdaten. Und Auskunfteien wie die Schufa kennen Informationen über die finanzielle Vergangenheit. Den Schutz all der Angaben reglementieren in Deutschland die Datenschutzgesetze stark, weit stärker als in den Vereinigten Staaten. Dort lockerte 1989 die "Federal Trade Commission" auf Druck von Auskunfteien, Kautionsbüros und Privatdetektiven den Schutz für Informationen über die Kreditwürdigkeit. Folge: Für 49 Dollar liefern Anbieter wje docusearch.com die Sozialversicherungsnummer jeder beliebigen Person. In Deutschland sind die Schufa; und ihre Konkurrenten verpflichtet, stichpro benartig die Berechtigung von Anfragen zur Kreditwürdigkeit zu prüfen. Die spannendsten Dinge geben die Bürger manchmal ohnehin freiwillig preis - vor allem in den Diskussionsforen des Usenets. Im Archiv der Suchmaschine Google (groups.google.de) stehen Beiträge aus mehr als einem Jahrzehnt. Einzeln betrachtet sind viele harmlos; mehrere Texte eines Autors zusammen liefern aber oft weit mehr Details, als man etwa Marktforschern anvertrauen würde. Ganz zu schweigen von den erotischen Kurzgeschichten einer hochrangigen Universitätsangestellten, die man in Verbindung mit ihrer offiziellen E-Mail-Adresse ohne Mühe findet. Nicht ohne Grund gehört zur Recherche von Personalvermittlern längst die Suche in den Newsgroups. Das Bewusstsein für die digitalisierten Lebensspuren wächst nur langsam - langsamer jedenfalls als die Technologie. In etwa vier Jahren soll laut Gordon Bell, Chef der Microsoft-Forschungsgruppe "My LifeBits" eine Technologie marktreif sein, die den Alltag eines Menschen in Form von digitalisierten Dokumenten, Bildern, Tönen und Videos speichert. Die nötige Speicherkapazität für die digitalen Erinnerungen eines Menschenlebens sieht Bell bei 1000 Gigabyte. Er selbst hat seit 1995 in seinem Zweitgedächtnis auf einer Festplatte 30 Gigabyte angehäuft: Viel neuer Stoff für Datenschützer - und neue Jean Pauls."
  8. Lischka, K.: Spurensuche im Datenwust : Data-Mining-Software fahndet nach kriminellen Mitarbeitern, guten Kunden - und bald vielleicht auch nach Terroristen (2002) 0.00
    0.0014775157 = product of:
      0.008865094 = sum of:
        0.008865094 = product of:
          0.017730188 = sum of:
            0.017730188 = weight(_text_:22 in 1178) [ClassicSimilarity], result of:
              0.017730188 = score(doc=1178,freq=2.0), product of:
                0.15275382 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043621145 = queryNorm
                0.116070345 = fieldWeight in 1178, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1178)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Content
    "Ob man als Terrorist einen Anschlag gegen die Vereinigten Staaten plant, als Kassierer Scheine aus der Kasse unterschlägt oder für bestimmte Produkte besonders gerne Geld ausgibt - einen Unterschied macht Data-Mining-Software da nicht. Solche Programme analysieren riesige Daten- mengen und fällen statistische Urteile. Mit diesen Methoden wollen nun die For- scher des "Information Awaren in den Vereinigten Staaten Spuren von Terroristen in den Datenbanken von Behörden und privaten Unternehmen wie Kreditkartenfirmen finden. 200 Millionen Dollar umfasst der Jahresetat für die verschiedenen Forschungsprojekte. Dass solche Software in der Praxis funktioniert, zeigen die steigenden Umsätze der Anbieter so genannter Customer-Relationship-Management-Software. Im vergangenen Jahr ist das Potenzial für analytische CRM-Anwendungen laut dem Marktforschungsinstitut IDC weltweit um 22 Prozent gewachsen, bis zum Jahr 2006 soll es in Deutschland mit einem jährlichen Plus von 14,1 Prozent so weitergehen. Und das trotz schwacher Konjunktur - oder gerade deswegen. Denn ähnlich wie Data-Mining der USRegierung helfen soll, Terroristen zu finden, entscheiden CRM-Programme heute, welche Kunden für eine Firma profitabel sind. Und welche es künftig sein werden, wie Manuela Schnaubelt, Sprecherin des CRM-Anbieters SAP, beschreibt: "Die Kundenbewertung ist ein zentraler Bestandteil des analytischen CRM. Sie ermöglicht es Unternehmen, sich auf die für sie wichtigen und richtigen Kunden zu fokussieren. Darüber hinaus können Firmen mit speziellen Scoring- Verfahren ermitteln, welche Kunden langfristig in welchem Maße zum Unternehmenserfolg beitragen." Die Folgen der Bewertungen sind für die Betroffenen nicht immer positiv: Attraktive Kunden profitieren von individuellen Sonderangeboten und besonderer Zuwendung. Andere hängen vielleicht so lauge in der Warteschleife des Telefonservice, bis die profitableren Kunden abgearbeitet sind. So könnte eine praktische Umsetzung dessen aussehen, was SAP-Spreche-rin Schnaubelt abstrakt beschreibt: "In vielen Unternehmen wird Kundenbewertung mit der klassischen ABC-Analyse durchgeführt, bei der Kunden anhand von Daten wie dem Umsatz kategorisiert werden. A-Kunden als besonders wichtige Kunden werden anders betreut als C-Kunden." Noch näher am geplanten Einsatz von Data-Mining zur Terroristenjagd ist eine Anwendung, die heute viele Firmen erfolgreich nutzen: Sie spüren betrügende Mitarbeiter auf. Werner Sülzer vom großen CRM-Anbieter NCR Teradata beschreibt die Möglichkeiten so: "Heute hinterlässt praktisch jeder Täter - ob Mitarbeiter, Kunde oder Lieferant - Datenspuren bei seinen wirtschaftskriminellen Handlungen. Es muss vorrangig darum gehen, einzelne Spuren zu Handlungsmustern und Täterprofilen zu verdichten. Das gelingt mittels zentraler Datenlager und hoch entwickelter Such- und Analyseinstrumente." Von konkreten Erfolgen sprich: Entlas-sungen krimineller Mitarbeiter-nach Einsatz solcher Programme erzählen Unternehmen nicht gerne. Matthias Wilke von der "Beratungsstelle für Technologiefolgen und Qualifizierung" (BTQ) der Gewerkschaft Verdi weiß von einem Fall 'aus der Schweiz. Dort setzt die Handelskette "Pick Pay" das Programm "Lord Lose Prevention" ein. Zwei Monate nach Einfüh-rung seien Unterschlagungen im Wert von etwa 200 000 Franken ermittelt worden. Das kostete mehr als 50 verdächtige Kassiererinnen und Kassierer den Job.
  9. Lischka, K.: Scherzbolde im Whitehouse.net : Die neuen Internet-Adressen wie .info oder.biz brachten nicht die erhoffte Systematik in das Netz (2003) 0.00
    0.0014775157 = product of:
      0.008865094 = sum of:
        0.008865094 = product of:
          0.017730188 = sum of:
            0.017730188 = weight(_text_:22 in 5) [ClassicSimilarity], result of:
              0.017730188 = score(doc=5,freq=2.0), product of:
                0.15275382 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043621145 = queryNorm
                0.116070345 = fieldWeight in 5, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=5)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    22. 2.2003 9:55:44