Search (438 results, page 1 of 22)

  • × language_ss:"d"
  • × theme_ss:"Internet"
  • × type_ss:"a"
  1. Fahrenkrog, G.; Marahrens, O.; Bittner, E.: Des Surfers Leid, des Surfers Freud : Web usability und wie man sie testet (2002) 0.04
    0.041154522 = product of:
      0.18519534 = sum of:
        0.027681338 = product of:
          0.055362675 = sum of:
            0.055362675 = weight(_text_:web in 264) [ClassicSimilarity], result of:
              0.055362675 = score(doc=264,freq=8.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.5769126 = fieldWeight in 264, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0625 = fieldNorm(doc=264)
          0.5 = coord(1/2)
        0.157514 = weight(_text_:benutzerfreundlichkeit in 264) [ClassicSimilarity], result of:
          0.157514 = score(doc=264,freq=2.0), product of:
            0.2289144 = queryWeight, product of:
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.02940506 = queryNorm
            0.6880913 = fieldWeight in 264, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.0625 = fieldNorm(doc=264)
      0.22222222 = coord(2/9)
    
    Abstract
    Web usability befasst sich mit der Benutzerfreundlichkeit und Benutzbarkeit von Internet-Seiten. Eine gute Usability trägt zur Zufriedenheit der Besucher bei und kann somit den Erfolg einer Web-Site nachhaltig beeinflussen. Es werden verschiedene Methoden zum Testen der Usability einer Web-Site vorgestellt
  2. Heine, E.V.I.; Stock, W.G.; Oglou, Y.A.; Hackel, M.; Krasic, A.; Quack, S.; Rode, N.; Burghardt, S.; Manalodiparambil, M.; Röttger, M.; Schönhalz, D.; Valder, A.; Kühn, K.; Bachmaier, K.; Disli, S.; Punner, M.; Sabbagh, M.; Ströbele, U.; Bogen, C.; Rauter, J.; Schowe, K.; Steffen J.; Wiese, S.; Rohmen, S.; Wurzler, M.; Bülow, G.; Pudelko, F.; Roelvink, V.; Adjei-Kwarteng, C.; Jovanovic, M.; Kosmidou, M.; Hedwing, M.: Usability von Navigationssystemen im E-Commerce und bei informativen Websites - des Nutzers Odyssee (2003) 0.03
    0.027414577 = product of:
      0.123365596 = sum of:
        0.011986371 = product of:
          0.023972742 = sum of:
            0.023972742 = weight(_text_:web in 1966) [ClassicSimilarity], result of:
              0.023972742 = score(doc=1966,freq=6.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.24981049 = fieldWeight in 1966, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1966)
          0.5 = coord(1/2)
        0.11137922 = weight(_text_:benutzerfreundlichkeit in 1966) [ClassicSimilarity], result of:
          0.11137922 = score(doc=1966,freq=4.0), product of:
            0.2289144 = queryWeight, product of:
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.02940506 = queryNorm
            0.48655403 = fieldWeight in 1966, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.03125 = fieldNorm(doc=1966)
      0.22222222 = coord(2/9)
    
    Content
    ""Kein Grundstück der Welt ist so wertvoll wie eine Homepage", denn diese ist "zugleich das Gesicht, das ein Unternehmen der Welt zeigt" (Nielsen 1999). Die Homepage ist die erste Möglichkeit, die ein potenzieller Kunde oder gewünschter Lieferant wahrnimmt, um sich ein Bild über ein Unternehmen zu verschaffen "ehe sie sich auf ein Geschäft einlassen" (ebd.). Hier wird der Grundstein für zukünftige Geschäfte gelegt, unabhängig davon ob dies "nun online geschieht oder in der realen Welt" (ebd.). Die Website stellt demnach die erste Verbindung zu unterschiedlichsten Interessenten, Kunden und Lieferanten dar, wird somit zu einem Kommunikations- und Werbemedium. Deshalb ist es umso wichtiger, dass sich Benutzer auf sämtlichen Seiten einer Homepage zurecht finden, diese imstande ist, "die Bedürfnisse der Benutzer zu erfüllen" (ebd.), dass sie benutzerfähig und benutzerfreundlich ist. Diese Arbeit analysiert die Usability, d. h. die Benutzerfreundlichkeit und die Benutzbarkeit der deutschsprachigen Webauftritte der nachfolgenden Unternehmen bzw. Institutionen (nach Themenbereichen gegliedert), nicht nach künstlerischen, sondern nach funktionalen Kriterien: - Kataloge im E-Commerce: Otto (www.otto.de); Quelle (www.quelle.de); Amazon (www.amazon.de); eBay (www.eBay.de) - Informative Websites: HWWA (www.hwwa.de); Landtag NRW (www.landtag.nrw.de); Europäische Union (europa.eu.int); Kartoo Metasuchmaschine (www.kartoo.com). Von den unterschiedlichen Zielen der diversen Websites ausgehend wird untersucht, ob sich der alltägliche Web-Surfer, nachfolgend als "Otto Normalsurfer" gekennzeichnet, auf den einzelnen Webseiten zurecht findet, ob sein Informationsbedarf gedeckt und das Bedürfnis, sowohl nach allgemeiner als auch spezifischer Information befriedigt werden kann. Es geht demnach konkret um die Web-Zufriedenheit der Surfer, Mängel der Websites bezüglich Benutzerfreundlichkeit, des Designs und fehlende "Corporate Identity" aufzuzeigen und somit die Web-Usability der Websites zu vergleichen. Insbesondere das vergleichende Vorgehen im Anschluss an aufgabenbezogene Nutzertests sind wissenschaftliches Neuland."
  3. Kaminsky, P.: Vom armen Studenten zum "Million-Boy" : Mit winzigen Web-Werbeflächen macht Brite (21) das große Geld (2005) 0.03
    0.026767608 = product of:
      0.12045424 = sum of:
        0.11248628 = sum of:
          0.030948678 = weight(_text_:web in 4317) [ClassicSimilarity], result of:
            0.030948678 = score(doc=4317,freq=10.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.32250395 = fieldWeight in 4317, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03125 = fieldNorm(doc=4317)
          0.081537604 = weight(_text_:seite in 4317) [ClassicSimilarity], result of:
            0.081537604 = score(doc=4317,freq=8.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.49506867 = fieldWeight in 4317, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03125 = fieldNorm(doc=4317)
        0.007967959 = product of:
          0.015935918 = sum of:
            0.015935918 = weight(_text_:22 in 4317) [ClassicSimilarity], result of:
              0.015935918 = score(doc=4317,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.15476047 = fieldWeight in 4317, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4317)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Content
    "Das Internet hat einige Glückspilze rasant reich gemacht, vielen aber herbe Verluste gebracht: Der britische Studienanfänger Alex Tew (21) steht mit einer cleveren Geschäftsidee derzeit auf der Gewinnerseite. Er startete Ende August eine Internetseite mit dem verführerischen Namen "Million Dollar Homepage". Sein Ziel: ohne Aufwand schnell Geld zu verdienen. Dafür verkauft Tew winzig kleine Web-Werbeflächen. Keine aufregende Sache, mag man denken. Falsch. Die britische "Times" prüfte im Oktober die Kontendes "Million-Boy" ("Millionen-Junge"): 200.000 Euro waren eingegangen. Und die Seite boomt. "Ich war schon immer ein Mensch mit 1000 Ideen", erzählt der unauffällige 21-Jährige. Im Sommer hatten ihn Finanzsorgen geplagt. Sein Wirtschaftsstudium an der Universität Nottingham sollte allein im ersten Jahr 10.000 Euro für Unterkunft und Gebühren kosten. Der Ausblick, einen Schuldenberg anzuhäufen, sei "fürchterlich" gewesen. Also bot Tew eine Million Bildpunkte = Pixel genannt - auf seiner Web-Seite für je einen US-Dollar zum Kauf an. Werbekunden können dort ein Mini-Symbol platzieren. Kleinste Einheit ist ein Pixelquadrat aus 10 mal 10 Punkten für 100 Dollar - sonst ließe sich nichts erkennen. Der Clou: Beim Anklicken des Logos kommt der Nutzer direkt auf die Homepage des Kunden. Rund, sechs Wochen nach dem Start sieht die Seite des Briten aus wie ein wirres Sammelsurium: Online-Casinos, Poker-Runden und oft undurchsichtige Kreditanbieter stehen neben Hotel-Buchungsmaschinen, Vermittlern von Studienreisen nach China oder einem Händler von Anti-Bush-Stickern. Selbst der deutsche TÜV Rheinland hat sich ein Pixel-Quadrat gesichert. "Die Idee ist brillant in ihrer Schlichtheit", urteilt Professor Martin Blinks vom Innovationsinstitut der Uni Nottingham: "Ich denke, die Werbekunden sind von den Faktoren Neuheit und Kuriosität angezogen." Und die Web-Surfer ebenfalls. Wie nicht anders zu erwarten, wurde die Idee nach den ersten Presseberichten vielfach kopiert, auch in Deutschland. Stets mit leicht geänderten Namen. Doch die Nachahmer können längst nicht alle auf Geldströme hoffen - manche Seiten sind fast leer. Tews Pixelkäufer, die die "Times" befragte, kalkulieren offen mit dem Medieninteresse. Chris Magras von der US-Firma engineseeker.com ist zudem überzeugt, dass sein Pixelfeld Zulauf bringt: Wir hatten 40.000 Besucher am Tag auf unserer Seite - das ist auf 60.000 hochgegangen.« Tews lebt weiter in seiner kleinen Studentenbude. Eingekauft hat er dennoch: Reichlich Socken und eine Digitalkamera, wie er in seinem Web-Tagebuch erzählt. Nachdem die Geldsorgen vorbei sind, macht sich der Jungunternehmer nun Sorgen über zu wenig Zeit für Sport: "Geldverdienen macht dick." "
    Date
    3. 5.1997 8:44:22
  4. Baumgärtel, T.: "Mosaic" der Datenwelt : Vor zehn Jahren erschien der erste einfache Webbrowser - und damit die Grundlage für den Erfolg des Internets (2003) 0.02
    0.02239291 = product of:
      0.067178726 = sum of:
        0.012975627 = product of:
          0.025951253 = sum of:
            0.025951253 = weight(_text_:web in 4700) [ClassicSimilarity], result of:
              0.025951253 = score(doc=4700,freq=18.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.27042776 = fieldWeight in 4700, product of:
                  4.2426405 = tf(freq=18.0), with freq of:
                    18.0 = termFreq=18.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4700)
          0.5 = coord(1/2)
        0.049223125 = weight(_text_:benutzerfreundlichkeit in 4700) [ClassicSimilarity], result of:
          0.049223125 = score(doc=4700,freq=2.0), product of:
            0.2289144 = queryWeight, product of:
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.02940506 = queryNorm
            0.21502852 = fieldWeight in 4700, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4700)
        0.0049799746 = product of:
          0.009959949 = sum of:
            0.009959949 = weight(_text_:22 in 4700) [ClassicSimilarity], result of:
              0.009959949 = score(doc=4700,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.09672529 = fieldWeight in 4700, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4700)
          0.5 = coord(1/2)
      0.33333334 = coord(3/9)
    
    Content
    "Kornfelder. Nichts als Kornfelder, so weit das Auge reichte. Das sah Tim Berners-Lee aus dem Autofenster, als er auf dem Weg zum National Center of Supercomputing Applications (NCSA) in Urbana-Champaign zum ersten Mal in seinem Leben durch Illinois fuhr. Ein Elite-Informatik-Institut ist so ziemlich das Letzte, was man indem landwirtschaftlich geprägten amerikanischen Bundesstaat im mittleren Westen erwarten würde. Doch das NCSA spielt in der kurzen Geschichte des Internets eine entscheidende Rolle. An dem kaum bekannten Forschungsinstitut wurde vor zehn Jahren ein Computerprogramm entwickelt, dessen Bedeutung Technikhistoriker schon jetzt mit der der Dampfmaschine; oder des Telefons vergleichen: Am 22. April 1993 veröffentlichten Studenten und Mitarbeiter im Internet den Webbrowser "Mosaic" - eine Software, mit der man durch das Netz surfen kann. Auch wenn das Programm einer Öffentlichkeit jenseits von Informatikern und Netzfreaks unbekannt sein dürfte, ist seine Bedeutung gar nicht zu überschätzen: Vor "Mosaic" gab es auf der ganzen Welt einige hundert Websites, Ende 1993 waren es bereits einige tausend, und in den nächsten Jahren sollte sich ihre Zahl manchmal im Wochenrhythmus verdoppeln. Der Siegeszug des Internets begann mit "Mosaic". Das Programm hat das Internet zu einem Massenmedium gemacht. Ohne "Mosaic" gäbe es heute keine Online-Publizistik und keinen E-Commerce, kein Amazon und kein E-Bay. Nach einem halben Jahr hatten eine Million Internet-Surfer das Programm heruntergeladen. Heute finden sich Nachfolgerprogramme wie der "Netscape Navigator" oder der "Internet Explorer" auf so gut wie jedem Computer mit Internet-Anschluss. Schöpfer der historischen Software waren der Student Marc Andreessen und der wissenschaftliche Mitarbeiter Eric Bina: In einem Keller des NCSA hatte sie mit einigen Kommilitonen in nächtelangen Programmier-Sessions die erste Version von "Mosaic" geschrieben. Diese Leute wollte Tim Berners-Lee im März 1993 treffen, denn er war selbst der Schöpfer des World Wide Web (WWW): 1990 hatte der britische Physiker am Kernforschungszentrum Cern in Genf einige technische Regeln definiert, die es leichter machen sollten, im Internet, einem damals noch weitgehend unbekannten akademischen Computernetzwerk, Informationen zu veröffentlichen und zu lokalisieren. Das Web erfreute sich unter Wissenschaftlern schnell einer gewissen Beliebtheit, aber die Programme, mit denen man sich im WWW bewegte, waren für Laien zu schwierig und konnten nur Text anzeigen. "Mosaic" dagegen wurde per Mouse-Klick bedient und zeigte Bilder und Grafiken. Darauf hatte Berners-Lee schon seit einiger Zeit gewartet. Denn der Wissenschaftler mit dem bescheidenen, ja fast schüchternen Auftreten hatte eine große Vision: Er wollte aus dem Internet "ein einzigartiges, universelles und leicht zu bedienendes Hypertext-Medium machen, mit dem man jede Art von Information teilen kann, wie er später in Vorträgen und Interviews immer wieder betonte. Darum hatte er in der Anfang der 90er Jahre noch kleinen und unüberschaubaren InternetSzene geduldig und mit viel Diplomatie darauf hingearbeitet, dass sein Internet-Code namens Hypertext Markup Language (HTML) als Quasi-Standard für Daten im Web akzeptiert wurde. Nachdem ihm das gelungen war, musste nun ein Programm her, das die Daten lesen konnte. Berners-Lee unterstützte die Programmierer der ersten viel versprechenden Browser -"Cello", "Arena" oder "Lynx" - per E-Mail. Die Gruppe aus dem NSCA dagegen hatte es Anfang 1993 ganz unabhängig von ihm geschafft: ein Programm für das Internet, das nicht nur Informatiker bedienen konnten! Wie ein Besessener schrieb Andreessen, der sich zeitweise von Milch und Keksen ernährte, mit seinen Kommilitonen an immer neuen und verbesserten Versionen von "Mosaic".
    Das Treffen mit Andreessen, Bina und den anderen verlief weit weniger herzlich, als Berners-Lee es erwartet hatte. In seinen Memoiren Weaving the Web vergleicht er das Meeting mit einer Pokerpartie: Die NCSA-Gruppe, so sein Eindruck, wollte seine Idee an sich reißen und versuchte, den Eindruck zu erwecken, das Web und "Mosaic" seien ein und dasselbe. Der bullige Andreessen erschien Berners-Lee wie ein Geschäftsmann, der vor allem Kundenwünsche befriedigen wollte. Berners-Lee empfahl bei dem Treffen, "Mosaic" einen Editor hinzuzufügen, mit dem man selbst Webseiten gestalten konnte. Denn Teil seiner Hoffnungen für das Internet war, dass man nicht nur passiv durch Informationen surfen, sondern auch selbst produzieren und mit anderen Internet-Usern kooperieren konnte. Andreessen lehnte das schlicht ab; Berners-Lee war enttäuscht. Besonders verärgert hat es ihn aber offenbar, dass Andreessen sich weigerte, sich bei einer Konferenz für ein Erinnerungsbild fotografieren zu lassen. Der Eindruck, dass es Andreessen vor allem ums Geschäft ging, hat Berners-Lee nicht getrogen. Ein knappes Jahr später gründete der junge Programmierer mit dem Silicon-Valley-Veteranen Jim Clark eine Firma namens Netscape, und zusammen mit den meisten seiner ehemaligen NCSA-Kollegen entwickelten sie in Kalifornien den ersten kommerziellen Browser. 1995 legte die Firma den erfolgreichsten Börsengang hin, den die Wall Street bis dahin gesehen hatte, und der Internet-Goldrausch der 90er Jahre begann. Der US-Softwarekonzern Microsoft hatte den Netz-Boom zunächst ignoriert, entwickelte dann aber mit dem "Internet Explorer" einen eigenen Browser und nutzte seine Herrschaft über die Betriebssysteme dazu aus, um schnell eine marktbeherrschende Position zu erreichen. Netscape wurde vom Markt verdrängt; AOL kaufte das Unternehmen - und Andreessen verließ die Firma kurz danach. Heute ist er Chef eines kalifornischen Unternehmens namens Oopsware, das Server-Software anbietet. Wahrscheinlich war es das Zusammenspiel von zwei so unterschiedlichen Charakteren wie Berners-Lee und Andreessen, das zum Erfolg des Web beigetragen hat. Während der Wissenschaftler Berners-Lee auf Offenheit und Zugänglichkeit bedacht war und sich dafür einsetzte, dass das Web nicht von einer bestimmten Nutzergruppe übernommen wurde, ging es dem Programmierer-Geschäftsmann Andreessen um Benutzerfreundlichkeit und kommerziellen Erfolg. Der US-Journalist Steven Levy hat "Mosaic" das "wahrscheinlich wichtigste Programm, das es jemals gab", genannt. Er hat Recht. Der Browser und die anderen, die folgten, haben unser Bild vom Computer verändert: Aus der Maschine für Textverarbeitung und Spiele wurde ein Kommunikationsinstrument, das den Zugang zu ständig neuen Informationen brachte. Andreessen ist darüber bis heute begeistert: "Das Beste an der ganzen Sache war zu sehen, wie wir ein paar Bausteine zusammenfügten, die sich andere Leute nahmen und daraus Dinge entwickelten, die wir nie erwartet hätten. Der Prozess, der sich schnell vollkommen unserer Kontrolle entzog, war sehr befriedigend." Marc Andreessen hat dabei gut verdient. Auf dem Höhepunkt der Dot-com Euphorie besaß er Netscape-Aktien im Wert von 80 Millionen Dollar und gilt noch heute als Multimillionär. Tim Berners-Lee hat vom Netz-Boom weniger profitiert. Er leitet heute das World Wide Web Consortium in Boston, das für die Einhaltung von Programmierstandards für das Web eintritt. Was er machen würde, wenn er plötzlich doch Millionär würde? Wahrscheinlich würde er ein Stück Land kaufen, das von Umweltzerstörung bedroht sei, vertraute er dem britischen Guardian nach einigem Nachdenken an. Vielleicht sehnt er sich ja nach Kornfeldern."
  5. Boelen-Theile, C.: Er ist der Chef vom "Web ohne Grenzen" : Klaus U. Walth aus Frankenforst engagiert sich für ein barrierefreies Internet - Viele Kontakte (2006) 0.02
    0.02146054 = product of:
      0.09657243 = sum of:
        0.08860447 = sum of:
          0.030948678 = weight(_text_:web in 54) [ClassicSimilarity], result of:
            0.030948678 = score(doc=54,freq=10.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.32250395 = fieldWeight in 54, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03125 = fieldNorm(doc=54)
          0.057655793 = weight(_text_:seite in 54) [ClassicSimilarity], result of:
            0.057655793 = score(doc=54,freq=4.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.35006642 = fieldWeight in 54, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03125 = fieldNorm(doc=54)
        0.007967959 = product of:
          0.015935918 = sum of:
            0.015935918 = weight(_text_:22 in 54) [ClassicSimilarity], result of:
              0.015935918 = score(doc=54,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.15476047 = fieldWeight in 54, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=54)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Content
    "Wenn Klaus-U. Walth von barrierefreiem Internet spricht, stößt er häufig auf Unverständnis und Kopfschütteln. Wo sollen denn diese Barrieren sein? Einmal klicken, und das Internet "läuft"- so die landläufige Meinung. "Für Menschen mit Behinderungen gibt es tatsächlich viele Hürden im Internet", sagt Walth. "Das beginnt mit einer viel zu kleinen Schrift, die sich nicht vergrößern lässt." "Web ohne Grenzen e.V." heißt das ehrgeizige Projekt, mit dem Walth das Internet jetzt für alle Menschen öffnen will. 16 Mitglieder gibt es derzeit, darunter einige Fachgremien. Deutschlandweit will Web ohne Grenzen agieren. "Es werden mehr werden, denn barrierefreies Internet ist ein gesellschaftliches Anliegen." Das Büro des Marketing-Experten liegt unscheinbar im Frankenforster Gewerbegebiet, von hier hält er Kontakte zu seinen Mitstreitern in ganz Deutschland. Wir sind erst ganz am Anfang unserer Aufgabe", sagt der Vereinspräsident. "Schauen Sie hier", und Walth, klickt die Homepage der Kreissparkasse Köln an. Schnell hat er die Schrift um das Doppelte vergrößert und eine Schwarz-Weiß-Version der Seite auf seinem Bildschirm. "Klare Strukturen, die für eine gute Orientierung sorgen, lobt er. Bei einem großangelegten Test von acht Online-Bankenportalen habe die Kreissparkasse als eine von zwei Großbanken die Note "Gut" erhalten (mit der Commerzbank). Zweimal habe "Web ohne Grenzen" mangelhaft vergeben müssen. Vielen Bankern war diese Problematik gar nicht bewusst", sagt Walth. Denn für Farbenblinde ist Rot nicht gleich Rot und Blau nicht Blau. Im ungünstigsten Fall könnten die Inhalte der Seite nicht mehr erkannt werden: Der Kontrast auf der Website verschwimmt, eine Navigation ist nicht mehr möglich. "Deshalb ist eine Version in Scharzweiß notwendig", erklärt er. Bei der Kreissparkasse, deren Internet-Auftritt von der Gladbacher Oevermann Networks GmbH betreut wird, verzichte man auf unnötigen Schnickschnack wie blinkende Symbole und dergleichen. "Die Seiten müssen übersichtlich strukturiert seid, deutet Walth auf den Monitor. Dass nur zwei Banken gut abschnitten, zeige die Dimension des Problems. Leider sind die meisten Webdesigner für barrierefreie Internet-Seiten zu wenig sensibilisiert.« Generell werde zu wenig darauf geachtet, dass ein Surfen auf den Seiten auch ohne Maus möglich sein müsse. Für motorisch eingeschränkte Menschen sei dies eines der wichtigsten Voraussetzungen. Statt "schöner Seiten zu gestalten, müsse das Ziel "schöne und barrierefreie Seiten" sein. ,Das Bewusstsein wird sich ändern, hofft der Chef von Web ohne Grenzen. Das Jahr 2008 markiere dafür einen wichtigen Termin: Bis dahin müssen alle Kommunen ihre Seiten barrierefrei eingerichtet haben. Wir setzen auf den Gesetzgeber", hofft Waith auf einen Schub für seine Idee. Im Gegensatz zu Deutschland sei die USA bei diesem Thema schon weiter. Dort ist das barrierefreie Internet ein einklagbares Recht."
    Date
    3. 5.1997 8:44:22
  6. Heess, J.: Krisengewinnler (2002) 0.02
    0.018975118 = product of:
      0.08538803 = sum of:
        0.075428076 = sum of:
          0.024467077 = weight(_text_:web in 1077) [ClassicSimilarity], result of:
            0.024467077 = score(doc=1077,freq=4.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.25496176 = fieldWeight in 1077, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1077)
          0.050961 = weight(_text_:seite in 1077) [ClassicSimilarity], result of:
            0.050961 = score(doc=1077,freq=2.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.3094179 = fieldWeight in 1077, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1077)
        0.009959949 = product of:
          0.019919898 = sum of:
            0.019919898 = weight(_text_:22 in 1077) [ClassicSimilarity], result of:
              0.019919898 = score(doc=1077,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.19345059 = fieldWeight in 1077, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1077)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    Im Grunde ist das Internet ja nichts anderes als ein Abziehbildchen der wirklichen Welt. Eigentlich könnte man mittlerweile doch im Netz leben. Dort gibt es alles, was man sonst so braucht: die Seite des Bäckers von nebenan, den Sportverein, die Lieblingsband, das Möbelgeschäft. Und plaudern und sich kennen lernen - das geht alles im Cyberlebensmodell. Weil auch das digitale Leben gelernt sein will, jedoch eben nicht immer einfach ist, gibt es einen WWW-Trödelladen. Unter www.sedade werden Internetpleiten verramscht. Sedo.de, der Dotcom-KrisenGewinnler, führt in seiner Datenbank nach eigenen Angaben über 1,6 Millionen Web-Adressen, gestaltete Seiten und Internetfirmen, die zum Verkauf anstehen. Hat man im echten Leben noch gebrauchte Autos oder Kühlschränke in der Zeitung gesucht, kann man als Internetbürger sich mittlerweile schnurstracks eine gebrauchte Website zulegen. Davon hat man doch bereits lange geträumt. Ich wollte schon immer den Domänennamen www frauensport.de besitzen. Bislang schlummerten da monatelang die selben Informationen, Links und Buchtipps über alle Formen der weiblichen Leibesübung vor sich hin. Nun wurden die Webmasterinnen offensichtlich ganz von allen guten Sportsgeistern verlassen und wollen die Domäne samt Inhalt loswerden. Natürlich nicht umsonst. Mindestens 100 Euro müsste man springen lassen, um Inhaberin der Top-Frauensportadresse im Netz zu werden. Komplettes Design inklusive. Und zudem 40 weitere Adressen, die direkt auf www frauensport.de umleiten. Beispielsweise www. frauen-turnen.de, www. frauenaerobic.de, www frauenbodybuilding.de, www.frauenwasserde - Frauenwasser? Ah ja. Ein ganzes virtuelles Frauensportimperium steht also zum Verkauf. Was ist da wohl schief gelaufen? Ist den Damen die Kondition ausgegangen? Oder sind da vielleicht Domänen-Dealer am Werk, die sich ihren Einfallsreichtum im Reservieren von Internetadressen teuer bezahlen lassen wollen? Wie gesagt: Die Web-Welt ist auch nicht besser als die da draußen.
    Date
    17. 7.1996 9:33:22
  7. Seeboerger-Weichselbaum, M.: Visitenkarte im Netz : Für den Bau einer Web-Seite braucht man die richtige Software, kostenlose Testprogramme erleichtern Einstieg und Auswahl (1996) 0.02
    0.018203156 = product of:
      0.1638284 = sum of:
        0.1638284 = sum of:
          0.041522004 = weight(_text_:web in 5940) [ClassicSimilarity], result of:
            0.041522004 = score(doc=5940,freq=2.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.43268442 = fieldWeight in 5940, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.09375 = fieldNorm(doc=5940)
          0.12230641 = weight(_text_:seite in 5940) [ClassicSimilarity], result of:
            0.12230641 = score(doc=5940,freq=2.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.742603 = fieldWeight in 5940, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.09375 = fieldNorm(doc=5940)
      0.11111111 = coord(1/9)
    
  8. Körkel, T.: Internet für Hörer aller Fakultäten (2002) 0.02
    0.017000332 = product of:
      0.076501496 = sum of:
        0.034130916 = sum of:
          0.008650418 = weight(_text_:web in 1219) [ClassicSimilarity], result of:
            0.008650418 = score(doc=1219,freq=2.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.09014259 = fieldWeight in 1219, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.01953125 = fieldNorm(doc=1219)
          0.0254805 = weight(_text_:seite in 1219) [ClassicSimilarity], result of:
            0.0254805 = score(doc=1219,freq=2.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.15470895 = fieldWeight in 1219, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.01953125 = fieldNorm(doc=1219)
        0.04237058 = sum of:
          0.03241063 = weight(_text_:bewertung in 1219) [ClassicSimilarity], result of:
            0.03241063 = score(doc=1219,freq=2.0), product of:
              0.18575147 = queryWeight, product of:
                6.31699 = idf(docFreq=216, maxDocs=44218)
                0.02940506 = queryNorm
              0.17448384 = fieldWeight in 1219, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.31699 = idf(docFreq=216, maxDocs=44218)
                0.01953125 = fieldNorm(doc=1219)
          0.009959949 = weight(_text_:22 in 1219) [ClassicSimilarity], result of:
            0.009959949 = score(doc=1219,freq=2.0), product of:
              0.10297151 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02940506 = queryNorm
              0.09672529 = fieldWeight in 1219, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=1219)
      0.22222222 = coord(2/9)
    
    Abstract
    Das Buch verdeutlicht das mit einem Angelbeispiel: In einem Teich gibt es zwei Arten Fische, die begehrten Leckerellen und die ungenießbaren Ekelitzen. Um die Wirksamkeit eines Angelköders für Leckerellen zu testen, hängt man ihn ins Wasser und zählt, wie viele Fische jeder Art anbeißen. Weiß man dann, ob und wie sehr die Leckerellen den Köder mögen? Beileibe nicht. Es kommt darauf an, wie viele Fische der einen und der anderen Art überhaupt im Teich sind. Möglicherweise schwimmt dort gerade keine einzige Leckerelle, also beißt auch keine an; man angelte dann nur Ekelitzen, die den - vielleicht für Leckerellen hervorragenden - Köder nur in der Not fressen. Welchen Wert hat also die reine Zählmethode, um eine Aussage über die Qualität des Köders zu bekommen? Auf medizinische Studien übertragen: Wie aussagefähig ist ein Studienergebnis, wenn Therapie-Köder ausgelegt werden, ohne zu wissen, wie viele IdeenFische überhaupt im Forschungsmilieu schwimmen? Eine weitere Schwierigkeit kommt hinzu: Die Wahrscheinlichkeit von guten Ideen für neue Therapien ist nicht bekannt. Man könnte sie höchstens subjektiv schätzen (Vorschlag der Autoren: zwei Prozent). Weil sie also fast nicht quantifizierbar ist, darf sie, so argumentieren die Statistiker, bei der Bewertung wissenschaftlicher Ergebnisse auch nicht veranschlagt werden. Denn Subjektivität soll in der Forschung möglichst ausgeschlossen bleiben. Folglich wird der Faktor IdeenWahrscheinlichkeit ganz aus der Fragestellung und der statistischen Auswertung ausgeklammert. Das Problem existiert also offiziell gar nicht, obwohl es den Fachleuten bekannt ist. Das Buch bietet vergnüglichen Lesestoff als Verpackung für wissenschaftskritischen Zündstoff: Die Autoren weisen nach, dass randomisierte Studien überflüssig oder sogar schädlich sind. Sie zeigen, dass viele der "wissenschaftlich nachgewiesen besseren Therapien" nicht besser und vielfach sogar schlechter sind als das, was sie verbessern sollen. Alles, was man wissen muss: Ein texanischer Universitätsrechner gewährt Zutritt zu den heiligen Hallen der Online-Bildung. Der Online-Boom der 1990er Jahre beförderte auch akademische Bildungsinhalte ins Netz. Das große Projekt einer virtuellen Universität hat sich zwar bislang in finanziellen, technischen und konzeptionellen Unzulänglichkeiten verfangen. Aber die (reale) Universität von Texas in Austin bietet seit 1994 einen Wegweiser zu Online-Vorlesungen aus aller Welt, den sie ständig aktualisiert: den "Welthörsaal" (http:// wnt.cc.utexas.edu/~wlh). In über neunzig natur- und geisteswissenschaftlichen Fächern, von Astronomie über Anthropologie, Geschichte und Religion bis hin zur Zoologie, können Internet-Surfer weit reichende Studien treiben. Ausdauer ist gefragt: So mancher Mausklick fördert nicht viel mehr als Vorlesungspläne zu Tage oder fordert kostenpflichtige Registrierungen. Häufig dienen die Seiten auch nur als Ergänzung zu einer Präsenzvorlesung. Wer trotzdem dranbleibt, den belohnt die Suchmaschine der World Lecture Hall mit faszinierenden Links auf umfassende Text- und Bildersammlungen, abgerundet mit Filmen, Sprachsequenzen und interaktiven Anwendungen. Eine Online-Einführung in die Chemie bietet zum Beispiel www.scidiv.bcc.ctc.edu/ wv/101-online.html. Fachlich anspruchsvoll und dennoch verständlich ist auch http://simons.hec.utah.edu/ TheoryPage/index.html: Jack Simons, theoretischer Chemiker aus Utah, leitet die rasant wachsende Bedeutung seines Fachgebiets aus dessen Funktion als Schnittstelle zwischen Chemie, Mathematik, Physik und Computerwissenschaften ab. Bunt und bewegt geht es in der "Chemist's Art Gallery" (www.csc.fi/them/gallery.phtml) zu, die auch die Links zur Molekül-"Kunst" auf dieser Seite lieferte. Ein reiches Sortiment interaktiver Animationen etwa zur Molekulardynamik stellt einige Ansprüche an die heimische Hardware.
    Ähnlich spektakulär und informativ präsentieren sich auch die Astronomen: Ihr schier unerschöpflicher Fundus von Bildern und Filmen macht das "elektronische Universum" auf http://zebu.uoregon.edu ebenso einen Klick wert wie die Geschichte von "Geburt und Tod der Sterne" auf demselben Server (http://zebu.uoregon.edu/~js/astl22). Schnell gerät der Wissensdurstige auf reizvolle Seitenpfade, denn viele Vorlesungen glänzen mit sorgfältig zusammengestellten Linklisten. Die führen zum Beispiel zu den "Chemischen Briefen" Justus von Liebigs, wie sie im 19. Jahrhundert zunächst als Wissenschaftskolumne in der Augsburger Allgemeinen Zeitung erschienen (www.liebig-museum.de/chbriefe/homepage.htm). Selbst die Alchemie - neunzig ansprechend präsentierte Megabyte auf www.alchemywebsite. com - verleitet zum Verweilen. Historisches ist, weil nicht stets aktualisierungsbedürftig, ohnehin beliebt im Netz. So wartet etwa die Universität Groningen (Niederlande) mit einem voluminösen Hypertext auf, praktisch ein komplettes Lehrbuch der amerikanischen Geschichte mit Texten, Essays und Präsidentenbiografien (http://odur.let.rug.nl/usanew). Noch weiter zurück in die Vergangenheit reicht eine Anthropologen-Website über den Ursprung des Menschen (www.geocities.com/Athens/Acropolis/5579/TA.html). Verspieltere Naturen werden dort zuerst fossile Schädel zuzuordnen versuchen ("Name That Skull") oder einem Anthropologiestudenten beim Wurf des Atlatl zusehen. Dieser frühe Wurfspeer machte schon den Mammuts zu schaffen und drang noch vor wenigen hundert Jahren durch die eiserne Rüstung spanischer Konquistadoren. Selbst Angewandtes bietet die World Lecture Hall. Etwa die "Geschichte der ökonomischen Denkweise" einschließlich eines 22-Minuten-"Interviews" mit Karl Marx auf www.boisestate.edu/econ/lreynol/web/het.htm. Oder Online-Sprachkurse: Wollof und Xhosa, Suaheli und Sanskrit lehrt http://www.word2word.vorn/courscad.html. Surfen allein fördert die akademische Karriere allerdings nicht unbedingt. Wer of fizielle Online-Zertifikate in Deutschland anstrebt, findet in dem Beitrag "Virtuelle Universität im Selbstversuch" (Spektrum der Wissenschaft 11/ 2001, S. 109) gute Startpunkte für das Studieren im Netz, angefangen bei - na wo wohl? - www.studieren-irre-netz.de."
  9. Brauck, M.: Filter für jede Weltanschauung : Jugendschutz im Internet lässt sich nur undividuell umsetzen (2000) 0.02
    0.015660161 = product of:
      0.07047073 = sum of:
        0.047783285 = sum of:
          0.012110585 = weight(_text_:web in 5204) [ClassicSimilarity], result of:
            0.012110585 = score(doc=5204,freq=2.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.12619963 = fieldWeight in 5204, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02734375 = fieldNorm(doc=5204)
          0.035672702 = weight(_text_:seite in 5204) [ClassicSimilarity], result of:
            0.035672702 = score(doc=5204,freq=2.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.21659255 = fieldWeight in 5204, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02734375 = fieldNorm(doc=5204)
        0.022687443 = product of:
          0.045374885 = sum of:
            0.045374885 = weight(_text_:bewertung in 5204) [ClassicSimilarity], result of:
              0.045374885 = score(doc=5204,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.24427739 = fieldWeight in 5204, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5204)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Content
    "Es ist zunächst das gleiche Ziel, das Eltern und Internet-Industrie verfolgen. Beide wollen, dass sich Kinder im Web bewegen können, ohne auf Sex, Gewalt und rassistische Inhalte zu stoßen. Und doch haben beide dabei nicht immer die gleichen Interessen Das wurde bei einer Tagung der Bertelsmann-Stiftung über Jugendschutz und Internet-Filtersysteme deutlich, als die Rede auf Werbung und Online-Verkauf kam. Sollen Internet-Filter Kinder auch vor kommerziellen Angeboten fern halten? Die Kinderschützer wollen, dass Eltern solche Inhalte sperren können. Die Initiatoren des von der Bertelsmann-Stiftung und großen Internet-Firmen unterstützten Icra-Filtersystems halten das für überflüssig. Genauer: Sie glauben nicht, dass die Anbieter von Websites bei der angestrebten freiwilligen Selbstkontrolle mitmachen, wenn sie damit riskieren, sich selbst das Geschäft zu verderben. Und ohne die Mitarbeit der, Anbieter funktioniert das Filtersystern nicht. Ein klassisches Dilemma, das nicht ganz überrascht. Zwar ist die Internet Content Rating Association (Icra) eine unabhängige Non-Profit-Organisation, aber man merkt der von AOL, Microsoft, IBM, T-Online und der Bertelsmann-Stiftung gegründeten Institution ihre Wurzeln deutlich an. Den Firmen liegt vor allem daran, dass das Internet nicht in den Ruf gerät, eine Gefahr für Kinder zu sein. Das Icra-Filtersystern steht und fällt mit der Bereitschaft der Internet-Anbieter, die eigenen Seiten nach einem genormten Raster zu klassifizieren. Diese Beschreibung der Inhalte, die für Kinder und Jugendliche problematisch sein können, ist zunächst wertfrei. Die Betreiber beantworten nur Ja-Nein-Fragen zum faktischen Inhalt. In Bezug auf Sex beispielsweise: Sind nackte weibliche Brüste abgebildet? Wird Geschlechtsverkehr gezeigt? Sind Genitalien zu sehen? Die Betreiber beurteilen nicht, ob die Inhalte der Seiten jugendgefährdend sind. Diese ethische Aufgabe bleibt den Eltern überlassen, die jedes einzelne Element durch ihre Filter sperren lassen können. Je nach moralischem Empfinden können die Eltern ihre eigenen Filter-Schablonen bauen. Alle Seiten, die den ethischen Anforderungen nicht genügen oder kein IcraEtikett haben, werden blockiert. Bisher sind 150.000 Websites klassifiziert - von insgesamt etwa zwei Milliarden. Das ist zu wenig, um das Internet in den Griff zu bekommen. Daher arbeitet die Icra zusätzlich mit Negativ- und Positivlisten, die von unabhängigen Organisationen erstellt werden. Das Bundeskriminalamt stellt sein Verzeichnis rechtsextremer Websites zu Verfügung Die Deutsche Bischofskonferenz der katholischen Kirche und die Kinderrechtsorganisation Terre des hommes haben sich bereit erklärt, auf Positivlisten Websites zu empfehlen, die für Kinder geeignet sind. Weitere Organisationen sollen folgen. Zusätzlich erarbeiten solche unabhängige Organisationen Filter-Schablonen mit Anforderungen an die von den Anbietern klassifizierten Seiten. Das Ergebnis: ein flexibles System von Filtern, die von den Eltern exakt auf die Bedürfnisse ihre Kinder eingestellt werden können. Die Icra versteht sich selbst als Vermittler zwischen den Internet Anbietern und unabhängigen wertorientierten Organisationen. Das hat den Vorteil, dass Icra selbst neutral bleibt und so weltweit agieren kann. Das Internet verbindet viele Kulturen, und deshalb mussen wir kulturelle Unterschiede ernst nehmen", sagt Icra-Vorstandvorsitzender Jens Waltermann. Daher könne auch der Jugendschutz nicht weltweit der gleiche sein. Dazu unterscheidet sich das Empfinden, wovor Kinder geschützt werden sollen, zu stark. Beispielsweise stört 58 Prozent der Deutschen, dass das Internet ein Tummelplatz für Links- und Rechtsextreme ist. Bei den US-Amerikanern sind es nur 26 Prozent. Dafür sind die Amerikaner gegenüber Nacktheit empfindlicher. Die Schwierigkeiten des Icra-Filtersystems spiegeln die grundsätzlichen Probleme einer Kontrolle des Internets wider. Auf der einen Seite sollen Kinder und Jugendliche geschützt werden, andererseits darf die Meinungsfreiheit nicht eingeschränkt werden. Dieser grundsätzliche Widerspruch ist im Icra-System nur verschoben: Die Internet-Anbieter können sich jeder Bewertung enthalten und geben die ethische Einordnung an wertorientierte Organisationen weiter. Das Internet globalisiert die amerikanisch-extensive Meinungsfreiheit und individualisiert die ethische Orientierung."
  10. Sixtus, M.: ¬Das Gemeinschaftsnetz : Im Wiki-Web können alle Surfer Seiten umschreiben und hinzufügen - so entstehen ganze Enzyklopädien (2003) 0.02
    0.015550849 = product of:
      0.06997882 = sum of:
        0.06400285 = sum of:
          0.020761002 = weight(_text_:web in 1739) [ClassicSimilarity], result of:
            0.020761002 = score(doc=1739,freq=8.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.21634221 = fieldWeight in 1739, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1739)
          0.043241847 = weight(_text_:seite in 1739) [ClassicSimilarity], result of:
            0.043241847 = score(doc=1739,freq=4.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.26254982 = fieldWeight in 1739, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1739)
        0.005975969 = product of:
          0.011951938 = sum of:
            0.011951938 = weight(_text_:22 in 1739) [ClassicSimilarity], result of:
              0.011951938 = score(doc=1739,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.116070345 = fieldWeight in 1739, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1739)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Content
    "Wissen ist in. Allerorten wird es zum Rohstoffdes 21. Jahrhunderts ausgerufen. Doch je mehr man weiß, desto wichtiger ist es, die Informationen professionell zu verwalten, zu organisieren und zu pflegen. Manche Unternehmen bauen dazu teure, komplexe Knowledge-Management-Systeme ins Firmennetz ein. Doch das Wissensmanagement geht einfacher - mit Wikis. Ein Wiki ist eine Sammlung dynamischer Webseiten, die über Verweise verbunden sind und alle über eine Besonderheit verfügen: Ganz unten fordert ein Button alle Surfer dazu auf, die aktuelle Seite zu verändern. Prinzipiell kann jeder jede Seite ändern, ergänzen, verbessern oder sogar löschen. Rechte-Hierarchien existieren schlicht nicht. Jeder User ist gleichzeitig Leser, Lektor, Redakteur und Autor. Seiten anlegen und verlinken geschieht in einem Arbeitsgang. Einige rudimentäre Möglichkeiten zur Textformatierung und zur Einbindung von Grafiken sowie eine Volltextsuche runden den bescheidenen Funktionsumfang eines Standard-Wikis ab - und machen es verblüffenderweise doch zu einem mächtigen Werkzeug. Geübte User erzeugen mit dem virtuellen Zettelkasten in Windeseile Strukturen, die Hunderte oder Tausende von Einzelseiten umfassen. Die Einsatzmöglichkeiten sind vielfältig: Wikis fungieren als Wissensspeicher, als Basis für gemeinsame Projektdokumentationen, als Materialanforderungsformular oder als Brainstorminghilfe in Kreativberufen. Und selbst bei der Planung von Betriebsfeiern oder als Datenbank für Kochrezepte sollen sie schon zum Einsatz kommen. Wenn jeder Nutzer jedes einzelne Dokument ändern oder löschen kann, herrscht dann nicht das Chaos? Was passiert, wenn Fehler sich einschleichen oder wichtige Passagen verschwinden? Dagegen sind die Wikis gewappnet: Mit der HistoryFunktion und über Differenzberechnungen lässt sich überblicken, wer wann was geändert hat. Bei Bedarf lassen sich alle Anderungen rückgängig machen. Jeder historische Zustand ist so mit wenigen Mausklicks wiederhergestellt. Seit 1999 setzen Teams des Mobilfunkherstellers Motorola auf Wikis als Werkzeuge für das kollaborative Arbeiten, die Lufthansa verwendet sie zur Verwaltung technischer Dokumentationen, und die Konzerne SAP und Disney experimentieren mit den wenigen hundert Kilobyte kleinen Systemen in ihren Firmennetzen. Das erste Wiki hat der Software-Entwickler Ward Cunningham im Jahr 1995 unter der Adresse c2.com/cgi/wiki ins Netz gestellt - und dort steht es heute noch. Der Begriff "Wiki" ist das hawaiianische Wort für "schnell", und genau darum ging es Cunningham: flottes, unkompliziertes Arbeiten, ohne von einem unübersichtlichen Funktionsumfang gebremst zu werden. Mittlerweile existieren etliche Klons und Weiterentwicklungen des UrWikis, in mehreren Programmiersprachen und für fast alle Computerplattformen. Die meisten stehen gratis und unter der Open-Source-Lizenz im Netz.
    Die Idee des editierbaren Internets geht zurück auf den Erfinder des World Wide Web, Tim Berners-Lee, der in seinem Buch Weaving the Web die Grundideen der Wiki-Philosophie aussprach: "Das Web editieren zu können ist genauso wichtig, wie durch es zu browsen." Aber haben Sites, an denen jeder zufällig Vorbeisurfende herumdoktern kann, überhaupt eine Überlebenschance? Wer schon einmal beobachtet hat, wie schnell offene Systeme wie Gästebücher oder Foren im Chaos versinken können, mag berechtigte Zweifel anmelden. Erstaunlicherweise funktionieren offene Wikis aber hervorragend. Beispielsweise Wikipedia: Das seit 2001 laufende Enzyklopädie-Projekt umfasst in der englischsprachigen Variante mehr als 144 000 Artikel. Das Mammutvorhaben, das Wissen der Welt in einem Wiki festzuhalten, wird nicht von einer Hand voll Autoren und Redakteuren angegangen. Vielmehr kann jeder Surfer sein persönliches Know-how dazu beisteuern. Dank der globalen Teamarbeit haben die Wikipedia-Artikel eine beachtliche Qualität erreicht - und können sich bisweilen durchaus mit professionellen und kostspieligen Nachschlagewerken messen. Der Journalist und Bestseller-Autor Sheldon Rampton verfolgt mit seinem Wiki-Projekt Disinfopedia.org speziellere Ziele: Die Enzyklopädie der Propaganda soll dokumentieren, wie PR-Unternehmen, Lobbyisten und Thinktanks die öffentliche Meinung in den USA mit Hilfe von fragwürdigen wissenschaftlichen Studien, fingierten Graswurzelbewegungen oder schlichter Verbreitung von Falschinformationen beeinflussen. Auch Disinfopedia wächst und gedeiht unter Mitarbeit der Netzbewohner, und obwohl man annehmen müsste, dass gerade ein solches politisches Projekt besonders unter Störern und Angreifern leidet, hat sich die Wiki-Technologie bisher als resistent erwiesen. Wer sich mit dem Thema Wissensmanagement beschäftigt, sollte auf jeden Fall ernsthaft prüfen, ob die kleine Wiki-Teeküche für seine Belange ausreicht. Und für manche Netzphilosophen sind die erfolgreichen Experimente mit den offenen Websites dann auch mehr als nur ein gelungenes Beispiel für gemeinschaftliches Arbeiten: Sie seien auch Beweis dafür, dass die menschliche Konstruktivität größer ist als ihre zerstörerischen Kräfte. Ein digitaler Hoffnungsschimmer."
    Date
    17. 7.1996 9:33:22
  11. Roßmann, N.: ¬Die Usability der Homepage des Landtags NRW : eine politische Website auf dem Prüfstand (2002) 0.02
    0.015313861 = product of:
      0.13782474 = sum of:
        0.13782474 = weight(_text_:benutzerfreundlichkeit in 1221) [ClassicSimilarity], result of:
          0.13782474 = score(doc=1221,freq=2.0), product of:
            0.2289144 = queryWeight, product of:
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.02940506 = queryNorm
            0.60207987 = fieldWeight in 1221, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1221)
      0.11111111 = coord(1/9)
    
    Abstract
    Wir geben zu Beginn einen Überblick über die Entwicklung der Usability-Forschung und zeigen das Spektrum der Test-Methoden auf. Der Ist-Zustand der Homepage des Landtags Nordrhein-Westfalen wird bezüglich seiner Inhalte und Strukturen dargestellt. Zielgruppen werden definiert und strategische sowie konzeptionelle Ziele, die derLandtag NRW mit seiner Homepage verfolgt, erläutert. Anhand eines Benutzertests und einer heuristischen Evaluation als expertenzentrierter Methode prüfen wir die Website auf Mängel in der Benutzerfreundlichkeit und -akzeptanz. Ergänzt werden diese beiden Verfahren um die aus der Bibliothekswissenschaft stammende Availability-Untersuchung, die die Qualität der Homepage-internen Suchmaschine misst. Aus diesen drei Evaluationsmethoden ergeben sich konkrete Vorschläge für ein Redesign.
  12. Berners-Lee, T.; Hendler, J.; Lassila, O.: Mein Computer versteht mich (2001) 0.02
    0.015211142 = product of:
      0.13690028 = sum of:
        0.13690028 = sum of:
          0.055362675 = weight(_text_:web in 4550) [ClassicSimilarity], result of:
            0.055362675 = score(doc=4550,freq=8.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.5769126 = fieldWeight in 4550, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0625 = fieldNorm(doc=4550)
          0.081537604 = weight(_text_:seite in 4550) [ClassicSimilarity], result of:
            0.081537604 = score(doc=4550,freq=2.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.49506867 = fieldWeight in 4550, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0625 = fieldNorm(doc=4550)
      0.11111111 = coord(1/9)
    
    Abstract
    Was wäre, wenn der Computer den Inhalt einer Seite aus dem World Wide Web nicht nur anzeigen, sondern auch seine Bedeutung erfassen würde? Er könnte ungeahnte Dinge für seinen Benutzer tun - und das vielleicht schon bald, wenn das semantische Netz etabliert ist
    Footnote
    Dt. Übersetzung von: The Semantic Web: a new form of Web content that is meaningful to computers will unleash a revolution of new possibilities. In: Scientific American. 284(2001) no.5, S.34-43.
    Theme
    Semantic Web
  13. Landwehr, A.: China schafft digitales Punktesystem für den "besseren" Menschen (2018) 0.02
    0.015065095 = product of:
      0.13558586 = sum of:
        0.13558586 = sum of:
          0.10371402 = weight(_text_:bewertung in 4314) [ClassicSimilarity], result of:
            0.10371402 = score(doc=4314,freq=2.0), product of:
              0.18575147 = queryWeight, product of:
                6.31699 = idf(docFreq=216, maxDocs=44218)
                0.02940506 = queryNorm
              0.5583483 = fieldWeight in 4314, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.31699 = idf(docFreq=216, maxDocs=44218)
                0.0625 = fieldNorm(doc=4314)
          0.031871837 = weight(_text_:22 in 4314) [ClassicSimilarity], result of:
            0.031871837 = score(doc=4314,freq=2.0), product of:
              0.10297151 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02940506 = queryNorm
              0.30952093 = fieldWeight in 4314, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=4314)
      0.11111111 = coord(1/9)
    
    Abstract
    Ein digitales Punktekonto soll flächendeckend in China eingeführt werden und gute von schlechten Bürgern unterscheiden. Die soziale Bewertung des Einzelnen hat jedoch weitreichende Konsequenzen für sein Leben. Viele Chinesen finden es trotzdem gut.
    Date
    22. 6.2018 14:29:46
  14. Wolff, V.: Job für Kreative : "Eierlegende Wollmilchsäue": Entwickler von Internet-Seiten müssen Surfer fesseln können (2004) 0.01
    0.014137958 = product of:
      0.06362081 = sum of:
        0.05664885 = sum of:
          0.02097615 = weight(_text_:web in 2126) [ClassicSimilarity], result of:
            0.02097615 = score(doc=2126,freq=6.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.21858418 = fieldWeight in 2126, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02734375 = fieldNorm(doc=2126)
          0.035672702 = weight(_text_:seite in 2126) [ClassicSimilarity], result of:
            0.035672702 = score(doc=2126,freq=2.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.21659255 = fieldWeight in 2126, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02734375 = fieldNorm(doc=2126)
        0.006971964 = product of:
          0.013943928 = sum of:
            0.013943928 = weight(_text_:22 in 2126) [ClassicSimilarity], result of:
              0.013943928 = score(doc=2126,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.1354154 = fieldWeight in 2126, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2126)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Content
    "Für das Internet sind kreative Ideen lebensnotwendig - denn langweilige Seiten fesseln leider keinen Surfer lange. Auch deswegen sind zahlreiche neue Berufe entstanden, darunter der des Internet-Entwicklers oder Web-Developers. Das sind nicht die einzigen Bezeichnungen für die oft "eierlegenden Wollmilchsäue", die von allen Bereichen eines Webauftritts Ahnung haben müssen. Der Deutsche Multimedia Verband (www.dmmv.de) definiert vier relevante Tätigkeitsfelder der Multimediabranche, von denen drei in den Bereich der Internet-Entwicklung hineinreichen: "Informationstechnologie mit einem eher technischen Schwerpunkt, Design, Content und die inhaltliche Entwicklung", nennt Stefan Sievers, Referent für Aus- und Weiterbildung beim dmmv in Berlin. Die Anforderungen, die dabei an einen Entwickler gestellt werden, sind vielschichtig. "Da muss auf der einen Seite eine Datenbankanbindung für einen Reiseveranstalter programmiert werden, die mit unzähligen Anfragen gleichzeitig umgehen kann. Aber auch eine schicke Flash Animation fällt unter InternetEntwicklung", erklärt Dirk Rathje, Geschäftsführer von Sand und Schiefer in Hamburg, einem "büro für neues lernen", in dem webbasierte Lernsoftware entwickelt wird. - Keine einheitliche Berufsbezeichnung Die Berufsbezeichnung ist auch innerhalb der Entwicklerschaft nicht einheitlich. So sehen sich in einem Internet-Forum einige als Anwendungsentwickler, andere schlicht als Programmierer und wieder andere als Allround-Computerspezialisten. Wie auch immer die korrekte Bezeichnung lautet - "Entwickler schreiben Internetseiten mithilfe von Skriptsprachen und erzeugen den eigentlichen HTML-Inhalt dynamisch, indem Daten aus einer Datenbank gelesen und entsprechend verarbeitet werden", erläutert Cornelia Winter, Referentin der Geschäftsführung bei der Gesellschaft für Informatik (GI) in Bonn (www.gi-ev.de). Entwickler Rathje unterscheidet sowohl bei Aufgaben als auch bei den erforderlichen Kenntnissen und Qualifikationen zwischen der so genannten server- und der clientseitigen Programmierung: "Clientseitig ist alles, was im Webbrowser abläuft: HTML, Flash, Javascript. Das kann zwar beliebig schwierig und aufwendig werden, einfache Lösungen erzeugen moderne Webeditoren aber schon fast von selbst." Für die serverseitige Programmierung brauche es hingegen fundierte Informatikkenntnisse, sagt der 29-Jährige. "Da muss man mit Datenbanken umgehen können und Architekturen wie J2EE oder.net beherrschen." Andere Entwickler nennen als "Minimal-konfiguration für ihren Berufsstand Kenntnisse in verschiedenen Programmiersprachen, als Zusatzqualifikation XML, das allgemeine SQL, Perl, C++ und Erfahrung mit dem freien Betriebssystem Linux, über das Server nicht selten konfiguriert und gewartet werden. Aber der Web-Entwickler setzt nicht erst bei der Programmierung der Seiten an. Seine Aufgabe beginnt schon viel früher. "Es gibt zwei Sorten von Kunden: Die einen wollen eine Webpräsenz, wissen aber nicht genau, was möglich ist. Die anderen haben sehr genaue Vorstellungen des Möglichen und wollen die Aufgaben outsourcen", sagt Rathje. Also werden Seiten konzipiert, durchstrukturiert und danach dann programmiert. "Bei all dem sollte der Entwickler immer Nutzer vor Augen haben. Denn schließlich errichtet er eine Schnittstelle zur MenschMaschine-Kommunikation", sagt der Lernsoftware-Entwickler. Die Entwickler haben in großen Unternehmen gute Chancen auf spezielle und begrenzte Aufgabenbereiche - so kann sich einer um die Datenbankanbindung kümmern, während andere sich der Generierung von Benutzerschnittstellen widmen.
    "Je nach Größe des Unternehmens oder der Agentur arbeiten bei der Entwicklung eines Webauftrittes mehrere Mitarbeiter zusammen, manchmal übernehmen sie auch Querschnittaufgaben, sagt dmmv-Referent Sievers. Ist die Firma klein, verschwimmen in der Regel auch die Jobgrenzen - hier ist ein Entwickler oft auch der Webdesigner des Unternehmens. Wer Web-Entwickler werden will, kann auf verschiedenen Wegen zum Ziel kommen: "Man kann Informatik studieren, eine Ausbildung zum Fachinformatiker der Anwendungsentwicklung machen, über den zweiten Bildungsweg gehen oder sich als Autodidakt alles selbst beibringen", sagt Cornelia Winter von der Gesellschaft für Informatik. "Ein Internet-Entwickler als gesetzlich geregeltes Berufsbild existiert nicht", bestätigt auch Sievers.
    Date
    3. 5.1997 8:44:22
  15. Apfelböck, H.; Kroschel, A.: Wie Sie Web-Inhalte einsammeln & für sich nutzen : Know-how: Alles über Scraping (2008) 0.01
    0.013922851 = product of:
      0.12530565 = sum of:
        0.12530565 = sum of:
          0.04376804 = weight(_text_:web in 4835) [ClassicSimilarity], result of:
            0.04376804 = score(doc=4835,freq=20.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.45608947 = fieldWeight in 4835, product of:
                4.472136 = tf(freq=20.0), with freq of:
                  20.0 = termFreq=20.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03125 = fieldNorm(doc=4835)
          0.081537604 = weight(_text_:seite in 4835) [ClassicSimilarity], result of:
            0.081537604 = score(doc=4835,freq=8.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.49506867 = fieldWeight in 4835, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03125 = fieldNorm(doc=4835)
      0.11111111 = coord(1/9)
    
    Abstract
    Das Web bietet eine enorme Vielfalt an Wissen, Unterhaltung und Information. Mit einfachen Mitteln können Sie diese Inhalte abgreifen und für Ihre eigenen Zwecke nutzen. Wir sagen, wie's funktioniert.
    Content
    Ein neuer Name für Methoden, die das Web seit Jahren kennt und die sich zunehmend verbreiten: Scraping. Im Prinzip geht es beim "Abkratzen" von Web-Seiten darum, dynamische Daten von einer Site abzuholen und in einer Anwendung oder einer eigenen Seite neu aufzubereiten. Anders als beim Abgreifen statischer Inhalte mit Tools wie Curl oder Wget liegt der Fokus hier auf dynamisch wechselnden Inhalten. Dabei bildet das intelligente Zusammenmischen von bereits bestehenden Web-Daten (Google, Flickr, Youtube, Amazon) auf neuen Sites ("Mashups") den professionellen Aspekt von Scraping. Das Motiv ist altbekannt: Fremde Inhalte nutzen Unser Beitrag skizziert einige Beispiele, wie auch normale Anwender von Scraping-Methoden profitieren können. Denn das Bestreben, Web-Inhalte anders zu mischen, als es der ursprüngliche Autor vorsah, ist nicht neu: Kaum hatte Netscape Frames erfunden, gab es Web-Autoren, die fremde Web-Seiten in die eigene Navigation einbauten. Als Gegenmaßnahme führten deren Autoren zuweilen Schaltflächen oder Links ein, mit dem man sich "aus einem Frame befreien" konnte, also die Seite in einem eigenen Fenster öffnen. Der Inhalt erscheint dann also wieder auf der Originalseite. Andere Einsatzgebiete bestanden etwa darin, Suchformulare in die eigene Homepage einzubinden. Das sehen die Betreiber der zugehörigen Such maschinen wiederum recht gerne und stellen den zugehörigen Code meist unkompliziert in den Hilfe-Seiten bereit.
    Bei diesen Beispielen handelt es sich um eine Vorform von Scraping: Ahnlich wie heim Kommandozeilenprogramm Wget, das ganze Websites rekursiv auf die Platte ziehen kann, sind diese Methoden auf Link-Verfolgung durch komplette URLs angewiesen. Und diese Technik hat ihre Grenzen: Dynamisch generierten Inhalt finden Sie weder im Google-Cache noch können Sie diesen erzeugen, wenn Sie eine Web-Seite per URL in einen Ihrer Frames einbinden. Beim Scraping geht es darum, dynamische Inhalte zu verwenden, die Sie nicht direkt per URL erreichen können, sondern die erst per Script nach dem Ausfüllen von Formularen erzeugt werden. So enthält etwa der "Embed"-Code eines Youtube-Videos dessen komplette URL. Diese alleine würde immer auf die Youtube-Seite führen - erst durch Scraping erreichen Sie, nur den Player einzubinden.
    Series
    Internet & Sicherheit: Inhalte aus dem Web nutzen
  16. Ziegler, C.: Deus ex Machina : Das Web soll lernen, sich und uns zu verstehen (2002) 0.01
    0.013409437 = product of:
      0.12068493 = sum of:
        0.12068493 = sum of:
          0.039147325 = weight(_text_:web in 530) [ClassicSimilarity], result of:
            0.039147325 = score(doc=530,freq=4.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.4079388 = fieldWeight in 530, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0625 = fieldNorm(doc=530)
          0.081537604 = weight(_text_:seite in 530) [ClassicSimilarity], result of:
            0.081537604 = score(doc=530,freq=2.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.49506867 = fieldWeight in 530, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0625 = fieldNorm(doc=530)
      0.11111111 = coord(1/9)
    
    Abstract
    Das WWW ist dumm. Ein neuer Ansatz soll jetzt dafür sorgen, dass Maschinen Bedeutungen erfassen und Informationen richtig einordnen können. Das ist noch nicht alles: Wenn die Server erst mal das Verstehen gelernt haben sollten, würden sie auch in der Lage sein, uns von den Ergebnissen ihrer Plaudereien untereinander zu berichten - das 'semantische Web' wäre geboren
    Footnote
    Vgl. für eine für Agenten lesbare Seite: www.cs.umd.edu/~hendler
  17. Wiethoff, T.: Web Anno Tobak : Ärgerlich: Viele Webseiten enthalten veraltete und damit irreführende Informationen (2004) 0.01
    0.013282582 = product of:
      0.05977162 = sum of:
        0.052799657 = sum of:
          0.017126955 = weight(_text_:web in 2193) [ClassicSimilarity], result of:
            0.017126955 = score(doc=2193,freq=4.0), product of:
              0.09596372 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02940506 = queryNorm
              0.17847323 = fieldWeight in 2193, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02734375 = fieldNorm(doc=2193)
          0.035672702 = weight(_text_:seite in 2193) [ClassicSimilarity], result of:
            0.035672702 = score(doc=2193,freq=2.0), product of:
              0.16469958 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02940506 = queryNorm
              0.21659255 = fieldWeight in 2193, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.02734375 = fieldNorm(doc=2193)
        0.006971964 = product of:
          0.013943928 = sum of:
            0.013943928 = weight(_text_:22 in 2193) [ClassicSimilarity], result of:
              0.013943928 = score(doc=2193,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.1354154 = fieldWeight in 2193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2193)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Content
    "Last Update: Anno Tobak"- so könnte es unter vielen Websites stehen. Zwar lässt sich im Internet inzwischen fast jedes Informationsbedürfnis befriedigen. Was die Informationen taugen, ist aber leider eine andere Frage. Zehn Jahre nach dem Publikumsstart des World Wide Web ist auch der Berg veralteter Seiten auf unüberschaubare Höhen angewachsen. Die Datenpflege wird von vielen Anbietern vernachlässigt. Vor zwei Jahren veröffentlichte das auf Internet-Software spezialisierte Unternehmen Stellent aus München eine Studie zur Aktualität deutscher FirmenWebsites. Sie kam zu ernüchternden Ergebnissen: Nur 27 Prozent der Angebote präsentierte Inhalte, die jünger waren als einen Monat. In jedem fünften Fall ließ sich nicht einmal ermitteln, wann zuletzt alte Informationen durch neue ersetzt worden waren. Seitdem ist laut Stellent-Geschäftsführer Josef Huber alles noch viel schlimmer geworden: "Zum Zeitpunkt der Studie hatten wir ja den großen Internet-Hype. Da haben die Firmen noch richtig Millionen in die Hand genommen." Zwischenzeitlich koche bei vielen Firmen das Internet-Engagement nur noch auf Sparflamme. - Ministerium im Schneckentempo - Besonders ärgerlich ist der Aktualisierungsstau für Verbraucher, wenn sie nach wichtigen Informationen für ihre Lebensführung suchen. So hinken auch die Online-Auftritte von Ministerien dem Reformtempo der Regierung bisweilen hinterher. Ende vergangenen Jahres ging es um Tage: Am 19. Dezember passierte die neue Regelung zur Eigenheimzulage den Bundestag, die zum Jahresanfang deutliche Einschnitte bei der Förderung vorsah. Wer noch in den Genuss der höheren Sätze kommen wollte, musste schnell handeln. Doch auf den Seiten des Bundesbauministeriums war im alten Jahr nichts über die Gesetzesänderung zu erfahren.
    "Wir haben die Informationen am 16. Januar ins Netz gestellt", sagt eine Sprecherin der Berliner Behörde. Generelle Aussagen über die Reaktionsgeschwindigkeit der Website ließen sich nicht machen. Ohnehin enthebt sich das Ministerium in einem Rechtshinweis jeglicher Haftung für überholte oder fehlerhafte Angaben. Dort heißt es: "Die sich auf diesen Internet-Seiten befindlichen Informationen sind sorgfältig und nach bestem Wissen ausgesucht und zusammengestellt. Dennoch übernehmen wir keine Gewähr für die Aktualität, Richtigkeit und Vollständigkeit der sich auf dieser Homepage befindlichen Informationen, insbesondere der bereitgestellten Rechtsvorschriften." Selbst wenn solche Hinweise, so genannte Disclaimer, fehlen, hätten Verbraucher wenig Aussicht auf Schadenersatz bei veralteten Informationen, sagt Rechtsanwalt Daniel Raimer von der auf Internetrecht spezialisierten Kanzlei Strömer in Düsseldorf. Das gelte jedenfalls, wenn den Verantwortlichen keine grobe Verletzung ihrer Sorgfaltspflichten nachgewiesen werden kann. "Informationen im Internet dienen als zusätzlicher Service und haben informellen Charakter. Ausschlaggebend ist, was in den amtlichen Gesetzblättern steht." Geradezu lebensgefährlich können veraltete Informationen aber sein, wenn sie die Gesundheit betreffen. So gibt es eine medizinische Studie aus dem Jahr 2002, wonach der Einsatz von Hormonpräparaten bei Frauen in den Wechseljahren mehr Schaden stiftet als Nutzen bringt. So soll sich etwa das Brustkrebsrisiko deutlich erhöhen. Das Zentrum für Public Health an der Universität Bremen wollte Ende vergangenen Jahres wissen, wie sich diese neuen Erkenntnisse auf den Websites gynäkologischer Praxen widerspiegeln. Alarmierendes Ergebnis: so gut wie gar nicht. Obwohl die meisten der 97 erfassten Seiten sogar aus dem Jahr 2003 stammten, erwähnten nur 24 die Weg weisende Studie. Nur vier Praxen nahmen deren Ergebnisse ernst und betonten, dass eine Hormontherapie sorg- - fältig abgewogen werden müsse. Untersucht wurde auch, ob die Anbieter die im Teledienstegesetz (TDG) verlangten Pflichtangaben machen. So müssen medizinische Dienste etwa ihre zuständige Ärztekammer und Kassenärztliche Vereinigung anführen: Trotz möglicher, Geldbußen in Höhe von 50 000 Euro kamen weniger als die Hälfte diesen Pflichten nach. Ein Aktualisierungsdatum fand sich gar nur auf jeder vierten Seite. Dieses ist zwar nicht gesetzlich vorgeschrieben, findet sich aber in den Kriterien der Health an Net Foundation, die sich für die Qualität medizinischer Informationen im Internet einsetzt. Das Internet hat viele Wege verkürzt und zu einer neuen Verbrauchermündigkeit geführt. Wer sich aber blind auf das neue Medium verlässt, kann manchmal ganz schön alt aussehen."
    Date
    3. 5.1997 8:44:22
  18. Herget, J.; Mader, I.: Social Software in der externen Unternehmenskommunikation : ein Gestaltungsansatz zur Messung Bewertung und Optimierung von Web 2.0-Aktivitäten (2009) 0.01
    0.013256391 = product of:
      0.05965376 = sum of:
        0.020761002 = product of:
          0.041522004 = sum of:
            0.041522004 = weight(_text_:web in 2611) [ClassicSimilarity], result of:
              0.041522004 = score(doc=2611,freq=8.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.43268442 = fieldWeight in 2611, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2611)
          0.5 = coord(1/2)
        0.038892757 = product of:
          0.077785514 = sum of:
            0.077785514 = weight(_text_:bewertung in 2611) [ClassicSimilarity], result of:
              0.077785514 = score(doc=2611,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.41876122 = fieldWeight in 2611, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2611)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    Das Internet zeigt seit einiger Zeit einen Paradigmenwechsel an, der einen sozialen Wandel andeutet. Im Fokus dieses Beitrags steht die Frage, ob und in welchem Ausmaß Unternehmen auf die Entwicklungen und Herausforderungen des so genannten Web 2.0 reagieren. In einem ersten Schritt werden Web 2.0-Anwendungen nach dem Merkmal ihrer primären Funktion für das Unternehmen gruppiert. Anschließend wird ein Konzept zur Bestimmung des Nutzens in der externen Unternehmenskommunikation vorgestellt. Dieses Konzept erlaubt die Formulierung verschiedener Metriken zur Bestimmung des Aktivitätsniveaus und des möglichen Leistungsbeitrags für die Unternehmen. In einer ersten Untersuchung wurde dieses Instrument auf die Aktivitäten der im Euro-Stoxx 50 gelisteten Unternehmen angewandt. Das vorgestellte Modell eignet sich ebenso als Benchmarking-Tool im Rahmen der Optimierung von Internet-Auftritten in der b2c-Interaktion (business to consumer).
    Object
    Web 2.0
  19. Kluck, M.: ¬Die Informationsanalyse im Online-Zeitalter : Befunde der Benutzerforschung zum Informationsverhalten im Internet (2004) 0.01
    0.012375469 = product of:
      0.11137922 = sum of:
        0.11137922 = weight(_text_:benutzerfreundlichkeit in 2928) [ClassicSimilarity], result of:
          0.11137922 = score(doc=2928,freq=4.0), product of:
            0.2289144 = queryWeight, product of:
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.02940506 = queryNorm
            0.48655403 = fieldWeight in 2928, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.03125 = fieldNorm(doc=2928)
      0.11111111 = coord(1/9)
    
    Abstract
    Die Notwendigkeit des professionellen Einsatzes von empirischen Methoden als Grundvoraussetzung für den Entwurf und die Gestaltung von Informationsdiensten, Informationsprodukten und Informationssystemen ist seit den frühen sechzigerfahren in der Informationsarbeit erkannt worden. Anfänglich wurde - ausgedrückt durch die Bezeichnung "Benutzerforschung" oder "fachliche Rezipientenforschung" -versucht, den Informationsbedarfvon unterschiedlichen Benutzergruppen (im Rahmen einer Typologie der Benutzer von Informationssystemen) zu messen und aufgrund dieser Daten zu Einschätzungen von Art, Menge, Umfang und Tiefe von Informationsbedürfnissen zu gelangen. "Benutzerforschung sollte den Lebensweg von Informationsprodukten beziehungsweise Informationsdiensten begleiten. Sie kann erste Anregungen geben, sie liefert Entscheidungshilfen im Planungsstadium und kontrolliert dann, ob, wo und wie sich der geplante Erfolg tatsächlich eingestellt hat." In den siebziger und achtziger Jahren traten dann Fragestellungen in den Vordergrund, die den allgemeinen Nutzen der Information und besonders der Strukturen und Prozesse der Informationsvermittlung empirisch zu beschreiben versuchten. Darüber hinaus wurden mit dem in den siebziger Jahren dann vollzogenen Einsatz der Informationsund Kommunikationstechnologien in den Bibliotheken und Informationsstellen Fragestellungen wichtig, die unter dem Begriff "Kommunikationsanalysen" etwa die Ansätze der Informationsbedarfsmessung mit der empirischen Analyse des Einsatzes von Informations- und Kommunikationstechnologien verbanden. Ein weiteres Einsatzfeld empirischer Untersuchungen ergab sich aus dem langsamen Entstehen eines Marktes für elektronische Informationsprodukte, wodurch sowohl empirische Marktforschungsstrategien als auch empirische Marketingansätze in die Informationsarbeit hineingetragen wurden. Schließlich traten Untersuchungen der Benutzerfreundlichkeit von Informationssystemen und ihrer Bedienbarkeit sowie dann die allgemeinen Kriterien der Softwareergonomie hinzu. Ferner werden seit den 90er Jahren durch die Nutzung des Internets als Angebotsmedium Aspekte der Kundenorientierung und Fragen der empirischen Nutzungsforschung und der Bedienungsfreundlichkeit (Usability) zunehmend wichtiger. Dementsprechend haben sich auch die Begrifflichkeiten für die Benutzerforschung in Bibliotheken gewandelt: Von Benutzung, Benutzerbedürfnisse, Benutzerforschung, Benutzerfreundlichkeit über Benutzerorientierung, Benutzerzufriedenheit, Benchmarking, Qualitätsmanagement, Bibliotheksmarketing hin zu Kundenorientierung, Kundenzufriedenheit, Service. Hinsichtlich der Internet-Angebote kamen dann Aspekte des Benutzerverhaltens und der Bedienungsfreundlichkeit der Software bzw der Benutzerschnittstellen hinzu. Allen Konzepten ist gemeinsam, dass sie im weitesten Sinne den Prozess der gesellschaftlichen Informationsvermittlung auf einer übergreifenden Ebene verstehbar machen: Aus der Sicht des Nutzers von Information, aus der Sicht manifester und latenter Informationsbedürfnisse, aus der Sicht technisch unterstützter fachlicher Informationsund Kommunikationsprozesse der Information und Dokumentation oder aus der Sicht technischer und ästhetischer Gestaltung. Diese hier grob unterschiedenen Ansätze werden nun unter dem Begriff Informationsanalyse zusammengefasst.
  20. ¬Das Internet vergrößert die Wissenskluft (2001) 0.01
    0.01216809 = product of:
      0.054756403 = sum of:
        0.028827896 = product of:
          0.057655793 = sum of:
            0.057655793 = weight(_text_:seite in 5951) [ClassicSimilarity], result of:
              0.057655793 = score(doc=5951,freq=4.0), product of:
                0.16469958 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.02940506 = queryNorm
                0.35006642 = fieldWeight in 5951, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5951)
          0.5 = coord(1/2)
        0.025928505 = product of:
          0.05185701 = sum of:
            0.05185701 = weight(_text_:bewertung in 5951) [ClassicSimilarity], result of:
              0.05185701 = score(doc=5951,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.27917415 = fieldWeight in 5951, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5951)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    Das Internet spaltet die Gesellschaft: Die Kluft zwischen gut informierten Viellesern und passiven Medienverweigerern wächst mit dem neuen Medium schneller. Die neueste Studie der Mainzer Stiftung Lesen über das Leseverhalten der Deutschen ist ein weiterer Beleg für dieses Phänomen, das die Fachleute "Wissenskluft" nennen. Das Phänomen ist nicht neu, Kommunikationsforscher warnen schon seit Jahren davor. Doch mit der rasanten Verbreitung des Internets gewinnt der Prozeß an Dynamik. Auf der einen Seite des Grabens stehen gut informierte Menschen, die viel und regelmäßig lesen und neben gedruckten auch die elektronischen Medien wie Radio, Fernsehen und Internet ausgiebig nutzen. Auf der anderen Seite stehen Menschen, die selten ein Buch oder eine Zeitung in die Hand nehmen und sich vom Fernsehen lieber berieseln als informieren lassen. Wer aber in der neuen Medienwelt dabei sein will, muß viel Geld ausgeben. Wissenschaftler wie der Medienforscher Siegfried Weischenberg warnen daher vor einer Teilung der Gesellschaft in zwei Gruppen: Die einen, die sich den Anschluß ans digitale Zeitalter leisten können, und die anderen, die den Anschluß verlieren. Weischenberg erklärt: "Die Gefahr einer Wissenskluft ist groß. Bei zunehmender Bedeutung der neuen Medien profitieren diejenigen, die ohnehin schon privilegiert, wohlhabend und gebildet sind. Die Übrigen drohen zu Verlierern der Informationsgesellschaft zu werden. " Nach einer Studie der Gesellschaft für Konsumforschung (GfK) verdienen über die Hälfte der deutschen OnlineNutzer mehr als 4 000 Mark netto im Monat. Wissen läßt sich als die Fähigkeit eines Menschen begreifen, selbst etwas in Gang zu setzen. Im digitalen Zeitalter ist die Kompetenz bei der Auswahl, Bewertung und zweckorientierten Nutzung der hiformationen, die entscheidende Schlüsselqualifikation für den Wissenserwerb. Nur wer über diese "Medienkompetenz" verfügt, ist in der Lage, der sogenannten Informationsflut zu begegnen. Nur der kann gewonnene Erkenntnisse in soziales und politisches Handeln einfließen lassen. Die so gern attestierte "digitale Spaltung" der Gesellschaft tritt dabei nicht nur als eine materielle Frage des Zugangs auf, sondern vor allem als eine soziale und kulturelle Frage der Aneignung neuer Medien durch ihre Nutzer. Daher entscheiden soziale Herkunft, Bildungsgrad, Geschlecht und Alter über Informationsarmut oder -reichtum. Das bestätigt auch ein Bericht der OECD. Er faßt die Ergebnisse sechsjähriger Studien in 20 Ländern zusammen ("Literacy In The Information Age"). Dazu hatte man eine repräsentative Auswahl der Erwerbsbevölkerung in ihrem Heim geprüft. Es sollte festgestellt werden, ob die Befragten die nötigen Kompetenzen besitzen, um in der "Wissensökonomie" von morgen effizient und erfolgreich zu sein. Die OECD spricht von der "ersten zuverlässigen und international vergleichbaren Studie" dieser Art

Types