Search (2156 results, page 108 of 108)

  • × theme_ss:"Internet"
  1. Burblies, C; Pianos, T.: National, regional, lokal : Workshop in Der Deutschen Bibliothek (2003) 0.00
    0.0012874262 = product of:
      0.005149705 = sum of:
        0.005149705 = weight(_text_:information in 1801) [ClassicSimilarity], result of:
          0.005149705 = score(doc=1801,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.058186423 = fieldWeight in 1801, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1801)
      0.25 = coord(1/4)
    
    Theme
    Information Gateway
  2. Hölscher, C.: ¬Die Rolle des Wissens im Internet : Gezielt suchen und kompetent auswählen (2002) 0.00
    0.0012874262 = product of:
      0.005149705 = sum of:
        0.005149705 = weight(_text_:information in 2107) [ClassicSimilarity], result of:
          0.005149705 = score(doc=2107,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.058186423 = fieldWeight in 2107, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2107)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in BuB 56(2004) H.4, S.84-86 (D. Lewandowski): "Eines vorab: Sowohl der Titel als auch der Klappentext dieses Bandes sind irreführend. Man würde annehmen, dass es sich um einen weiteren Ratgeber zur Internetre-cherche handelt; dies ist jedoch nicht der Fall. Vielmehr untersucht der Autor das Rechercheverhalten so genannter Internetexperten, wobei ein »Experte« hier durch seine (mehrjährige) Erfahrung mit dem Internet definiert wird. Eine formale Ausbildung spielt keine Rolle: »Bezüglich ihrer Web-Kenntnisse sind die Teilnehmer [der Untersuchungen] als Autodidakten zu beschreiben, die sich ihr Wissen über die Jahre eigenständig, zum Teil als Hobby, insbesondere aber im Rahmen eines training-onthe job selbst angeeignet haben« (Seite 102). - Zwei Vergleichsstudien - Nach einführenden Kapiteln über die Expertiseforschung in der Psychologie, ihrer Anwendung auf Fragen des Information Retrieval und Betrachtungen über das Konzept des Hypertexts sowie einem Uberblick über Nutzerstudien im Bereich der Websuche kommt der Autor zum Kernpunkt seines Werks. Er besteht aus zwei Untersuchungen, die der Verfasser im Rahmen seines Dissertationsprojekts, dessen Ergebnisse das vorliegende Buch darstellt, durchgeführt hat. Für die erste Studie machte der Autor Interviews mit den Versuchspersonen, um ihre grundsätzlichen Recherchestra tegien kennen zu lernen und anhand der Ergebnisse ein Ablaufdiagramm typischer Internetrecherchen zu erstellen. In einem zweiten Schritt mussten die Versuchspersonen einige Suchaufgaben lösen. Dabei wurde beobachtet, inwieweit sich das Suchverhalten der Experten von demjenigen des durchschnittlichen Nutzers unterscheidet. Der Vergleich erfolgte auf Basis eines Rechercheprotokolls (Query Log) der Suchmaschine Fireball. Ergebnis war unter anderem, dass die Experten häufiger Operatoren und die Möglichkeit der Phrasensuche nutzten und dass ihre Anfragen aus durchschnittlich mehr Suchbegriffen bestanden. In der zweiten Studie wurde eine Expertengruppe direkt mit Internetanfängern verglichen. Die Aufgabenstellungen kamen aus dem Bereich der Volkswirtschaft (Euro-Umstellung). Die Versuchsteilnehmer wurden in vier Gruppen aufgeteilt: jeweils Anfänger und Experten mit beziehungsweise ohne volkswirtschaftliche Vorkenntnisse. Das Ergebnis war, dass die Gruppe der »Doppelexperten« deutlich bessere Resultate erzielte als Teilnehmer der anderen Gruppen. Erfahrungen nur im volkswirtschaftlichen Bereich oder aber in Bezug auf die Internetrecherche reichten nicht aus, um die Aufgaben besser zu lösen als die so genannten Doppellaien. Allerdings stellt der Autor selbst fest, dass der Schwierigkeitsgrad der gestellten Aufgaben für die Versuchspersonen zu hoch war. Besonders gravierend war dies bei der letzten Aufgabe. Diese konnten von den 47 Teilnehmern nur zwei erfolgreich bearbeiten; interessanterweise ein Doppelexperte und ein Doppellaie. Unter anderem diese Feststellung stellt die Kriterien für einen »Web-Experten« infrage. Interessant wäre es gewesen, wenn anstatt der Abgrenzung durch das Kriterium Web-Erfahrung »wirkliche« Experten wie Bibliothekare und Informationsvermittler die untersuchte Expertengruppe gebildet hätten. Zwar hätten sich bei dem aufgezeichneten exemplarischen Ablauf einer Recherche wohl keine gravierenden Unterschiede ergeben, wahrscheinlich aber bei der Lösung der Suchaufgaben. Die im Anhang abgedruckten Aufgaben erscheinen auch für den nicht volkswirtschaftlich gebildeten Profi als nicht übermäßig schwierig. Die Aussage, dass nur Doppelexperten Suchaufgaben besser lösen können als Anfänger in beiden Bereichen, ist also durchaus fragwürdig. Der Autor kommt zu dem Schluss, dass »inhaltliches Wissen - zumindest für sehr spezifische, inhaltlich anspruchsvolle Aufgaben - als Hilfsmittel der Recherche nur schwer zu kompensieren [ist] « (Seite 185). Dem ist bei hoch spezialisierten Fragestellungen sicherlich zuzustimmen; dabei sollte allerdings eine klare Grenze gesetzt werden, was denn nun sehr spezifische Aufgaben sind.
  3. Carr, R.: Leservermehrung : Für eine europäische Perspektive: Die digitalisierte Google-Buchsuche nützt der klassenlosen Wissensgesellschaft (2007) 0.00
    0.0012874262 = product of:
      0.005149705 = sum of:
        0.005149705 = weight(_text_:information in 639) [ClassicSimilarity], result of:
          0.005149705 = score(doc=639,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.058186423 = fieldWeight in 639, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=639)
      0.25 = coord(1/4)
    
    Content
    Die Bodleian-Bibliothek hingegen sieht in der Freigabe ihrer Bücher, die in weitläufigen und riesigen Archiven lagern, die Möglichkeit, zur Schaffung einer besseren Welt für alle Menschen beizutragen, und hat deshalb bereitwillig Millionen relativ unbedeutender; nicht urheberrechtlich geschützter Bücher (aus allen Teilen der Welt und in vielen Sprachen) zur weltweiten Verfügbarkeit ins Internet gestellt. Die altehrwürdige Aufgabe der Bibliothek - mit der sie im 17. Jahrhundert von ihrem Gründer, dem elisabethanischen Diplomaten Sir Thomas Bodley, beauftragt wurde - bestand seit jeher darin, als Wissensquelle zu dienen. Nicht allein für die Universität von Oxford, sondern auch für die außeruniversitäre Welt. Bis zum Aufkommen elektronischer Netzwerke beschränkte sich diese Aufgabe vier Jahrhunderte lang darauf, die Bibliothekspforten all jenen zu öffnen, die das Glück hatten, persönlich nach Oxford kommen zu können. Doch jetzt ermöglicht es das Internet, Sir Thomas Bodleys Vision vom universellen Stellenwert der Bibliothek neu zu interpretieren, indem zur vergleichsweise begrenzten Leserschaft von lediglich 40.000 Personen vor Ort nun möglicherweise Milliarden neuer Leser hinzukommen könnten. Folglich sollte es niemanden verwundern, dass die Bodleian-Bibliothek so gerne bereit ist, gemeinsam mit Google und dessen Partnern die Welt der Bücher und Information für die klassenlose Gesellschaft des World Wide Web zu erschließen. Doch selbst die Formulierung "Erschließung" beschreibt die neuartigen Zugangsmöglichkeiten durch die Google Buchsuche nur unzureichend, denn die digitale Umwandlung und Auffindbarkeit so vieler gedruckter Bücher ermöglicht eine viel bessere Verbreitung und Verfügbarkeit des gesammelten und aufgezeichneten Wissens der Menschheit. Lizenzfreie Bücher gehören dorthin, wo die Weltöffentlichkeit sie auch nutzen kann; und genau dort wollen die Bodleian-Bibliothek und ihre Partnerbibliotheken diese Bücher auch wissen. Egal wie man dazu steht, das Internet ist heutzutage nun einmal die Quelle, in der die Weltöffentlichkeit zuerst nach Informationen sucht. Und dieser unaufhaltsamen Welle des Fortschritts widerstehen zu wollen, heißt lediglich, den Fehler von König Knut dem Großen zu wiederholen, der letztlich einsehen musste, dass auch ein König von England die ansteigende Flut nicht aufhalten konnte. Da die Welt immer weiterreichenden, tieferen und bequemeren Zugang zu ihrem veröffentlichten Erbe erhält, freut sich die Bodleian-Bibliothek umso mehr, zu sehen, wie durch die Ergänzung um eine weitere europäische Dimension ein Zusammenschluss zum unaufhaltsamen und wünschenswerten Fortschritt gegenüber einer Bevölkerung des Internets entsteht, mit mehr und mehr wertvollen Informationen zu Gunsten einer wahren Weltleserschaft. Wir heißen Barcelona und Madrid herzlich willkommen! Mögen viele weitere Teilnehmer folgen..."
  4. Alby, T.: Web 2.0 : Konzepte, Anwendungen, Technologien; [ajax, api, atom, blog, folksonomy, feeds, long tail, mashup, permalink, podcast, rich user experience, rss, social software, tagging] (2007) 0.00
    0.0012874262 = product of:
      0.005149705 = sum of:
        0.005149705 = weight(_text_:information in 1273) [ClassicSimilarity], result of:
          0.005149705 = score(doc=1273,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.058186423 = fieldWeight in 1273, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1273)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 58(2007) H.3, S.187 (W. Ratzek): "So ist das mit den Trends. Viele versuchen sich als Trendsetter - und scheitern. Andere suchen nur einen werbewirksamen Titel für eine Veranstaltung, wie das der Verleger Tim O'Reilly 2004 tat, und lösen damit einen Hype aus - wie das neudeutsch heißt. Aber so ganz zufällig war O'Reillys Wortschöpfung "Web 2.0" nicht. Nach dem Platzen der New-Economy-Blase sollten Fachleute auf einer Tagung diskutieren, wie es nun mit der Internetwirtschaft weiter gehen sollte. In nur kurzer Zeit entwickelte sich das "Web 2.0" zum Inbegriff einer neuen Bewegung, der nicht nur IT-Enthusiasten angehören. Denn das "join-in-Web" (das Mitmach-Web), wie das Web 2.0 auch bezeichnet wird, bietet auch IT-Ungeübten die Möglichkeit, im Netz-der-Netz mit eigenen Inhalten, also "user generated content", präsent zu sein. Den Schlüssel zum World Wide Web erhalten sie durch "Social Software". Selbstverständlich geht Tom Alby auch ausführlich auf die Schlüsselbegriffe ein, die sich um das Web 2.0 ranken. Dazu gehören die einer breiten Nutzerschicht bekannten Anwendungen wie Blogs, RSS oder Wikis, wie auch die weniger bekannte Technologien und Entwicklungskonzepte, wie Ajax (Asynchronous JavaScript and XML), Ruby/ Ruby on Rails. In zehn Kapiteln führt Tom Alby in Konzepte, Anwendungen und Geschäftsmodelle des Web 2.0 ein. Neben technischen Aspekten geht er auch auf die soziologischen und psychologischen Aspekte ein, wenn er beispielsweise fragt "Was motiviert die Benutzer, sich in Social SoftwarePlattformen einzubringen?" (S. 108) Die Antwort leuchtet ein: "Zunächst einmal ist da die Erwartung der Benutzer, etwas für das Gegebene zurückzubekommen: Wer sein Profil mit vielen Informationen bestückt, der hat auch eine Chance, dass das Profil von anderen angesehen und eventuell Kontakt aufgenommen wird. Wer bei Wikipedia sein Wissen einbringt, der weiß auf der anderen Seite, dass er von den Beiträgen anderer profitieren kann. Dies kann auch zu einem wirklichen Gemeinschaftsgefühl führen (...) Auch ein gewisser Stolz, Teil dieser Gemeinschaft zu sein, mag dazu gehören." (S. 108.f) Tom Albys "Web 2.0" zeichnet sich auch durch die vielen Anwendungsbeispielen aus. Ergänzt werden diese durch fünf Interviews mit Praktikern wie Johnny Haeusler von Spreeblick.de oder Vasco Sommer-Nunes und Florian Wilken von blog.de. Ein umfangreiches Glossar und ein umfangreiches Stichwortverzeichnis erleichtern die Handhabbarkeit. Getreu dem" Join-in-Web" gibt es auch ein Blog (http://web20_buch.alby.de/) zum Buch, um mit dem Autor in Kontakt zu treten. Ein weiteres Plus ist die leichte Lesbarkeit, die es auch dem Nicht-Informatiker ermöglicht, die technischen Zusammenhänge zu verstehen. Wer mehr über Folksonomy, Ruby on Rails, Ajax oder Long Tail wissen möchte, dem sei Tom Albys "Web 2.0" sehr empfohlen. Dem IT-Profi wird "Web 2.0" nicht sehr viel Neues bieten, aber für Agenturen, Designer, Webentwickler, Studierende, Bibliothekarlnnen bietet dieses engagiert geschriebene Buch viel Nützliches."
  5. Geldhauser, S.: Wissen zwischen Kommerz und Freiheit : Internet-Enthusiasten basteln an einer Weltbibliothek, die sämtliche Inhalte kostenfrei verfügbar machen soll (2008) 0.00
    0.0012874262 = product of:
      0.005149705 = sum of:
        0.005149705 = weight(_text_:information in 1655) [ClassicSimilarity], result of:
          0.005149705 = score(doc=1655,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.058186423 = fieldWeight in 1655, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1655)
      0.25 = coord(1/4)
    
    Content
    "Dem Wunsch nach Chancengleichheit und einer gebildeten Gesellschaft mit einem freien Zugang zu Informationen aller Art stehen die uralten Interessen nach Macht und Reichtum gegenüber. Bibliotheken stellen die freie Information in den Mittelpunkt, meist gegen kommerzielle Interessen. Sie finden dabei in der Internetcommunity und ihren Vordenkern bereits seit den Siebzigerjahren Mitstreiter und Unterstützer. Heutzutage wird das Ideal des freien Wissens jedoch behindert, dienen die Regierungen doch eher dem Erhalt der Machtansprüche und der Stärkung kommerzieller Interessen. Aktuelle Themen sind bekanntermaßen die Stärkung teurer wissenschaftlicher Fachzeitschriften sowie die massive Einschränkung der »Privatkopie«. Auch wenn es schwer zu vermitteln ist, warum der Steuerzahler für Forschungsergebnisse, die mit seinen Steuergeldern finanziert wurden, doppelt bezahlen muss und er darüber hinaus keinen freien Zugang zu den Informationen erhält, gab es erst vor kurzem eine entsprechende Entscheidung gegen »Open Access«. Die Verschärfung des Urheberrechts ist so neu, dass in Bezug auf wichtige Bestimmungen Unsicherheit herrscht und Juristen noch auf die ersten Verfahren und Urteile für mehr Klarheit warten. Dem Bürger wird dabei Rechtssicherheit zugunsten einer kommerziellen Kampagne (»Raubkopierer sind Verbrecher« - was juristisch betrachtet auf jeden Fall falsch ist) zusätzlich erschwert. Die über das Internet organisierten Experten haben für die meisten dieser Probleme rund um das freie Wissen Alternativen entwickelt. Die aktuellen Themen auf dieser Seite sind zum Beispiel der große Erfolg der Wikipedia und freier Software wie Linux oder OpenOffice.org sowie der fünfjährige Geburtstag der Creative Commons Lizenz.
  6. OWLED 2009; OWL: Experiences and Directions, Sixth International Workshop, Chantilly, Virginia, USA, 23-24 October 2009, Co-located with ISWC 2009. (2009) 0.00
    0.0012874262 = product of:
      0.005149705 = sum of:
        0.005149705 = weight(_text_:information in 3391) [ClassicSimilarity], result of:
          0.005149705 = score(doc=3391,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.058186423 = fieldWeight in 3391, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3391)
      0.25 = coord(1/4)
    
    Content
    Short Papers * A Database Backend for OWL, Jörg Henss, Joachim Kleb and Stephan Grimm. * Unifying SysML and OWL, Henson Graves. * The OWLlink Protocol, Thorsten Liebig, Marko Luther and Olaf Noppens. * A Reasoning Broker Framework for OWL, Juergen Bock, Tuvshintur Tserendorj, Yongchun Xu, Jens Wissmann and Stephan Grimm. * Change Representation For OWL 2 Ontologies, Raul Palma, Peter Haase, Oscar Corcho and Asunción Gómez-Pérez. * Practical Aspects of Query Rewriting for OWL 2, Héctor Pérez-Urbina, Ian Horrocks and Boris Motik. * CSage: Use of a Configurable Semantically Attributed Graph Editor as Framework for Editing and Visualization, Lawrence Levin. * A Conformance Test Suite for the OWL 2 RL/RDF Rules Language and the OWL 2 RDF-Based Semantics, Michael Schneider and Kai Mainzer. * Improving the Data Quality of Relational Databases using OBDA and OWL 2 QL, Olivier Cure. * Temporal Classes and OWL, Natalya Keberle. * Using Ontologies for Medical Image Retrieval - An Experiment, Jasmin Opitz, Bijan Parsia and Ulrike Sattler. * Task Representation and Retrieval in an Ontology-Guided Modelling System, Yuan Ren, Jens Lemcke, Andreas Friesen, Tirdad Rahmani, Srdjan Zivkovic, Boris Gregorcic, Andreas Bartho, Yuting Zhao and Jeff Z. Pan. * A platform for reasoning with OWL-EL knowledge bases in a Peer-to-Peer environment, Alexander De Leon and Michel Dumontier. * Axiomé: a Tool for the Elicitation and Management of SWRL Rules, Saeed Hassanpour, Martin O'Connor and Amar Das. * SQWRL: A Query Language for OWL, Martin O'Connor and Amar Das. * Classifying ELH Ontologies In SQL Databases, Vincent Delaitre and Yevgeny Kazakov. * A Semantic Web Approach to Represent and Retrieve Information in a Corporate Memory, Ana B. Rios-Alvarado, R. Carolina Medina-Ramirez and Ricardo Marcelin-Jimenez. * Towards a Graphical Notation for OWL 2, Elisa Kendall, Roy Bell, Roger Burkhart, Mark Dutra and Evan Wallace.
  7. Majica, M.: ¬Eine ganz große Nummer : dem User eröffnet die Umstellung viele ungekannte Möglicchkeiten - zumindest in Zukunft (2012) 0.00
    0.0012874262 = product of:
      0.005149705 = sum of:
        0.005149705 = weight(_text_:information in 224) [ClassicSimilarity], result of:
          0.005149705 = score(doc=224,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.058186423 = fieldWeight in 224, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=224)
      0.25 = coord(1/4)
    
    Content
    Wie viel mehr neue IP-Adressen sind denn nun möglich? Mit dem neuen IPv6 stehen 340 Sextillionen Adressen zur Verfügung - das ist eine 34 mit 37 Nullen. Das reicht zumindest fürs Erste. Was sind IP-Adressen überhaupt? Sie sind quasi die Adresse von Computern, an die Daten oder Anfragen geschickt werden. Jede Homepage hat eine eine solche Adresse, und jeder Internetnutzer auch. IP-Adressen in der bisher gängigen Version 4 bestehen aus vier Blöcken maximal dreistelliger Zahlen mit Werten zwischen 0 und 255. So hat etwa die Webseite des Chaos Computer Clubs die IP-Adresse 213.73.89.122. Da sich aber www.ccc.de leichter merken lässt, übersetzen sogenannte DNS-Server zwischen den Wort- und den Zahl-Adressen. Und was ist anders an IPv6? Die Adressen sehen zum einen anders aus: Der Wikipedia-Eintrag zu IPv6 findet sich etwa unter 2001:0db8:85a3:08d3:1319:8a2e:0370:7344. Zum anderen enthalten sie 128 Bit Information statt bisher 32 Bit. Dadurch vergrößert sich die Anzahl möglicher Adressen, der sogenannte Adressraum. Außerdem wird durch den neuartigen Aufbau auch die Verwaltung in den Innereien des Internets vereinfacht. Deshalb haben zahllose Unternehmen und Initiativen seit Jahren an der Einführung des neuen Protokolls gearbeitet. Große Software-Firmen wie Microsoft, Apple oder Google haben die meisten aktuellen Programme längst so überarbeitet, dass sie IPv6 "sprechen". Sind die alten Adressen damit überholt? Für einige Jahre werden beide Protokoll-Versionen parallel laufen, auch um einen reibungslosen Übergang zu gewährleisten. Die Netzbetreiber müssen sich bei der Umstellung auf IPv6 ohnehin erst vom Skelett des Internets zum einzelnen Kunden vorarbeiten. Während die zentrale Infrastruktur etwa bei der Telekom bereits IPv6 beherrsche, wie deren Sprecher Ralf Sauerzapf erläutert, soll es bis Ende dieses Jahres immerhin bei bis zu 800.000 Endkunden angekommen sein. Dies gelte aber nur für Kunden, die auf neue "IP-Anschlüsse" umstellen.
  8. Kaube, J.: Browser, Server, E-Mail gegen Gelbe Seiten, Kühlschrank und Telefon : Lesen und surfen lassen: Die Stiftungen der Medienkonzerne Bertelsmann und AOL Time Warner veranstalten eine Tagung über "21st Century Literacy" in Berlin (2002) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 259) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=259,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 259, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=259)
      0.25 = coord(1/4)
    
    Content
    Alles ändert sich also, dauernd, nur die Reklamesprüche derjenigen, die ihre Produkte damit anpreisen, wer nicht kaufe, bleibe zurück, weil sich ja alles dauernd ändere, bleiben erfreulich wiedererkennbar. Der wichtigste Spruch der Stunde, der sie alle bündelt, fordert "Medienkompetenz". Sie trete neben Lesen, Schreiben und Rechnen als vierte Schlüsselfähigkeit. Die Pisa-Studie wäre insofern unvollständig gewesen, hat sie doch überhaupt nicht untersucht, ob die Kinder auch das Internet richtig - der Bericht vergißt in solchen Zusammenhängen nie das Wort "kritisch" - benutzen können. Weil im Internet angeblich die Informationen auf neuartige Weise mitgeteilt werden, bedürfe es eigener Schulung dafür. Es werde die vordringliche Aufgabe von Erziehung, "den Umgang mit Myriaden von Veränderungen zu vermitteln". Inwiefern stellt aber die "Kenntnis von Browsern, Suchmaschinen, E-Mail" höhere und grundsätzlichere Anforderungen als diejenige von Gelben Seiten, Videorecordern und Bohrmaschinen? Wenn alles so neu, so revolutionär ist, mag man sich überdies fragen, wie etwa die Herren Schulte-Hillen (Bertelsmann), Case (AOL), Schröder (SPD) oder Glotz (SPD) es je vermochten, sich mit ihrer altbackenen Schulbildung, die nur Lesen, Schreiben und Rechnen umfaßte und ganz ohne Netzzugang erfolgte, auf diesen Stand allerneuester Wissensnutzung zu bringen. Oder surfen sie selber gar nicht? Wie aber halten sie dann Schritt mit dem Fortschritt? Gerhard Schröder jedenfalls dachte bei Medienkompetenz auch an das Vermögen, Bilder, vor allem die Wirkung ausgestrahlter Bilder, richtig einzuschätzen. Geschicktes Haarefärben oder entschiedene Handbewegungen beim Reden als Dokumente "visueller Kompetenz" waren freilich auch schon dem Ancien regime geläufig. Schröders Forderung, es solle das Bilderlesen in den Schulen eingeübt werden, stellt trotzdem das Ceterum censeo der Interneteuphoriker dar. Unter respektvoller Miterwähnung des Lesens von Geschriebenem als "immer noch" wichtiger Fähigkeit wird festgestellt: Der, natürlich kritische, Umgang mit Bildern muß eingeübt werden, denn mehr als achtzig Prozent der im Internet mitgeteilten Information liege in Bildform vor. Es wäre interessant zu wissen, wie weit bei solchen Berechnungen der Informationsbegriff gefaßt worden ist und ob er auch Bilder von Popstars und anderem Vernügungspersonal miteinschließt. Immerhin sollen nach wie vor "MP3" und "Sex" die häufigsten Suchwörter von Netzbenutzern sein.
  9. Heess, J.: Internet-Computer erleichtern Blinden, den Alltag zu bewältigen. Sehende können ihre Augen ausleihen : Surfen mit Fingerspitzengefühl (2002) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 589) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=589,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 589, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=589)
      0.25 = coord(1/4)
    
    Content
    "Wenn Marita Kessler im Internet surft, braucht sie beide Hände. Und ihre Ohren. Denn sie muss hören, was sich auf dem Bildschirm abbildet. Die 47-Jährige ist seit ihrer Geburt blind. Mit Hilfe bestimmter PC-Ausstattungen kann sie den Computer fast genauso nutzen wie Sehende. Bereits seit 19 Jahren arbeitet Marita Kessler in der Firma Audiodata in Oberhausen bei Speyer - und zwar hauptsächlich am Rechner. Unter anderem beantwortet sie die Zuschriften vieler blinder und sehbehinderter Menschen, die sich an das Unternehmen wenden - in der Hoffnung, Erleichterung in hrem Alltag oder ihrer Freizeit zu finden. Der Betrieb, ,der in einem ehemaligen Schweinestall seinen Hauptsitz hat, produziert seit 1983 Computer-Hilfsmittel für Blinde und Sehbehinderte. Firmengründer Joachim Frank ist selbst sehbehindert und hat eigene Erfahrungen in seine Arbeit einfließen lassen. "Das erste Produkt war ein akustisches Blinden-Text-System, mit dem Blinde auch Texte verarbeiten können", erinnert er sich. "Doch dann haben wir gemerkt, dass es eigentlich zum viel mehr geht." Nämlich dass Menschen ohne Augenlicht, die gesamten Möglichkeiten des PCs intensiv nutzen können. Heute stellt Frank mit rund 50 sehenden und blinden Mitarbeitern 14 Hilfsmittel her - und zwar neun Geräte und fünf Programme. Beispielsweise die Software Blindows. Sie übersetzt die grafische Windows-Oberfläche in hörbare Sprache oder in die Blindenschrift Braille. Marita Kessler zeigt an ihrem Arbeitsplatz die Funktionsweise des Programms. Wenn sie ein neues Word-Dokument öffnen will, bewegt sie den Cursor mit der Tastatur auf die Menüleiste. Die Befehle werden von einer elektronischen Stimme mitgesprochen und gleichzeitig auf einer Schiene an der Unterseite der Tastatur in Braille-Schrift wiedergegeben. Marita Kessler kann also auf die Stimme hören und mit den Fingerspitzen die sich hebenden und senkenden Pünktchen spüren. Es ist für sie kein Problem, längere Texte am Schirm zu lesen oder Mails zu beantworten. Damit es flotter geht, stellt sie gerne die Geschwindigkeit der lesenden Stimme schneller - und lauscht nun einem Text, der in ungeübten Ohren so klingt, als würde man eine Kassette im Vorlauf abspielen. Doch Marita Kessler versteht jedes Wort. Nicht weniger beeindruckend ist ihre Bewegungssicherheit auf dem Monitor. Da-zu bedient sie mit beiden Händen einen vertikal sowie einen horizontal zur Tastatur angebrachten Schieber. Je nach Standort werden unterschiedliche Töne erzeugt. Leerzeilen erkennt Marita Kessler zum Beispiel an einem tiefen, Cursorzeilen an einem hellen Ton. "Die taktil-akustische Seiten-Orientierung erfasst den Bildschirm in zwei Dimensionalen", erklärt der Erfinder Joachim Frank. "Blinde wollen ja nicht, dass ihnen der Bildschirm wie ein Brief von oben nach unten vorgelesen wird, sondern sie wollen gezielt auf etwas zugreifen." Mit dem Hilfsmittel seien Blinde in der Lage, den Punkt ihrer Aufmerksamkeit selbst zu setzen. Was besonders beim Surfen im Internet sinnvoll angewendet werden kann. Denn gerade im Netz sucht man oft nach einer bestimmten Information und lässt überflüssigeTexte undLinks unbeachtet. Oder Bilder. Die sind für Blinde besonders störend, da sie nicht übersetzt werden können. An dieser Stelle erleichtert eine weitere Entwicklung Sehbehinderten das Dasein im Netz. Der Webformator blendet alle Bilder und Grafiken aus und stellt die komplette Internetseite in Textform dar. So können - wiederum mit Hilfe von Blindows - auch Links, die sich eventuell unter Icons oder Bildern verbergen, gezielt angewählt werden. Die Kombination der Hilfsmittel erlaubt dem Rennsport Fan Marita Kessler unter anderem, eine Formel-l-Seite mit Grafiken und Ergebnistabellen ohne Probleme zu lesen.
  10. Charlier, M.: ¬Die Austreibung des Mittelalters : Von der Wissensgemeinde zum geistigen Eigentum und zurück: Forscher wehren sich gegen die Macht der Verlage (2002) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 623) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=623,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 623, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=623)
      0.25 = coord(1/4)
    
    Content
    Wissenschaftliche Zeitschriften waren früher oft Herzensangelegenheit oder zumindest Prestigeobjekte engagierter Verleger, die zur Not auch mal eine Zeit lang draufzahlten, um einen Titel über die Runden zu bringen. Nach einem mehrjährigen Konzentrationsprozess werden nun fast alle diese Zeitschriften von wenigen international agierenden Großverlagen herausgebracht, die mit ihnen Profitmaximierungsstrategien verfolgen. Das Geschäftsmodell ist simpel: Die Produktion des Wissens erfolgt an Universitäten und Instituten mit staatlichen oder aus der Wirtschaft eingeworbenen Mitteln - also für die Verlage kostenlos. Viele Wissenschaftler sind sogar bereit, "Druckkostenzuschüsse" aufzutreiben, nur damit ihre Arbeitsergebnisse aufs Papier kommen. Die Eigenleistung der Verlage ist da, wo die Autoren ihre Texte auf Diskette einliefern und der Druck aus dem Computer kommt, kaum der Rede wert. Der Gewinn, der sich so erzielen lässt, umso mehr. Margen von 40 Prozent seien nicht selten, sagen Branchenkenner. So wären die wissenschaftlichen Zeitschriften ein perfektes Instrument zum Abgreifen von Staatsknete - gäbe es nicht das Internet. Vielen Wissenschaftlern dauert es zu lange, bis die Verlage ihre Texte in einer vielleicht nur quartalsweise erscheinenden Publikation an die Kollegen bringen. Sie laden daher ihre Manuskripte auf so genannte Preprint-Server, um sie unmittelbar in die wissenschaftliche Diskussion einzubringen: Einer der größeren davon, der Los Alamos Physics Information Service mit der schönen Adresse xxx.lanl.gov, erhält täglich um die hundert Preprints, während seine Datenbank - ebenfalls täglich - mehr als 50.000 Zugriffe verzeichnet. Inzwischen hat sich ein - stellenweise noch etwas chaotisches - Netz solcher Server etabliert, das nahezu alle naturwissenschaftlichen Bereiche abdeckt. Die Gesellschaftswissenschaften ziehen, wenn auch etwas zögerlich, nach. Viele Wissenschaftler veröffentlichen ihre Texte inzwischen auf eigenen Homepages. Seit einigen Jahren schließlich entstehen echte Netzpublikationen: "Electronic Journals" legen Texte in abgeschlossener Form und auf Dauer ab; eine Veröffentlichung auf Papier ist nicht vorgesehen. Damit stehen die Wissenschaftsverlage, die sich bis eben noch im Besitz einer Gelddruckmaschine geglaubt hatten, plötzlich da wie die Heizer auf der E-Lok unseligen Angedenkens: Keiner braucht sie mehr. Die in die Defensive geratenen Verlage verweisen darauf; ihre Redaktionen organisierten in einem teils tatsächlich aufwendigen Verfahren Peer-Reviews: In den guten Blättern erscheint kein Beitrag, der nicht von mehreren anerkannten Fachkennern gegengelesen und oft auch auf Grund ihrer Hinweise umgearbeitet worden ist. Das überzeugt nur begrenzt. Auch den anerkannten Fachleuten sind in den vergangenen Jahren ziemlich viele bewusste Fälschungen durch die Lappen gegangen. Außerdem halten sich hartnäckig Gerüchte, dass um einige Zeitschriften Zitierkartelle und fragwürdige Strukturen entstanden sind, die ganz andere als Gesichtspunkte der Qualität zur Geltung bringen. Viel überzeugender ist: Was im Internet steht, setzt sich von Anfang an der Kritik sämtlicher Fachleute aus. Wenn jemand starke Thesen mit schwacher Begründung vorträgt, wird das im Netz schneller entdeckt und korrigiert als in der Welt periodischer Papier-Veröffentlichungen. Peer-Reviews und Versionsverwaltung lassen sich im Internet genauso gut organisieren wie mit Zeitschriften - und billiger zudem.
  11. Schürmann, M.: 404 File Not Found : Immer mehr Wissen wird immer schneller vergessen (2002) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 1156) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=1156,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 1156, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1156)
      0.25 = coord(1/4)
    
    Theme
    Information
  12. Lischka, K.: Archiv statt Deponie : Die US-Congressbibliothek soll das digitale Kulturerbe sichern - das dürfte teuer und schwierig werden (2003) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 1418) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=1418,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 1418, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1418)
      0.25 = coord(1/4)
    
    Content
    "Fast eine Million britische Schulkinder, Beamte und Journalisten haben im Jahr 1986 Informationen über ihr Land gesammelt. Sie trugen 250000 Ortsbeschreibungen zusammen, 50 000 Fotos, 25 000 Landkarten und eine nie quantifizierte Textmenge. Der Sender BBC wollte ein Dokument über den britischen Alltag jener Zeit für die Nachwelt schaffen. Etwa 2,5 Millionen Pfund kostete der Datenberg, der auf einer Videodisk gespeichert wurde. Die galt als unzerstörbar. War sie bis heute auch. Nur gab es 16 Jahre später im Jahr 2002 keinen Computer mehr, der das Material lesen kann. Denn der entsprechende BBC Micro-Rechner war schnell verschwunden, weil ein zu teurer Flop. Ähnlich könnte es dem digital vorliegenden, kulturellen Erbe der Menschheit ergehen, Das denkt zumindest die Mehrheit der US-Kongressabgeordneten. Sie haben der Kongressbibliothek für die Entwicklung eines Systems zur Sammlung und Katalogisierung digitaler Informationen 20 Millionen Dollar bewilligt. Weitere 75 Millionen könnten in den nächsten Jahren vom Staat dazukommen - wenn auch Sponsoren so viel Geld bringen. Halten die sich zurück, knausert auch der Staat beim "National Digital Information Infrastructure and Preservation Program" (NDIIPP). Deutsche Bibliothekare betrachten das Projekt mit gemischten Gefühlen. "Wir sehen neidisch, was in den USA mit Sponsoren möglich ist. Doch andererseits kann man den Erhalt des nationalen Kulturerbes nicht darauf gründen, dass in 50 Jahren noch Sponsoren dafür zu haben sind", erklärt Katrin Ansorge, Sprecherin der Deutschen Bibliothek (DDB). Die hat - noch - keinen gesetzlichen Sammelauftrag für digitale Dokumente, die nicht auf physischen Datenträgern wie CD-ROMs vorliegen. Doch Ansorge ist zuversichtlich, "dass der Bund das Gesetz noch in dieser Legislaturperiode anpasst". Bis dahin dürfte mehr Material verloren sein als beim Brand der Bibliothek von Alexandria. Nach einer Studie der US-Kongressbibliothek war die Hälfte des 1998 im Internet verfügbaren Materials 1999 wieder verschwunden. "Vieles davon war wichtiges, einzigartiges Material. das man nicht zurückholen kann, aber einst dringend suchen wird", sagt der Leiter der Kongressbibliothek, James H. Billington. Den hier wirkenden Widerspruch des Internets als Medium formuliert Franziska Nori, die wissenschaftliche Leiterin der Abteilung Digitalcraft am Frankfurter Museum für Angewandte Kunst (MAK): "Es ist kurzlebig, hat aber alle Bereiche unserer Gesellschaft einschneidend verändert." Einen kleinen Beitrag zur Archivierung digitalen Kunsthandwerks leistet das MAK mit seiner Sammlung Webdesign. Ausgewählte Seiten von Gestaltern, Agenturen, Onlinemagazinen und Angeboten für Kinder werden auf den Servern von Digitalcraft archiviert. Auch die DDB sammelt bestimmte Dokumente wie Onlinedissertationen, Habilitationen oder nur online verfügbare wissenschaftliche Magazine. Die vergleichsweise kleinen Projekte zeigen vor allem eines: Die Archivierung digitaler Dokumente ist teuer. Denn die Probleme sind komplexer und vor allem neuer als der am Papier nagende Säurefraß und die nötige systematische Katalogisierung gedruckter Werke. Die Probleme beginnen schon beim Sammeln. Die von privaten Stiftungen getragene US-Initiative "Internet Archive" speichert beispielsweise jeden Tag 400 Gigabyte an neuem Material. Ausgedruckt wären das mehr als 20 Buchregal-Kilometer. Um zusätzlichen Speicherplatz zu kaufen, gibt das "Internet Archive" jeden Monat etwa 40000 Euro aus. Die Wartung und vor allem die Katalogisierung des vorhandenen Bestands ist weit teurer. Dabei erfasst das "Internet Archive" nur alle zwei Monate komplett einen großen Ausschnitt des Webs. Mit Passworten geschützte Seiten bleiben ebenso außen vor wie Kommunikation in Chaträumen und E-Mails.
  13. Dodge, M.: What does the Internet look like, Jellyfish perhaps? : Exploring a visualization of the Internet by Young Hyun of CAIDA (2001) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 1554) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=1554,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 1554, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1554)
      0.25 = coord(1/4)
    
    Content
    "The Internet is often likened to an organic entity and this analogy seems particularly appropriate in the light of some striking new visualizations of the complex mesh of Internet pathways. The images are results of a new graph visualization tool, code-named Walrus, being developed by researcher, Young Hyun, at the Cooperative Association for Internet Data Analysis (CAIDA) [1]. Although Walrus is still in early days of development, I think these preliminary results are some of the most intriguing and evocative images of the Internet's structure that we have seen in last year or two. A few years back I spent an enjoyable afternoon at the Monterey Bay Aquarium and I particularly remember a stunning exhibit of jellyfish, which were illuminated with UV light to show their incredibly delicate organic structures, gently pulsing in tanks of inky black water. Jellyfish are some of the strangest, alien, and yet most beautiful, living creatures [2]. Having looked at the Walrus images I began to wonder, perhaps the backbone networks of the Internet look like jellyfish? The image above is a screengrab of a Walrus visualization of a huge graph. The graph data in this particular example depicts Internet topology, as measured by CAIDA's skitter monitor [3] based in London, showing 535,000-odd Internet nodes and over 600,000 links. The nodes, represented by the yellow dots, are a large sample of computers from across the whole range of Internet addresses. Walrus is an interactive visualization tool that allows the analyst to view massive graphs from any position. The graph is projected inside a 3D sphere using a special kind of space based hyperbolic geometry. This is a non-Euclidean space, which has useful distorting properties of making elements at the center of the display much larger than those on the periphery. You interact with the graph in Walrus by selecting a node of interest, which is smoothly moved into the center of the display, and that region of the graph becomes greatly enlarged, enabling you to focus on the fine detail. Yet the rest of the graph remains visible, providing valuable context of the overall structure. (There are some animations available on the website showing Walrus graphs being moved, which give some sense of what this is like.) Hyperbolic space projection is commonly know as "focus+context" in the field of information visualization and has been used to display all kinds of data that can be represented as large graphs in either two and three dimensions [4]. It can be thought of as a moveable fish-eye lens. The Walrus visualization tool draws much from the hyperbolic research by Tamara Munzner [5] as part of her PhD at Stanford. (Map of the Month examined some of Munzner's work from 1996 in an earlier article, Internet Arcs Around The Globe.) Walrus is being developed as a general-purpose visualization tool able to cope with massive directed graphs, in the order of a million nodes. Providing useful and interactively useable visualization of such large volumes of graph data is a tough challenge and is particularly apposite to the task of mapping of Internet backbone infrastructures. In a recent email Map of the Month asked Walrus developer Young Hyun what had been the hardest part of the project thus far. "The greatest difficulty was in determining precisely what Walrus should be about," said Hyun. Crucially "... we had to face the question of what it means to visualize a large graph. It would defeat the aim of a visualization to overload a user with the large volume of data that is likely to be associated with a large graph." I think the preliminary results available show that Walrus is heading in right direction tackling these challenges.
  14. Beuth, P.: ¬Das Netz der Welt : Lobos Webciety (2009) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 2136) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=2136,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 2136, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2136)
      0.25 = coord(1/4)
    
    Content
    Auch ambitionierte soziale Projekte können gelingen: Refunite.org ist eine Art Suchmaschine, mit der Flüchtlinge weltweit nach vermissten Familienangehörigen suchen können. Lobo nennt als Beispiel die englische Seite fixmystreet.co.uk. Dort tragen Menschen ihre Postleitzahl ein und weisen auf Straßenschäden oder fehlende Schilder hin, oft bebildert mit selbst geschossenen Fotos. Die Eingaben werden an die zuständige Behörde weitergeleitet, damit die weiß, wo sie Schlaglöcher ausbessern muss. Online steht dann nachzulesen, was alles in einem Stadtteil verbessert wurde - und was nicht. "Das ist ein relativ simples Tool, das aber die Fähigkeit des Netzes, Informationen zwischen den Menschen neu zu sortieren, dazu nutzt, die Welt tatsächlich zu verbessern", sagt Lobo. 2009 feiert die Cebit also, dass wir alle online sind. In zehn Jahren wird sie feiern, dass wir das gar nicht mehr merken, glaubt Lobo: "Ich bin überzeugt davon, dass wir noch vernetzter sein werden." Halbautomatische Kommunikation nennt er das. "Dass zum Beispiel mein Handy ständig kommuniziert, wo ich gerade bin und diese Information einem ausgewählten Personenkreis zugängig macht. Dass mein Kalender intelligent wird und meldet, dass ein Freund zur gleichen Zeit in der Stadt ist. Vielleicht schlägt er dann vor: ,Wollt ihr euch da nicht treffen?' Solche Funktionen werden so normal sein, dass man im Prinzip ständig online ist, ohne dass es sich so anfühlt." Teilweise gibt es so etwas schon. Google hat mit "Latitude" gerade einen Ortungsdienst fürs Handy vorgestellt. Die Software sorgt dafür, dass ausgewählten Personen per Google Maps angezeigt wird, wo sich der Handybesitzer gerade aufhält. Der technophile Obama würde den Dienst wahrscheinlich mögen. Doch der Geheimdienst NSA wollte ihm sogar schon den Blackberry wegnehmen - damit der mächtigste Mann der Welt eben nicht ständig geortet werden kann."
  15. Slatin, J.M.; Rush, S.: Maximum accessibility : Making your Web site more usable for everyone (2003) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 2996) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=2996,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 2996, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2996)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 55(2004) H.7, S.431-432 (W. Schweibenz): "Maximum Accessibility ist ein Buch, das die barrierefreie Zugänglichkeit (engl. accessibility) von Web-Sites für Menschen mit Behinderungen behandelt - ein Thema das im deutschsprachigen Raum noch zu wenig öffentliche Beachtung findet. Dabei gewinnt das Thema zunehmend an Aktualität. In Deutschland sind beispielsweise die Einrichtungen des Bundes bzw. der Länder betroffen, die Internet-Angebote unterhalten. Denn die Barrierefreie Informationstechnik-Verordnung - BITV für Bundesbehörden bzw. die Landesverordnungen für Landesbehörden und teilweise für Kommunen und Landkreise schreiben vor, dass bis zum 31. Dezember 2005 die Internet-Angebote der öffentlichen Hand (soweit die Verordnungen für sie gelten), barrierefrei zu gestalten sind. Weiterführende Informationen zu den juristischen Aspekten der Barrierefreiheit für die Bundesrepublik Deutschland bietet Drewes (2004a, 2004b) sowie die Web-Angebote der Initiativen Einfach für alle und WoB11. In der Schweiz regeln das Bundesgesetz über die Beseitigung von Benachteiligungen von Menschen mit Behinderungen sowie die zugehörige Behindertengleichstellungsverordnung Fragen zur Barrierefreiheit von Web-Angeboten. Dabei ist zu beachten, dass die schweizerischen Bestimmungen weiterreichend sind als die deutschen. So dürfen in der Schweiz private Anbieter, die Dienstleistungen öffentlich anbieten, Behinderte nicht diskriminieren. Daraus lässt sich jedoch kein direkter Anspruch auf Barrierefreiheit gegen private Anbieter ableiten. Für Österreich steht derzeit eine detaillierte gesetzliche Regelung der Barrierefreiheit noch aus, bisher ist im E-GovernmentGesetz lediglich eine Absichtserklärung ab dem Jahr 2008 enthalten. Eine gesetzliche Regelung ist aber zu erwarten, weil entsprechende Vorschriften der Europäischen Union barrierefreie Web-Angebote für die Verwaltungen ihrer Mitgliedsstaaten vorsehen. Umfangreiche und verständliche Informationen zum Thema Barrierefreiheit in deutscher Sprache bietet der Leitfaden des deutschen Bundesamts für Sicherheit in der Informationstechnik (2003). Einen Einstieg in die barrierefreie Web-Entwicklung bietet das Online-Tutorial von Jan Eric Hellbusch, das im Oktober 2004 als Buch erscheinen wird. Die Mailingliste Web Accessibility des Kompetenzzentrum BIKA-FIT des Fraunhofer-Instituts ist eine deutschsprachige Plattform für den Austausch zwischen Praktikern und Interessierten. Soweit die einführenden Worte, nun zum eigentlichen Thema, dem Buch Maximum Accessibility. Die Autoren, der blinde John Slatin und und die Web-Designerin Sharron Rush, legen Wert darauf festzustellen, dass es nicht darum geht, für eine kleine Gruppe von Benutzern einen zusätzlichen Aufwand bei der Erstellung von Web-Angeboten zu betreiben, sondern dass vielmehr eine sehr große Zahl von Benutzern betroffen ist, nämlich rund 54 Millionen Amerikaner und 37 Millionen Europäer. Darüber hinaus betonen die Autoren, dass Barrierefreiheit für alle Benutzer gleichermaßen wichtig ist, denn Web-Sites, die für Menschen mit Behinderungen einfach zu benutzen sind, sind es auch für alle Benutzer. Dies gilt auch für den Zugang mit mobilen Geräten, die auf textbasiertes Browsen angewiesen sind. Darüber hinaus sind barrierefreie Web-Seiten auch suchmaschinenoptimiert, weil ihre Inhalte für die Volltextindexierung optimal aufbereitet sind.
  16. Brennscheidt, A.: AskA-Services : Nicht-bibliothekarische Informationsdienstleister im Internet (2003) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 4615) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=4615,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 4615, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4615)
      0.25 = coord(1/4)
    
    Abstract
    "Librarians [...] are not the only ones attempting to assist users with their information needs in the electronic environment", schrieb Ann Marie Parsons im Januar 2001. "There are also 'Aska' services."' Doch was sind diese AskA-Services, diese nichtbibliothekarischen Informationsdienstleister im Internet?2 Wer betreibt sie und zu welchem Zweck? Welche Dienstleistungen bieten sie ihren Kunden? Nimmt ihre Zahl zu? Werden sie Bestand haben oder wieder aus dem WWW verschwinden? All diese Fragen versucht die vorliegende Arbeit zu beantworten. Sie richtet sich an interessierte Studierende und Lehrende des Bibliothekswesen sowie Bibliothekare in der Praxis. Da sich die bibliothekarische Fachwelt dieser Diskussion erst vor kurzem angenommen hat, besteht über die Bedeutung wichtiger Fachbegriffe bisher kein genereller Konsens. Deshalb werden der Begriff 'AskA-Service' und weitere Bezeichnungen aus seinem thematischen Umfeld im zweiten Kapitel definiert. Das dritte Kapitel versucht, die Entwicklung der nicht-bibliothekarischen Informationsdienste in den USA und in Deutschland nachzuzeichnen. Hierzu existieren nur wenige Quellen, sodass die Entwicklungslinien nur grob zu erkennen sind. Welche verschiedenen Arten von AskA-Services sich herausgebildet haben, versucht das vierte Kapitel darzustellen. Ihre Betreiber und die sie bewegenden Motive unterscheiden sich ebenso voneinander wie die eingesetzten Verfahren der Antworterteilung und die daran beteiligten Personen. Dies wurde bei der Durchsicht der spärlichen Literatur zu diesem Thema sowie bei eigenen Recherchen deutlich. Im fünften Kapitel werden mehrere AskA-Services als praktische Beispiele beschrieben. Dabei wurde darauf Wert gelegt, etablierte Services auszuwählen, die die verschiedenen Typen der nicht-bibliothekarischen Informationsdienste repräsentieren. Eine Ausnahme bildet der Dienst Google Answers, der wegen seines Bekanntheitsgrades aufgenommen wurde. Das Fazit greift die Leitfragen dieser Arbeit noch einmal auf. Außerdem werden zukünftig zu bearbeitende Problemstellungen aufgezeigt. Die vorliegende Arbeit ist in hohem Maße von der schwierigen Quellenlage zum Thema und der Unbeständigkeit des Internets geprägt. Gerade deswegen erscheint es wichtig, einen Zeitpunkt festzusetzen, der ihren Berichtsstand angibt. Entwicklungen und erscheinende Fachliteratur konnten über dieses Datum hinaus nicht mehr berücksichtigt werden. Der Großteil der Arbeit gibt den aktuellen Stand im Juli 2002 wieder. Das fünfte Kapitel baut dagegen auf Anfang August (Abschnitte 5.1 bis 5.4) bzw. Ende November 2002 (Abschnitt 5.5) erhobenen Daten auf. Bei dieser Arbeit handelt es sich um die überarbeitete Version einer im August 2002 an der Fachhochschule Köln vorgelegten Diplomarbeit im Fach Bibliothekswesen. Die Überarbeitung bestand vorwiegend darin, dass die Abschnitte 5.1.6 und 5.5 hinzugefügt wurden. Damit wurde der praktische Teil der Arbeit um eine Untersuchung des Services AskJeeves.com und die Beschreibung von Google Answers reicher. Der letztgenannte Dienst hat seit seinem Start im April 2002 für viel Wirbel gesorgt, weshalb es geboten schien, ihn in die Ausführungen aufzunehmen.

Years

Languages

Types

  • a 1835
  • m 209
  • s 89
  • el 58
  • r 16
  • x 9
  • b 4
  • i 4
  • ? 1
  • More… Less…

Themes

Subjects

Classifications