Search (116 results, page 2 of 6)

  • × theme_ss:"Internet"
  • × year_i:[2010 TO 2020}
  1. Janowitz, K.M.: Netnographie : Ethnographische Methoden im Internet und posttradtionale Vergemeinschaftungen (2013) 0.01
    0.00655154 = product of:
      0.0327577 = sum of:
        0.0327577 = weight(_text_:den in 931) [ClassicSimilarity], result of:
          0.0327577 = score(doc=931,freq=8.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.31667316 = fieldWeight in 931, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=931)
      0.2 = coord(1/5)
    
    Abstract
    Geht es um qualitative Forschung im Internet, gelangt man schnell zu den Methoden der Ethnographie. Während in den frühen Jahren des internets (als die "Neuen Medien" noch "neu" waren) das forschende Interesse v.a. dem Internet als einer eigenen - virtuellen - Welt ,in its own terms' galt, steht in den neueren Arbeiten der kulturelle Kontext, in dem Online-Interaktionen stattfinden und Sinn machen, im Vordergrund. Unabhängig voneinander wurden mehrfach auf das Internet anwendbare ethnographische Ansätze entwickelt. Die bekanntesten stammen von der britischen Soziologin Christine Hine ("Virtual Ethnography") und dem kanadischen Marketer Robert Kozinets ("Netnography"). Die Ansätze unterscheiden sich wenig in ihren Konzepten, mehr in ihren Anwendungsfeldern, die den unterschiedlichen Herkunftsfeldern ihrer Protagonisten entsprechen. Eng verbunden ist das Thema posttraditionaler Vergemeinschaftungen, die über das Internet entstehen, bzw. vorangetrieben werden. Die Teilhabe an Kommunikationsnetzwerken ermöglicht mehr und mehr deterritoriale Vergemeinschaftungen, wenn auch Vergemeinschaftung und soziale Bezüge nie ganz von räumlicher Nähe losgelöst sind. Posttraditionale Vergemeinschaftungen beruhen oft auf ästhetischen Präferenzen, einem als gemeinsam empfundenen Arbeits- und Lebensstil. ALs Prototypen im Internet können Fan-Communities gelten, aber auch translokale Arbeits- und Wissensgemeinschaften. Theoretischer Bezugsrahmen ist u.a. das Konzept des Neotribalismus von Michel Maffesoli ("Le temps des tribus"). In der Marktforschung wurden einzelne Spezikationen zur Netnographie entwickelt.
  2. Quattrociocchi, W.: "Fake news" in sozialen Netzwerken (2017) 0.01
    0.00655154 = product of:
      0.0327577 = sum of:
        0.0327577 = weight(_text_:den in 3630) [ClassicSimilarity], result of:
          0.0327577 = score(doc=3630,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.31667316 = fieldWeight in 3630, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.078125 = fieldNorm(doc=3630)
      0.2 = coord(1/5)
    
    Abstract
    Internetnutzer verbreiten in großem Umfang Falschmeldungen und abwegige Verschwörungstheorien. Statistische Untersuchungen von Inhalten auf Facebook zeigen das enorme Ausmaß der Entwicklung und liefern neue Einsichten zu den Mechanismen dieses beunruhigenden Phänomens.
  3. Friedrich, J.: Kritik der vernetzten Vernunft : Philosophie für Netzbewohner (2012) 0.01
    0.00655154 = product of:
      0.0327577 = sum of:
        0.0327577 = weight(_text_:den in 4024) [ClassicSimilarity], result of:
          0.0327577 = score(doc=4024,freq=8.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.31667316 = fieldWeight in 4024, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4024)
      0.2 = coord(1/5)
    
    Abstract
    Das Buch wendet sich an Menschen, die im Netz zu Hause sind, die nicht mehr zwischen online und offline unterscheiden, die in Blogs Kommentare posten und mit dem Kollegen über Fußball diskutieren, die Online-Zeitungen lesen und dabei mit dem Lebenspartner über das Wetter reden. Sie sind Netzwerker - nicht nur, wenn sie im Internet unterwegs sind. Ihr soziales Netz ist dicht geknüpft, die Online-Welt wird darin immer fester eingewoben. Sie ziehen ihr Wissen aus dem Netz, handeln in Netzwerken und indem sie sich vernetzen und sie hoffen auf Problemlösungen durch technische Vernetzungen. Netzwerke sind die Basis unserer modernen Welt, aber Netze machen diese Welt auch immer komplexer und undurchschaubarer. Das Buch widmet sich den Herausforderungen der Vernunft in der vernetzten Welt. Es sucht die Antworten auf die großen philosophischen Fragen von Immanuel Kant, die in die Welt der vernetzten Vernunft passen: - Wie hängt unser Wissen von den Techniken der Vernetzung ab, und warum glauben wir dem Netz oft mehr als den eigenen Erfahrungen? - Ist Handeln in einem richtungslosen Netz noch möglich, und kann man auch daraus ausbrechen, sich aus Knoten und Schlingen befreien? - Gibt das Netz uns Grund zur Hoffnung und wird eine Welt technischer Vernetzungen unsere Wünsche erfüllen? - Was macht den vernetzten Menschen aus, ändert er sein Wesen?
  4. Majica, M.: ¬Eine ganz große Nummer : dem User eröffnet die Umstellung viele ungekannte Möglicchkeiten - zumindest in Zukunft (2012) 0.01
    0.0065187 = product of:
      0.0325935 = sum of:
        0.0325935 = weight(_text_:den in 224) [ClassicSimilarity], result of:
          0.0325935 = score(doc=224,freq=22.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.3150858 = fieldWeight in 224, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0234375 = fieldNorm(doc=224)
      0.2 = coord(1/5)
    
    Abstract
    An diesem Mittwoch ändert sich die Architektur des World Wide Web: Provider, Betreiber von Webseiten und Hersteller von Computern und Smartphones stellen auf den neuen Adressstandard IPv6 um.
    Content
    "Nun beginnt für das Internet eine neue Zeitrechnung. Die Organisation Internet Society spricht von einem Meilenstein auf dem Weg in die Zukunft: Am 6. Juni wird das neue Internet Protocol Version 6 eingeführt, Insidern besser bekannt unter der Abkürzung IPv6. Für diese technische Neuerung wurde es nach Ansicht von Experten höchste Zeit. Wir dokumentieren die wichtigsten Fragen zum Start, dem IPv6 Launch Day. IPv6 kommt - wird alles anders? In den Maschinenräumen des Internets schon. Doch so groß die Veränderungen im Inneren auch sind: Äußerlich wird sich erst mal nichts ändern. Auf den ersten, zweiten und auch dritten Blick wird das Internet nach diesem 6. Juni genauso funktionieren wie sonst. Warum wird diese Umstellung überhaupt gemacht? Weil die bisherigen IP-Adressen knapp geworden sind. Mit dem bisher üblichen System können rund vier Milliarden Adressen ausgeben werden. Da die Zahl der weltweiten PC, Tablet-Computer, Smartphone, Spiele-Konsolen und ähnlichen Geräten rasant gestiegen ist, gibt es längst zu wenige Adressen. Bisher funktioniert das Internet nur deshalb meist reibungslos, weil all diese Geräte nicht gleichzeitig online sind.
    Wie viel mehr neue IP-Adressen sind denn nun möglich? Mit dem neuen IPv6 stehen 340 Sextillionen Adressen zur Verfügung - das ist eine 34 mit 37 Nullen. Das reicht zumindest fürs Erste. Was sind IP-Adressen überhaupt? Sie sind quasi die Adresse von Computern, an die Daten oder Anfragen geschickt werden. Jede Homepage hat eine eine solche Adresse, und jeder Internetnutzer auch. IP-Adressen in der bisher gängigen Version 4 bestehen aus vier Blöcken maximal dreistelliger Zahlen mit Werten zwischen 0 und 255. So hat etwa die Webseite des Chaos Computer Clubs die IP-Adresse 213.73.89.122. Da sich aber www.ccc.de leichter merken lässt, übersetzen sogenannte DNS-Server zwischen den Wort- und den Zahl-Adressen. Und was ist anders an IPv6? Die Adressen sehen zum einen anders aus: Der Wikipedia-Eintrag zu IPv6 findet sich etwa unter 2001:0db8:85a3:08d3:1319:8a2e:0370:7344. Zum anderen enthalten sie 128 Bit Information statt bisher 32 Bit. Dadurch vergrößert sich die Anzahl möglicher Adressen, der sogenannte Adressraum. Außerdem wird durch den neuartigen Aufbau auch die Verwaltung in den Innereien des Internets vereinfacht. Deshalb haben zahllose Unternehmen und Initiativen seit Jahren an der Einführung des neuen Protokolls gearbeitet. Große Software-Firmen wie Microsoft, Apple oder Google haben die meisten aktuellen Programme längst so überarbeitet, dass sie IPv6 "sprechen". Sind die alten Adressen damit überholt? Für einige Jahre werden beide Protokoll-Versionen parallel laufen, auch um einen reibungslosen Übergang zu gewährleisten. Die Netzbetreiber müssen sich bei der Umstellung auf IPv6 ohnehin erst vom Skelett des Internets zum einzelnen Kunden vorarbeiten. Während die zentrale Infrastruktur etwa bei der Telekom bereits IPv6 beherrsche, wie deren Sprecher Ralf Sauerzapf erläutert, soll es bis Ende dieses Jahres immerhin bei bis zu 800.000 Endkunden angekommen sein. Dies gelte aber nur für Kunden, die auf neue "IP-Anschlüsse" umstellen.
    Ist durch IPv6 mit Ausfällen und Problemen zu rechnen? Da die Umstellung seit längerem vorbereitet wurde und schrittweise umgesetzt wird, rechnen Experten nicht damit. An der Einführung beteiligen sich nun alleine in den USA eine ganze Reihe großer Netzbetreiber wie AT&T, aber auch Hardware-Hersteller wie Cisco und D-Link und große Internet-Konzerne wie Google, Facebook, Microsoft und Yahoo. Verändert sich für den Internet-Nutzer etwas im Alltag? Zunächst eher nicht, perspektiv aber schon. Durch die nahezu unendliche Zahl an Adressen entstehen neue Anwendungs-Möglichkeiten. Bisher werden in den meisten Netzwerken, etwa im heimischen W-Lan, regelmäßig neue IP-Adressen vergeben, um die beschränkten Ressourcen flexibel zu nutzen. In Zukunft könnte jedem einzelnen Gerät eine einzige IP-Adresse für seine gesamte Lebenszeit zugewiesen werden. Damit könnten auch Geräte wie ein Kühlschrank, die Heizungsanlage oder Stromzähler eine Adresse bekommen (siehe Text nebenan) und ansteuerbar sein. Jedoch wäre dann jedes Internet-Gerät eindeutig identifizierbar. Datenschützer haben deshalb bereits Protest angemeldet. Lassen sich IPv6-Adressen nicht anonymisieren, wie bei der Rufnummernunterdrückung? So etwas planen Netzbetreiber. Die Telekom hat etwa angekündigt, den Netzwerk-Teil am Anfang der Adresse alle 24 Stunden neu zu codieren, auf Wunsch des Nutzers auch häufiger. Der Betreiber 1&1 hat in einem Firmenblog angekündigt, auch mit IPv6 die Adressen dynamisch zu vergeben, also immer wieder neu. Zudem wird auf der Internetseite 1und1.de erläutert, wie man die Kennung des Endgerätes verschlüsselt, die in die zweite Hälfte der Adresse einfließt."
  5. Franz, G.: Interlingualer Wissensaustausch in der Wikipedia : Warum das Projekt noch kein (Welt-)Erfolg ist und von Möglichkeiten dies zu ändernStrategien im Angesicht der Globalisierung (2011) 0.01
    0.006485694 = product of:
      0.03242847 = sum of:
        0.03242847 = weight(_text_:den in 4506) [ClassicSimilarity], result of:
          0.03242847 = score(doc=4506,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.31349042 = fieldWeight in 4506, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4506)
      0.2 = coord(1/5)
    
    Abstract
    Die Wikipedia vermittelt das von vielen gesammelte Wissen in zahlreichen Sprachen über das Internet. Wenig bekannt ist allerdings, dass die einzelnen Wikipedia-Versionen weitgehend eigenständig und unabhängig voneinander sind. Nicht nur ihr Gesamtvolumen, auch die Anzahl der in ihnen enthaltenen Artikel, weist große Differenzen auf. Beiträge zu identischen Stichwörtern unterscheiden sich in Bezug auf die Länge, Struktur sowie den Inhalt häufig eklatant. Interlingualer Wissensaustausch könnte der Schlüssel sein, um brachliegende Informationen zu übertragen. Nach einer Beschreibung der derzeitigen Situation und bisheriger Ansätze, skizziert der auf einer Studienabschlussarbeit basierende Artikel WikiLINC, ein Konzept für den Transfer von Wissen innerhalb der verschiedenen Wikipedias.
  6. Böhm, P.; Rittberger, M.: Einsatz von Webanalyse in überregionalen Informationsinfrastruktureinrichtungen (2016) 0.01
    0.006485694 = product of:
      0.03242847 = sum of:
        0.03242847 = weight(_text_:den in 3239) [ClassicSimilarity], result of:
          0.03242847 = score(doc=3239,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.31349042 = fieldWeight in 3239, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3239)
      0.2 = coord(1/5)
    
    Abstract
    Um die Nutzung ihrer Informationsdienste und -angebote beurteilen zu können, setzen Informationsinfrastruktureinrichtungen der Leibniz-Gemeinschaft die Webanalyse ein. Sieben Leibniz-Informationsinfrastruktureinrichtungen wurden mit einem Online-Fragebogen und einem teilstandardisierten Interview zur Nutzung der Webanalyse befragt. Es werden die verwendeten Methoden, Werkzeuge und Metriken sowie die verfügbaren Ressourcen als auch die Zukunftsperspektive der Webanalyse an den Einrichtungen beschrieben. Insgesamt wird der Stellenwert der Webanalyse an den Instituten als hoch angesehen. Die bisher wenig ausgeprägte Standardisierung und die fehlende Einheitlichkeit der Metriken und Erhebungsmethoden erschweren einen möglichen Vergleich von Nutzungsdaten allerdings erheblich.
  7. EBSCO - Brockhaus : struktureller Wandel vom Bildungs- und Wissensanbieter (2017) 0.01
    0.006485694 = product of:
      0.03242847 = sum of:
        0.03242847 = weight(_text_:den in 3564) [ClassicSimilarity], result of:
          0.03242847 = score(doc=3564,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.31349042 = fieldWeight in 3564, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3564)
      0.2 = coord(1/5)
    
    Abstract
    Die Brockhaus Enzyklopädie wurde in den EBSCO Discovery Service integriert. Die Brockhaus Enzyklopädie als allgemeinbildendes Nachschlagewerk bietet den perfekten Startpunkt für jede Recherche. 1805 von Friedrich Arnold in Amsterdam gegründet, war Brockhaus über zwei Jahrhunderte hinweg der führende Herausgeber gedruckter Nachschlagewerke im deutschsprachigen Raum. 2002 startete Brockhaus seine erste digitale Enzyklopädier. 2008 wurde das Unternehmen an die Bertelsmann Gruppe verkauft, 2015 von der schwedischen NE Nationalencyklopedin AB übernommen. Dieses Unternehmen versorgt drei von vier schwedischen Schulen mit digitalen Diensten. Unter der Firmierung Brockhaus / NE GmbH wandelt sich das Unternehmen mit Nachschlagewerken und E-Learning-Angeboten vom Wissens- zum Bildungsanbieter.
  8. Majica, M.: Wenn der Kühlschrank online geht : Zugang zum Netz (2012) 0.01
    0.006066811 = product of:
      0.030334054 = sum of:
        0.030334054 = weight(_text_:den in 225) [ClassicSimilarity], result of:
          0.030334054 = score(doc=225,freq=14.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.29324344 = fieldWeight in 225, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.02734375 = fieldNorm(doc=225)
      0.2 = coord(1/5)
    
    Content
    "Was macht eigentlich Nabaztag? Eine Google-Suche lässt schnell erahnen, dass es dem Hasen mit den putzigen Ohren nicht gut geht. Es war im Jahr 2007 , da tourte der Franzose Rafi Haladjian durch die Welt, um die Menschheit davon zu überzeugen, dass ihr ein internetfähiger Hase gefehlt hat. Genauer: das Plastiktierchen Nabaztag, das sich ansprechen ließ und den Wetterbericht und E-Mails vorlesen konnte. "Wenn man Hasen vernetzt, ist das ein ironischer Weg zu zeigen, dass man alles vernetzen kann", sagte Haladjian damals. Seine Firma Violet meldete 2009 Insolvenz an. So absurd die Idee mit dem internetfähigen und vernetzten Hasen klingen mag - der Franzose ist mitnichten der Einzige, der in diese Richtung denkt. Unter dem Slogan "Internet der Dinge" tauchen immer wieder Ideen auf, mehr als den bisher üblichen Geräten Zugang zum Netz zu verschaffen. Da nun fast endlos viele IP-Adressen für wirklich jedes Gerät zur Verfügung stehen, rückt das wieder in den Blick. Vor allem im Haushalt fallen Designern immer wieder Gegenstände auf, bei denen eine Internetverbindung sinnvoll erscheint: etwa ein digitaler Bilderrahmen, der selbstständig Fotos aus Online-Fotodiensten herunterlädt. Noch genug Milch im Haus? Oder ein Familienkalender, auf den Vater, Mutter, Kinder und die Großeltern Zugriff von ihren Handys und Bürorechnern haben, so- dass abends beim Essen dann alle die eingetragenen Termine vor Augen haben. Fast zu einer Art Treppenwitz der Branche hat es der internetfähige Kühlschrank gebracht, der autonom etwa den Milch-Füllstand registriert und bei Bedarf über die Webseite des bevorzugten Einzelhändlers nachbestellt. "Das ist so eine Idee, wo sich viele Menschen sagen: Kühlschrank aufmachen, reingucken und notieren, was ich brauche - das kriege ich auch ohne Internet noch hin", sagt Ralf Sauerzapf. Er ist Sprecher bei der Telekom, also jenem Unternehmen, das vor sieben Jahren in Berlin auch schon einmal ein intelligentes Haus präsentiert hat - natürlich inklusive vernetztem Kühlschrank und per Smartphone einschaltbarer Waschmaschine. Trotzdem könnte das "Internet der Dinge" nun wieder interessant werden, glaubt Sauerzapf. Wenn durch die Vielzahl der verfügbaren neuen IP-Adressen theoretisch jedes Objekt vernetzt werden könne, seien beispielsweise intelligente Stromzähler denkbar. Deren "Schlauheit" könnte sich gleich in zwei Richtungen bemerkbar machen: Zum einen könnte beispielsweise der Stromverbrauch über das Internet so gesteuert werden, dass etwa die Spülmaschine dann eingeschaltet wird, wenn der Strom auf dem Markt am billigsten ist. Software erledigt Hasen-Job Zum anderen könnten die Energieerzeuger sehr genau den Verbrauch taxieren, aber auch die zahlreichen Einspeisungen. So wäre leichter zu koordinieren, wie viel Strom überhaupt zu welcher Zeit hergestellt werden muss. Solche Lösungen sind natürlich nicht so charmant wie ein Internet-Hase. Aber Mails und Wettervorhersagen liest mittlerweile Software wie Apples Siri vor. Die funktioniert gut - aber ein Paar langer Ohren stünden ihr auch nicht schlecht. Und wären auch eine Reminiszenz an Nabaztag."
  9. Berg, L.: Wie das Internet die Gesellschaft verändert : Google gründet ein Forschungsinstitut in Berlin (2011) 0.01
    0.0058963853 = product of:
      0.029481927 = sum of:
        0.029481927 = weight(_text_:den in 4552) [ClassicSimilarity], result of:
          0.029481927 = score(doc=4552,freq=18.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.2850058 = fieldWeight in 4552, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4552)
      0.2 = coord(1/5)
    
    Content
    "Vor zehn Jahren kannten nur Eingeweihte die Suchmaschine Google, heute ist das Googeln so selbstverständlich wie Kaffeetrinken. Am Aufstieg des kalifornischen Unternehmens ist ablesbar, wie sehr das Internet die Gesellschaft durchdrungen hat. Verändert hat sich aber auch das Image der US -amerikanischen Firma. Bis vor wenigen Jahren weckte der Name die Vorstellung von cleveren Computerfreaks, die der Welt freundlicherweise einen Weg durch den Informationsdschungel bahnen. Spätestens seit der Debatte um den Online-Straßenatlas Street View ist das Bild nicht mehr so positiv: Viele fürchten jetzt die unersättliche, machtbesessene Datenkrake. Besonders heftig war der Protest gegen Street View in Deutschland. Just hierzulande, in Berlin, fördert der Marktführer unter den Internet-Suchmaschinen nun den Aufbau eines sozial- wissenschaftlichen Forschungsinstituts, in dem es um "Internet und Gesellschaft" gehen soll. Eric Schmidt, der Ex-Vorstandsvorsitzende von Google, hatte die Gründung im Februar bei einem Vortrag an der Humboldt-Universität (HU) angekündigt. Im Senatssaal der Universität wurde das Projekt gestern bei einer sehr gut besuchten Pressekonferenz näher vorgestellt. Der ehemalige Google-Chef war nicht mehr angereist. Er grüßte aber per Videobotschaft und betonte, dass das neue Institut völlig unabhängig von Google arbeiten werde. Sein Unternehmen habe lediglich die Initiative ergriffen und stelle Geld bereit.
    Getragen wird das neue Forschungszentrum von den drei Berliner Institutionen Humboldt-Universität, Universität der Künste (UDK) und Wissenschaftszentrum Berlin für Sozialforschung (WZB). Kooperationspartner ist das Hans-Bredow-Institut für Medienforschung an der Universität Hamburg. Google Deutschland fördert das Projekt mit insgesamt 4,5 Millionen Euro zur Verfügung, in drei jährlichen Tranchen von je 1,5 Millionen Euro. Nach weiteren Kooperationspartnern und Finanziers wolle man suchen, hieß es auf der Pressekonferenz. Auch bei den beiden anderen Berliner Universitäten, Freie Universität und Technische Universität, sehe man "Andockstellen". - Unis und WZB als Träger Untergebracht wird das neue Institut in der Juristischen Fakultät der HU. Dort sind Büros für ein insgesamt zehnköpfiges Kernteam vorgesehen: für vier Direktoren, vier Mitarbeiter und zwei Geschäftsführer. Geplant ist auch die Gründung einer Graduate School, zunächst mit zwei Stellen für Doktoranden und weiteren Positionen für Postdoktoranden. Offizieller Arbeitsbeginn ist im Herbst, nach dem Auftakt mit einem internationalen Symposium über die sozialen Aspekte des Internets vom 25. bis 28. Oktober in Berlin. "Berlin ist die digitale Hauptstadt Deutschlands", begründete der Google-Sprecher Ralf Bremer die Standortwahl. Beeindruckend sei die Fülle von Startup-Unternehmen im Bereich der elektronischen Medien.
    Google pflege weltweit viele akademische Partnerschaften, allerdings fast ausnahmslos zu Fragen der Informationstechnik. Die Förderung eines sozialwissenschaftlichen Instituts sei für seine Firma ein Novum, betonte Bremer. Die Wahl sei auf Berlin gefallen, weil es hier sehr viel Kompetenz auf diesem Gebiet gebe. - Kreatives Schwarmverhalten An Ideen für künftige Projekte mangelt es nicht, das zeigten die Beiträge der künftigen Direktoren des Instituts auf der Pressekonferenz. Der HU-Rechtswissenschaftler Ingolf Pernice will zum Beispiel untersuchen, ob die Vorstellung vom Staat sich durch das Internet verändert. Eine fast ver- gessene Utopie, die globale Verfassung, sei durch das weltweite Netz wieder in den Bereich des Möglichen gerückt, sagte Pernice. Thomas Schildhauer, Informatiker an der Universität der Künste, möchte das kreative Schwarm- verhalten ausloten. Er berichtete vom 300-Dollar-Haus , das im Internet gemeinschaftlich für Krisengebiete entwickelt wird. Schildhauer sucht überdies nach Wegen, um die drohende Spaltung der Gesellschaft in Computerkundige und digitale Analphabeten zu verhindern.
    Auch der Jurist Wolfgang Schulz vom Hamburger Hans-Bredow-Institut interessiert sich für die Schwarmintelligenz: Warum nicht die Weisheit der Massen nutzen und Patente ins Internet stellen, um ihre Neuheit zu prüfen, schlug er vor. Die Politikwissenschaftlerin Jeanette Hofmann vom WZB beschäftigt sich bereits seit 15 Jahren wissenschaftlich mit dem Internet. Ihr geht es um die Regeln, die das Internet bestimmen - um technische Standards, aber auch um soziale Gepflogenheiten und kulturelle Normen. Mit den Mitteln des neuen Instituts will Jeanette Hofmann die Zukunft des Internets erforschen und dabei auch Fragen des Datenschutzes behandeln. Im Oktober, beim Symposium, sollen die Projektideen mit Kollegen aus aller Welt diskutiert werden. Um Doppelarbeit zu vermeiden, will man sich mit den führenden Einrichtungen auf diesem Gebiet abstimmen, etwa dem Berkman Center an der Harvard University und dem Oxford Internet Institute. Die Ergebnisse des neuen Berliner Instituts seien nicht für Google reserviert - "sie werden frei zugänglich im Internet publiziert", kündigte die WZB Chefin Jutta Allmendinger an. Das Engagement des Unternehmens sei lobenswert und es halte sich völlig aus der inhaltlichen Arbeit heraus: "Sonst hätten wir nicht mitgemacht.""
  10. Webwissenschaft : eine Einführung (2010) 0.01
    0.0056738 = product of:
      0.028369 = sum of:
        0.028369 = weight(_text_:den in 2870) [ClassicSimilarity], result of:
          0.028369 = score(doc=2870,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.274247 = fieldWeight in 2870, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2870)
      0.2 = coord(1/5)
    
    Abstract
    Das World Wide Web unterscheidet sich strukturell erheblich von den traditionellen Medien und hat das Mediensystem von Grund auf verändert. Radikal sind die Auswirkungen der webtechnischen Innovation sowohl für die Medienlandschaft und die Gesellschaft als auch für diejenigen Wissenschaften, die sich mit Medien - deren Geschichte, Inhalten, Formen, Technik, Wirkungen usf. - befassen. In dieser Einführung werden vor diesem Hintergrund einerseits Forschungsfragen einer zukünftigen Webwissenschaft auf einer übergeordneten Ebene diskutiert, andererseits werden die Perspektiven der relevanten Bezugswissenschaften integriert.
    Content
    Inhalt: Ist das Web ein Medium? --Konrad Scherfer Warum und zu welchem Zweck benötigen wir eine Webwissenschaft? 31- Helmut Volpers 'Diese Site wird nicht mehr gewartet'. Medienanalytische Perspektiven in den Medienwechseln - Rainer Leschke Emergente Öffentlichkeit? Bausteine zu einer Theorie der Weböffentlichkeit - Christoph Ernst Das ICH im Web - Auswirkungen virtueller Identitäten auf soziale Beziehungen - Helmut Volpers / Karin Wunder Technikgeschichte des Webs - Tom Alby Visuelles Denken im Interaktions- und Webdesign - Cyrus Khazaeli Das fotografische Bild im Web - Anja Bohnhof / Kolja Kracht Qualität im Web - Interdisziplinäre Website-Bewertung - David Kratz Für eine neue Poesie der Neugier. Das Web verändert den Journalismus - nicht nur online - Mercedes Bunz Das Web braucht Spezialisten, keine Generalisten. Zur Notwendigkeit einer webspezifischen Professionalisierung in der Ausbildung - Petra Werner Online-Forschung im Web - Methodenschwerpunkte im Überblick - Simone Fühles-Ubach Im Spiel der Moden? - Das Web in der Wirtschaft, die Wirtschaft im Web - Jörg Hoewner Medizin im Web - Martina Waitz Das Web und das Medienrecht - Bernd Holznagel / Thorsten Ricke Suchmaschinenforschung im Kontext einer zukünftigen Webwissenschaft - Dirk Lewandowski
  11. Schillinger, T.; Winterschladen, S.: Was die Welt zusammenhält : Sieben Menschen schützen das Internet (2010) 0.01
    0.0056738 = product of:
      0.028369 = sum of:
        0.028369 = weight(_text_:den in 3718) [ClassicSimilarity], result of:
          0.028369 = score(doc=3718,freq=24.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.274247 = fieldWeight in 3718, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3718)
      0.2 = coord(1/5)
    
    Content
    "Die Geschichte klingt wie eine Verschwörungstheorie oder ein Endzeit-Thriller. Es geht um das Internet. Es geht um sieben Menschen. Es geht um sieben Schlüssel, mit denen die Hüter das World Wide Web retten können. Der Plot geht so: Im Falle eines Cyberangriffs kommen die Bewahrer an einem geheimen Ort in den USA zusammen, um dort das Internet neu zu starten. So fiktiv es sich anhört: Seit vergangener Woche, mit Einführung des Online-Sicherheitssystems DNSSEC (Domain Name System Security), gibt es dieses geheimnisvolle Team tatsächlich. Das Internet ist ein verführerisches Ziel für Attacken. Mehr als zwei Drittel aller Deutschen sind online, weltweit jeder Fünfte. Online-Banking, Internetauktionen, soziale Netzwerke wie Facebook und Twitter - ein großer Teil unseres Lebens spielt sich in der virtuellen Welt ab. "Wenn das Internet weltweit lahm gelegt ist, ist die Welt lahm gelegt", sagt Isabell Unseld vom Anti-Viren-Spezialisten McAfee. Kaum vorstellbar, wenn Kriminelle diese Schwäche ausnutzen könnten. An diesem Punkt der Geschichte kommen die sieben Herrscher über das Internet wieder ins Spiel. Sie leben in Tschechien, Kanada, China, Trinidad Tobago, Burkina Faso, USA und Großbritannien. Einer von ihnen hat sich jetzt verraten. Paul Kane, ein Engländer, hat erzählt, dass er seinen Schlüssel in einer bombensicheren Tasche in einem Tresor aufbewahre.
    Dass es die sieben Retter tatsächlich gibt, sagt auch Costin Raiu, Chef des weltweiten Virenanalystenteams der Internet-Sicherheitsfirma Kaspersky: "Das ist kein Märchen, das ist wirklich so. Ich habe zwar noch keinen persönlich kennen gelernt, weil sie im Verborgenen agieren. Aber dass es sie gibt, ist bestätigt." Sollte einmal das Netz beschädigt werden müssen fünf der sieben Auserwählten zusammenkommen, um mit ihren Freischalt-Karten gemeinsam die Cyberattacke abzuwehren. Das hat die Non-Profit-Organisation ICANN bekanntgegeben, die als eine Art Weltregierung des Netzes gilt. Dass es technisch gar nicht so kompliziert ist, das Internet grundlegend zu stören, weiß man seit rund zwei Jahren, als Sicherheitsexperten ein kritisches Problem beim so genannten Domain Name System (DNS) ausmachten. Das DNS ist dafür zuständig, die Ziffern-Adresse einer Internetseite mit einem für den Nutzer leicht merkbaren Namen zu verknüpfen. "Bislang war es Kriminellen möglich, sich bei diesem Schritt dazwischen zu schalten, um damit Firmen auszuspionieren oder im einfachsten Fall Suchanfragen auf eine Seite lenken, um damit Aufmerksamkeit zur erregen", sagt Jürgen Kuri, Internetexperte der Computer-Fachzeitschrift CT.
    Mit der Einführung des Online-Sicherheitssystems DNSSEC am 15. Juli, soll gewährleistet werden, dass sich bei der Eingabe einer Adresse tatsächlich nur der angesteuerte Server meldet. Jeder Server erhält einen digitalen Ausweis. Die Namen werden auf 13 Servern auf der Welt verwaltet. Was das alles mit den sieben Schlüsselträgern zu tun hat? Sie kämen zum Einsatz, wenn der Masterschlüssel, der die Namen codiert, geknackt wird. Durch das Zusammenführen ihrer Schlüssel können sie einen neuen Mastercode erzeugen. Gegen eine physische Zerstörung kann aber auch der Geheimbund nichts tun. Sollten die wichtigsten Server zerstört oder Tiefseekabel gekappt werden, wären sie machtlos. Dass es Terroristen aber gelingt alle wichtigen Server und Kabel auf einmal auszuschalten, ist sehr unwahrscheinlich."
    "Gefährlicher Alltag Sicherheit und Überlegenheit in Forschung, Wirtschaft und Militär waren Antriebe für die Entwicklung des Internets und sie sind zugleich auch eine Gefahr für die Online-Nutzer. Seit in fast allen Büros in den Industrie- und Schwellenländern Computer mit Internetanschluss stehen, spähen Datendiebe im Auftrag von Staaten und Firmen Forschungsinformationen oder Regierungspläne aus. Cyberwar ist kein Kino mehr, es ist Alltag. Das Bundesamt für Sicherheit und Informationstechnik und der Verfassungsschutz warnen regelmäßig vor Angriffen auf die Computer der Bundesbehörden. Vornehmlich handelt es sich um Versuche, sensible Berichte zu erhalten. Forschungsinstitute und forschende Unternehmen sind ebenso Ziel von Spionageangriffen aus dem Netz. Aufgrund der Sensibilität des Internets ernannte beispielsweise US-Präsident Barack Obama Cybersicherheit zu einer der wichtigsten Aufgabe innerhalb der Landesverteidigung. Dieses Vorgehen dürfte nicht zuletzt auch aus der Erfahrung der USA selbst resultieren, die im Kosovo-Krieg auch Cyber-Waffen eingesetzt haben sollen: Manipulation von Luftabwehr und Telefonnetzen sowie von Bankkonten."
    "Welt-weite-Wirtschaft Innovativ und erfolgreich sein, bedeutet schnell sein - und nichts hat Wirtschaft und Forschung in den vergangenen Jahren so extrem beschleunigt wie das Internet. Ingenieure in Indien und den USA arbeiten mittels virtueller Produktmodelle gemeinsam an der Entwicklung eines neuen Autos, Manager beraten sich per Videokonferenz, Forscher tauschen Datensätze per Mausklick aus. Nicht nur die großen Konzerne haben die Vorteile einer vernetzten Welt erkannt. Laut einer Studie des Netzwerks Elektronischer Geschäftsverkehr nutzten 2008 in Deutschland rund 71 Prozent der kleinen und mittleren Unternehmen das Internet zur Kundenbetreuung und sogar 90 Prozent zum Datenaustausch. Arbeitsabläufe verändern sich und schaffen neue Beschäftigungsfelder für Webdesigner, Software-Entwickler oder Programmierer. Ganze Wirtschaftszweige wandern ins Netz, der Online-Handel blüht. 2009 etwa betrug der Anteil des Internethandels am Gesamt-Versandhandel erstmals über 50 Prozent - die Deutschen gaben mit 15,4 Milliarden Euro rund 15 Prozent mehr im Internet aus als noch ein Jahr zuvor, zeigt eine Studie von TNS Infratest. Alleine der weltweite Marktführer Amazon setzte 2009 rund 25 Milliarden Dollar um."
    "Am Anfang war der Schock Ohne Satelliten gäbe es womöglich gar kein Internet. Denn als Antwort auf den Sputnik-Schock gründet die US-Regierung 1957 ihre neues Forschungszentrum Arpa (Advanced Research Projects Agency). Nachdem die Wissenschaftler in 18 Monaten den ersten US-Satelliten gebaut haben, entwicklen sie Computernetzwerke. Die Dezentralität ist ihnen besonders wichtig. Die verschickten Informationen werden in Pakete zerteilt und über verschiedene Wege zum Empfänger geschickt. Fällt unterwegs ein Knoten aus, etwa im Krieg, suchen sich die Teile der Botschaft den unbeschädigten Weg. Die Kommunikation ist so kaum zu unterbinden. Das Arpanet gilt als die Geburtsstunde des Internet. Die Universität Los Angeles (UCLA) verbindet sich 1969 mit dem Rechner von Stanford. Als erste Botschaft ist das Wort "login" verabredet. Doch nach dem L und dem O ist Schluss. Die Verbindung ist zusammengebrochen, die Revolution hat begonnen. Über das rasant wachsende Netz tauschen sich Forscher aus. Damals lässt sich das Netz aber nur von Profis nutzen. Erst mit der Entwicklung des World Wide Web am Kernforschungszentrum Cern bekommt das Netz Anfang der 90er Jahre das Gesicht, das wir heute kennen."
    "Meeres-Browsen Satellit hin, Satellit her: Die Datenströme dieser Welt laufen nach wie vor durchs gute alte Tiefseekabel. Allein die Glasfaserkabel, die auf den Meeresböden liegen, summieren sich auf eine Gesamtlänge von rund 850 000 Kilometer. 95 Prozent des grenzüberschreitenden Datenverkehrs werden über die Verbindungen unter der Wasseroberfläche abgewickelt. Die Entscheidung fürs Kabel und gegen den Satellit hat drei Gründe: Der Kabelweg ist billiger, weniger störanfällig und kann weit größere Datenmengen bewältigen. Google hat die Verlegung des 9600 Kilometer Unity-Kabels mitfinanziert, das seit April Japan mit der Westküste der USA verbindet. Es hat 230 Millionen Euro gekostet und kann 4,8 Terabits (oder umgerechnet den Inhalt von 8000 CDs) pro Sekunde transportieren. Angeblich nutzt Google 20 Prozent der Datenkapazität des Kabels. 70 Prozent der Schäden an Tiefseekabeln werden von Fischernetzen und Ankern verursacht. Das erste transatlantische Kabel wurde 1858 zwischen Irland und Neufundland verlegt und diente der Telegrafie."
  12. Neumann, A.: ¬Die Bibliothek in der Hosentasche : der OPACplus mobil der Bayerischen Staatsbibliothek (2010) 0.01
    0.0056738 = product of:
      0.028369 = sum of:
        0.028369 = weight(_text_:den in 4086) [ClassicSimilarity], result of:
          0.028369 = score(doc=4086,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.274247 = fieldWeight in 4086, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4086)
      0.2 = coord(1/5)
    
    Abstract
    Der Verein Zukunftswerkstatt Kultur- und Wissensvermittlung e. V beschäftigt sich mit der Frage, wie kulturelle und wissenschaftliche Inhalte in der Zukunft vermittelt werden. Eines der großen Zukunftsthemen, dem sich auch die Bibliotheken stellen müssen, ist das mobile Internet. Immer mehr Menschen nutzen Smartphones wie das iPhone von Apple oder das Nexus One von Google. Alle diese Nutzer haben das Internet in der Hosentasche. Es ist nicht mehr der Nutzer, sondern das Internet selbst, das mobil geworden ist. Wie nie zuvor ist es Bestandteil des täglichen Lebens geworden. Die Zukunftswerkstatt hat hierzu unterschiedliche Aktivitäten gestartet-zum Beispiel auf dem diesjährigen Bibliothekskongress in Leipzig ein sogenanntes Smartphone-Happening: Jeder Besucher des Kongresses konnte vorbeikommen und ein oder mehrere Angebote aus der Welt der Apps vorstellen. Eines der Projekte, die bei diesem erfolgreichen Happening präsentiert wurden, war der mobile Opac der Bayerischen Staatsbibliothek. Dabei gefiel nicht nur das Produkt an sich, sondern auch die Herangehensweise bei dessen Entwicklung, wie im folgende Beitrag zu sehen ist: Seit Anfang März 2010 verfügt die Bayerische Staatsbibliothek über eine mobile Version ihres Opacs, den OPACplus mobil. Anstatt einer eigenständigen Anwendung wurde ein Modul entwickelt, das den bestehenden Opac um die für eine mobile Anwendung benötigten Funktionen erweitert.
    Footnote
    Vgl. auch: Ceynowa, K.: Die Bayerische Staatsbibliothek im mobilen Internet: Innovative Informationsangebote für Smartphone und iPad. In: Bibliotheksmagazin: Mitteilungen aus den Staatsbibliotheken in Berlin und München. 2010, H.3, S.3-6.
  13. Klauser, H.: Freiheit oder totale Kontrolle : das Internet und die Grundrechte (2012) 0.01
    0.0056738 = product of:
      0.028369 = sum of:
        0.028369 = weight(_text_:den in 338) [ClassicSimilarity], result of:
          0.028369 = score(doc=338,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.274247 = fieldWeight in 338, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=338)
      0.2 = coord(1/5)
    
    Abstract
    Zum 7. Mal wird Anfang November 2012 das Internet Governance Forum (IGF) stattfinden, das die Steuerung und Entwicklung des Internets auf globaler Ebene thematisiert. In diesem Jahr wird der "Weltgipfel des Internet" in Baku, Aserbaidschan, stattfinden und Vertreter aus Politik, Privatwirtschaft, internationalen Organisationen und der Zivilgesellschaft zusammenführen. Auch der internationale Bibliotheksverband IFLA wird wie in den Vorjahren wieder dabei sein, um die bedeutende Rolle von Bibliotheken in der modernen Informationsgesellschaft in die Diskussionen einzubringen. Resultierend aus den beiden Weltgipfeln zur Informationsgesellschaft (WSIS) 2003 in Genf und 2005 in Tunis, die erstmals Themen wie Information und Kommunikation und die globale Informationsgesellschaft diskutierten, entstand das Internet Governance Forum, das 2006 formell vom Generalsekretär der Vereinten Nationen ohne eigene Entscheidungsbefugnis einberufen wurde und dessen Aufgabe es ist, eine Vielzahl von Themen des Internets wie Urheberrechtsfragen, Überwindung der digitalen Spaltung, Schutz der Privatsphäre und Freiheit der Meinungsäußerung im Netz zu diskutieren. Das Thema für die Konferenz in Baku lautet "Internet Governance for Sustainable Human, Economic and Social Development". Verschiedene Länder und Regionen der Welt, so auch Europa und u.a. USA, Dänemark, Italien, Russland, Ukraine, Finnland, Schweden, Spanien und auch Deutschland haben regionale und nationale IGF-Initiativen gegründet, um die Diskussionen der Jahrestreffen auf nationaler oder regionaler Ebene vorzubereiten. Am 7. Mai 2012 kamen in Berlin rund 80 deutsche Vertreter aus Politik, der Zivilgesellschaft, aus Verbänden und der Wirtschaft zum 4. deutschen Internet Governance Forum in Berlin zusammen, um zu dem Thema "Das Verhältnis von Internet und den Grund- und Menschenrechten" die Stichpunkte aus deutscher Sicht für die Teilnahme in Baku zusammenzutragen.
  14. Boss, C.: Konzeption und Aufbereitung kuratierter Twitter-Listen als Recherchewerkzeug (2017) 0.01
    0.0056738 = product of:
      0.028369 = sum of:
        0.028369 = weight(_text_:den in 3724) [ClassicSimilarity], result of:
          0.028369 = score(doc=3724,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.274247 = fieldWeight in 3724, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3724)
      0.2 = coord(1/5)
    
    Abstract
    Meist reicht ein Blick in die Nachrichten und es wird schnell klar - Inhalte aus sozialen Medien haben einen festen Platz in der Berichterstattung eingenommen. Redakteure binden Fotos von Facebook oder Instagram in Beiträge ein, zeigen Videos von YouTube oder Snapchat und zitieren Tweets. So genannte "Netzreaktionen" und User Generated Content sind seit Langem fester Bestandteil journalistischer Formate. Soziale Netzwerke dienen aber nicht nur der Anreicherung von Beiträgen mit Bildmaterial. Worüber das Netz diskutiert, was gerade "viral" ist und sich überdurchschnittlich schnell in den Communities des World Wide Web verbreitet , dient auch als Trendbarometer und Fundus für die Themenfindung. Aber nicht alles ist bekanntlich Gold, was glänzt. Denn während soziale Netzwerke einerseits wie eine schier unerschöpfliche Quelle quotenträchtiger Stoffe anmuten, so bergen sie doch andererseits einige Hindernisse und Stolpersteine auf dem Weg zum vermeintlich strahlenden Content. Da wäre zum einen die schiere Masse an Posts und Tweets, an Snaps und Live­Videos. So offenbart allein die Nutzerstatistik der Plattform Twitter aus dem Jahr 2016 eine Bilanz von etwa 500 Millionen Tweets - täglich. Zum anderen müssen authentische Inhalte von Spam und Fakes getrennt werden. Journalisten - und alle, die sie bei ihrer Tätigkeit unterstützen - stehen also vor der nicht zu unterschätzenden Herausforderung, soziale Medien effizient zu beobachten, in ihnen zu recherchieren sowie interessante und gleichzeitig echte Inhalte zu selektieren. An die Kuration (lat. curare = sorgen, sich kümmern) von Webinhalten werden bestimmte Erwartungen gestellt. Sie erfordert Expertenwissen auf den abgedeckten Gebieten, ein gutes Informationsmanagement, eine enge Vernetzung mit Quellen und Kanälen sowie die Fähigkeit, den Überblick zu behalten.
  15. Pasquinelli, M.: Die Regierung des digitalen Mehrwerts : Von der Netz-Gesellschaft zur Gesellschaft der Metadaten (2010) 0.01
    0.0056738 = product of:
      0.028369 = sum of:
        0.028369 = weight(_text_:den in 5192) [ClassicSimilarity], result of:
          0.028369 = score(doc=5192,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.274247 = fieldWeight in 5192, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5192)
      0.2 = coord(1/5)
    
    Abstract
    In einer Zukunftsvision der kalifornischen Technokultur wird die Singularitätmärchenhaft als der Moment verklärt, in dem die Fortschritte der Vernetzung und Rechenleistung darin gipfeln werden, dass Computer "Bewusstsein" und Unabhängigkeit vom Menschen erlangen.2 Der Mythos, dass die Maschinen eines Tages die Kontrolle über genau jene Menschheit übernehmen werden, der sie ihre Existenz verdanken, ist nach einem Jahrhundert Science-Fiction, von Samuel Butlers Roman Erewhon aus dem Jahr 1872 (der unter anderem Gilles Deleuze und Felix Guattari zu ihrem Begriff der Maschine angeregt hat) bis zum Film Matrix von 1999, zum Volks-Aberglauben geworden. Derartige dystopische und eindeutig reaktionäre Visionen bilden nicht nur den gegenwärtigen Konflikt zwischen kollektivem Körper und maschineller Ausbeutung ab, sondern stützen sich auch unverkennbar auf die techno-deterministische Annahme einer Autonomie der Maschinen von der politischen Macht des Sozialen. Am Begriff der Singularität lässt sich beispielhaft zeigen, wo das Netz seine Grenzen findet, wo Momente des Bruchs auftreten, und wo Transformationen zu neuen technologischen und sozialen Konfiguration stattfinden. Die Geschichte der Medien ist eine Geschichte der kontinuierlichen Akkumulation von Energie, eine Geschichte von Paradigmen-Brüchen und von Übergängen durch Momente der Singularität. Dabei reproduziert sich ein und dieselbe Ökonomie über alle Abfolgen von Krisen und Brüchen hinweg, von einer Produktionsform zur anderen, so dass man beinahe den Moment der Singularität selbst als das bestimmende Modell der Ökonomie betrachten könnte, die sich ja aus den Effekten der Akkumulation und der Verwandlung von einfachem Geld in Finanzkapital speist.
  16. Moll, S.: ¬Der Urknall des Internets : 20 Jahre WWW (2011) 0.01
    0.0056167752 = product of:
      0.028083876 = sum of:
        0.028083876 = weight(_text_:den in 3720) [ClassicSimilarity], result of:
          0.028083876 = score(doc=3720,freq=12.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.27149066 = fieldWeight in 3720, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3720)
      0.2 = coord(1/5)
    
    Content
    "Alle großen Erfindungen der Menschheitsgeschichte haben einen Entstehungsmythos. Einsteins Trambahnfahrt durch Zürich beispielsweise oder der berühmte Apfel, der Newton angeblich auf den Kopf gefallen ist. Als Tim Berners-Lee, damals Physikstudent in Manchester, Mitte der 70er Jahre mit seinem Vater in einem Stadtpark unter einem Baum saß, unterhielten sich die beiden darüber, dass sie doch in ihrem Garten auch einen solchen Baum gebrauchen könnten. Der Vater, ein Mathematiker, der an einem der ersten kommerziell genutzten Computer der Welt arbeitete, bemerkte, dass die Fähigkeit, die abstrakte Idee eines schattigen Baumes auf einen anderen Ort zu übertragen, doch eine einmalig menschliche sei. Computer könnten so etwas nicht. Das Problem ließ Berners-Lee nicht los. Deshalb suchte er, während er in den 80er Jahren als Berater am europäischen Labor für Quantenphysik (CERN) in der Schweiz arbeitete, noch immer nach einem Weg, seinem Computer beizubringen, Verbindungen zwischen den disparaten Dokumenten und Notizen auf seiner Festplatte herzustellen. Er entwarf deshalb ein System, das heute so alltäglich ist, wie Kleingeld. Lee stellte eine direkte Verknüpfung her zwischen Wörtern und Begriffen in Dokumenten und den gleichen Begriffen in anderen Dokumenten: Der Link war geboren.
    Aus dieser Erfindung ergaben sich ganz unmittelbar schier unbegrenzte Möglichkeiten. Wie wäre es, wenn er seine Daten mit denen der anderen Wissenschaftler am CERN würde vernetzen können, ohne die mühsame Arbeit, zentrale Datenbanken anzulegen? Und wie wäre es, wenn die CERN-Wissenschaftler sich auf diese Art mit Wissenschaftlern auf der ganzen Welt verlinken könnten? Lee machte sich ans Werk und entwickelte ein Code System, mit dessen Hilfe verschiedenartige Datensätze kompatibel gemacht werden konnten. Daraus entstand die Lingua Franca des Internet, HTML: Er schrieb eine Art Regelwerk, nach dem Dokumente quer durch das Internet verlinkt werden konnten - jene Prinzipien, die wir heute als HTTP kennen. Und schließlich baute er auch noch den ersten Browser der Geschichte. Am 6. August 1991 stellte Lee in einem bemerkenswert unbemerkenswerten Akt seine Erfindung der Welt vor. Er stellte eine kurze Notiz in die newsgroup alt.hypertext, wo man Browser und Server herunterladen konnte. Das Internet explodierte praktisch sofort. Innerhalb von fünf Jahren wuchs die Benutzerzahl von 600 000 auf 40 Millionen.
    Lee hätte mit der Idee vermutlich Milliarden verdienen können. Doch das widersprach von Anfang an seiner Philosophie des Internets. Für Lee war das Internet stets Mittel zur Demokratisierung von Information und zur Beschleunigung des Fortschritts. Der Erfinder des Netzes war auch der erste Open Source-Radikale: Jede Form der Zugangsbeschränkung, ob zu kommerziellen oder zu irgendwelchen anderen Zwecken, lehnte er strikt ab. Heute arbeitet Lee an der Bostoner Eliteuniversität MIT daran, die Protokolle von Netscape und Microsoft zu standardisieren, damit Patentstreitigkeiten den Fortschritt ins Web 3.0 nicht aufhalten. Nebenbei berät er die britische Regierung dabei, Regierungsdaten zu veröffentlichen, um ein öffentliches Mitwirken an der Lösung von Verwaltungsproblemen zu ermöglichen. Das Freisetzen von Daten, davon ist Lee überzeugt, wird von ganz alleine das Gemeinwohl voranbringen. Das Netz ist für ihn ein reiner Segen der Menschheit. "Innovation ist Zufall. Man weiß nie, was Leute mit Informationen machen", sagte er jüngst. Wichtig sei alleine, dass man die Gelegenheit schafft, neue und originelle Verbindungen zu ziehen. Etwa so, wie einen Baum dorthin zu pflanzen, wo er gebraucht wird. Oder das Internet zu erfinden."
  17. Nejdl, W.; Risse, T.: Herausforderungen für die nationale, regionale und thematische Webarchivierung und deren Nutzung (2015) 0.01
    0.0055591664 = product of:
      0.02779583 = sum of:
        0.02779583 = weight(_text_:den in 2531) [ClassicSimilarity], result of:
          0.02779583 = score(doc=2531,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.26870608 = fieldWeight in 2531, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=2531)
      0.2 = coord(1/5)
    
    Abstract
    Das World Wide Web ist als weltweites Informations- und Kommunikationsmedium etabliert. Neue Technologien erweitern regelmäßig die Nutzungsformen und erlauben es auch unerfahrenen Nutzern, Inhalte zu publizieren oder an Diskussionen teilzunehmen. Daher wird das Web auch als eine gute Dokumentation der heutigen Gesellschaft angesehen. Aufgrund seiner Dynamik sind die Inhalte des Web vergänglich und neue Technologien und Nutzungsformen stellen regelmäßig neue Herausforderungen an die Sammlung von Webinhalten für die Webarchivierung. Dominierten in den Anfangstagen der Webarchivierung noch statische Seiten, so hat man es heute häufig mit dynamisch generierten Inhalten zu tun, die Informationen aus verschiedenen Quellen integrieren. Neben dem klassischen domainorientieren Webharvesting kann auch ein steigendes Interesse aus verschiedenen Forschungsdisziplinen an thematischen Webkollektionen und deren Nutzung und Exploration beobachtet werden. In diesem Artikel werden einige Herausforderungen und Lösungsansätze für die Sammlung von thematischen und dynamischen Inhalten aus dem Web und den sozialen Medien vorgestellt. Des Weiteren werden aktuelle Probleme der wissenschaftlichen Nutzung diskutiert und gezeigt, wie Webarchive und andere temporale Kollektionen besser durchsucht werden können.
  18. Kainz, M.: Globale Vernetzung - globale Identität? : Kulturelle Identitätskonstruktionen im Zeitalter digitaler Technologien (2018) 0.01
    0.0055591664 = product of:
      0.02779583 = sum of:
        0.02779583 = weight(_text_:den in 343) [ClassicSimilarity], result of:
          0.02779583 = score(doc=343,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.26870608 = fieldWeight in 343, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=343)
      0.2 = coord(1/5)
    
    Abstract
    Die fortschreitende Nutzung digitaler Kommunikationstechnologien nicht nur in der industrialisierten Welt, sondern zunehmend auch in Ländern des globalen Südens, erfordert eine Neuorientierung in der Betrachtungsweise dessen, was den Menschen als Individuum und soziales Wesen ausmacht. Das vorliegende Buch möchte zu dieser Neubestimmung der Identität des Menschen in einer globalisierten Welt einen Beitrag leisten. Der Fokus liegt dabei auf jenen Aspekten der globalen Vernetzung, die grundlegende Veränderungen von Identiätskonstruktionen des Einzelnen nach sich ziehen. Im Zentrum stehen neue Formen der Identitätsgestaltung durch digitale Technologien sowie die Neudefinition kultureller Dimensionen wie jener des Raumes oder Veränderungen zeitlicher, aber auch gesellschaftlicher Strukturen. Um nicht eine ausschließlich ,westlich' orientierte, eurozentrische Perspektive einzunehmen, bildet einer der Schwerpunkte der vorliegenden Forschungsarbeit die Analyse der Nutzung digitaler Kommunikationstechnologien in Westafrika, wo der zahlenmäßige Anstieg von Nutzern des Mobiltelefons und sozialer Netzwerke in den letzten Jahren alle Prognosen von Experten übertraf.
  19. Springer, M.: Wettrüsten im Cyberraum (2018) 0.01
    0.005241232 = product of:
      0.02620616 = sum of:
        0.02620616 = weight(_text_:den in 1323) [ClassicSimilarity], result of:
          0.02620616 = score(doc=1323,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.25333852 = fieldWeight in 1323, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=1323)
      0.2 = coord(1/5)
    
    Content
    "Längst ist im Internet ein Wettrüsten zwischen Angriffs- und Verteidigungsmaßnahmen ausgebrochen, an dem sich ganze Staaten beteiligen. Dabei kommt zunehmend auch künstliche Intelligenz (KI) zum Einsatz. Vor den schwer beherrschbaren Folgen künftiger autonomer Cyberkriegssysteme warnen nun die Informatikerin Mariarosaria Taddeo und der Philosoph Luciano Floridi vom Digital Ethics Lab der University of Oxford (Nature 556, S. 296 - 298, 2018)."
  20. Willkommen in der Datenwelt! : Haben wir unser digitales Leben noch im Griff? (2017) 0.01
    0.005241232 = product of:
      0.02620616 = sum of:
        0.02620616 = weight(_text_:den in 3420) [ClassicSimilarity], result of:
          0.02620616 = score(doc=3420,freq=8.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.25333852 = fieldWeight in 3420, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=3420)
      0.2 = coord(1/5)
    
    Abstract
    Ständig hinterlässt jeder von uns zahlreiche digitale und digitalisierbare Spuren. Algorithmen sammeln diese Daten, lernen, sie zu interpretieren, und können so mehr über den Einzelnen offenbaren, als dieser über sich selbst weiß. Staaten und Konzerne wollen Menschen mit diesen Informationen überwachen und manipulieren - vermeintlich zu ihrem Besten. Doch wer entscheidet, was das ist? Mit den Verlockungen der Informationsgesellschaft von erhöhter Leistung und Lebensqualität kommen auch Bedrohungen für unsere Freiheit und Privatsphäre. Wie schützen wir diese Grundwerte in einer Welt, in der praktisch alles gespeichert und ausgewertet wird, und wie gewinnen wir die Kontrolle über unser digitales Ich zurück? Dieses Sonderheft will Anregungen zur Diskussion dieser Fragestellungen geben. Ein Teil der Beiträge ist hervorgegangen aus den Vorträgen des 20. Berliner Kolloquiums der Daimler und Benz Stiftung, das 2016 stattfand. (17. Februar 2017)
    Content
    Digital-Manifest (I): Digitale Demokratie statt Datendiktatur: Es droht die Automatisierung der Gesellschaft. (S.6) - Digital-Manifest (II): Eine Strategie für das digitale Zeitalter: Wie können wir unsere Demokratie schützen? Digital-Manifest: Expertenkommentare(S.15) - Die Debatte über mögliche Gefahren geht weiter. Essay: Was ist uns die Privatsphäre wert? (S.18) - Wer uneingeschränkt persönliche Informationen preisgibt, liefert sich aus. Datenschutz: Die Folgen der digitalen Transparenz (S.20) - Neuen Organisationsformen gehört die Zukunft. Epidemiologie: Eine Diagnose der Menschheit (S.28) - Mit einem Supercomputer stellen Forscher den globalen Gesundheitszustand fest. Maschinelles Lernen: Intelligenz bei Mensch und Computer (S.32) - Im Gegensatz zu uns lösen Algorithmen meist nur sehr spezielle Probleme - zumindest bislang. Ethik: Wir müssen autonome Killerroboter verbieten (S.40) - Maschinen überblicken nicht die Folgen ihres Tuns. Big und Smart Data: Zweckbindung zwecklos? (S.48) - Die Weiterverwendbarkeit von Daten stößt an Grenzen. Datensparsamkeit: Zukunftsfähig statt überholt (S.56) - Die Weiterverwendbarkeit von Daten stößt an Grenzen. Informationelle Selbstbestimmung: Ein erstrebenswertes Ziel (S.62) - Persönliche Entfaltung muss möglich bleiben. Digital Dienste: Zwischen Innovation und Sicherheit (S.68) - Schutz- und Kontrollbedarf fördert das Nutzervertrauen. Privatsphäre: Interview "Jede Äußerung wird konserviert" (S.74) - Sammelwut bedroht uns alle, meint Markus Beckedahl. (S.78)

Languages

  • d 71
  • e 44

Types

  • a 93
  • m 17
  • el 15
  • s 5
  • x 2
  • More… Less…

Subjects

Classifications