Search (2 results, page 1 of 1)

  • × theme_ss:"Informationsmittel"
  • × classification_ss:"05.38 / Neue elektronische Medien <Kommunikationswissenschaft>"
  1. Bauer, R.: ¬Die digitale Bibliothek von Babel : über den Umgang mit Wissensressourcen im Web 2.0 (2010) 0.02
    0.015327103 = product of:
      0.030654207 = sum of:
        0.030654207 = product of:
          0.061308414 = sum of:
            0.061308414 = weight(_text_:buch in 4080) [ClassicSimilarity], result of:
              0.061308414 = score(doc=4080,freq=2.0), product of:
                0.23869918 = queryWeight, product of:
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.05134011 = queryNorm
                0.25684384 = fieldWeight in 4080, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4080)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Web 2.0 hat einen Paradigmenwechsel im Umgang mit Informationen und damit eng verbunden im Wissenserwerb eingeleitet. Theoretisch gesehen hat jeder offenen Zugang zu vielfältigen Informationen und kann gleichzeitig selbst Inhalte beisteuern - z.B. in Sozialen Netzwerken, in Weblogs oder Wikis - und Websites oder andere Dokumente (Videos, Slideshows o.ä.) veröffentlichen und mit anderen Nutzern teilen. Dieser Demokratisierungsprozess von Wissensproduktion, -kommunikation und -erwerb ist allerdings nicht frei von Kontroversen. Das verstärkte Nebeneinander von sachlich richtiger und relevanter Information einerseits und Belanglosigkeiten andererseits ruft auch Gegner auf den Plan. Sie sprechen von einem Information Overkill und befürchten den Niedergang der klassischen Bildung. Führen freie Wissenszugänge im Netz tatsächlich zu weniger Bildung? Was macht eine Website zu einer zuverlässigen und vertrauenswürdigen Quelle? Wie können aus der Fülle von Webressourcen die qualitativ hochwertigen herausgefiltert werden? Welchen Beitrag kann dabei Social Software leisten? Welches sind die Konstituenten einer Informationskompetenz 2.0, über die User verfügen sollten, um mit vorgefundenen Ressourcen adäquat umgehen zu können? Und inwiefern sind Bibliotheken - die sich ja zunehmend als Teaching Libraries verstehen - hier gefordert? Auf diese Fragen versucht das vorliegende Buch Antworten zu geben. Der Fokus liegt auf dem Umgang mit Wissensressourcen im Web 2.0, wobei ebenso theoretische wie praktische Implikationen berücksichtigt und ausgewählte Evaluierungsansätze hinsichtlich ihrer praktischen Anwendbarkeit für die User diskutiert werden.
  2. Grotjahn, H.: Qualitätsmessungen an der Wikipedia : Konstruktion von Qualität - eine Metaanalyse (2007) 0.01
    0.0108378995 = product of:
      0.021675799 = sum of:
        0.021675799 = product of:
          0.043351598 = sum of:
            0.043351598 = weight(_text_:buch in 2771) [ClassicSimilarity], result of:
              0.043351598 = score(doc=2771,freq=4.0), product of:
                0.23869918 = queryWeight, product of:
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.05134011 = queryNorm
                0.18161602 = fieldWeight in 2771, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2771)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Wikipedia ist ein internationales, internetbasiertes Projekt zur kollaborativen Erstellung einer freien Enzyklopädie. Die Beiträge werden beinahe ausschließlich von Freiwilligen verfasst. In den letzten Jahren hat Wikipedia einen beträchtlichen Umfang und eine hohe öffentliche Aufmerksamkeit erreicht. Durch ihr offenes Editiermodell hat sie jedoch auch viele Kritiker auf den Plan gerufen, die die Qualität des Erreichten bemängeln. Das vorliegende Werk verfolgt das Ziel, dieser oft unstrukturiert anmutenden Debatte einen übersichtlichen Rahmen zu geben. Dazu wird in einem ersten Teil das Projekt in den Kontext seiner verschiedenen Wurzeln gestellt, was zu einem besseren Verständnis dieses gänzlich neuen Phänomens beitragen soll. Im zweiten Teil wird darauf aufbauend die Qualitätsdebatte so vollumfänglich wie möglich aufgearbeitet. Der Wunsch des Verfassers ist es, zur Diskussion der Qualitätsbeurteilung freier Online-Medien, speziell der Wikipedia, einen notwendigen und hoffentlich strukturgebenden Beitrag zu leisten. Das Buch richtet sich an alle Leser, die sowohl allgemein an Enzyklopädien und Wissensproduktion, wie auch speziell an der Wikipedia interessiert sind.
    Footnote
    In der Auswahl befinden sich fachwissenschaftliche Artikel (in der Regel Webquellen) neben Testberichten aus der Computerzeitschrift c't ebenso wie essayistische Annäherungen an das Thema aus Telepolis sowie studentische Abschlussarbeiten. Studie für Studie reiht Grotjahn die Ergebnisse seiner Analysen additiv aneinander. Unter Berücksichtigung des breiten Spektrums der ausgewählten Studien sowohl in Hinblick auf die Herangehensweise von journalistisch bis fachwissenschaftlich als auch des großen inhaltlichen Spektrums von naturwissenschaftlichen Themen bis hin zu historischen Fragestellungen erstaunt Grotjahns Beobachtung wenig, dass die einzelnen Studien kaum aufeinander aufbauen und ein starkes Auseinanderfallen zwischen sehr positiven und sehr negativen Einschätzungen zu verzeichnen ist. Die methodische Anregung bei der Analyse lexikographischer Qualität stärker die Nutzerwartungen mit einzubeziehen ist nahe liegend und sinnvoll und ganz im Mainstream der fachlexikographischen Forschung, die die Einbeziehung der Nutzererwartungen unter dem Begriff der Nutzerstruktur diskutiert. Eine Diskussion, die Grotjahn nicht rezipiert. Insgesamt handelt es sich bei dem Text um eine typische Abschlussarbeit, was soweit geht, dass typische stilistische Schwächen, die aus dem Bemühen die passivische Darstellungsweise konsequent im Text durchzuhalten, nicht vom Lektorat korrigiert wurden. "Dem von den Verfassern angeregten Wunsch, dies oder ähnliche Untersuchungsreihen an anderen Sprachversionen durchzuführen, kann sich dennoch angeschlossen werden." (S. 72). Trotz der genannten Schwächen liefert Grotjahn insgesamt einen nützlichen Überblick über die bisherigen Untersuchungen zur Qualität in der Wikipedia, der den Anforderungen an eine Magisterarbeit angemessen ist. Grotjahn leistet durch die systematische Lektüre wichtige Vorarbeiten für weitere Qualitätsmessungen an der Wikipedia und beleuchtet das weite thematische Spektrum. Seine Ausflüge in die journalistische Theoriebildung und die Medientheorie geben interessante Anregungen für zukünftige Studien. Die Arbeit hat es verdient, dass sie, z. B. über einen Hochschulschriftenserver wie Opus oder die originelle und gut zugängliche private Website des Autors (www.hoenn.net/), einer breiteren Öffentlichkeit jenseits der engen Hochschulöffentlichkeit zur Verfügung gestellt wird. In Hinblick auf die genannten Schwächen der Studie stellt sich allerdings für die Rezensentin wieder einmal die Frage, ob jede Diplom-, Bachelor-, Master-, oder Magisterarbeit tatsächlich als Buch erscheinen und für - in diesem Falle als Books-on-demand-Publikation - 49,- Euro verkauft werden muss, wo andere preisgünstigere Publikationsformen wohl eher geeignet wären, dem Text eine größere Verbreitung, gerade auch bei einer studentischen Zielgruppe, zu verschaffen."

Authors

Classifications