Search (31 results, page 2 of 2)

  • × classification_ss:"05.38 / Neue elektronische Medien <Kommunikationswissenschaft>"
  • × type_ss:"m"
  1. Grotjahn, H.: Qualitätsmessungen an der Wikipedia : Konstruktion von Qualität - eine Metaanalyse (2007) 0.01
    0.014173433 = product of:
      0.070867166 = sum of:
        0.01821353 = weight(_text_:buch in 2771) [ClassicSimilarity], result of:
          0.01821353 = score(doc=2771,freq=4.0), product of:
            0.10028592 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.021569785 = queryNorm
            0.18161602 = fieldWeight in 2771, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2771)
        0.014633365 = weight(_text_:und in 2771) [ClassicSimilarity], result of:
          0.014633365 = score(doc=2771,freq=50.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.30609533 = fieldWeight in 2771, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2771)
        0.005170619 = weight(_text_:in in 2771) [ClassicSimilarity], result of:
          0.005170619 = score(doc=2771,freq=44.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.17622867 = fieldWeight in 2771, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2771)
        0.016641488 = weight(_text_:einzelnen in 2771) [ClassicSimilarity], result of:
          0.016641488 = score(doc=2771,freq=2.0), product of:
            0.1139978 = queryWeight, product of:
              5.285069 = idf(docFreq=608, maxDocs=44218)
              0.021569785 = queryNorm
            0.14598078 = fieldWeight in 2771, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.285069 = idf(docFreq=608, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2771)
        0.014633365 = weight(_text_:und in 2771) [ClassicSimilarity], result of:
          0.014633365 = score(doc=2771,freq=50.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.30609533 = fieldWeight in 2771, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2771)
        0.0015747978 = weight(_text_:s in 2771) [ClassicSimilarity], result of:
          0.0015747978 = score(doc=2771,freq=10.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.067151316 = fieldWeight in 2771, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2771)
      0.2 = coord(6/30)
    
    Abstract
    Wikipedia ist ein internationales, internetbasiertes Projekt zur kollaborativen Erstellung einer freien Enzyklopädie. Die Beiträge werden beinahe ausschließlich von Freiwilligen verfasst. In den letzten Jahren hat Wikipedia einen beträchtlichen Umfang und eine hohe öffentliche Aufmerksamkeit erreicht. Durch ihr offenes Editiermodell hat sie jedoch auch viele Kritiker auf den Plan gerufen, die die Qualität des Erreichten bemängeln. Das vorliegende Werk verfolgt das Ziel, dieser oft unstrukturiert anmutenden Debatte einen übersichtlichen Rahmen zu geben. Dazu wird in einem ersten Teil das Projekt in den Kontext seiner verschiedenen Wurzeln gestellt, was zu einem besseren Verständnis dieses gänzlich neuen Phänomens beitragen soll. Im zweiten Teil wird darauf aufbauend die Qualitätsdebatte so vollumfänglich wie möglich aufgearbeitet. Der Wunsch des Verfassers ist es, zur Diskussion der Qualitätsbeurteilung freier Online-Medien, speziell der Wikipedia, einen notwendigen und hoffentlich strukturgebenden Beitrag zu leisten. Das Buch richtet sich an alle Leser, die sowohl allgemein an Enzyklopädien und Wissensproduktion, wie auch speziell an der Wikipedia interessiert sind.
    Footnote
    Rez. in: IWP 60(2009) H.2, S.104 (U. Spree): "Immer wieder kommt die 'freie Enzyklopädie' Wikipedia wegen ihres Editiermodells in die Schlagzeilen. Beispielsweise erwirkte Lutz Heilmann MdB (Die Linke) im November 2008 eine einstweilige Verfügung, die es dem Wikimedia Deutschland e. V. untersagte, die Internetadresse wikipedia.de auf die Internetadresse wikipedia.org umzuleiten, solange die nach Einschätzung des Politikers rufschädigenden und persönlichkeitsverletzenden Einträge zu seiner Person in der Enzyklopädie fortbestünden. Die Wikipedia war unter der Adresse wikipedia.de für einige Stunden nicht erreichbar. Der Eintrag wurde von Wikipediaredakteuren anschließend stark bearbeitet und daraufhin die Adressumleitung wieder frei geschaltet. Gleichzeitig kündigte Wikipedia an, dass sie gegen die Entscheidung des Landgerichts Lübeck vorgehen werde. Fälle wie diese belegen das große öffentliche Interesse an Aspekten der Qualität, respektive Objektivität der Wikipedia. Gerade weil Diskussionen um die Qualiät und Verlässlichkeit der Wikipedia in den Medien in der Regel eher polemisch geführt werden, ist es zu begrüßen, wenn sich auch aus fachwissenschaftlicher Perspektive Publikationen kritisch mit dieser Fragestellung auseinandersetzen. Henrik Grotjahn widmet sich in seiner Magisterarbeit "Konstruktion von Qualität", angenommen am Institut für Kommunikationswissenschaft Münster 2007 (Original recherchierbar über den Katalog der Universitätsbibliothek Münster), die vom VDM Verlag Dr. Müller unter dem Titel "Qualitätsmessungen an der Wikipedia" publiziert wurde, der Frage, ob es der Wikipedia auf dem Wege der kollaborativen Erarbeitung gelungen ist, ein enzyklopädisches Nachschlagewerk zu schaffen, das in seiner Qualität mit traditionellen Verlagsprodukten mithalten oder diese sogar qualitativ übertreffen kann.
    Einleitend gewährt Grotjahn kursorische Einblicke in die Geschichte der Enzyklopädien Enzyklopädien, wobei zentrale Themen wie Gemeinsamkeiten und Unterschiede zwischen Enzyklopädien und Universalwörterbüchern und die starken historischen Wandlungen unterworfenen Anforderungen an die Wissenschaftlichkeit von Allgemeinenzyklopädien nur angerissen werden. Zentrale (technische) Voraussetzungen der kollaborativen Wissenserstellung wie das Open-Source-Prinzip und die Wikitechnologie werden kurz vorgestellt. Gängige Kriterien zur Beurteilung von Medienqualität werden erwähnt, die anregende Idee, journalistische Qualitätskriterien auf die Wikipedia anzuwenden angerissen, jedoch nicht argumentativ zu Ende geführt. Grotjahn fasst seine Lektüreergebnisse zur Qualitätsbeurteilung von Enzyklopädien in der Erkenntnis zusammen, dass "die objektive Beurteilung von Qualität Schwierigkeiten bereitet" (S. 43). Er macht aus dieser Not eine Tugend und versucht auf indirektem Wege, nämlich durch die Sekundäranalyse - so lautete auch noch der Untertitel seiner Magisterarbeit - von Qualitätsuntersuchungen der Wikipedia, dem Phänomen der Qualitätsbeurteilung und der implizit angewandten Qualitätskriterien auf die Spur zu kommen. Im Mittelpunkt der Arbeit steht die als "Empirie" betitelte Übersicht ausgewählter bis zum Erscheinungstermin der Arbeit vorliegende Qualitätsuntersuchungen zur Wikipedia. Nach der Methode des propositionalen Inventars werden Studien, in denen es zumindest teilweise um Qualitätsmessung geht, in Hinblick auf Ansatz, Untersuchung, Ergebnisse und Einzelbewertung verglichen. Die Vergleichskriterien erschließen sich erst nach genauerem Lesen, so ist mit Ansatz die Fragestellung der jeweiligen Studie gemeint und Untersuchung meint das Forschungsdesign und die Untersuchungsmethodik. Ausgesprochenes Ziel ist es "Gemeinsamkeiten zu finden, gute Ansätze von schlechten zu trennen" (S.7). Grotjahn erhebt den Anspruch, Vorschläge für Qualitätsmaßstäbe zu entwickeln, die den Besonderheiten der Wikipedia gerecht werden. Er hat 17 mehr oder weniger umfangreiche Untersuchungen zusammengestellt, darunter auch die aufsehenerregende Untersuchung von Jim Giles (2005) für die Zeitschrift Nature, in der die Wikipedia mit der Britannica verglichen wurde und die erstmals zu dem Ergebnis kommt, dass zwischen den beiden Werken kein nennenswerter Qualitätsunterschied zu verzeichnen sei. Die Auswahl der analysierten Arbeiten erscheint eher zufällig, seine Recherchestrategie und die zugrunde gelegten Quellen legt Grotjahn nicht offen.
    In der Auswahl befinden sich fachwissenschaftliche Artikel (in der Regel Webquellen) neben Testberichten aus der Computerzeitschrift c't ebenso wie essayistische Annäherungen an das Thema aus Telepolis sowie studentische Abschlussarbeiten. Studie für Studie reiht Grotjahn die Ergebnisse seiner Analysen additiv aneinander. Unter Berücksichtigung des breiten Spektrums der ausgewählten Studien sowohl in Hinblick auf die Herangehensweise von journalistisch bis fachwissenschaftlich als auch des großen inhaltlichen Spektrums von naturwissenschaftlichen Themen bis hin zu historischen Fragestellungen erstaunt Grotjahns Beobachtung wenig, dass die einzelnen Studien kaum aufeinander aufbauen und ein starkes Auseinanderfallen zwischen sehr positiven und sehr negativen Einschätzungen zu verzeichnen ist. Die methodische Anregung bei der Analyse lexikographischer Qualität stärker die Nutzerwartungen mit einzubeziehen ist nahe liegend und sinnvoll und ganz im Mainstream der fachlexikographischen Forschung, die die Einbeziehung der Nutzererwartungen unter dem Begriff der Nutzerstruktur diskutiert. Eine Diskussion, die Grotjahn nicht rezipiert. Insgesamt handelt es sich bei dem Text um eine typische Abschlussarbeit, was soweit geht, dass typische stilistische Schwächen, die aus dem Bemühen die passivische Darstellungsweise konsequent im Text durchzuhalten, nicht vom Lektorat korrigiert wurden. "Dem von den Verfassern angeregten Wunsch, dies oder ähnliche Untersuchungsreihen an anderen Sprachversionen durchzuführen, kann sich dennoch angeschlossen werden." (S. 72). Trotz der genannten Schwächen liefert Grotjahn insgesamt einen nützlichen Überblick über die bisherigen Untersuchungen zur Qualität in der Wikipedia, der den Anforderungen an eine Magisterarbeit angemessen ist. Grotjahn leistet durch die systematische Lektüre wichtige Vorarbeiten für weitere Qualitätsmessungen an der Wikipedia und beleuchtet das weite thematische Spektrum. Seine Ausflüge in die journalistische Theoriebildung und die Medientheorie geben interessante Anregungen für zukünftige Studien. Die Arbeit hat es verdient, dass sie, z. B. über einen Hochschulschriftenserver wie Opus oder die originelle und gut zugängliche private Website des Autors (www.hoenn.net/), einer breiteren Öffentlichkeit jenseits der engen Hochschulöffentlichkeit zur Verfügung gestellt wird. In Hinblick auf die genannten Schwächen der Studie stellt sich allerdings für die Rezensentin wieder einmal die Frage, ob jede Diplom-, Bachelor-, Master-, oder Magisterarbeit tatsächlich als Buch erscheinen und für - in diesem Falle als Books-on-demand-Publikation - 49,- Euro verkauft werden muss, wo andere preisgünstigere Publikationsformen wohl eher geeignet wären, dem Text eine größere Verbreitung, gerade auch bei einer studentischen Zielgruppe, zu verschaffen."
    Pages
    128 S
  2. Web-2.0-Dienste als Ergänzung zu algorithmischen Suchmaschinen (2008) 0.01
    0.0120704975 = product of:
      0.07242298 = sum of:
        0.04371247 = weight(_text_:buch in 4323) [ClassicSimilarity], result of:
          0.04371247 = score(doc=4323,freq=4.0), product of:
            0.10028592 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.021569785 = queryNorm
            0.43587846 = fieldWeight in 4323, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
        0.009933459 = weight(_text_:und in 4323) [ClassicSimilarity], result of:
          0.009933459 = score(doc=4323,freq=4.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.20778441 = fieldWeight in 4323, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
        0.005915991 = weight(_text_:in in 4323) [ClassicSimilarity], result of:
          0.005915991 = score(doc=4323,freq=10.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.20163295 = fieldWeight in 4323, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
        0.009933459 = weight(_text_:und in 4323) [ClassicSimilarity], result of:
          0.009933459 = score(doc=4323,freq=4.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.20778441 = fieldWeight in 4323, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
        0.0029275995 = weight(_text_:s in 4323) [ClassicSimilarity], result of:
          0.0029275995 = score(doc=4323,freq=6.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.124836445 = fieldWeight in 4323, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
      0.16666667 = coord(5/30)
    
    Abstract
    Mit sozialen Suchdiensten - wie z. B. Yahoo Clever, Lycos iQ oder Mister Wong - ist eine Ergänzung und teilweise sogar eine Konkurrenz zu den bisherigen Ansätzen in der Web-Suche entstanden. Während Google und Co. automatisch generierte Trefferlisten bieten, binden soziale Suchdienste die Anwender zu Generierung der Suchergebnisse in den Suchprozess ein. Vor diesem Hintergrund wird in diesem Buch der Frage nachgegangen, inwieweit soziale Suchdienste mit traditionellen Suchmaschinen konkurrieren oder diese qualitativ ergänzen können. Der vorliegende Band beleuchtet die hier aufgeworfene Fragestellung aus verschiedenen Perspektiven, um auf die Bedeutung von sozialen Suchdiensten zu schließen.
    Content
    Das Buchprojekt entstand im Rahmen des Forschungsprojektes Theseus (Teilprojekt Alexandria). - Als Online Publikation vgl.: http://www.bui.haw-hamburg.de/fileadmin/user_upload/lewandowski/Web20-Buch/lewandowski-maass.pdf. Rez. in: ZfBB 56(2009) H.2, S.134-135 (K. Lepsky)
    Issue
    Ergebnisse des Fachprojektes "Einbindung von Frage-Antwort-Diensten in die Web-Suche" am Department Information der Hochschule für Angewandte Wissenschaften Hamburg (WS 2007/2008).
    Pages
    IX, 189 S
    Type
    s
  3. Social Semantic Web : Web 2.0, was nun? (2009) 0.01
    0.011811122 = product of:
      0.070866734 = sum of:
        0.021856235 = weight(_text_:buch in 4854) [ClassicSimilarity], result of:
          0.021856235 = score(doc=4854,freq=4.0), product of:
            0.10028592 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.021569785 = queryNorm
            0.21793923 = fieldWeight in 4854, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4854)
        0.022211887 = weight(_text_:und in 4854) [ClassicSimilarity], result of:
          0.022211887 = score(doc=4854,freq=80.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.46462005 = fieldWeight in 4854, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4854)
        0.003741601 = weight(_text_:in in 4854) [ClassicSimilarity], result of:
          0.003741601 = score(doc=4854,freq=16.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.12752387 = fieldWeight in 4854, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4854)
        0.022211887 = weight(_text_:und in 4854) [ClassicSimilarity], result of:
          0.022211887 = score(doc=4854,freq=80.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.46462005 = fieldWeight in 4854, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4854)
        8.4512506E-4 = weight(_text_:s in 4854) [ClassicSimilarity], result of:
          8.4512506E-4 = score(doc=4854,freq=2.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.036037173 = fieldWeight in 4854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4854)
      0.16666667 = coord(5/30)
    
    Abstract
    Semantische Techniken zur strukturierten Erschließung von Web 2.0-Content und kollaborative Anreicherung von Web Content mit maschinenlesbaren Metadaten wachsen zum Social Semantic Web zusammen, das durch eine breite Konvergenz zwischen Social Software und Semantic Web-Technologien charakterisiert ist. Dieses Buch stellt die technischen, organisatorischen und kulturellen Veränderungen dar, die das Social Semantic Web begleiten, und hilft Entscheidungsträgern und Entwicklern, die Tragweite dieser Web-Technologie für ihr jeweiliges Unternehmen zu erkennen. Social Semantic Web: Web 2.0 - Was nun? ist quasi die 2. Auflage von Semantic Web: Wege zur vernetzten Wissensgesellschaft von 2006, in der jedoch eher die technischen Aspekte im Vordergrund standen - einiges ist seitdem im weltweiten Netz passiert, vor allem mit dem, als Web 2.0 gestempelten Ajax-User-Community-Mix in Verbindung mit dem Semantic Web wurden und werden die Karten an einigen Enden der Datenautobahn neu gemischt - dem tragen Andreas Blumauer und Tassilo Pellegrini mit einem Update ihrer Fachautorensammlung für interessierte Laien und themenfremde Experten in der passenden 2.0-Neuauflage Rechnung.
    Thematisch haben die beiden Herausgeber ihre Beitragssammlung in vier Bereiche aufgeteilt: zuerst der Einstieg ins Thema Web 2.0 mit sechs Beiträgen - die Konvergenz von Semantic Web und Web 2.0, Auswirkungen auf die Gesellschaft, Technologien und jeweils die entsprechenden Perspektiven; gute, faktenbasierte Überblicke, die das Buch auf eine solide Grundlage stellen und reichhaltiges Wissen für ansonsten meist oberflächlich geführte Diskussionen zum Thema liefern. Der zweite Themenbereich ist dann den Technologien und Methodem gewidmet: Wie sieht die Technik hinter der "Semantik" im Web aus? Wissensmodellierung, Beispiele wie die Expertensuche, Content Management Systeme oder semantische Wikis. In Teil drei werfen die Autoren dann einen Blick auf bestehende Anwendungen im aktuellen Social Semantic Web und geben einen Ausblick auf deren zukünftige Entwicklungen. Im abschließenden Teil vier schließlich geben die Autoren der drei Beiträge einen Überblick zum "Social Semantic Web" aus sozialwissenschaftlicher Perspektive. Zusammenfassungen am Anfang jedes Beitrags, gute Strukturen zusätzliche Quellen und auch die gut lesbare Länge der Beiträge - angenehme verständlich und konsumierbar. Blumauer und Pellegrini haben auch mit Social Semantic Web: Web 2.0 - Was nun? ganze Arbeit geleistet und ein breites Spektrum an Perspektiven, Meinungen und Quellen zusammengetragen - das Ergebnis ist stellenweise durchaus heterogen und nicht jeder Beitrag muss gefallen, doch das Gesamtergebnis stellt die von den Herausgebern thematisierte heterogene Welt des Social Semantic Web realistisch dar. Wer in Zukunft nicht nur "gefährliches Halbwissen" um das Web 2.0 und das Semantic Web von sich geben will, sollte Social Semantic Web: Web 2.0 - Was nun? gelesen haben!
    Content
    Semantic Web Revisited - Eine kurze Einführung in das Social Semantic Web - Andreas Blumauer und Tassilo Pellegrini Warum Web 2.0? Oder: Was vom Web 2.0 wirklich bleiben wird - Sonja Bettel Entwicklungsperspektiven von Social Software und dem Web 2.0 - Alexander Raabe Anwendungen und Technologien des Web 2.0: Ein Überblick - Alexander Stocker und Klaus Tochtermann Die Usability von Rich Internet Applications - Jörg Linder Die zwei Kulturen - Anupriya Ankolekar, Markus Krötzsch, Than Tran und Denny Vrandecic Wissensmodellierung im Semantic Web - Barbara Geyer-Hayden Anreicherung von Webinhalten mit Semantik - Microformats und RDFa - Michael Hausenblas Modellierung von Anwenderverhalten im Social Semantic Web - Armin Ulbrich, Patrick Höfler und Stefanie Lindstaedt Expertise bewerben und finden im Social Semantic Web - Axel Polleres und Malgorzata Mochol
    Semantische Content Management Systeme - Erich Gams und Daniel Mitterdorfer Tag-Recommender gestützte Annotation von Web-Dokumenten - Andreas Blumauer und Martin Hochmeister Semantische Wikis - Sebastian Schaffert, François Bry, Joachim Baumeister und Malte Kiesel Semantische Mashups auf Basis Vernetzter Daten - Sören Auer, Jens Lehmann und Christian Bizer Web-gestütztes Social Networking am Beispiel der "Plattform Wissensmanagement" - Stefanie N. Lindstaedt und Claudia Thurner Explorative Netzwerkanalyse im Living Web - Gernot Tscherteu und Christian Langreiter Semantic Desktop - Leo Sauermann, Malte Kiesel, Kinga Schumacher und Ansgar Bernardi Social Bookmarking am Beispiel BibSonomy - Andreas Hotho, Robert Jäschke, Dominik Benz, Miranda Grahl, Beate Krause, Christoph Schmitz und Gerd Stumme Semantic Wikipedia - Markus Krötzsch und Denny Vrandecic Die Zeitung der Zukunft - Christoph Wieser und Sebastian Schaffert Das Semantic Web als Werkzeug in der biomedizinischen Forschung - Holger Stenzhorn und Matthias Samwald
    Pages
    XV, 509 S
  4. Iske, S.: Vernetztes Wissen : Hypertext-Strategien im Internet (2002) 0.01
    0.010511015 = product of:
      0.06306609 = sum of:
        0.02575782 = weight(_text_:buch in 3154) [ClassicSimilarity], result of:
          0.02575782 = score(doc=3154,freq=2.0), product of:
            0.10028592 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.021569785 = queryNorm
            0.25684384 = fieldWeight in 3154, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3154)
        0.016555762 = weight(_text_:und in 3154) [ClassicSimilarity], result of:
          0.016555762 = score(doc=3154,freq=16.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.34630734 = fieldWeight in 3154, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3154)
        0.0022047595 = weight(_text_:in in 3154) [ClassicSimilarity], result of:
          0.0022047595 = score(doc=3154,freq=2.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.07514416 = fieldWeight in 3154, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3154)
        0.016555762 = weight(_text_:und in 3154) [ClassicSimilarity], result of:
          0.016555762 = score(doc=3154,freq=16.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.34630734 = fieldWeight in 3154, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3154)
        0.001991979 = weight(_text_:s in 3154) [ClassicSimilarity], result of:
          0.001991979 = score(doc=3154,freq=4.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.08494043 = fieldWeight in 3154, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3154)
      0.16666667 = coord(5/30)
    
    Abstract
    Hypertext ist der Faden, der das Wissensnetz knüpft. Hypertext eröffnet qualitativ neuartige Formen der Darstellung und des Zugangs sowie spezifische Aktivitäten und Umgangsformen mit Information und Wissen. Damit ist Hypertext die Schlüsseltechnologie des neuen Mediums Internet und gewinnt im Bildungskontext zunehmend an Bedeutung. Wie findet man sich in stark vernetzten medialen Umgebungen zurecht? Was ist zu beachten, wenn man selbst Informationen, Daten und Dokumente mittels Hypertext vernetzen will? Welche Besonderheiten gelten dabei für Texte, multimediale Anwendungen, Lernprogramme, Websites und Portale? Dieses Buch beantwortet solche Fragen. Es beschreibt die Möglichkeiten von Hypertext zum Erkunden und Gestalten vernetzter Strukturen. Das neuartige Potenzial der Vernetzung wird dabei aus bildungstheoretischer Perspektive untermauert. Damit bietet es wertvolles Hintergrundwissen für alle, die sich auf das Internet als Bildungsmedium einlassen wollen.
    Pages
    XII, 138 S
    Series
    Wissen und Bildung im Internet ; Bd. 5
  5. Liebig, M.: Browser-Typografie : Untersuchungen zur Lesbarkeit von Schrift im World Wide Web (2008) 0.01
    0.007445572 = product of:
      0.055841785 = sum of:
        0.02575782 = weight(_text_:buch in 4070) [ClassicSimilarity], result of:
          0.02575782 = score(doc=4070,freq=2.0), product of:
            0.10028592 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.021569785 = queryNorm
            0.25684384 = fieldWeight in 4070, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4070)
        0.014337712 = weight(_text_:und in 4070) [ClassicSimilarity], result of:
          0.014337712 = score(doc=4070,freq=12.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.29991096 = fieldWeight in 4070, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4070)
        0.014337712 = weight(_text_:und in 4070) [ClassicSimilarity], result of:
          0.014337712 = score(doc=4070,freq=12.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.29991096 = fieldWeight in 4070, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4070)
        0.0014085418 = weight(_text_:s in 4070) [ClassicSimilarity], result of:
          0.0014085418 = score(doc=4070,freq=2.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.060061958 = fieldWeight in 4070, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4070)
      0.13333334 = coord(4/30)
    
    Abstract
    Immer mehr Menschen beziehen Wissen und Nachrichten aus dem Internet. Für viele jüngere Menschen ist der Web-Browser längst das Hauptmedium. Aller Multimedialität zum Trotz findet Information im Web nach wie vor überwiegend klassisch statt - schriftlich. Anbieter mit Qualitätsanspruch kommen also nicht umhin, sich auch mit den Gesetzen und Besonderheiten der Browser-Typografie auseinanderzusetzen. Denn eine schlichte Übersetzung klassischer Typografie-Regeln auf das Medium "Web-Browser" scheitert oft schon an banalen technischen Besonderheiten. Der Pool verfügbarer "Systemschriften" ist deprimierend klein und typografische Setzungen verkommen zu Empfehlungen, die Betrachter auch schlichtweg ablehnen können. Im Zentrum steht allerdings die Frage: Wie ist im Medium "Browser" gute Lesbarkeit herstellbar? Das vorliegende Buch ist der wohl umfassendste Überblick über den Stand der internationalen Web-Typografie-Forschung, der bislang vorgelegt wurde. Dabei wird deutlich, dass viele gern zitierte Dogmen des Webdesigns der wissenschaftlichen Hinterfragung nicht standhalten. Auch eine umfangreiche Studie des Autors förderte einige überraschende Erkenntnisse zutage. Ergänzt werden die Forschungsresultate um fundierte Überlegungen zu den Themen Wahrnehmungspsychologie, Ästhetik, Designtheorie und Usability-Forschung. Zahlreiche Abbildungen und Grafiken machen auch die theoretischeren Passagen anschaulich und nachvollziehbar.
    Pages
    467 S
  6. Maass, W.: Elektronische Wissensmärkte : Handel von Information und Wissen über digitale Netze (2010) 0.00
    0.004912561 = product of:
      0.036844205 = sum of:
        0.015706176 = weight(_text_:und in 4892) [ClassicSimilarity], result of:
          0.015706176 = score(doc=4892,freq=10.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.328536 = fieldWeight in 4892, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4892)
        0.003741601 = weight(_text_:in in 4892) [ClassicSimilarity], result of:
          0.003741601 = score(doc=4892,freq=4.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.12752387 = fieldWeight in 4892, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4892)
        0.015706176 = weight(_text_:und in 4892) [ClassicSimilarity], result of:
          0.015706176 = score(doc=4892,freq=10.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.328536 = fieldWeight in 4892, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4892)
        0.0016902501 = weight(_text_:s in 4892) [ClassicSimilarity], result of:
          0.0016902501 = score(doc=4892,freq=2.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.072074346 = fieldWeight in 4892, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.046875 = fieldNorm(doc=4892)
      0.13333334 = coord(4/30)
    
    Abstract
    Wissen ist die zentrale Ressource von Unternehmen, welche Mitarbeiter benötigen, um innovative Produkte und Dienstleistungen entwickeln zu können. Dokumentiertes Wissen, wie Patente, Strategiemodelle, Best Practices oder Benchmark-Beschreibungen, lässt sich effizient in digitaler Form speichern und über digitale Netze austauschen. Derartige Wissenswerte können so innerhalb und zwischen Unternehmen über elektronische Märkte gehandelt werden. Wolfgang Maass entwickelt das Konzept eines digitalen Wissensgutes, integriert es in ein Referenzmodell für elektronische Wissensmärkte und stellt technische Umsetzungsmöglichkeiten vor.
    Pages
    XV, 293 S
  7. Research and advanced technology for digital libraries : 9th European conference, ECDL 2005, Vienna, Austria, September 18 - 23, 2005 ; proceedings (2005) 0.00
    0.0034154288 = product of:
      0.025615714 = sum of:
        0.009365354 = weight(_text_:und in 2423) [ClassicSimilarity], result of:
          0.009365354 = score(doc=2423,freq=8.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.19590102 = fieldWeight in 2423, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2423)
        0.0052914224 = weight(_text_:in in 2423) [ClassicSimilarity], result of:
          0.0052914224 = score(doc=2423,freq=18.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.18034597 = fieldWeight in 2423, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2423)
        0.009365354 = weight(_text_:und in 2423) [ClassicSimilarity], result of:
          0.009365354 = score(doc=2423,freq=8.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.19590102 = fieldWeight in 2423, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2423)
        0.0015935833 = weight(_text_:s in 2423) [ClassicSimilarity], result of:
          0.0015935833 = score(doc=2423,freq=4.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.06795235 = fieldWeight in 2423, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.03125 = fieldNorm(doc=2423)
      0.13333334 = coord(4/30)
    
    Abstract
    This book constitutes the refereed proceedings of the 9th European Conference on Research and Advanced Technology for Digital Libraries, ECDL 2005, held in Vienna, Austria in September 2005. The 41 revised full papers presented together with 2 panel papers and 30 revised poster papers were carefully reviewed and selected from a total of 162 submissions. The papers are organized in topical sections on digital library models and architectures, multimedia and hypermedia digital libraries, XML, building digital libraries, user studies, digital preservation, metadata, digital libraries and e-learning, text classification in digital libraries, searching, and text digital libraries.
    Classification
    SS 4800 Informatik / Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen / Schriftenreihen (indiv. Sign.) / Lecture notes in computer science
    Content
    Inhalt u.a.: - Digital Library Models and Architectures - Multimedia and Hypermedia Digital Libraries - XML - Building Digital Libraries - User Studies - Digital Preservation - Metadata - Digital Libraries and e-Learning - Text Classification in Digital Libraries - Searching - - Focused Crawling Using Latent Semantic Indexing - An Application for Vertical Search Engines / George Almpanidis, Constantine Kotropoulos, Ioannis Pitas - - Active Support for Query Formulation in Virtual Digital Libraries: A Case Study with DAFFODIL / Andre Schaefer, Matthias Jordan, Claus-Peter Klas, Norbert Fuhr - - Expression of Z39.50 Supported Search Capabilities by Applying Formal Descriptions / Michalis Sfakakis, Sarantos Kapidakis - Text Digital Libraries
    Pages
    XVIII, 545 S
    RVK
    SS 4800 Informatik / Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen / Schriftenreihen (indiv. Sign.) / Lecture notes in computer science
    Series
    Lecture notes in computer science ; 3652
    Type
    s
  8. Henderson, L.; Tallman, J.I.: Stimulated recall and mental models : tools for teaching and learning computer information literacy (2006) 0.00
    9.420203E-4 = product of:
      0.009420203 = sum of:
        0.0052868268 = weight(_text_:in in 1717) [ClassicSimilarity], result of:
          0.0052868268 = score(doc=1717,freq=46.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.18018934 = fieldWeight in 1717, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1717)
        0.003137386 = product of:
          0.009412157 = sum of:
            0.009412157 = weight(_text_:l in 1717) [ClassicSimilarity], result of:
              0.009412157 = score(doc=1717,freq=2.0), product of:
                0.0857324 = queryWeight, product of:
                  3.9746525 = idf(docFreq=2257, maxDocs=44218)
                  0.021569785 = queryNorm
                0.1097853 = fieldWeight in 1717, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9746525 = idf(docFreq=2257, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1717)
          0.33333334 = coord(1/3)
        9.959895E-4 = weight(_text_:s in 1717) [ClassicSimilarity], result of:
          9.959895E-4 = score(doc=1717,freq=4.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.042470217 = fieldWeight in 1717, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1717)
      0.1 = coord(3/30)
    
    Content
    Inhalt: The research study - Mental models - Stimulated recall methodology - Mental models emphasizing procedural and product goals - Mental models facilitating procedural and conceptual understanding - The role of stimulated recall in identifying the effects of mental models on teaching - Use of mental models to analyze and understand teachers' pedagogies
    Footnote
    Rez. in: JASIST 58(2007) no.3, S.456-457 (D. Cook): "In February 2006, the Educational Testing Service (ETS) announced the release of its brand new core academic assessment of its Information and Communication Technology (ICT) Literacy Assessment. The core assessment is designed to assess the information literacy of high school students transitioning to higher education. Many of us already know ETS for some of its other assessment tools like the SAT and GRE. But ETS's latest test comes on the heels of its 2005 release of an advanced level of its ICT Literacy Assessment for college students progressing to their junior and senior year of undergraduate studies. Neither test, ETS insists, is designed to be an entrance examination. Rather, they are packaged and promoted as diagnostic assessments. We are in the grips of the Information Age where information literacy is a prized skill. Knowledge is power. However, information literacy is not merely creating flawless documents or slick PowerPoint presentations on a home PC. It is more than being able to send photos and text messages via cell phone. Instead, information literacy is gauged by one's ability to skillfully seek, access, and retrieve valid information from credible and reliable sources and using that information appropriately. It involves strong online search strategies and advanced critical thinking skills. And, although it is not clear whether they seized the opportunity or inherited it by default, librarians are in the vanguard of teaching information literacy to the next generation of would-be power brokers.
    The release of Stimulated Recall and Mental Models, therefore, could not have been timelier. It describes an empirical qualitative, case study research conducted by authors Lyn Henderson and Julie Tallman in which they studied the mental models of school librarians teaching K-12 students how to use electronic databases. In this research, funded by the Spencer Foundation, Henderson and Tallman studied and analyzed the mental models of their subjects, six American and four Australian school librarians, as they went about the task of teaching students one-on-one how to access and retrieve the information they needed for class assignments from electronic databases. Each librarian and student underwent a structured pre-lesson interview to ascertain their mental models (the sum of their prior learning and experiences) regarding the upcoming lesson. The lesson followed immediately and was carefully video- and audio-recorded, with the full knowledge of the librarian and her student. After the lessons, both student and librarian were interviewed with the intent of learning what each were thinking and feeling at specific points during the lesson, using the recordings as memory joggers. After the first librarian-pupil session, the student was freed but the librarian was re-studied tutoring a second learner. Again, the teacher and new student were preinterviewed, their lesson was recorded, and they were debriefed using the recordings for stimulated recall. It is important to note here the use of the recordings to create stimulated recall. Though considered a dubious practice by many respected researchers, Henderson and Tallman expend considerable time and effort in this book trying to establish the credibility of stimulated recall as a valid research tool. I find it interesting that the authors report that their realization of the value of stimulated recall was a collateral benefit of their study; they claim the original objective of their research was to analyze and compare the pre- and post-lesson mental models of the teacher-librarians (p.15). Apparently, this realization provided the inspiration for this book (pp. I & 208). Hence, its place of importance in the book's title.
    This book is evidence that Henderson and Tallman were meticulous in following their established protocols and especially in their record keeping while conducting their research. There are, however, a few issues in the study's framework and methodology that are worth noting. First, although the research was conducted in two different countries - the United Slates and Australia - it is not clear from the writing if the librarian-pupil pairs of each country hailed from the same schools (making the population opportunistic) or if the sampling was indeed more randomly selected. Readers do know, though, that the librarians were free to select the students they tutored from within their respective schools. Thus, there appears to he no randomness. Second, "[t]he data collection tools and questionnaires were grounded in a [single] pilot study with a [single] teacher-Iibrarian" (p. 7). Neither the procedures used nor the data collected from the pilot study are presented to establish its reliability and validity. Therefore, readers are left with only limited confidence in the study's instrumentation. Further, it is obvious from the reading, and admitted by the researchers, that the recording equipment in open view of the study's subjects skewed the data. That is, one of the librarians tinder study confessed that were it not for the cameras, she would have completely deserted one of her lessons when encountering what she perceived to be overwhelming obstacles: a classic example of the Hawthorne Effect in research. Yet. despite these issues, researchers Henderson and Tallman make a respectable ease in this book for the validity of both mental models and stimulated recall. The mental models developed during the prelesson interviews seem remarkably accurate when observing the school librarians during the lessons. Additionally, while the librarians were able to adapt their lessons based on situations, they generally did so within their mental models of what constitutes good teachers and good teaching.
    As for the value of reflecting on their teaching performance, the authors report the not-so-startling denouement that while it is easy to identify and define malpractice and to commit to changing performance errors, it is often difficult to actually implement those improvements. Essentially, what is first learned is best learned and what is most used is best used. In the end, however, the authors rightfully call for further study to be conducted by themselves and others. ETS's core ICT Literacy Assessment is not currently a mandatory college entrance examination. Neither is the advanced ICT Literacy Assessment a mandatory examination for promotion to upper level undergraduate studies. But it would be naïve not to expect some enterprising institutions of higher education to at least consider making them so in the very near future. Consequently, librarians of all stripes (public. academic, school, or others) would do well to read and study Stimulated Recall and Mental Models if they are truly committed to leading the charge on advancing information literacy in the Information Age. In this book are some valuable how-tos for instructing patrons on searching electronic databases. And some of those same principles could be applicable to other areas of information literacy instruction."
    Pages
    xi, 289 S
    Series
    Research methods in library and information studies ; 2
  9. Morozov, E.: ¬The net delusion : the dark side of internet freedom (2011) 0.00
    4.1734535E-4 = product of:
      0.00626018 = sum of:
        0.0046665967 = weight(_text_:in in 4952) [ClassicSimilarity], result of:
          0.0046665967 = score(doc=4952,freq=14.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.15905021 = fieldWeight in 4952, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=4952)
        0.0015935833 = weight(_text_:s in 4952) [ClassicSimilarity], result of:
          0.0015935833 = score(doc=4952,freq=4.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.06795235 = fieldWeight in 4952, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.03125 = fieldNorm(doc=4952)
      0.06666667 = coord(2/30)
    
    Abstract
    "The revolution will be Twittered!" declared journalist Andrew Sullivan after protests erupted in Iran. But as journalist and social commentator Evgeny Morozov argues in "The Net Delusion," the Internet is a tool that both revolutionaries and authoritarian governments can use. For all of the talk in the West about the power of the Internet to democratize societies, regimes in Iran and China are as stable and repressive as ever. Social media sites have been used there to entrench dictators and threaten dissidents, making it harder--not easier--to promote democracy. In this spirited book, journalist and social commentator Evgeny Morozov shows that by falling for the supposedly democratizing nature of the Internet, Western do-gooders may have missed how it also entrenches dictators, threatens dissidents, and makes it harder-not easier-to promote democracy. Buzzwords like "21st-century statecraft" sound good in PowerPoint presentations, but the reality is that "digital diplomacy" requires just as much oversight and consideration as any other kind of diplomacy. Marshalling a compelling set of case studies, " The Net Delusion" shows why the cyber-utopian stance that the Internet is inherently liberating is wrong, and how ambitious and seemingly noble initiatives like the promotion of "Internet freedom" are misguided and, on occasion, harmful.
    Footnote
    Rez. in: JASIST 62(2011) no.12, S.2540-2543 (C. Leslie)
    Pages
    XVII, 409 S
  10. Olson, N.B.: Cataloging of audiovisual materials : a manual based on AACR2 (1992) 0.00
    3.3573908E-4 = product of:
      0.005036086 = sum of:
        0.0026457112 = weight(_text_:in in 1518) [ClassicSimilarity], result of:
          0.0026457112 = score(doc=1518,freq=2.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.09017298 = fieldWeight in 1518, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=1518)
        0.002390375 = weight(_text_:s in 1518) [ClassicSimilarity], result of:
          0.002390375 = score(doc=1518,freq=4.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.101928525 = fieldWeight in 1518, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.046875 = fieldNorm(doc=1518)
      0.06666667 = coord(2/30)
    
    Footnote
    Rez. in: Library resources and technical services 36(1992) no.4, S.525-526 (M. Johnson)
    Pages
    xii, 335 S
  11. Sherman, C.: Google power : Unleash the full potential of Google (2005) 0.00
    2.890641E-4 = product of:
      0.0043359613 = sum of:
        0.0026457112 = weight(_text_:in in 3185) [ClassicSimilarity], result of:
          0.0026457112 = score(doc=3185,freq=2.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.09017298 = fieldWeight in 3185, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3185)
        0.0016902501 = weight(_text_:s in 3185) [ClassicSimilarity], result of:
          0.0016902501 = score(doc=3185,freq=2.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.072074346 = fieldWeight in 3185, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.046875 = fieldNorm(doc=3185)
      0.06666667 = coord(2/30)
    
    Abstract
    With this title, readers learn to push the search engine to its limits and extract the best content from Google, without having to learn complicated code. "Google Power" takes Google users under the hood, and teaches them a wide range of advanced web search techniques, through practical examples. Its content is organised by topic, so reader learns how to conduct in-depth searches on the most popular search topics, from health to government listings to people.
    Pages
    XXII, 434 S

Languages

  • d 20
  • e 11

Subjects

Classifications