Search (7 results, page 1 of 1)

  • × theme_ss:"Informationsmittel"
  • × theme_ss:"Internet"
  • × year_i:[2010 TO 2020}
  1. Unzicker, A.: Wikipedia auf dem Weg zum Orwellschen Wahrheitsministerium : über den Niedergang der Online-Enzyklopädie (2018) 0.00
    0.0039636334 = product of:
      0.035672702 = sum of:
        0.035672702 = product of:
          0.071345404 = sum of:
            0.071345404 = weight(_text_:seite in 4263) [ClassicSimilarity], result of:
              0.071345404 = score(doc=4263,freq=2.0), product of:
                0.16469958 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.02940506 = queryNorm
                0.4331851 = fieldWeight in 4263, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4263)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Mit Wikipedia schien ein Traum wahr geworden zu sein - das Wissen der Menschheit, zusammengetragen in einem Gemeinschaftsprojekt, kostenlos, für alle verfügbar und frei von Kommerz, im wahrsten Sinne des Wortes die beste Seite des Internet. Obwohl nur ein Prozent der Weltbevölkerung betreffend, ist die deutsche Wikipedia dabei die zweitgrößte Abteilung - auch das schien eine besondere Erfolgsgeschichte. Und tatsächlich ist die Enzyklopädie nach wie vor unschlagbar bei Dingen wie Beethovens Geburtsdatum oder der Anzahl der Jupitermonde. Nähert man sich aber der Gegenwart in irgendeinem Artikel mit politisch-gesellschaftlichem Bezug, kommt man ins Staunen.
  2. Bhavnani, S.K.; Peck, F.A.: Scatter matters : regularities and implications for the scatter of healthcare information on the Web (2010) 0.00
    0.0028252148 = product of:
      0.025426934 = sum of:
        0.025426934 = product of:
          0.050853867 = sum of:
            0.050853867 = weight(_text_:web in 3433) [ClassicSimilarity], result of:
              0.050853867 = score(doc=3433,freq=12.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.5299281 = fieldWeight in 3433, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3433)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Despite the development of huge healthcare Web sites and powerful search engines, many searchers end their searches prematurely with incomplete information. Recent studies suggest that users often retrieve incomplete information because of the complex scatter of relevant facts about a topic across Web pages. However, little is understood about regularities underlying such information scatter. To probe regularities within the scatter of facts across Web pages, this article presents the results of two analyses: (a) a cluster analysis of Web pages that reveals the existence of three page clusters that vary in information density and (b) a content analysis that suggests the role each of the above-mentioned page clusters play in providing comprehensive information. These results provide implications for the design of Web sites, search tools, and training to help users find comprehensive information about a topic and for a hypothesis describing the underlying mechanisms causing the scatter. We conclude by briefly discussing how the analysis of information scatter, at the granularity of facts, complements existing theories of information-seeking behavior.
  3. Beuth, P.: US-Geheimdienst fürchtet Wikileaks : Dokument spricht von "Gefahr für die US-Armee" durch die Enthüllungs-Plattform im Internet (2010) 0.00
    0.002402325 = product of:
      0.021620924 = sum of:
        0.021620924 = product of:
          0.043241847 = sum of:
            0.043241847 = weight(_text_:seite in 3369) [ClassicSimilarity], result of:
              0.043241847 = score(doc=3369,freq=4.0), product of:
                0.16469958 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.02940506 = queryNorm
                0.26254982 = fieldWeight in 3369, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3369)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Content
    Es ist ein Ritterschlag für die Gruppe von Idealisten, die aus einer Handvoll Informatiker, Journalisten und Menschenrechtsaktivisten sowie mehreren Hundert Zuträgern aus aller Welt besteht. Sie sichten und bewerten Informationen, die ihnen zugespielt werden, soweit es ihnen möglich ist, und veröffentlichen die Dokumente so, dass keine Hinweise auf die jeweiligen Einsender übrig bleiben. Ihre Server stehen in Ländern, in denen Meinungsfreiheit und Quellenschutz geachtet werden. Ihre Daten verschlüsseln sie nach militärischen Standards. Bis heute ist kein Informant enttarnt worden, keines der mehr als 100 Justizverfahren gegen Wikileaks war erfolgreich. In diesem Jahr hat Wikileaks jedoch ein Problem: Geldmangel. Julian Assange und die anderen Köpfe des Projekts arbeiten ehrenamtlich und leben von ihrem Ersparten, dass mittlerweile jedoch aufgebraucht ist. Weil aber die Popularität der Seite immer weiter steigt, erhöhen sich auch die Kosten für Server und Verwaltung ständig. 600.000 US-Dollar brauchen die Macher für dieses Jahr, um das Projekt weiterhin in Vollzeit betreiben zu können. Knapp zwei Drittel davon haben sie in den letzten Monaten durch Spenden eingenommen. Der Bericht des US-Geheimdienstes kommt deshalb auch zur rechten Zeit. Er ist in erster Linie Werbung für Wikileaks. Julian Assange und die anderen sehen sich gerne als kompromisslose Geheimnisverräter und damit als Vorreiter der Informationsfreiheit und des investigativen Journalismus. Der US-Report belegt die Relevanz der Plattform. Wenn er denn echt ist. Die Stärken von Wikileaks sind nämlich zugleich Schwächen: Anonymität und Intransparenz sind einerseits notwendige Schutzmaßnahmen, machen es andererseits aber schwierig, die Veröffentlichungen auf ihre Authentizität zu prüfen. Wikileaks hat auch schon gefälschte Dokumente veröffentlicht - etwa einen positiven Aids-Test von Apple-Chef Steve Jobs - dabei nach eigenen Angaben aber immer darauf hingewiesen, dass es sich um eine Fälschung handelt. In den wenigen Berichten jedenfalls, die es bislang zur nun veröffentlichten Analyse des Geheimdienstes gibt, ist von Zweifeln nichts zu spüren - das Vertrauen auch der etablierten Medien in Wikileaks ist mittlerweile groß.
    Ernsthaft bedroht fühlen sich die Wikileaks-Köpfe durch das Dokument übrigens nicht. Verfasst wurde es schließlich schon vor zwei Jahren. So steht es jedenfalls auf Seite 1. Sollte seitdem jemand versucht haben, die Anregungen daraus umzusetzen, war das nicht erfolgreich. "Scheint, als ob der Plan, unsere Quellen offenzulegen, ineffektiv war", teilt Assange süffisant mit. In einer E-Mail an die Frankfurter Rundschau kündigt er aber auch schon weitere Veröffentlichungen an: "Das US-Militär kann nicht als legitimer Vertreter der Regierung gelten, wenn es Angriffe auf die Presse und seine eigenen Soldaten vorschlägt, die von Menschenrechtsverletzungen berichten. Wir untersuchen dieses Thema und werden bald mehr über Attacken des US-Militärs zu enthüllen haben." Auch das darf man als Werbung in eigener Sache betrachten. Der Australier ist der einzige aus dem innersten redaktionellen Kreis von Wikileaks, der unter seinem "Klarnamen" lebt und auftritt. Das nächste Mal am 15. April in Berlin. Bei der re:publica, der größten deutschen "Konferenz über Blogs, soziale Medien und die digitale Gesellschaft" wird er das Projekt noch einmal vorstellen - und sich dafür feiern lassen, dass er selbst US-Geheimdienste nervös macht."
  4. Hartmann, B.: Ab ins MoMA : zum virtuellen Museumsgang (2011) 0.00
    0.0013279931 = product of:
      0.011951938 = sum of:
        0.011951938 = product of:
          0.023903877 = sum of:
            0.023903877 = weight(_text_:22 in 1821) [ClassicSimilarity], result of:
              0.023903877 = score(doc=1821,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.23214069 = fieldWeight in 1821, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1821)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    3. 5.1997 8:44:22
  5. Okoli, C.; Mehdi, M.; Mesgari, M.; Nielsen, F.A.; Lanamäki, A.: Wikipedia in the eyes of its beholders : a systematic review of scholarly research on Wikipedia readers and readership (2014) 0.00
    0.0013279931 = product of:
      0.011951938 = sum of:
        0.011951938 = product of:
          0.023903877 = sum of:
            0.023903877 = weight(_text_:22 in 1540) [ClassicSimilarity], result of:
              0.023903877 = score(doc=1540,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.23214069 = fieldWeight in 1540, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1540)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    18.11.2014 13:22:03
  6. Zielinski, K.; Nielek, R.; Wierzbicki, A.; Jatowt, A.: Computing controversy : formal model and algorithms for detecting controversy on Wikipedia and in search queries (2018) 0.00
    9.611576E-4 = product of:
      0.008650418 = sum of:
        0.008650418 = product of:
          0.017300837 = sum of:
            0.017300837 = weight(_text_:web in 5093) [ClassicSimilarity], result of:
              0.017300837 = score(doc=5093,freq=2.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.18028519 = fieldWeight in 5093, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5093)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Controversy is a complex concept that has been attracting attention of scholars from diverse fields. In the era of Internet and social media, detecting controversy and controversial concepts by the means of automatic methods is especially important. Web searchers could be alerted when the contents they consume are controversial or when they attempt to acquire information on disputed topics. Presenting users with the indications and explanations of the controversy should offer them chance to see the "wider picture" rather than letting them obtain one-sided views. In this work we first introduce a formal model of controversy as the basis of computational approaches to detecting controversial concepts. Then we propose a classification based method for automatic detection of controversial articles and categories in Wikipedia. Next, we demonstrate how to use the obtained results for the estimation of the controversy level of search queries. The proposed method can be incorporated into search engines as a component responsible for detection of queries related to controversial topics. The method is independent of the search engine's retrieval and search results recommendation algorithms, and is therefore unaffected by a possible filter bubble. Our approach can be also applied in Wikipedia or other knowledge bases for supporting the detection of controversy and content maintenance. Finally, we believe that our results could be useful for social science researchers for understanding the complex nature of controversy and in fostering their studies.
  7. Höhn, S.: Stalins Badezimmer in Wikipedia : Die Macher der Internet-Enzyklopädie diskutieren über Verantwortung und Transparenz. Der Brockhaus kehrt dagegen zur gedruckten Ausgabe zurück. (2012) 0.00
    7.825275E-4 = product of:
      0.0070427475 = sum of:
        0.0070427475 = product of:
          0.014085495 = sum of:
            0.014085495 = weight(_text_:22 in 2171) [ClassicSimilarity], result of:
              0.014085495 = score(doc=2171,freq=4.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.13679022 = fieldWeight in 2171, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2171)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Content
    Der neue Herausgeber des Brockhaus, ein Tochterverlag von Bertelsmann, hat unterdessen angekündigt, zum gedruckten Lexikon zurückzukehren. Etwa Anfang 2015 soll die 22. Auflage erscheinen. In Zeiten des virtuellen Informationsoverkills gebe es einen Bedarf an Orientierung, an Relevanzvorgaben, sagt Geschäftsführer Christoph Hünermann. Ausgerechnet Bertelsmann druckte 2008 ein knapp 1 000 Seiten langes Wikipedia-Lexikon mit den 50 000 meist gesuchten Begriffen. Eine Experten-Redaktion überprüfte die Einträge sicherheitshalber zuvor - soll allerdings kaum Fehler gefunden haben."
    Source
    Frankfurter Rundschau. Nr.76 vom 29.3.2012, S.22-23