Search (100 results, page 1 of 5)

  • × theme_ss:"Internet"
  • × type_ss:"a"
  • × year_i:[2010 TO 2020}
  1. Joint, N.: Web 2.0 and the library : a transformational technology? (2010) 0.05
    0.05485157 = product of:
      0.10970314 = sum of:
        0.03853567 = weight(_text_:wide in 4202) [ClassicSimilarity], result of:
          0.03853567 = score(doc=4202,freq=2.0), product of:
            0.19679762 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.044416238 = queryNorm
            0.1958137 = fieldWeight in 4202, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.03125 = fieldNorm(doc=4202)
        0.059131898 = weight(_text_:web in 4202) [ClassicSimilarity], result of:
          0.059131898 = score(doc=4202,freq=16.0), product of:
            0.14495286 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.044416238 = queryNorm
            0.4079388 = fieldWeight in 4202, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=4202)
        0.012035574 = product of:
          0.024071148 = sum of:
            0.024071148 = weight(_text_:22 in 4202) [ClassicSimilarity], result of:
              0.024071148 = score(doc=4202,freq=2.0), product of:
                0.1555381 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044416238 = queryNorm
                0.15476047 = fieldWeight in 4202, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4202)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Purpose - This paper is the final one in a series which has tried to give an overview of so-called transformational areas of digital library technology. The aim has been to assess how much real transformation these applications can bring about, in terms of creating genuine user benefit and also changing everyday library practice. Design/methodology/approach - The paper provides a summary of some of the legal and ethical issues associated with web 2.0 applications in libraries, associated with a brief retrospective view of some relevant literature. Findings - Although web 2.0 innovations have had a massive impact on the larger World Wide Web, the practical impact on library service delivery has been limited to date. What probably can be termed transformational in the effect of web 2.0 developments on library and information work is their effect on some underlying principles of professional practice. Research limitations/implications - The legal and ethical challenges of incorporating web 2.0 platforms into mainstream institutional service delivery need to be subject to further research, so that the risks associated with these innovations are better understood at the strategic and policy-making level. Practical implications - This paper makes some recommendations about new principles of library and information practice which will help practitioners make better sense of these innovations in their overall information environment. Social implications - The paper puts in context some of the more problematic social impacts of web 2.0 innovations, without denying the undeniable positive contribution of social networking to the sphere of human interactivity. Originality/value - This paper raises some cautionary points about web 2.0 applications without adopting a precautionary approach of total prohibition. However, none of the suggestions or analysis in this piece should be considered to constitute legal advice. If such advice is required, the reader should consult appropriate legal professionals.
    Date
    22. 1.2011 17:54:04
  2. Yang, S.; Han, R.; Ding, J.; Song, Y.: ¬The distribution of Web citations (2012) 0.05
    0.0547482 = product of:
      0.16424459 = sum of:
        0.108632244 = weight(_text_:web in 2735) [ClassicSimilarity], result of:
          0.108632244 = score(doc=2735,freq=24.0), product of:
            0.14495286 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.044416238 = queryNorm
            0.7494315 = fieldWeight in 2735, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2735)
        0.05561234 = weight(_text_:computer in 2735) [ClassicSimilarity], result of:
          0.05561234 = score(doc=2735,freq=4.0), product of:
            0.16231956 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.044416238 = queryNorm
            0.34261024 = fieldWeight in 2735, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.046875 = fieldNorm(doc=2735)
      0.33333334 = coord(2/6)
    
    Abstract
    A substantial amount of research has focused on the persistence or availability of Web citations. The present study analyzes Web citation distributions. Web citations are defined as the mentions of the URLs of Web pages (Web resources) as references in academic papers. The present paper primarily focuses on the analysis of the URLs of Web citations and uses three sets of data, namely, Set 1 from the Humanities and Social Science Index in China (CSSCI, 1998-2009), Set 2 from the publications of two international computer science societies, Communications of the ACM and IEEE Computer (1995-1999), and Set 3 from the medical science database, MEDLINE, of the National Library of Medicine (1994-2006). Web citation distributions are investigated based on Web site types, Web page types, URL frequencies, URL depths, URL lengths, and year of article publication. Results show significant differences in the Web citation distributions among the three data sets. However, when the URLs of Web citations with the same hostnames are aggregated, the distributions in the three data sets are consistent with the power law (the Lotka function).
  3. Oliveira Machado, L.M.; Souza, R.R.; Simões, M. da Graça: Semantic web or web of data? : a diachronic study (1999 to 2017) of the publications of Tim Berners-Lee and the World Wide Web Consortium (2019) 0.04
    0.04494749 = product of:
      0.13484247 = sum of:
        0.04816959 = weight(_text_:wide in 5300) [ClassicSimilarity], result of:
          0.04816959 = score(doc=5300,freq=2.0), product of:
            0.19679762 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.044416238 = queryNorm
            0.24476713 = fieldWeight in 5300, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5300)
        0.08667288 = weight(_text_:web in 5300) [ClassicSimilarity], result of:
          0.08667288 = score(doc=5300,freq=22.0), product of:
            0.14495286 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.044416238 = queryNorm
            0.59793836 = fieldWeight in 5300, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5300)
      0.33333334 = coord(2/6)
    
    Abstract
    The web has been, in the last decades, the place where information retrieval achieved its maximum importance, given its ubiquity and the sheer volume of information. However, its exponential growth made the retrieval task increasingly hard, relying in its effectiveness on idiosyncratic and somewhat biased ranking algorithms. To deal with this problem, a "new" web, called the Semantic Web (SW), was proposed, bringing along concepts like "Web of Data" and "Linked Data," although the definitions and connections among these concepts are often unclear. Based on a qualitative approach built over a literature review, a definition of SW is presented, discussing the related concepts sometimes used as synonyms. It concludes that the SW is a comprehensive and ambitious construct that includes the great purpose of making the web a global database. It also follows the specifications developed and/or associated with its operationalization and the necessary procedures for the connection of data in an open format on the web. The goals of this comprehensive SW are the union of two outcomes still tenuously connected: the virtually unlimited possibility of connections between data-the web domain-with the potentiality of the automated inference of "intelligent" systems-the semantic component.
    Theme
    Semantic Web
  4. Schillinger, T.; Winterschladen, S.: Was die Welt zusammenhält : Sieben Menschen schützen das Internet (2010) 0.04
    0.04045966 = product of:
      0.08091932 = sum of:
        0.034061044 = weight(_text_:wide in 3718) [ClassicSimilarity], result of:
          0.034061044 = score(doc=3718,freq=4.0), product of:
            0.19679762 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.044416238 = queryNorm
            0.17307651 = fieldWeight in 3718, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3718)
        0.018478718 = weight(_text_:web in 3718) [ClassicSimilarity], result of:
          0.018478718 = score(doc=3718,freq=4.0), product of:
            0.14495286 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.044416238 = queryNorm
            0.12748088 = fieldWeight in 3718, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3718)
        0.028379556 = weight(_text_:computer in 3718) [ClassicSimilarity], result of:
          0.028379556 = score(doc=3718,freq=6.0), product of:
            0.16231956 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.044416238 = queryNorm
            0.17483756 = fieldWeight in 3718, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3718)
      0.5 = coord(3/6)
    
    Content
    "Die Geschichte klingt wie eine Verschwörungstheorie oder ein Endzeit-Thriller. Es geht um das Internet. Es geht um sieben Menschen. Es geht um sieben Schlüssel, mit denen die Hüter das World Wide Web retten können. Der Plot geht so: Im Falle eines Cyberangriffs kommen die Bewahrer an einem geheimen Ort in den USA zusammen, um dort das Internet neu zu starten. So fiktiv es sich anhört: Seit vergangener Woche, mit Einführung des Online-Sicherheitssystems DNSSEC (Domain Name System Security), gibt es dieses geheimnisvolle Team tatsächlich. Das Internet ist ein verführerisches Ziel für Attacken. Mehr als zwei Drittel aller Deutschen sind online, weltweit jeder Fünfte. Online-Banking, Internetauktionen, soziale Netzwerke wie Facebook und Twitter - ein großer Teil unseres Lebens spielt sich in der virtuellen Welt ab. "Wenn das Internet weltweit lahm gelegt ist, ist die Welt lahm gelegt", sagt Isabell Unseld vom Anti-Viren-Spezialisten McAfee. Kaum vorstellbar, wenn Kriminelle diese Schwäche ausnutzen könnten. An diesem Punkt der Geschichte kommen die sieben Herrscher über das Internet wieder ins Spiel. Sie leben in Tschechien, Kanada, China, Trinidad Tobago, Burkina Faso, USA und Großbritannien. Einer von ihnen hat sich jetzt verraten. Paul Kane, ein Engländer, hat erzählt, dass er seinen Schlüssel in einer bombensicheren Tasche in einem Tresor aufbewahre.
    Dass es die sieben Retter tatsächlich gibt, sagt auch Costin Raiu, Chef des weltweiten Virenanalystenteams der Internet-Sicherheitsfirma Kaspersky: "Das ist kein Märchen, das ist wirklich so. Ich habe zwar noch keinen persönlich kennen gelernt, weil sie im Verborgenen agieren. Aber dass es sie gibt, ist bestätigt." Sollte einmal das Netz beschädigt werden müssen fünf der sieben Auserwählten zusammenkommen, um mit ihren Freischalt-Karten gemeinsam die Cyberattacke abzuwehren. Das hat die Non-Profit-Organisation ICANN bekanntgegeben, die als eine Art Weltregierung des Netzes gilt. Dass es technisch gar nicht so kompliziert ist, das Internet grundlegend zu stören, weiß man seit rund zwei Jahren, als Sicherheitsexperten ein kritisches Problem beim so genannten Domain Name System (DNS) ausmachten. Das DNS ist dafür zuständig, die Ziffern-Adresse einer Internetseite mit einem für den Nutzer leicht merkbaren Namen zu verknüpfen. "Bislang war es Kriminellen möglich, sich bei diesem Schritt dazwischen zu schalten, um damit Firmen auszuspionieren oder im einfachsten Fall Suchanfragen auf eine Seite lenken, um damit Aufmerksamkeit zur erregen", sagt Jürgen Kuri, Internetexperte der Computer-Fachzeitschrift CT.
    "Gefährlicher Alltag Sicherheit und Überlegenheit in Forschung, Wirtschaft und Militär waren Antriebe für die Entwicklung des Internets und sie sind zugleich auch eine Gefahr für die Online-Nutzer. Seit in fast allen Büros in den Industrie- und Schwellenländern Computer mit Internetanschluss stehen, spähen Datendiebe im Auftrag von Staaten und Firmen Forschungsinformationen oder Regierungspläne aus. Cyberwar ist kein Kino mehr, es ist Alltag. Das Bundesamt für Sicherheit und Informationstechnik und der Verfassungsschutz warnen regelmäßig vor Angriffen auf die Computer der Bundesbehörden. Vornehmlich handelt es sich um Versuche, sensible Berichte zu erhalten. Forschungsinstitute und forschende Unternehmen sind ebenso Ziel von Spionageangriffen aus dem Netz. Aufgrund der Sensibilität des Internets ernannte beispielsweise US-Präsident Barack Obama Cybersicherheit zu einer der wichtigsten Aufgabe innerhalb der Landesverteidigung. Dieses Vorgehen dürfte nicht zuletzt auch aus der Erfahrung der USA selbst resultieren, die im Kosovo-Krieg auch Cyber-Waffen eingesetzt haben sollen: Manipulation von Luftabwehr und Telefonnetzen sowie von Bankkonten."
    "Am Anfang war der Schock Ohne Satelliten gäbe es womöglich gar kein Internet. Denn als Antwort auf den Sputnik-Schock gründet die US-Regierung 1957 ihre neues Forschungszentrum Arpa (Advanced Research Projects Agency). Nachdem die Wissenschaftler in 18 Monaten den ersten US-Satelliten gebaut haben, entwicklen sie Computernetzwerke. Die Dezentralität ist ihnen besonders wichtig. Die verschickten Informationen werden in Pakete zerteilt und über verschiedene Wege zum Empfänger geschickt. Fällt unterwegs ein Knoten aus, etwa im Krieg, suchen sich die Teile der Botschaft den unbeschädigten Weg. Die Kommunikation ist so kaum zu unterbinden. Das Arpanet gilt als die Geburtsstunde des Internet. Die Universität Los Angeles (UCLA) verbindet sich 1969 mit dem Rechner von Stanford. Als erste Botschaft ist das Wort "login" verabredet. Doch nach dem L und dem O ist Schluss. Die Verbindung ist zusammengebrochen, die Revolution hat begonnen. Über das rasant wachsende Netz tauschen sich Forscher aus. Damals lässt sich das Netz aber nur von Profis nutzen. Erst mit der Entwicklung des World Wide Web am Kernforschungszentrum Cern bekommt das Netz Anfang der 90er Jahre das Gesicht, das wir heute kennen."
  5. Villela Dantas, J.R.; Muniz Farias, P.F.: Conceptual navigation in knowledge management environments using NavCon (2010) 0.04
    0.04017412 = product of:
      0.12052235 = sum of:
        0.057803504 = weight(_text_:wide in 4230) [ClassicSimilarity], result of:
          0.057803504 = score(doc=4230,freq=2.0), product of:
            0.19679762 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.044416238 = queryNorm
            0.29372054 = fieldWeight in 4230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.046875 = fieldNorm(doc=4230)
        0.062718846 = weight(_text_:web in 4230) [ClassicSimilarity], result of:
          0.062718846 = score(doc=4230,freq=8.0), product of:
            0.14495286 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.044416238 = queryNorm
            0.43268442 = fieldWeight in 4230, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4230)
      0.33333334 = coord(2/6)
    
    Abstract
    This article presents conceptual navigation and NavCon, an architecture that implements this navigation in World Wide Web pages. NavCon architecture makes use of ontology as metadata to contextualize user search for information. Based on ontologies, NavCon automatically inserts conceptual links in Web pages. By using these links, the user may navigate in a graph representing ontology concepts and their relationships. By browsing this graph, it is possible to reach documents associated with the user desired ontology concept. This Web navigation supported by ontology concepts we call conceptual navigation. Conceptual navigation is a technique to browse Web sites within a context. The context filters relevant retrieved information. The context also drives user navigation through paths that meet his needs. A company may implement conceptual navigation to improve user search for information in a knowledge management environment. We suggest that the use of an ontology to conduct navigation in an Intranet may help the user to have a better understanding about the knowledge structure of the company.
  6. Nejdl, W.; Risse, T.: Herausforderungen für die nationale, regionale und thematische Webarchivierung und deren Nutzung (2015) 0.04
    0.04017412 = product of:
      0.12052235 = sum of:
        0.057803504 = weight(_text_:wide in 2531) [ClassicSimilarity], result of:
          0.057803504 = score(doc=2531,freq=2.0), product of:
            0.19679762 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.044416238 = queryNorm
            0.29372054 = fieldWeight in 2531, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.046875 = fieldNorm(doc=2531)
        0.062718846 = weight(_text_:web in 2531) [ClassicSimilarity], result of:
          0.062718846 = score(doc=2531,freq=8.0), product of:
            0.14495286 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.044416238 = queryNorm
            0.43268442 = fieldWeight in 2531, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2531)
      0.33333334 = coord(2/6)
    
    Abstract
    Das World Wide Web ist als weltweites Informations- und Kommunikationsmedium etabliert. Neue Technologien erweitern regelmäßig die Nutzungsformen und erlauben es auch unerfahrenen Nutzern, Inhalte zu publizieren oder an Diskussionen teilzunehmen. Daher wird das Web auch als eine gute Dokumentation der heutigen Gesellschaft angesehen. Aufgrund seiner Dynamik sind die Inhalte des Web vergänglich und neue Technologien und Nutzungsformen stellen regelmäßig neue Herausforderungen an die Sammlung von Webinhalten für die Webarchivierung. Dominierten in den Anfangstagen der Webarchivierung noch statische Seiten, so hat man es heute häufig mit dynamisch generierten Inhalten zu tun, die Informationen aus verschiedenen Quellen integrieren. Neben dem klassischen domainorientieren Webharvesting kann auch ein steigendes Interesse aus verschiedenen Forschungsdisziplinen an thematischen Webkollektionen und deren Nutzung und Exploration beobachtet werden. In diesem Artikel werden einige Herausforderungen und Lösungsansätze für die Sammlung von thematischen und dynamischen Inhalten aus dem Web und den sozialen Medien vorgestellt. Des Weiteren werden aktuelle Probleme der wissenschaftlichen Nutzung diskutiert und gezeigt, wie Webarchive und andere temporale Kollektionen besser durchsucht werden können.
  7. Klic, L.; Miller, M.; Nelson, J.K.; Germann, J.E.: Approaching the largest 'API' : extracting information from the Internet with Python (2018) 0.04
    0.04017412 = product of:
      0.12052235 = sum of:
        0.057803504 = weight(_text_:wide in 4239) [ClassicSimilarity], result of:
          0.057803504 = score(doc=4239,freq=2.0), product of:
            0.19679762 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.044416238 = queryNorm
            0.29372054 = fieldWeight in 4239, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.046875 = fieldNorm(doc=4239)
        0.062718846 = weight(_text_:web in 4239) [ClassicSimilarity], result of:
          0.062718846 = score(doc=4239,freq=8.0), product of:
            0.14495286 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.044416238 = queryNorm
            0.43268442 = fieldWeight in 4239, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4239)
      0.33333334 = coord(2/6)
    
    Abstract
    This article explores the need for libraries to algorithmically access and manipulate the world's largest API: the Internet. The billions of pages on the 'Internet API' (HTTP, HTML, CSS, XPath, DOM, etc.) are easily accessible and manipulable. Libraries can assist in creating meaning through the datafication of information on the world wide web. Because most information is created for human consumption, some programming is required for automated extraction. Python is an easy-to-learn programming language with extensive packages and community support for web page automation. Four packages (Urllib, Selenium, BeautifulSoup, Scrapy) in Python can automate almost any web page for all sized projects. An example warrant data project is explained to illustrate how well Python packages can manipulate web pages to create meaning through assembling custom datasets.
  8. Majica, M.: ¬Eine ganz große Nummer : dem User eröffnet die Umstellung viele ungekannte Möglicchkeiten - zumindest in Zukunft (2012) 0.04
    0.036193818 = product of:
      0.072387636 = sum of:
        0.028901752 = weight(_text_:wide in 224) [ClassicSimilarity], result of:
          0.028901752 = score(doc=224,freq=2.0), product of:
            0.19679762 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.044416238 = queryNorm
            0.14686027 = fieldWeight in 224, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0234375 = fieldNorm(doc=224)
        0.015679711 = weight(_text_:web in 224) [ClassicSimilarity], result of:
          0.015679711 = score(doc=224,freq=2.0), product of:
            0.14495286 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.044416238 = queryNorm
            0.108171105 = fieldWeight in 224, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0234375 = fieldNorm(doc=224)
        0.02780617 = weight(_text_:computer in 224) [ClassicSimilarity], result of:
          0.02780617 = score(doc=224,freq=4.0), product of:
            0.16231956 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.044416238 = queryNorm
            0.17130512 = fieldWeight in 224, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.0234375 = fieldNorm(doc=224)
      0.5 = coord(3/6)
    
    Abstract
    An diesem Mittwoch ändert sich die Architektur des World Wide Web: Provider, Betreiber von Webseiten und Hersteller von Computern und Smartphones stellen auf den neuen Adressstandard IPv6 um.
    Content
    "Nun beginnt für das Internet eine neue Zeitrechnung. Die Organisation Internet Society spricht von einem Meilenstein auf dem Weg in die Zukunft: Am 6. Juni wird das neue Internet Protocol Version 6 eingeführt, Insidern besser bekannt unter der Abkürzung IPv6. Für diese technische Neuerung wurde es nach Ansicht von Experten höchste Zeit. Wir dokumentieren die wichtigsten Fragen zum Start, dem IPv6 Launch Day. IPv6 kommt - wird alles anders? In den Maschinenräumen des Internets schon. Doch so groß die Veränderungen im Inneren auch sind: Äußerlich wird sich erst mal nichts ändern. Auf den ersten, zweiten und auch dritten Blick wird das Internet nach diesem 6. Juni genauso funktionieren wie sonst. Warum wird diese Umstellung überhaupt gemacht? Weil die bisherigen IP-Adressen knapp geworden sind. Mit dem bisher üblichen System können rund vier Milliarden Adressen ausgeben werden. Da die Zahl der weltweiten PC, Tablet-Computer, Smartphone, Spiele-Konsolen und ähnlichen Geräten rasant gestiegen ist, gibt es längst zu wenige Adressen. Bisher funktioniert das Internet nur deshalb meist reibungslos, weil all diese Geräte nicht gleichzeitig online sind.
    Wie viel mehr neue IP-Adressen sind denn nun möglich? Mit dem neuen IPv6 stehen 340 Sextillionen Adressen zur Verfügung - das ist eine 34 mit 37 Nullen. Das reicht zumindest fürs Erste. Was sind IP-Adressen überhaupt? Sie sind quasi die Adresse von Computern, an die Daten oder Anfragen geschickt werden. Jede Homepage hat eine eine solche Adresse, und jeder Internetnutzer auch. IP-Adressen in der bisher gängigen Version 4 bestehen aus vier Blöcken maximal dreistelliger Zahlen mit Werten zwischen 0 und 255. So hat etwa die Webseite des Chaos Computer Clubs die IP-Adresse 213.73.89.122. Da sich aber www.ccc.de leichter merken lässt, übersetzen sogenannte DNS-Server zwischen den Wort- und den Zahl-Adressen. Und was ist anders an IPv6? Die Adressen sehen zum einen anders aus: Der Wikipedia-Eintrag zu IPv6 findet sich etwa unter 2001:0db8:85a3:08d3:1319:8a2e:0370:7344. Zum anderen enthalten sie 128 Bit Information statt bisher 32 Bit. Dadurch vergrößert sich die Anzahl möglicher Adressen, der sogenannte Adressraum. Außerdem wird durch den neuartigen Aufbau auch die Verwaltung in den Innereien des Internets vereinfacht. Deshalb haben zahllose Unternehmen und Initiativen seit Jahren an der Einführung des neuen Protokolls gearbeitet. Große Software-Firmen wie Microsoft, Apple oder Google haben die meisten aktuellen Programme längst so überarbeitet, dass sie IPv6 "sprechen". Sind die alten Adressen damit überholt? Für einige Jahre werden beide Protokoll-Versionen parallel laufen, auch um einen reibungslosen Übergang zu gewährleisten. Die Netzbetreiber müssen sich bei der Umstellung auf IPv6 ohnehin erst vom Skelett des Internets zum einzelnen Kunden vorarbeiten. Während die zentrale Infrastruktur etwa bei der Telekom bereits IPv6 beherrsche, wie deren Sprecher Ralf Sauerzapf erläutert, soll es bis Ende dieses Jahres immerhin bei bis zu 800.000 Endkunden angekommen sein. Dies gelte aber nur für Kunden, die auf neue "IP-Anschlüsse" umstellen.
  9. Egbert, J.; Biber, D.; Davies, M.: Developing a bottom-up, user-based method of web register classification (2015) 0.04
    0.035583735 = product of:
      0.1067512 = sum of:
        0.08869784 = weight(_text_:web in 2158) [ClassicSimilarity], result of:
          0.08869784 = score(doc=2158,freq=16.0), product of:
            0.14495286 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.044416238 = queryNorm
            0.6119082 = fieldWeight in 2158, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2158)
        0.01805336 = product of:
          0.03610672 = sum of:
            0.03610672 = weight(_text_:22 in 2158) [ClassicSimilarity], result of:
              0.03610672 = score(doc=2158,freq=2.0), product of:
                0.1555381 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044416238 = queryNorm
                0.23214069 = fieldWeight in 2158, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2158)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    This paper introduces a project to develop a reliable, cost-effective method for classifying Internet texts into register categories, and apply that approach to the analysis of a large corpus of web documents. To date, the project has proceeded in 2 key phases. First, we developed a bottom-up method for web register classification, asking end users of the web to utilize a decision-tree survey to code relevant situational characteristics of web documents, resulting in a bottom-up identification of register and subregister categories. We present details regarding the development and testing of this method through a series of 10 pilot studies. Then, in the second phase of our project we applied this procedure to a corpus of 53,000 web documents. An analysis of the results demonstrates the effectiveness of these methods for web register classification and provides a preliminary description of the types and distribution of registers on the web.
    Date
    4. 8.2015 19:22:04
  10. Schaarwächter, M.: InetBib: Etabliert (2010) 0.03
    0.034674477 = product of:
      0.10402343 = sum of:
        0.067437425 = weight(_text_:wide in 3477) [ClassicSimilarity], result of:
          0.067437425 = score(doc=3477,freq=2.0), product of:
            0.19679762 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.044416238 = queryNorm
            0.342674 = fieldWeight in 3477, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3477)
        0.036585998 = weight(_text_:web in 3477) [ClassicSimilarity], result of:
          0.036585998 = score(doc=3477,freq=2.0), product of:
            0.14495286 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.044416238 = queryNorm
            0.25239927 = fieldWeight in 3477, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3477)
      0.33333334 = coord(2/6)
    
    Abstract
    Die 1994 gegründete Mailingliste hat zurzeit 6500 Teilnehmer / Fachbeiträge, turbulente Diskussionen und jede Menge Stellenanzeigen InetBib ist seit 1994, also seit der Steinzeit des breit genutzten Word Wide Web, eine Gruppe von Personen, die auf elektronischen Wegen über Internetnutzung in Bibliotheken diskutieren. Steinzeit? Ist InetBib ein Fossil? Laut Wikipedia ist ein Fossil ein Zeugnis vergangenen Lebens aus der Erdgeschichte. Das Attribut vergangen passt aber in keiner Weise auf InetBib: Obwohl schon oft totgesagt erfreut sich dieser Mailverteiler immer größerer Beliebtheit. Zurzeit etwa 6500 Teilnehmer lesen und schreiben über neue Projekte, Ideen und Stellenangebote rund um Bibliotheken im Allgemeinen und Informationsvermittlung im Besonderen.
  11. Johnson, E.H.: S R Ranganathan in the Internet age (2019) 0.03
    0.029720977 = product of:
      0.08916293 = sum of:
        0.057803504 = weight(_text_:wide in 5406) [ClassicSimilarity], result of:
          0.057803504 = score(doc=5406,freq=2.0), product of:
            0.19679762 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.044416238 = queryNorm
            0.29372054 = fieldWeight in 5406, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.046875 = fieldNorm(doc=5406)
        0.031359423 = weight(_text_:web in 5406) [ClassicSimilarity], result of:
          0.031359423 = score(doc=5406,freq=2.0), product of:
            0.14495286 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.044416238 = queryNorm
            0.21634221 = fieldWeight in 5406, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=5406)
      0.33333334 = coord(2/6)
    
    Abstract
    S R Ranganathan's ideas have influenced library classification since the inception of his Colon Classification in 1933. His address at Elsinore, "Library Classification Through a Century", was his grand vision of the century of progress in classification from 1876 to 1975, and looked to the future of faceted classification as the means to provide a cohesive system to organize the world's information. Fifty years later, the internet and its achievements, social ecology, and consequences present a far more complicated picture, with the library as he knew it as a very small part and the problems that he confronted now greatly exacerbated. The systematic nature of Ranganathan's canons, principles, postulates, and devices suggest that modern semantic algorithms could guide automatic subject tagging. The vision presented here is one of internet-wide faceted classification and retrieval, implemented as open, distributed facets providing unified faceted searching across all web sites.
  12. Boss, C.: Konzeption und Aufbereitung kuratierter Twitter-Listen als Recherchewerkzeug (2017) 0.02
    0.02476748 = product of:
      0.07430244 = sum of:
        0.04816959 = weight(_text_:wide in 3724) [ClassicSimilarity], result of:
          0.04816959 = score(doc=3724,freq=2.0), product of:
            0.19679762 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.044416238 = queryNorm
            0.24476713 = fieldWeight in 3724, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3724)
        0.026132854 = weight(_text_:web in 3724) [ClassicSimilarity], result of:
          0.026132854 = score(doc=3724,freq=2.0), product of:
            0.14495286 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.044416238 = queryNorm
            0.18028519 = fieldWeight in 3724, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3724)
      0.33333334 = coord(2/6)
    
    Abstract
    Meist reicht ein Blick in die Nachrichten und es wird schnell klar - Inhalte aus sozialen Medien haben einen festen Platz in der Berichterstattung eingenommen. Redakteure binden Fotos von Facebook oder Instagram in Beiträge ein, zeigen Videos von YouTube oder Snapchat und zitieren Tweets. So genannte "Netzreaktionen" und User Generated Content sind seit Langem fester Bestandteil journalistischer Formate. Soziale Netzwerke dienen aber nicht nur der Anreicherung von Beiträgen mit Bildmaterial. Worüber das Netz diskutiert, was gerade "viral" ist und sich überdurchschnittlich schnell in den Communities des World Wide Web verbreitet , dient auch als Trendbarometer und Fundus für die Themenfindung. Aber nicht alles ist bekanntlich Gold, was glänzt. Denn während soziale Netzwerke einerseits wie eine schier unerschöpfliche Quelle quotenträchtiger Stoffe anmuten, so bergen sie doch andererseits einige Hindernisse und Stolpersteine auf dem Weg zum vermeintlich strahlenden Content. Da wäre zum einen die schiere Masse an Posts und Tweets, an Snaps und Live­Videos. So offenbart allein die Nutzerstatistik der Plattform Twitter aus dem Jahr 2016 eine Bilanz von etwa 500 Millionen Tweets - täglich. Zum anderen müssen authentische Inhalte von Spam und Fakes getrennt werden. Journalisten - und alle, die sie bei ihrer Tätigkeit unterstützen - stehen also vor der nicht zu unterschätzenden Herausforderung, soziale Medien effizient zu beobachten, in ihnen zu recherchieren sowie interessante und gleichzeitig echte Inhalte zu selektieren. An die Kuration (lat. curare = sorgen, sich kümmern) von Webinhalten werden bestimmte Erwartungen gestellt. Sie erfordert Expertenwissen auf den abgedeckten Gebieten, ein gutes Informationsmanagement, eine enge Vernetzung mit Quellen und Kanälen sowie die Fähigkeit, den Überblick zu behalten.
  13. Bhattacharya, S.; Yang, C.; Srinivasan, P.; Boynton, B.: Perceptions of presidential candidates' personalities in twitter (2016) 0.02
    0.021071352 = product of:
      0.063214056 = sum of:
        0.04816959 = weight(_text_:wide in 2635) [ClassicSimilarity], result of:
          0.04816959 = score(doc=2635,freq=2.0), product of:
            0.19679762 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.044416238 = queryNorm
            0.24476713 = fieldWeight in 2635, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2635)
        0.0150444675 = product of:
          0.030088935 = sum of:
            0.030088935 = weight(_text_:22 in 2635) [ClassicSimilarity], result of:
              0.030088935 = score(doc=2635,freq=2.0), product of:
                0.1555381 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044416238 = queryNorm
                0.19345059 = fieldWeight in 2635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2635)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Political sentiment analysis using social media, especially Twitter, has attracted wide interest in recent years. In such research, opinions about politicians are typically divided into positive, negative, or neutral. In our research, the goal is to mine political opinion from social media at a higher resolution by assessing statements of opinion related to the personality traits of politicians; this is an angle that has not yet been considered in social media research. A second goal is to contribute a novel retrieval-based approach for tracking public perception of personality using Gough and Heilbrun's Adjective Check List (ACL) of 110 terms describing key traits. This is in contrast to the typical lexical and machine-learning approaches used in sentiment analysis. High-precision search templates developed from the ACL were run on an 18-month span of Twitter posts mentioning Obama and Romney and these retrieved more than half a million tweets. For example, the results indicated that Romney was perceived as more of an achiever and Obama was perceived as somewhat more friendly. The traits were also aggregated into 14 broad personality dimensions. For example, Obama rated far higher than Romney on the Moderation dimension and lower on the Machiavellianism dimension. The temporal variability of such perceptions was explored.
    Date
    22. 1.2016 11:25:47
  14. Moll, S.: ¬Der Urknall des Internets : 20 Jahre WWW (2011) 0.02
    0.01934146 = product of:
      0.058024377 = sum of:
        0.018292999 = weight(_text_:web in 3720) [ClassicSimilarity], result of:
          0.018292999 = score(doc=3720,freq=2.0), product of:
            0.14495286 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.044416238 = queryNorm
            0.12619963 = fieldWeight in 3720, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3720)
        0.039731376 = weight(_text_:computer in 3720) [ClassicSimilarity], result of:
          0.039731376 = score(doc=3720,freq=6.0), product of:
            0.16231956 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.044416238 = queryNorm
            0.24477258 = fieldWeight in 3720, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3720)
      0.33333334 = coord(2/6)
    
    Content
    "Alle großen Erfindungen der Menschheitsgeschichte haben einen Entstehungsmythos. Einsteins Trambahnfahrt durch Zürich beispielsweise oder der berühmte Apfel, der Newton angeblich auf den Kopf gefallen ist. Als Tim Berners-Lee, damals Physikstudent in Manchester, Mitte der 70er Jahre mit seinem Vater in einem Stadtpark unter einem Baum saß, unterhielten sich die beiden darüber, dass sie doch in ihrem Garten auch einen solchen Baum gebrauchen könnten. Der Vater, ein Mathematiker, der an einem der ersten kommerziell genutzten Computer der Welt arbeitete, bemerkte, dass die Fähigkeit, die abstrakte Idee eines schattigen Baumes auf einen anderen Ort zu übertragen, doch eine einmalig menschliche sei. Computer könnten so etwas nicht. Das Problem ließ Berners-Lee nicht los. Deshalb suchte er, während er in den 80er Jahren als Berater am europäischen Labor für Quantenphysik (CERN) in der Schweiz arbeitete, noch immer nach einem Weg, seinem Computer beizubringen, Verbindungen zwischen den disparaten Dokumenten und Notizen auf seiner Festplatte herzustellen. Er entwarf deshalb ein System, das heute so alltäglich ist, wie Kleingeld. Lee stellte eine direkte Verknüpfung her zwischen Wörtern und Begriffen in Dokumenten und den gleichen Begriffen in anderen Dokumenten: Der Link war geboren.
    Lee hätte mit der Idee vermutlich Milliarden verdienen können. Doch das widersprach von Anfang an seiner Philosophie des Internets. Für Lee war das Internet stets Mittel zur Demokratisierung von Information und zur Beschleunigung des Fortschritts. Der Erfinder des Netzes war auch der erste Open Source-Radikale: Jede Form der Zugangsbeschränkung, ob zu kommerziellen oder zu irgendwelchen anderen Zwecken, lehnte er strikt ab. Heute arbeitet Lee an der Bostoner Eliteuniversität MIT daran, die Protokolle von Netscape und Microsoft zu standardisieren, damit Patentstreitigkeiten den Fortschritt ins Web 3.0 nicht aufhalten. Nebenbei berät er die britische Regierung dabei, Regierungsdaten zu veröffentlichen, um ein öffentliches Mitwirken an der Lösung von Verwaltungsproblemen zu ermöglichen. Das Freisetzen von Daten, davon ist Lee überzeugt, wird von ganz alleine das Gemeinwohl voranbringen. Das Netz ist für ihn ein reiner Segen der Menschheit. "Innovation ist Zufall. Man weiß nie, was Leute mit Informationen machen", sagte er jüngst. Wichtig sei alleine, dass man die Gelegenheit schafft, neue und originelle Verbindungen zu ziehen. Etwa so, wie einen Baum dorthin zu pflanzen, wo er gebraucht wird. Oder das Internet zu erfinden."
  15. Oguz, F.; Koehler, W.: URL decay at year 20 : a research note (2016) 0.02
    0.019216085 = product of:
      0.057648253 = sum of:
        0.036585998 = weight(_text_:web in 2651) [ClassicSimilarity], result of:
          0.036585998 = score(doc=2651,freq=2.0), product of:
            0.14495286 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.044416238 = queryNorm
            0.25239927 = fieldWeight in 2651, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2651)
        0.021062255 = product of:
          0.04212451 = sum of:
            0.04212451 = weight(_text_:22 in 2651) [ClassicSimilarity], result of:
              0.04212451 = score(doc=2651,freq=2.0), product of:
                0.1555381 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044416238 = queryNorm
                0.2708308 = fieldWeight in 2651, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2651)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    All text is ephemeral. Some texts are more ephemeral than others. The web has proved to be among the most ephemeral and changing of information vehicles. The research note revisits Koehler's original data set after about 20 years since it was first collected. By late 2013, the number of URLs responding to a query had fallen to 1.6% of the original sample. A query of the 6 remaining URLs in February 2015 showed only 2 still responding.
    Date
    22. 1.2016 14:37:14
  16. Dalip, D.H.; Gonçalves, M.A.; Cristo, M.; Calado, P.: ¬A general multiview framework for assessing the quality of collaboratively created content on web 2.0 (2017) 0.02
    0.017333968 = product of:
      0.0520019 = sum of:
        0.036957435 = weight(_text_:web in 3343) [ClassicSimilarity], result of:
          0.036957435 = score(doc=3343,freq=4.0), product of:
            0.14495286 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.044416238 = queryNorm
            0.25496176 = fieldWeight in 3343, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3343)
        0.0150444675 = product of:
          0.030088935 = sum of:
            0.030088935 = weight(_text_:22 in 3343) [ClassicSimilarity], result of:
              0.030088935 = score(doc=3343,freq=2.0), product of:
                0.1555381 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044416238 = queryNorm
                0.19345059 = fieldWeight in 3343, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3343)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    16.11.2017 13:04:22
    Object
    Web 2.0
  17. Perez, M.: Web 2.0 im Einsatz für die Wissenschaft (2010) 0.02
    0.017246805 = product of:
      0.10348082 = sum of:
        0.10348082 = weight(_text_:web in 4848) [ClassicSimilarity], result of:
          0.10348082 = score(doc=4848,freq=16.0), product of:
            0.14495286 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.044416238 = queryNorm
            0.71389294 = fieldWeight in 4848, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4848)
      0.16666667 = coord(1/6)
    
    Abstract
    In diesem Artikel geht es darum, was Web 2.0 für die Wissenschaft bedeutet und welchen Nutzen Web 2.0-Dienste für Wissenschaftler haben. Im Rahmen dieses Themas wird eine Studie vorgestellt, bei der Wissenschaftler unterschiedlicher Fachbereiche unter anderem gefragt wurden, welche Web 2.0-Dienste sie kennen und warum sie Web 2.0-Dienste nutzen. Nach einer kurzen Einleitung zu Web 2.0 und dem bisherigen Forschungsstand folgen die Ergebnisse der Studie, die zeigen werden, dass Web 2.0-Dienste bekannt sind und für private Zwecke und zur Unterhaltung genutzt werden, sie sich allerdings noch nicht als Werkzeuge für die Wissenschaft etabliert haben.
    Object
    Web 2.0
  18. Spink, A.; Danby, S.; Mallan, K.; Butler, C.: Exploring young children's web searching and technoliteracy (2010) 0.02
    0.015087811 = product of:
      0.090526864 = sum of:
        0.090526864 = weight(_text_:web in 3623) [ClassicSimilarity], result of:
          0.090526864 = score(doc=3623,freq=24.0), product of:
            0.14495286 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.044416238 = queryNorm
            0.6245262 = fieldWeight in 3623, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3623)
      0.16666667 = coord(1/6)
    
    Abstract
    Purpose - This paper aims to report findings from an exploratory study investigating the web interactions and technoliteracy of children in the early childhood years. Previous research has studied aspects of older children's technoliteracy and web searching; however, few studies have analyzed web search data from children younger than six years of age. Design/methodology/approach - The study explored the Google web searching and technoliteracy of young children who are enrolled in a "preparatory classroom" or kindergarten (the year before young children begin compulsory schooling in Queensland, Australia). Young children were video- and audio-taped while conducting Google web searches in the classroom. The data were qualitatively analysed to understand the young children's web search behaviour. Findings - The findings show that young children engage in complex web searches, including keyword searching and browsing, query formulation and reformulation, relevance judgments, successive searches, information multitasking and collaborative behaviours. The study results provide significant initial insights into young children's web searching and technoliteracy. Practical implications - The use of web search engines by young children is an important research area with implications for educators and web technologies developers. Originality/value - This is the first study of young children's interaction with a web search engine.
  19. Niesner, S.: ¬Die Nutzung bibliothekarischer Normdaten im Web am Beispiel von VIAF und Wikipedia (2015) 0.01
    0.0147829745 = product of:
      0.08869784 = sum of:
        0.08869784 = weight(_text_:web in 1763) [ClassicSimilarity], result of:
          0.08869784 = score(doc=1763,freq=4.0), product of:
            0.14495286 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.044416238 = queryNorm
            0.6119082 = fieldWeight in 1763, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.09375 = fieldNorm(doc=1763)
      0.16666667 = coord(1/6)
    
    Abstract
    Bibliothekarische Normdaten für Personen lassen sich im Web sinnvoll einsetzen.
  20. MacKay, B.; Watters, C.: ¬An examination of multisession web tasks (2012) 0.01
    0.01444548 = product of:
      0.08667288 = sum of:
        0.08667288 = weight(_text_:web in 255) [ClassicSimilarity], result of:
          0.08667288 = score(doc=255,freq=22.0), product of:
            0.14495286 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.044416238 = queryNorm
            0.59793836 = fieldWeight in 255, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=255)
      0.16666667 = coord(1/6)
    
    Abstract
    Today, people perform many types of tasks on the web, including those that require multiple web sessions. In this article, we build on research about web tasks and present an in-depth evaluation of the types of tasks people perform on the web over multiple web sessions. Multisession web tasks are goal-based tasks that often contain subtasks requiring more than one web session to complete. We will detail the results of two longitudinal studies that we conducted to explore this topic. The first study was a weeklong web-diary study where participants self-reported information on their own multisession tasks. The second study was a monthlong field study where participants used a customized version of Firefox, which logged their interactions for both their own multisession tasks and their other web activity. The results from both studies found that people perform eight different types of multisession tasks, that these tasks often consist of several subtasks, that these lasted different lengths of time, and that users have unique strategies to help continue the tasks which involved a variety of web and browser tools such as search engines and bookmarks and external applications such as Notepad or Word. Using the results from these studies, we have suggested three guidelines for developers to consider when designing browser-tool features to help people perform these types of tasks: (a) to maintain a list of current multisession tasks, (b) to support multitasking, and (c) to manage task-related information between sessions.

Languages

  • e 65
  • d 35