Search (1467 results, page 1 of 74)

  • × theme_ss:"Internet"
  • × type_ss:"a"
  1. Hochheiser, H.; Shneiderman, B.: Using interactive visualizations of WWW log data to characterize access patterns and inform site design (2001) 0.06
    0.059582274 = product of:
      0.19860758 = sum of:
        0.03498863 = weight(_text_:web in 5765) [ClassicSimilarity], result of:
          0.03498863 = score(doc=5765,freq=6.0), product of:
            0.0933738 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.028611459 = queryNorm
            0.37471575 = fieldWeight in 5765, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=5765)
        0.15579566 = weight(_text_:log in 5765) [ClassicSimilarity], result of:
          0.15579566 = score(doc=5765,freq=8.0), product of:
            0.18335998 = queryWeight, product of:
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.028611459 = queryNorm
            0.84967107 = fieldWeight in 5765, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.046875 = fieldNorm(doc=5765)
        0.007823291 = product of:
          0.023469873 = sum of:
            0.023469873 = weight(_text_:29 in 5765) [ClassicSimilarity], result of:
              0.023469873 = score(doc=5765,freq=2.0), product of:
                0.10064617 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028611459 = queryNorm
                0.23319192 = fieldWeight in 5765, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5765)
          0.33333334 = coord(1/3)
      0.3 = coord(3/10)
    
    Abstract
    HTTP server log files provide Web site operators with substantial detail regarding the visitors to their sites. Interest in interpreting this data has spawned an active market for software packages that summarize and analyze this data, providing histograms, pie graphs, and other charts summarizing usage patterns. Although useful, these summaries obscure useful information and restrict users to passive interpretation of static displays. Interactive visualizations can be used to provide users with greater abilities to interpret and explore Web log data. By combining two-dimensional displays of thousands of individual access requests, color, and size coding for additional attributes, and facilities for zooming and filtering, these visualizations provide capabilities for examining data that exceed those of traditional Web log analysis tools. We introduce a series of interactive visualizations that can be used to explore server data across various dimensions. Possible uses of these visualizations are discussed, and difficulties of data collection, presentation, and interpretation are explored
    Date
    29. 9.2001 14:00:46
  2. Hubert, M.; Griesbaum, J.; Womser-Hacker, C.: Usability von Browsererweiterungen zum Schutz vor Tracking (2020) 0.04
    0.04177886 = product of:
      0.2088943 = sum of:
        0.19976713 = weight(_text_:schutz in 5866) [ClassicSimilarity], result of:
          0.19976713 = score(doc=5866,freq=6.0), product of:
            0.20656188 = queryWeight, product of:
              7.2195506 = idf(docFreq=87, maxDocs=44218)
              0.028611459 = queryNorm
            0.9671055 = fieldWeight in 5866, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.2195506 = idf(docFreq=87, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5866)
        0.009127174 = product of:
          0.027381519 = sum of:
            0.027381519 = weight(_text_:29 in 5866) [ClassicSimilarity], result of:
              0.027381519 = score(doc=5866,freq=2.0), product of:
                0.10064617 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028611459 = queryNorm
                0.27205724 = fieldWeight in 5866, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5866)
          0.33333334 = coord(1/3)
      0.2 = coord(2/10)
    
    Abstract
    Browsererweiterungen zum Schutz vor Tracking stellen beliebte Werkzeuge zum Schutz der Privatsphäre von Nutzerinnen und Nutzern dar. Ihre tatsächliche Effektivität ist in hohem Maße von ihrer Usability abhängig, da diese bestimmt, in welchem Ausmaß diese Werkzeuge effektiv, effizient und zufriedenstellend genutzt werden können. Die vorliegende Untersuchung prüft die Gebrauchstauglichkeit vier solcher Browsererweiterungen mit Hilfe von Benutzertests. Die Ergebnisse zeigen, dass die Add-ons auch heutzutage noch eine Vielzahl an Usability-Mängeln aufweisen. Kernprobleme stellen insbesondere die mangelnde Verständlichkeit und die fehlende Führung und Unterstützung der Nutzenden dar.
    Date
    11. 7.2020 18:50:29
  3. Zschunke, P.: "Mehr Informationen als die Stasi je hatte" : Soziale Netzwerke (2008) 0.04
    0.041349366 = product of:
      0.103373416 = sum of:
        0.025055954 = weight(_text_:kommunikation in 1308) [ClassicSimilarity], result of:
          0.025055954 = score(doc=1308,freq=2.0), product of:
            0.14706601 = queryWeight, product of:
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.028611459 = queryNorm
            0.17037216 = fieldWeight in 1308, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1308)
        0.010100347 = weight(_text_:web in 1308) [ClassicSimilarity], result of:
          0.010100347 = score(doc=1308,freq=2.0), product of:
            0.0933738 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.028611459 = queryNorm
            0.108171105 = fieldWeight in 1308, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1308)
        0.049429547 = weight(_text_:schutz in 1308) [ClassicSimilarity], result of:
          0.049429547 = score(doc=1308,freq=2.0), product of:
            0.20656188 = queryWeight, product of:
              7.2195506 = idf(docFreq=87, maxDocs=44218)
              0.028611459 = queryNorm
            0.23929656 = fieldWeight in 1308, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2195506 = idf(docFreq=87, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1308)
        0.01878757 = product of:
          0.028181355 = sum of:
            0.011734936 = weight(_text_:29 in 1308) [ClassicSimilarity], result of:
              0.011734936 = score(doc=1308,freq=2.0), product of:
                0.10064617 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028611459 = queryNorm
                0.11659596 = fieldWeight in 1308, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1308)
            0.016446419 = weight(_text_:22 in 1308) [ClassicSimilarity], result of:
              0.016446419 = score(doc=1308,freq=4.0), product of:
                0.10019246 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028611459 = queryNorm
                0.16414827 = fieldWeight in 1308, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1308)
          0.6666667 = coord(2/3)
      0.4 = coord(4/10)
    
    Content
    "Millionen von Internet-Nutzern drängen in soziale Netze wie StudiVZ und Facebook. Diese Online-Plattformen für die Vernetzung von persönlichen Web-Auftritten entwickeln sich zu einer neuen Art von Massenmedium, wie der Digitale-Medien-Experte Hendrik Speck sagt. Völlig offen sei aber bislang die Frage nach der gesellschaftlichen Verantwortung der "Social Networks". "Die haben mehr Informationen, als die Stasi je hatte", sagt der Informatik-Professor der Fachhochschule Kaiserslautern im Gespräch mit der Nachrichtenagentur AP. Bei den drei Plattformen Facebook, MySpace und Xing hat Speck insgesamt 120 persönliche Attribute gezählt, die auf den persönlichen Seiten der Mitglieder angegeben werden können - angefangen bei Alter und Wohnort über Lieblingsfilme und -musik bis hin zu politischer Neigung und sexueller Ausrichtung. "Wir sehen da einen völlig irrationalen Zugang zu den eigenen Daten", kritisiert der Social-Networks-Forscher. Was aber treibt die Internet-Nutzer zu dieser Art von "digitalem Exhibitionismus"? Speck und seine Studenten haben die Kommunikation in den Netzen mit Hilfe von Software-Agenten und "Crawlern" zu erfassen versucht - das sind Programme, die auf die Seiten dieser Communities vordringen und die Inhalte auswerten. "Wir stellen fest, dass da unheimlich viel offen liegt", sagt Speck. Suche nach Anerkennung und Aufmerksamkeit Als wichtige Antriebskraft hat der Wissenschaftler das Motiv ausgemacht, über den stetig wachsenden Kreis von registrierten "Freunden" Anerkennung und Aufmerksamkeit zu erringen. Bei MySpace oder im SchülerVZ kann sich jeder auf eine Weise präsentieren, wie es in den klassischen Medien kaum möglich ist. Und weil die persönlichen Profile mit wenigen Mausklicks schnell erstellt sind, ist die Eintrittsschwelle sehr viel geringer als bei den Netz-Communities der ersten Stunde, etwa der schon 1985 gegründeten virtuellen Gemeinschaft "The WELL".
    Bislang sind es meist Jugendliche und junge Erwachsene bis etwa 35, die die Mehrheit der Community-Mitglieder ausmachen. Es gebe aber Bestrebungen, die Altersgruppe nach oben zu erweitern, sagt Speck. Die soziale Interaktion in den Social Networks kreist nach seinen Erkenntnissen immer wieder um die gleichen Dinge: 1) Unterhaltung - von Musik bis zu Stars und Sternchen 2) die gesellschaftlich geteilte Schadenfreude nach dem Motto "Pleiten, Pech und Pannen" 3) Flirten und sexuelle Beziehungen. Dabei kommen Männer direkter auf den Punkt als Frauen, die dies hinter anderen Interessen verstecken. Auf der anderen Seite stehen die Betreiber der Netze. Diese erzielen mit der Bereitstellung der Plattform zwar bislang meist noch keine Gewinne, haben aber wegen der gigantischen Zuwachsraten das Interesse von Internet- und Medienunternehmen geweckt, die wie Microsoft oder die Verlagsgruppe Holtzbrinck in Social Networks investieren. Der einzelne Nutzer ist 20 bis 22 Dollar wert Da die Technik der Webseiten nicht besonders aufwendig sei, liege der eigentliche Reichtum in den Nutzern und ihren Daten, erklärt Speck. Bei den großen Plattformen in den USA lasse sich aus den getätigten Investitionen für die Social Networks der Wert eines einzelnen Nutzers auf einen Betrag von 20 bis 22 Dollar (14 bis 15 Euro) schätzen. Der Gegenwert, den die Nutzer liefern sollen, wird vor allem in der Werbung gesehen. Neben der klassischen Bannerwerbung auf den eigenen Seiten versuchen die Betreiber der sozialen Netzwerke nach Darstellung Specks, in andere Dienste wie SMS-Werbung oder E-Mail vorzudringen. Um die Werbe-Zielgruppen immer feiner zu erfassen, werde auch untersucht, wer mit welchem Profil mit wem kommuniziere. "Je tiefer die Vernetzung, desto dichter werden die Informationen", erklärt Speck.
    Der Wissenschaftler kritisiert, dass die Daten so behandelt würden, als gehörten sie nicht dem Nutzer, sondern den sozialen Netzwerken. Selbst wenn es die Möglichkeit gebe, einen Account zu löschen, blieben die Daten vielfach weiter bestehen. Und über die beliebten Mini-Anwendungen zur Integration in die eigene Profilseite erhielten auch die Entwickler dieser Applikationen einen Zugang zu den persönlichen Daten. "Da weiß man dann gar nicht, wer dahinter steckt." Weder "open" noch "social" Google hat Anfang November vergangenen Jahres unter der Bezeichung OpenSocial eine Initiative gestartet, um solche Anwendungen und Schnittstellen nach einheitlichen Standards programmieren zu können. Das Projekt sei aber weder "open" noch "social", weil nicht vorgesehen sei, den Nutzern eine transparente Kontrolle über ihre eigenen Daten zu geben, bemängelt der FH-Professor. Das Projekt bemühe sich um die "Datenportabilität" zwischen den kommerziellen Projektpartnern und unterstütze die Interaktionen zwischen einzelnen Communities, versage jedoch komplett bei der Interessenswahrnehmung der Nutzer in Hinblick auf informationelle Selbstbestimmung und einem verbesserten Schutz der Privatssphäre. Um die zahlreichen offenen Fragen nach der Verantwortung für die Millionen von persönlichen Daten zu klären, schlägt Speck einen Verhaltenskodex für soziale Netzwerke vor. Für die gemeinsame Entwicklung von ethischen Grundsätzen will er neben Datenschützern auch die Betreiber der Communities gewinnen und hofft, schon in wenigen Monaten eine entsprechende Initiative vorstellen zu können. http://www.hendrikspeck.com"
    Date
    16. 8.1996 10:03:29
  4. Uelkes, P.: World Wide Web : Vorreiter der globalen Kommunikation? (1997) 0.04
    0.03955717 = product of:
      0.13185723 = sum of:
        0.09449192 = weight(_text_:kommunikation in 6285) [ClassicSimilarity], result of:
          0.09449192 = score(doc=6285,freq=4.0), product of:
            0.14706601 = queryWeight, product of:
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.028611459 = queryNorm
            0.64251363 = fieldWeight in 6285, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.0625 = fieldNorm(doc=6285)
        0.026934259 = weight(_text_:web in 6285) [ClassicSimilarity], result of:
          0.026934259 = score(doc=6285,freq=2.0), product of:
            0.0933738 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.028611459 = queryNorm
            0.2884563 = fieldWeight in 6285, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=6285)
        0.010431055 = product of:
          0.031293165 = sum of:
            0.031293165 = weight(_text_:29 in 6285) [ClassicSimilarity], result of:
              0.031293165 = score(doc=6285,freq=2.0), product of:
                0.10064617 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028611459 = queryNorm
                0.31092256 = fieldWeight in 6285, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6285)
          0.33333334 = coord(1/3)
      0.3 = coord(3/10)
    
    Abstract
    Internet, WWW, Online, Surfen - eine Flut dieser und ähnlicher Begriffe hat sich in den letzten Jahren über die Medien verbreitet. Kryptische Wortkürzel wir http:// dürfen scheinbar in keinem Werbespot mehr fehlen. Das Wort von der Internet-Euphorie macht die Runde. Doch was hat es damit eigentlich auf sich? Was sind die Hintergründe dieses Spektakels? Ist das WWW wirklich der Vorreiter der globalen Kommunikation, als der es vielfach gepriesen wird? Der folgende Artikel versucht, eine Diskussionsgrundlage für die genannten Fragen bereitzustellen. Hierzu soll insbesondere die bisherige Entwicklung des WWW dargestellt werden, bevor eine Reihe von Potentialen und Problemen aufgezeigt wird
    Date
    29. 1.1997 18:49:05
  5. Kaden, B.; Kindling, M.: Kommunikation und Kontext : Überlegungen zur Entwicklung virtueller Diskursräume für die Wissenschaft (2010) 0.04
    0.03955717 = product of:
      0.13185723 = sum of:
        0.09449192 = weight(_text_:kommunikation in 4271) [ClassicSimilarity], result of:
          0.09449192 = score(doc=4271,freq=4.0), product of:
            0.14706601 = queryWeight, product of:
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.028611459 = queryNorm
            0.64251363 = fieldWeight in 4271, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.0625 = fieldNorm(doc=4271)
        0.026934259 = weight(_text_:web in 4271) [ClassicSimilarity], result of:
          0.026934259 = score(doc=4271,freq=2.0), product of:
            0.0933738 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.028611459 = queryNorm
            0.2884563 = fieldWeight in 4271, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=4271)
        0.010431055 = product of:
          0.031293165 = sum of:
            0.031293165 = weight(_text_:29 in 4271) [ClassicSimilarity], result of:
              0.031293165 = score(doc=4271,freq=2.0), product of:
                0.10064617 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028611459 = queryNorm
                0.31092256 = fieldWeight in 4271, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4271)
          0.33333334 = coord(1/3)
      0.3 = coord(3/10)
    
    Abstract
    Der Beitrag behandelt die wissenschaftsinterne Kommunikation bzw. genauer die diskursive Verbreitung und Rezeption von wissenschaftskommunikativen Äußerungen in virtuellen Kommunikationsräumen, die mit semantischen Technologien gestützt werden. Ziel der Überlegungen ist die Darstellung von Anforderungen an und Möglichkeiten für die Gestaltung virtueller Diskurs-räume für Fach- und Wissenschaftsgemeinschaften.
    Date
    2. 2.2011 18:29:45
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  6. Hochheiser, H.; Shneiderman, B.: Understanding patterns of user visits to Web sites : Interactive Starfield visualizations of WWW log data (1999) 0.04
    0.03923941 = product of:
      0.19619705 = sum of:
        0.040401388 = weight(_text_:web in 6713) [ClassicSimilarity], result of:
          0.040401388 = score(doc=6713,freq=8.0), product of:
            0.0933738 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.028611459 = queryNorm
            0.43268442 = fieldWeight in 6713, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=6713)
        0.15579566 = weight(_text_:log in 6713) [ClassicSimilarity], result of:
          0.15579566 = score(doc=6713,freq=8.0), product of:
            0.18335998 = queryWeight, product of:
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.028611459 = queryNorm
            0.84967107 = fieldWeight in 6713, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.046875 = fieldNorm(doc=6713)
      0.2 = coord(2/10)
    
    Abstract
    HTTP server log files provide Web site operators with substantial detail regarding the visitors to their sites. Interest in interpreting this data has spawned an active market for software packages that summarize and analyze this data, providing histograms, pie graphs, and other charts summarizing usage patterns. While useful, these summaries obscure useful information and restrict users to passive interpretation of static displays. Interactive starfield visualizations can be used to provide users with greater abilities to interpret and explore web log data. By combining two-dimensional displays of thousands of individual access requests, color and size coding for additional attributes, and facilities for zooming and filtering, these visualizations provide capabilities for examining data that exceed those of traditional web log analysis tools. We introduce a series of interactive starfield visualizations, which can be used to explore server data across various dimensions. Possible uses of these visualizations are discussed, and difficulties of data collection, presentation, and interpretation are explored
  7. Rebstock, M.: Kommunikation im World Wide Web : Aspekte des Aufbaus einer Website - das Beispiel der Software AG (1996) 0.04
    0.039032757 = product of:
      0.13010919 = sum of:
        0.08351984 = weight(_text_:kommunikation in 5584) [ClassicSimilarity], result of:
          0.08351984 = score(doc=5584,freq=2.0), product of:
            0.14706601 = queryWeight, product of:
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.028611459 = queryNorm
            0.56790715 = fieldWeight in 5584, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.078125 = fieldNorm(doc=5584)
        0.033667825 = weight(_text_:web in 5584) [ClassicSimilarity], result of:
          0.033667825 = score(doc=5584,freq=2.0), product of:
            0.0933738 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.028611459 = queryNorm
            0.36057037 = fieldWeight in 5584, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.078125 = fieldNorm(doc=5584)
        0.012921526 = product of:
          0.038764577 = sum of:
            0.038764577 = weight(_text_:22 in 5584) [ClassicSimilarity], result of:
              0.038764577 = score(doc=5584,freq=2.0), product of:
                0.10019246 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028611459 = queryNorm
                0.38690117 = fieldWeight in 5584, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5584)
          0.33333334 = coord(1/3)
      0.3 = coord(3/10)
    
    Source
    Cogito. 12(1996) H.5, S.22-27
  8. Lügger, J.: Zum Nutzen des Web 2.0 für "Die kleine Kollaboration" in den Wissenschaften : eine Positionsbestimmung für verteilte Arbeitsgruppen, Museen und Bibliotheken (2007) 0.04
    0.035643112 = product of:
      0.11881036 = sum of:
        0.05905745 = weight(_text_:kommunikation in 3353) [ClassicSimilarity], result of:
          0.05905745 = score(doc=3353,freq=4.0), product of:
            0.14706601 = queryWeight, product of:
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.028611459 = queryNorm
            0.40157104 = fieldWeight in 3353, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3353)
        0.053233504 = weight(_text_:web in 3353) [ClassicSimilarity], result of:
          0.053233504 = score(doc=3353,freq=20.0), product of:
            0.0933738 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.028611459 = queryNorm
            0.5701118 = fieldWeight in 3353, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3353)
        0.00651941 = product of:
          0.019558229 = sum of:
            0.019558229 = weight(_text_:29 in 3353) [ClassicSimilarity], result of:
              0.019558229 = score(doc=3353,freq=2.0), product of:
                0.10064617 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028611459 = queryNorm
                0.19432661 = fieldWeight in 3353, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3353)
          0.33333334 = coord(1/3)
      0.3 = coord(3/10)
    
    Abstract
    Gemeinsame Web-Auftritte zu organisieren, die sich über mehrere Institutionen und Fachgebiete erstrecken, ist eine anspruchsvolle und faszinierende Aufgabe, die auf verschiedene Weise gelingen, aber auch scheitern kann. Wer sich daran versucht, tut gut daran, sich über bestimmte Prinzipien und technische Mittel zu informieren, die das fortgeschrittene Web ihm heute bietet. Das Internet, das World Wide Web und das moderne Web 2.0 sind in einer fast zwanzig Jahre dauernden Kollaboration einer globalen Gemeinschaft von Entwicklern und Anwendern entstanden. Es enthält heute eine Fülle sofort einsetzbarer Komponenten, von der "Benutzerdefinierten Google-Suche Beta" mit Google's PageRanking auf ausgewählten Web-Seiten bis hin zum automatisierten Web-Server mit Content-Management für das "Mitmach-Web". Der Artikel stellt nur eine kleine Auswahl solcher Lösungen vor und macht den Versuch, einige Prinzipien des Web 2.0 so herauszuarbeiten, dass die notwendige Kommunikation zwischen Managern, Technikern, Redakteuren und Organisatoren in der kleinen Kollaboration unterstützt wird. "Kleine Kollaboration" bedeutet hier, dass es nicht um die globale Vernetzung von technischen Großgeräten der e-Science gehen soll, auch nicht um die Super-Suchmaschine in Europa, sondern um die Unterstützung der Zusammenarbeit und Kommunikation von Wissenschaftlern und Experten aus Gedächtnis-Institutionen mit Ihren Nutzern.
    Object
    Web 2.0
    Source
    ABI-Technik. 29(2009) H.1, S.10-
  9. Siegele, L.: ¬"Der Kongreß muß sich nun etwas Neues einfallen lassen" : Nach dem Internet-Urteil des US-Gerichts bleibt die Frage nach dem Schutz Minderjähriger vor Pornographie offen (1997) 0.04
    0.03553734 = product of:
      0.17768669 = sum of:
        0.16476516 = weight(_text_:schutz in 7779) [ClassicSimilarity], result of:
          0.16476516 = score(doc=7779,freq=2.0), product of:
            0.20656188 = queryWeight, product of:
              7.2195506 = idf(docFreq=87, maxDocs=44218)
              0.028611459 = queryNorm
            0.7976552 = fieldWeight in 7779, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2195506 = idf(docFreq=87, maxDocs=44218)
              0.078125 = fieldNorm(doc=7779)
        0.012921526 = product of:
          0.038764577 = sum of:
            0.038764577 = weight(_text_:22 in 7779) [ClassicSimilarity], result of:
              0.038764577 = score(doc=7779,freq=2.0), product of:
                0.10019246 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028611459 = queryNorm
                0.38690117 = fieldWeight in 7779, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=7779)
          0.33333334 = coord(1/3)
      0.2 = coord(2/10)
    
    Date
    12. 2.1996 22:34:46
  10. Chen, Z.; Wenyin, L.; Zhang, F.; Li, M.; Zhang, H.: Web mining for Web image retrieval (2001) 0.03
    0.034791782 = product of:
      0.11597261 = sum of:
        0.044538345 = weight(_text_:web in 6521) [ClassicSimilarity], result of:
          0.044538345 = score(doc=6521,freq=14.0), product of:
            0.0933738 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.028611459 = queryNorm
            0.47698978 = fieldWeight in 6521, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6521)
        0.06491486 = weight(_text_:log in 6521) [ClassicSimilarity], result of:
          0.06491486 = score(doc=6521,freq=2.0), product of:
            0.18335998 = queryWeight, product of:
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.028611459 = queryNorm
            0.3540296 = fieldWeight in 6521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6521)
        0.00651941 = product of:
          0.019558229 = sum of:
            0.019558229 = weight(_text_:29 in 6521) [ClassicSimilarity], result of:
              0.019558229 = score(doc=6521,freq=2.0), product of:
                0.10064617 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028611459 = queryNorm
                0.19432661 = fieldWeight in 6521, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=6521)
          0.33333334 = coord(1/3)
      0.3 = coord(3/10)
    
    Abstract
    The popularity of digital images is rapidly increasing due to improving digital imaging technologies and convenient availability facilitated by the Internet. However, how to find user-intended images from the Internet is nontrivial. The main reason is that the Web images are usually not annotated using semantic descriptors. In this article, we present an effective approach to and a prototype system for image retrieval from the Internet using Web mining. The system can also serve as a Web image search engine. One of the key ideas in the approach is to extract the text information on the Web pages to semantically describe the images. The text description is then combined with other low-level image features in the image similarity assessment. Another main contribution of this work is that we apply data mining on the log of users' feedback to improve image retrieval performance in three aspects. First, the accuracy of the document space model of image representation obtained from the Web pages is improved by removing clutter and irrelevant text information. Second, to construct the user space model of users' representation of images, which is then combined with the document space model to eliminate mismatch between the page author's expression and the user's understanding and expectation. Third, to discover the relationship between low-level and high-level features, which is extremely useful for assigning the low-level features' weights in similarity assessment
    Date
    29. 9.2001 17:32:09
  11. Catedge, L.D.; Pitkow, J.E.: Characterizing browsing strategies in the World-Wide Web (1995) 0.03
    0.034763962 = product of:
      0.17381981 = sum of:
        0.026934259 = weight(_text_:web in 2213) [ClassicSimilarity], result of:
          0.026934259 = score(doc=2213,freq=2.0), product of:
            0.0933738 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.028611459 = queryNorm
            0.2884563 = fieldWeight in 2213, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=2213)
        0.14688556 = weight(_text_:log in 2213) [ClassicSimilarity], result of:
          0.14688556 = score(doc=2213,freq=4.0), product of:
            0.18335998 = queryWeight, product of:
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.028611459 = queryNorm
            0.80107754 = fieldWeight in 2213, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.0625 = fieldNorm(doc=2213)
      0.2 = coord(2/10)
    
    Abstract
    Presents the results of a study conducted at Georgia Institute of Technology that captured client side user events of NCSA's XMosaic. Actual user behaviour, as determined from client-side log file analysis, supplemented the understanding of user navigation strategies as well as provided real interface usage data. Log file analysis also yielded design and usability suggestions for WWW pages, sites and browsers. Discusses the methodology of the study and findings along with future research directions
  12. Helfrich, M.: WWW und der Schutz des Urhebers : Manche Webseiten sind künstlerische Meisterwerke - welchen rechtlichen Schutz gibt es für dieses geistige Eigentum? (1997) 0.03
    0.03262184 = product of:
      0.32621837 = sum of:
        0.32621837 = weight(_text_:schutz in 7654) [ClassicSimilarity], result of:
          0.32621837 = score(doc=7654,freq=4.0), product of:
            0.20656188 = queryWeight, product of:
              7.2195506 = idf(docFreq=87, maxDocs=44218)
              0.028611459 = queryNorm
            1.5792767 = fieldWeight in 7654, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.2195506 = idf(docFreq=87, maxDocs=44218)
              0.109375 = fieldNorm(doc=7654)
      0.1 = coord(1/10)
    
  13. Derek Doran, D.; Gokhale, S.S.: ¬A classification framework for web robots (2012) 0.03
    0.031546462 = product of:
      0.15773231 = sum of:
        0.053868517 = weight(_text_:web in 505) [ClassicSimilarity], result of:
          0.053868517 = score(doc=505,freq=8.0), product of:
            0.0933738 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.028611459 = queryNorm
            0.5769126 = fieldWeight in 505, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=505)
        0.10386378 = weight(_text_:log in 505) [ClassicSimilarity], result of:
          0.10386378 = score(doc=505,freq=2.0), product of:
            0.18335998 = queryWeight, product of:
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.028611459 = queryNorm
            0.5664474 = fieldWeight in 505, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.0625 = fieldNorm(doc=505)
      0.2 = coord(2/10)
    
    Abstract
    The behavior of modern web robots varies widely when they crawl for different purposes. In this article, we present a framework to classify these web robots from two orthogonal perspectives, namely, their functionality and the types of resources they consume. Applying the classification framework to a year-long access log from the UConn SoE web server, we present trends that point to significant differences in their crawling behavior.
  14. Deussen, N.: Sogar der Mars könnte bald eine virutelle Heimat bekommen : Gut 4,2 Milliarden sind nicht genug: Die sechste Version des Internet-Protokolls schafft viele zusätzliche Online-Adressen (2001) 0.03
    0.030893732 = product of:
      0.07723433 = sum of:
        0.02087996 = weight(_text_:kommunikation in 5729) [ClassicSimilarity], result of:
          0.02087996 = score(doc=5729,freq=2.0), product of:
            0.14706601 = queryWeight, product of:
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.028611459 = queryNorm
            0.14197679 = fieldWeight in 5729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5729)
        0.0119033735 = weight(_text_:web in 5729) [ClassicSimilarity], result of:
          0.0119033735 = score(doc=5729,freq=4.0), product of:
            0.0933738 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.028611459 = queryNorm
            0.12748088 = fieldWeight in 5729, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5729)
        0.04119129 = weight(_text_:schutz in 5729) [ClassicSimilarity], result of:
          0.04119129 = score(doc=5729,freq=2.0), product of:
            0.20656188 = queryWeight, product of:
              7.2195506 = idf(docFreq=87, maxDocs=44218)
              0.028611459 = queryNorm
            0.1994138 = fieldWeight in 5729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2195506 = idf(docFreq=87, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5729)
        0.003259705 = product of:
          0.009779114 = sum of:
            0.009779114 = weight(_text_:29 in 5729) [ClassicSimilarity], result of:
              0.009779114 = score(doc=5729,freq=2.0), product of:
                0.10064617 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028611459 = queryNorm
                0.097163305 = fieldWeight in 5729, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5729)
          0.33333334 = coord(1/3)
      0.4 = coord(4/10)
    
    Abstract
    In der Virtualität wird's eng. Die Möglichkeiten des Scheinbaren sind anscheinend ausgereizt. Es mangelt bald an InternetAdressen. Wenn WhirIpools und Wasclunaschinen ihren eigenen Zugang zum Internet brauchen, wird der Vorrat an Kennzahlen knapp. Um dem drohenden Mangel zu begegnen, wird seit Jahren an einer überarbeiteten Fassung des Internet-Protokolls (IP) gebastelt. Doch die Neuauflage hat bis auf ein paar Testläufe - bisher ihren Weg ins Netz noch nicht gefunden. Für Aufregung sorgte sie dennoch bereits: wegen Datenschutzproblemen. Für die Kommunikation zwischen Computern im Internet gibt es eine Art Knigge. Die protokollarische Vorschrift legt fest; wie die Rechner Daten untereinander austauschen. Doch zuvor brauchen die Maschinen Namen (wie www.fr-aktuell.de) und Anschriften (hier: 194.175.173.20), damit sie sich einander vorstellen (Shake Hands) und später Daten schicken können. Vergeben werden die Bezeichnungen von der Internet Corporation for Assigned Names and Numbers Icann). Den ersten Vorschlag für eine einheitliche Übergaberegelung machten Bob Kahn und Vint Cerf im Jahr 1974. Damals versuchten im inzwischen legendären, militärisch genutzten Arpanet kaum tausend Großrechner an etwa 250 Standorten miteinander zu kommunizieren. Um Ordnung in das Sprachengewirr der verschiedenen Bautypen zu bringen, mussten Regeln her. Die Idee entwickelte sich zum Protokoll, das nach Informatik-Manier mit dem Kürzel TCP/IP belegt wurde. Mit etwa 100000 angeschlossenen Computern wurde das Netz 1983 zivil - und TCP/IP zum offiziellen Standard. Derzeit regelt die vierte Version des Internet-Protokolls (IPv4) den Bit-Transport. Die Adresse wird jedem Datenpaket vorangestellt. Sie besteht aus Ziffern und ist exakt 32 Bit lang. Daraus ergeben sich mehr als 4,2 Milliarden Zahlenkombinationen. Genug für einen Globus, auf dem erst kürzlich der sechsmilliardste Erdenbürger das Licht der realen Welt erblickte - dachten die Computer-Operateure damals. Dann kam das World Wide Web.
    Der Geniestreich aus dem Europäischen Labor für Teilchenphysik (Cern) in Genf machte aus dem Wissenschaftsnetz ein Massenmedium. Zudem erfuhr die elektronische Post einen Aufschwung. Das Wachstum der Netze sprengt alle Erwartungen", resümiert Klaus Birkenbihl vom InformatikForschungszentrum GMI). Jede Web-Site, jede E-Mail-Box, jeder Computer, der per Standleitung online ist, braucht eine eindeutige Identifizierung. Die Schätzungen, wie viele IPv4-Adressen noch frei sind, schwanken zwischen 40 und zehn Prozent. Der Verbrauch jedenfalls steigt rasant: Die Anzahl der WebSites steuert derzeit auf eine Milliarde zu, weit mehr Netznummern gehen bereits für E-Mail-Anschriften drauf. Den Adressraum weiter ausschöpfen werden demnächst die intelligenten Haushaltsgeräte. Der Laden an der Ecke will wissen, welcher Kühlschrank die Milch bestellt hat, die Videozentrale braucht für das Überspielen des Films die Kennung des PC-Recorders, der Computer des Installateurs benötigt die IP-Anschrift der Heizungsanlage für die Fernwartung. Handys, die später Nachrichten übers Internet schicken, und Internet-Telefonie gehen möglicherweise leer aus. Doch bevor Internet-Adressen zur heiß begehrten Schieberware werden, soll ein neues Adresssystern mit mehr Möglichkeiten her. Schon 1990 hatte sich die Internet Engineering Task Force (IETF) Gedanken über einen neues Internet-Protokoll mit einem größeren Adressangebot gemacht. Im IETF kümmern sich Forscher, Soft- und HardwareIngenieure um die fortlaufende Verbesserung von Architektur und Arbeit des Netz werks. Eine ihrer Arbeitsgruppen prognostizierte, der IPv4-Vorrat gehe 2005 zu Ende. Fünf Jahre dauerte es, dann waren sich alle Internet-Gremien einig: Eine neue Protokollversion, IPv6, muss her. Dann passierte weiter nichts. Endlich verkündete 1999 Josh Elliot von der Icann, ab sofort würden neue Anschriften verteilt. Ein historischer Moment", freute er sich.
    Der neue 128-Bit-Header treibt die Möglichkeiten ins Astronomische: 3,4 mal zehn hoch 38 Adressen, eine 3,4 mit 38 Nullen. -Das IPv6-Forum zerhackte den Zahlentrumm in anschauliche Stücke: Pro Quadratmillimeter Erdoberfläche stehen nun zirka 667 Billiarden, pro Mensch 6,5 mal zehn hoch 28 Adressen, bereit." Eine Billiarde bringt es immerhin auf respektable 15 Nullen. Schon kurz darauf ging ein Aufschrei durch die Netzgemeinde. Das neue Protokoll schrieb die weltweit eindeutigen Seriennummern bestimmter Netzwerkkarten auf den virtuellen Adressaufkleber. Die Ethernet-Adapter bewerkstelligen den Datentransport bei Computern, die über eine Standleitung, ein Koaxialkabel, dauernd online sind. Die Spur von Ethernet-Usern wäre damit leicht zu verfolgen gewesen, ihre Nutzerprofile, ihre Surfgewohnheiten einsehbar wie offene Bücher. Das Problem, ließ Icann nun wissen, sei behoben: Es gebe keine festen Kennzahlen mehr in den Adressköpfen. Bei jedem Hochfahren eines Rechners oder sogar noch öfter werden die Nummern neu durchgemischt", erläutert Hans Petter Dittler, stellvertretender Vorsitzender der deutschen Sektion der Internet Society. Das Betriebssystem Linux kann bereits mit dem IPv6 arbeiten. Microsoft will den Standard in das nächste Windows-Betriebssystem einbauen: "Wir denken, der vorgeschlagene Standard ist wichtig zum Schutz der Privatsphäre der Internet-Nutzer", sagt Jawad Khaki, Vizepräsident für Netzwerke. Seit einigen Tagen steht auf der Microsoft-Homepage eine Vorab-Version von lPv6 für Windows 2000 zum Herunterladen bereit. Geradezu euphorisch gibt sich Protokoll-Chef Vint Cerf. Mit IPv6 haben wir die Grundlage dafür", philosophierte der Internet-Daddy auf dem ersten lPv6-Kongress 1999 in Berlin, "das Internet von unserem Planeten über den Mars und die Asteroiden bis in den Weltraum hinaus auszudehnen." Doch im Internet-Alltag wird das alte Protokoll noch lange Vorrang haben. Grund sind handfeste Programmier-Probleme. Denn Software, die sich explizit auf die vierte IP-Version bezieht, muss umgeschrieben werden - etwa um mit den längeren Adressfeldern umgehen zu können. Hubert Martens vom Münchner Multinet Services befürchtet gar einen InternetCrash: "Das Jahr-2000-Problem war harmlos gegen das, was uns mit lPv6 droht."
    Source
    Frankfurter Rundschau. Nr.79 vom 3.4.2001, S.29
  15. Cothey, V.: ¬A longitudinal study of World Wide Web users' information-searching behavior (2002) 0.03
    0.0306469 = product of:
      0.1532345 = sum of:
        0.062353685 = weight(_text_:web in 245) [ClassicSimilarity], result of:
          0.062353685 = score(doc=245,freq=14.0), product of:
            0.0933738 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.028611459 = queryNorm
            0.6677857 = fieldWeight in 245, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=245)
        0.09088081 = weight(_text_:log in 245) [ClassicSimilarity], result of:
          0.09088081 = score(doc=245,freq=2.0), product of:
            0.18335998 = queryWeight, product of:
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.028611459 = queryNorm
            0.49564147 = fieldWeight in 245, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.0546875 = fieldNorm(doc=245)
      0.2 = coord(2/10)
    
    Abstract
    A study of the "real world" Web information searching behavior of 206 college students over a 10-month period showed that, contrary to expectations, the users adopted a more passive or browsing approach to Web information searching and became more eclectic in their selection of Web hosts as they gained experience. The study used a longitudinal transaction log analysis of the URLs accessed during 5,431 user days of Web information searching to detect changes in information searching behavior associated with increased experience of using the Web. The findings have implications for the design of future Web information retrieval tools
  16. Hightower, C.; Sih, J.; Tilghman, A.: Recommendations for benchmarking Web site usage among academic libraries (1998) 0.03
    0.028715858 = product of:
      0.14357929 = sum of:
        0.05269848 = weight(_text_:web in 1478) [ClassicSimilarity], result of:
          0.05269848 = score(doc=1478,freq=10.0), product of:
            0.0933738 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.028611459 = queryNorm
            0.5643819 = fieldWeight in 1478, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1478)
        0.09088081 = weight(_text_:log in 1478) [ClassicSimilarity], result of:
          0.09088081 = score(doc=1478,freq=2.0), product of:
            0.18335998 = queryWeight, product of:
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.028611459 = queryNorm
            0.49564147 = fieldWeight in 1478, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1478)
      0.2 = coord(2/10)
    
    Abstract
    Argues that comparative statistical analysis of Web site usage among similar institutions would improve librarians' ability to evaluate the effectiveness of their efforts. Discusses the factors to consider in designing such a benchmarking programme, based on a pilot study of Web site usage statistics from the raw user log files of the Web servers at 14 science and technology libraries. Recommends the formation of a centralized voluntary reporting structure for Web server usage statistics, coordinated by the Association of Research Libraries' (ARL's) Office of Statistics, which would provide a significant service to academic librarians.
  17. Beitzel, S.M.; Jensen, E.C.; Chowdhury, A.; Frieder, O.; Grossman, D.: Temporal analysis of a very large topically categorized Web query log (2007) 0.03
    0.028318608 = product of:
      0.14159304 = sum of:
        0.029157192 = weight(_text_:web in 60) [ClassicSimilarity], result of:
          0.029157192 = score(doc=60,freq=6.0), product of:
            0.0933738 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.028611459 = queryNorm
            0.3122631 = fieldWeight in 60, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=60)
        0.11243584 = weight(_text_:log in 60) [ClassicSimilarity], result of:
          0.11243584 = score(doc=60,freq=6.0), product of:
            0.18335998 = queryWeight, product of:
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.028611459 = queryNorm
            0.61319727 = fieldWeight in 60, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.0390625 = fieldNorm(doc=60)
      0.2 = coord(2/10)
    
    Abstract
    The authors review a log of billions of Web queries that constituted the total query traffic for a 6-month period of a general-purpose commercial Web search service. Previously, query logs were studied from a single, cumulative view. In contrast, this study builds on the authors' previous work, which showed changes in popularity and uniqueness of topically categorized queries across the hours in a day. To further their analysis, they examine query traffic on a daily, weekly, and monthly basis by matching it against lists of queries that have been topically precategorized by human editors. These lists represent 13% of the query traffic. They show that query traffic from particular topical categories differs both from the query stream as a whole and from other categories. Additionally, they show that certain categories of queries trend differently over varying periods. The authors key contribution is twofold: They outline a method for studying both the static and topical properties of a very large query log over varying periods, and they identify and examine topical trends that may provide valuable insight for improving both retrieval effectiveness and efficiency.
  18. Cooper, M.D.: Design considerations in instrumenting and monitoring Web-based information retrieval systems (1998) 0.03
    0.025889052 = product of:
      0.12944525 = sum of:
        0.037641775 = weight(_text_:web in 1793) [ClassicSimilarity], result of:
          0.037641775 = score(doc=1793,freq=10.0), product of:
            0.0933738 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.028611459 = queryNorm
            0.40312994 = fieldWeight in 1793, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1793)
        0.091803476 = weight(_text_:log in 1793) [ClassicSimilarity], result of:
          0.091803476 = score(doc=1793,freq=4.0), product of:
            0.18335998 = queryWeight, product of:
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.028611459 = queryNorm
            0.5006735 = fieldWeight in 1793, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1793)
      0.2 = coord(2/10)
    
    Abstract
    The Internet Web environment opens up extraordinary opportunities for user access to information. Techniques for monitoring users and systems and for evaluating system design and performance have not kept pace with Web development. This article reviews concepts of Web operations (including browsers, clients, information retrieval applications, servers, and data communications systems) with specific attention given to how monitoring should take place and how privacy can be protected. It examines monitoring needs of users, systems designers, managers, and customer support staff and outlines measures for workload, capacity, and performance for hardware, software, and data communications systems. Finally, the article proposes a client-server design for monitoring, which involves creation of a series of server and client systems to obtain and process transaction and computer performance information. These systems include: a log server, which captures all levels of transactions and packets on the network; a monitor server, which sythesizes the log and packet data; an assistance server, which processes requests for information and help from the Web server in real time; and an accounting server, which authenticates user access to the system. A special system administrator client is proposed to control the monitoring system, as is a system information cleint to receive real-time and on-demand reports of system activity
  19. Klauser, H.: Freiheit oder totale Kontrolle : das Internet und die Grundrechte (2012) 0.02
    0.0248285 = product of:
      0.1241425 = sum of:
        0.04175992 = weight(_text_:kommunikation in 338) [ClassicSimilarity], result of:
          0.04175992 = score(doc=338,freq=2.0), product of:
            0.14706601 = queryWeight, product of:
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.028611459 = queryNorm
            0.28395358 = fieldWeight in 338, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.0390625 = fieldNorm(doc=338)
        0.08238258 = weight(_text_:schutz in 338) [ClassicSimilarity], result of:
          0.08238258 = score(doc=338,freq=2.0), product of:
            0.20656188 = queryWeight, product of:
              7.2195506 = idf(docFreq=87, maxDocs=44218)
              0.028611459 = queryNorm
            0.3988276 = fieldWeight in 338, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2195506 = idf(docFreq=87, maxDocs=44218)
              0.0390625 = fieldNorm(doc=338)
      0.2 = coord(2/10)
    
    Abstract
    Zum 7. Mal wird Anfang November 2012 das Internet Governance Forum (IGF) stattfinden, das die Steuerung und Entwicklung des Internets auf globaler Ebene thematisiert. In diesem Jahr wird der "Weltgipfel des Internet" in Baku, Aserbaidschan, stattfinden und Vertreter aus Politik, Privatwirtschaft, internationalen Organisationen und der Zivilgesellschaft zusammenführen. Auch der internationale Bibliotheksverband IFLA wird wie in den Vorjahren wieder dabei sein, um die bedeutende Rolle von Bibliotheken in der modernen Informationsgesellschaft in die Diskussionen einzubringen. Resultierend aus den beiden Weltgipfeln zur Informationsgesellschaft (WSIS) 2003 in Genf und 2005 in Tunis, die erstmals Themen wie Information und Kommunikation und die globale Informationsgesellschaft diskutierten, entstand das Internet Governance Forum, das 2006 formell vom Generalsekretär der Vereinten Nationen ohne eigene Entscheidungsbefugnis einberufen wurde und dessen Aufgabe es ist, eine Vielzahl von Themen des Internets wie Urheberrechtsfragen, Überwindung der digitalen Spaltung, Schutz der Privatsphäre und Freiheit der Meinungsäußerung im Netz zu diskutieren. Das Thema für die Konferenz in Baku lautet "Internet Governance for Sustainable Human, Economic and Social Development". Verschiedene Länder und Regionen der Welt, so auch Europa und u.a. USA, Dänemark, Italien, Russland, Ukraine, Finnland, Schweden, Spanien und auch Deutschland haben regionale und nationale IGF-Initiativen gegründet, um die Diskussionen der Jahrestreffen auf nationaler oder regionaler Ebene vorzubereiten. Am 7. Mai 2012 kamen in Berlin rund 80 deutsche Vertreter aus Politik, der Zivilgesellschaft, aus Verbänden und der Wirtschaft zum 4. deutschen Internet Governance Forum in Berlin zusammen, um zu dem Thema "Das Verhältnis von Internet und den Grund- und Menschenrechten" die Stichpunkte aus deutscher Sicht für die Teilnahme in Baku zusammenzutragen.
  20. Choi, B.; Peng, X.: Dynamic and hierarchical classification of Web pages (2004) 0.02
    0.024613593 = product of:
      0.12306796 = sum of:
        0.04517013 = weight(_text_:web in 2555) [ClassicSimilarity], result of:
          0.04517013 = score(doc=2555,freq=10.0), product of:
            0.0933738 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.028611459 = queryNorm
            0.48375595 = fieldWeight in 2555, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2555)
        0.07789783 = weight(_text_:log in 2555) [ClassicSimilarity], result of:
          0.07789783 = score(doc=2555,freq=2.0), product of:
            0.18335998 = queryWeight, product of:
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.028611459 = queryNorm
            0.42483553 = fieldWeight in 2555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.046875 = fieldNorm(doc=2555)
      0.2 = coord(2/10)
    
    Abstract
    Automatic classification of Web pages is an effective way to organise the vast amount of information and to assist in retrieving relevant information from the Internet. Although many automatic classification systems have been proposed, most of them ignore the conflict between the fixed number of categories and the growing number of Web pages being added into the systems. They also require searching through all existing categories to make any classification. This article proposes a dynamic and hierarchical classification system that is capable of adding new categories as required, organising the Web pages into a tree structure, and classifying Web pages by searching through only one path of the tree. The proposed single-path search technique reduces the search complexity from (n) to (log(n)). Test results show that the system improves the accuracy of classification by 6 percent in comparison to related systems. The dynamic-category expansion technique also achieves satisfying results for adding new categories into the system as required.

Years

Languages

Types