Search (5 results, page 1 of 1)

  • × language_ss:"d"
  • × theme_ss:"Informetrie"
  • × theme_ss:"Internet"
  1. Pernik, V.; Schlögl, C.: Möglichkeiten und Grenzen von Web Structure Mining am Beispiel von informationswissenschaftlichen Hochschulinstituten im deutschsprachigen Raum (2006) 0.01
    0.012553803 = product of:
      0.018830704 = sum of:
        0.0041945297 = weight(_text_:s in 78) [ClassicSimilarity], result of:
          0.0041945297 = score(doc=78,freq=2.0), product of:
            0.043647945 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.04014573 = queryNorm
            0.09609913 = fieldWeight in 78, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0625 = fieldNorm(doc=78)
        0.014636174 = product of:
          0.04390852 = sum of:
            0.04390852 = weight(_text_:29 in 78) [ClassicSimilarity], result of:
              0.04390852 = score(doc=78,freq=2.0), product of:
                0.14122012 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.04014573 = queryNorm
                0.31092256 = fieldWeight in 78, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=78)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Date
    4.12.2006 12:14:29
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.8, S.407-414
  2. Thelwall, M.; Ruschenburg, T.: Grundlagen und Forschungsfelder der Webometrie (2006) 0.01
    0.012466028 = product of:
      0.018699042 = sum of:
        0.0041945297 = weight(_text_:s in 77) [ClassicSimilarity], result of:
          0.0041945297 = score(doc=77,freq=2.0), product of:
            0.043647945 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.04014573 = queryNorm
            0.09609913 = fieldWeight in 77, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0625 = fieldNorm(doc=77)
        0.014504513 = product of:
          0.043513536 = sum of:
            0.043513536 = weight(_text_:22 in 77) [ClassicSimilarity], result of:
              0.043513536 = score(doc=77,freq=2.0), product of:
                0.1405835 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04014573 = queryNorm
                0.30952093 = fieldWeight in 77, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=77)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Date
    4.12.2006 12:12:22
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.8, S.401-406
  3. fwt: Webseiten liegen im Schnitt nur 19 Klicks auseinander (2001) 0.00
    0.0014829903 = product of:
      0.004448971 = sum of:
        0.004448971 = weight(_text_:s in 5962) [ClassicSimilarity], result of:
          0.004448971 = score(doc=5962,freq=4.0), product of:
            0.043647945 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.04014573 = queryNorm
            0.101928525 = fieldWeight in 5962, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.046875 = fieldNorm(doc=5962)
      0.33333334 = coord(1/3)
    
    Abstract
    "Dokumente im World Wide Web liegen durchschnittlich 19 Mausklicks voneinander entfernt - angesichts von schätzungsweise mehr als einer Milliarde Seiten erstaunlich nahe. Albert-Lazlo Barabai vom Institut für Physik der University von Notre Dame (US-Staat Indiana) stellt seine Studie in der britischen Fachzeitschrift Physics World (Juli 2001, S. 33) vor. Der Statistiker konstruierte im Rechner zunächst Modelle von großen Computernetzwerken. Grundlage für diese Abbilder war die Analyse eines kleinen Teils der Verbindungen im Web, die der Wissenschaftler automatisch von einem Programm hatte prüfen lassen. Um seine Ergebnisse zu erklären, vergleicht Barabai das World Wide Web mit den Verbindungen internationaler Fluglinien. Dort gebe es zahlreiche Flughäfen, die meist nur mit anderen Flugplätzen in ihrer näheren Umgebung in Verbindung stünden. Diese kleineren Verteiler stehen ihrerseits mit einigen wenigen großen Airports wie Frankfurt, New York oder Hongkong in Verbindung. Ähnlich sei es im Netz, wo wenige große Server die Verteilung großer Datenmengen übernähmen und weite Entfernungen überbrückten. Damit seien die Online-Wege vergleichsweise kurz. Die Untersuchung spiegelt allerdings die Situation des Jahres 1999 wider. Seinerzeit gab es vermutlich 800 Millionen Knoten."
    Source
    Frankfurter Rundschau. Nr.157 vom 10.7.2001, S.27
  4. Böhm, P.; Rittberger, M.: Einsatz von Webanalyse in überregionalen Informationsinfrastruktureinrichtungen (2016) 0.00
    0.0012234044 = product of:
      0.0036702133 = sum of:
        0.0036702133 = weight(_text_:s in 3239) [ClassicSimilarity], result of:
          0.0036702133 = score(doc=3239,freq=2.0), product of:
            0.043647945 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.04014573 = queryNorm
            0.08408674 = fieldWeight in 3239, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3239)
      0.33333334 = coord(1/3)
    
    Source
    Information - Wissenschaft und Praxis. 67(2016) H.4, S.241-251
  5. Hassler, M.: Web analytics : Metriken auswerten, Besucherverhalten verstehen, Website optimieren ; [Metriken analysieren und interpretieren ; Besucherverhalten verstehen und auswerten ; Website-Ziele definieren, Webauftritt optimieren und den Erfolg steigern] (2009) 0.00
    8.650777E-4 = product of:
      0.002595233 = sum of:
        0.002595233 = weight(_text_:s in 3586) [ClassicSimilarity], result of:
          0.002595233 = score(doc=3586,freq=4.0), product of:
            0.043647945 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.04014573 = queryNorm
            0.059458308 = fieldWeight in 3586, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3586)
      0.33333334 = coord(1/3)
    
    Footnote
    Rez. in Mitt. VÖB 63(2010) H.1/2, S.147-148 (M. Buzinkay): "Webseiten-Gestaltung und Webseiten-Analyse gehen Hand in Hand. Leider wird das Letztere selten wenn überhaupt berücksichtigt. Zu Unrecht, denn die Analyse der eigenen Maßnahmen ist zur Korrektur und Optimierung entscheidend. Auch wenn die Einsicht greift, dass die Analyse von Webseiten wichtig wäre, ist es oft ein weiter Weg zur Realisierung. Warum? Analyse heißt kontinuierlicher Aufwand, und viele sind nicht bereit beziehungsweise haben nicht die zeitlichen Ressourcen dazu. Ist man einmal zu der Überzeugung gelangt, dass man seine Web-Aktivitäten dennoch optimieren, wenn nicht schon mal gelegentlich hinterfragen sollte, dann lohnt es sich, Marco Hasslers "Web Analytics" in die Hand zu nehmen. Es ist definitiv kein Buch für einen einzigen Lese-Abend, sondern ein Band, mit welchem gearbeitet werden muss. D.h. auch hier: Web-Analyse bedeutet Arbeit und intensive Auseinandersetzung (ein Umstand, den viele nicht verstehen und akzeptieren wollen). Das Buch ist sehr dicht und bleibt trotzdem übersichtlich. Die Gliederung der Themen - von den Grundlagen der Datensammlung, über die Definition von Metriken, hin zur Optimierung von Seiten und schließlich bis zur Arbeit mit Web Analyse Werkzeugen - liefert einen roten Faden, der schön von einem Thema auf das nächste aufbaut. Dadurch fällt es auch leicht, ein eigenes Projekt begleitend zur Buchlektüre Schritt für Schritt aufzubauen. Zahlreiche Screenshots und Illustrationen erleichtern zudem das Verstehen der Zusammenhänge und Erklärungen im Text. Das Buch überzeugt aber auch durch seine Tiefe (bis auf das Kapitel, wo es um die Zusammenstellung von Personas geht) und den angenehm zu lesenden Schreibstil. Von mir kommt eine dringende Empfehlung an alle, die sich mit Online Marketing im Allgemeinen, mit Erfolgskontrolle von Websites und Web-Aktivitäten im Speziellen auseindersetzen."
    Pages
    426 S