Search (10 results, page 1 of 1)

  • × theme_ss:"Internet"
  • × theme_ss:"Informetrie"
  1. Hassler, M.: Web analytics : Metriken auswerten, Besucherverhalten verstehen, Website optimieren ; [Metriken analysieren und interpretieren ; Besucherverhalten verstehen und auswerten ; Website-Ziele definieren, Webauftritt optimieren und den Erfolg steigern] (2009) 0.02
    0.022151902 = product of:
      0.06645571 = sum of:
        0.046638686 = weight(_text_:und in 3586) [ClassicSimilarity], result of:
          0.046638686 = score(doc=3586,freq=54.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.44534507 = fieldWeight in 3586, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3586)
        0.019817024 = weight(_text_:des in 3586) [ClassicSimilarity], result of:
          0.019817024 = score(doc=3586,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.1514465 = fieldWeight in 3586, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3586)
      0.33333334 = coord(2/6)
    
    Abstract
    Web Analytics bezeichnet die Sammlung, Analyse und Auswertung von Daten der Website-Nutzung mit dem Ziel, diese Informationen zum besseren Verständnis des Besucherverhaltens sowie zur Optimierung der Website zu nutzen. Je nach Ziel der eigenen Website - z.B. die Vermittlung eines Markenwerts oder die Vermehrung von Kontaktanfragen, Bestellungen oder Newsletter-Abonnements - können Sie anhand von Web Analytics herausfinden, wo sich Schwachstellen Ihrer Website befinden und wie Sie Ihre eigenen Ziele durch entsprechende Optimierungen besser erreichen. Dabei ist Web Analytics nicht nur für Website-Betreiber und IT-Abteilungen interessant, sondern wird insbesondere auch mehr und mehr für Marketing und Management nutzbar. Mit diesem Buch lernen Sie, wie Sie die Nutzung Ihrer Website analysieren. Sie können z. B. untersuchen, welche Traffic-Quelle am meisten Umsatz bringt oder welche Bereiche der Website besonders häufig genutzt werden und vieles mehr. Auf diese Weise werden Sie Ihre Besucher, ihr Verhalten und ihre Motivation besser kennen lernen, Ihre Website darauf abstimmen und somit Ihren Erfolg steigern können. Um aus Web Analytics einen wirklichen Mehrwert ziehen zu können, benötigen Sie fundiertes Wissen. Marco Hassler gibt Ihnen in seinem Buch einen umfassenden Einblick in Web Analytics. Er zeigt Ihnen detailliert, wie das Verhalten der Besucher analysiert wird und welche Metriken Sie wann sinnvoll anwenden können. Im letzten Teil des Buches zeigt Ihnen der Autor, wie Sie Ihre Auswertungsergebnisse dafür nutzen, über Conversion-Messungen die Website auf ihre Ziele hin zu optimieren. Ziel dieses Buches ist es, konkrete Web-Analytics-Kenntnisse zu vermitteln und wertvolle praxisorientierte Tipps zu geben. Dazu schlägt das Buch die Brücke zu tangierenden Themenbereichen wie Usability, User-Centered-Design, Online Branding, Online-Marketing oder Suchmaschinenoptimierung. Marco Hassler gibt Ihnen klare Hinweise und Anleitungen, wie Sie Ihre Ziele erreichen.
    BK
    85.20 / Betriebliche Information und Kommunikation
    Classification
    85.20 / Betriebliche Information und Kommunikation
    Footnote
    Rez. in Mitt. VÖB 63(2010) H.1/2, S.147-148 (M. Buzinkay): "Webseiten-Gestaltung und Webseiten-Analyse gehen Hand in Hand. Leider wird das Letztere selten wenn überhaupt berücksichtigt. Zu Unrecht, denn die Analyse der eigenen Maßnahmen ist zur Korrektur und Optimierung entscheidend. Auch wenn die Einsicht greift, dass die Analyse von Webseiten wichtig wäre, ist es oft ein weiter Weg zur Realisierung. Warum? Analyse heißt kontinuierlicher Aufwand, und viele sind nicht bereit beziehungsweise haben nicht die zeitlichen Ressourcen dazu. Ist man einmal zu der Überzeugung gelangt, dass man seine Web-Aktivitäten dennoch optimieren, wenn nicht schon mal gelegentlich hinterfragen sollte, dann lohnt es sich, Marco Hasslers "Web Analytics" in die Hand zu nehmen. Es ist definitiv kein Buch für einen einzigen Lese-Abend, sondern ein Band, mit welchem gearbeitet werden muss. D.h. auch hier: Web-Analyse bedeutet Arbeit und intensive Auseinandersetzung (ein Umstand, den viele nicht verstehen und akzeptieren wollen). Das Buch ist sehr dicht und bleibt trotzdem übersichtlich. Die Gliederung der Themen - von den Grundlagen der Datensammlung, über die Definition von Metriken, hin zur Optimierung von Seiten und schließlich bis zur Arbeit mit Web Analyse Werkzeugen - liefert einen roten Faden, der schön von einem Thema auf das nächste aufbaut. Dadurch fällt es auch leicht, ein eigenes Projekt begleitend zur Buchlektüre Schritt für Schritt aufzubauen. Zahlreiche Screenshots und Illustrationen erleichtern zudem das Verstehen der Zusammenhänge und Erklärungen im Text. Das Buch überzeugt aber auch durch seine Tiefe (bis auf das Kapitel, wo es um die Zusammenstellung von Personas geht) und den angenehm zu lesenden Schreibstil. Von mir kommt eine dringende Empfehlung an alle, die sich mit Online Marketing im Allgemeinen, mit Erfolgskontrolle von Websites und Web-Aktivitäten im Speziellen auseindersetzen."
  2. Thelwall, M.; Ruschenburg, T.: Grundlagen und Forschungsfelder der Webometrie (2006) 0.02
    0.020380497 = product of:
      0.06114149 = sum of:
        0.035534237 = weight(_text_:und in 77) [ClassicSimilarity], result of:
          0.035534237 = score(doc=77,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.33931053 = fieldWeight in 77, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=77)
        0.025607252 = product of:
          0.051214505 = sum of:
            0.051214505 = weight(_text_:22 in 77) [ClassicSimilarity], result of:
              0.051214505 = score(doc=77,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.30952093 = fieldWeight in 77, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=77)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Webometrie ist ein Teilbereich der Informationswissenschaft der zur Zeit auf die Analyse von Linkstrukturen konzentriert ist. Er ist stark von der Zitationsanalyse geprägt, wie der empirische Schwerpunkt auf der Wissenschaftsanalyse zeigt. In diesem Beitrag diskutieren wir die Nutzung linkbasierter Maße in einem breiten informetrischen Kontext und bewerten verschiedene Verfahren, auch im Hinblick auf ihr generelles Potentialfür die Sozialwissenschaften. Dabei wird auch ein allgemeiner Rahmenfür Linkanalysen mit den erforderlichen Arbeitsschritten vorgestellt. Abschließend werden vielversprechende zukünftige Anwendungsfelder der Webometrie benannt, unter besonderer Berücksichtigung der Analyse von Blogs.
    Date
    4.12.2006 12:12:22
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.8, S.401-406
  3. fwt: Webseiten liegen im Schnitt nur 19 Klicks auseinander (2001) 0.01
    0.013136212 = product of:
      0.039408635 = sum of:
        0.015386774 = weight(_text_:und in 5962) [ClassicSimilarity], result of:
          0.015386774 = score(doc=5962,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.14692576 = fieldWeight in 5962, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5962)
        0.02402186 = weight(_text_:des in 5962) [ClassicSimilarity], result of:
          0.02402186 = score(doc=5962,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 5962, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5962)
      0.33333334 = coord(2/6)
    
    Abstract
    "Dokumente im World Wide Web liegen durchschnittlich 19 Mausklicks voneinander entfernt - angesichts von schätzungsweise mehr als einer Milliarde Seiten erstaunlich nahe. Albert-Lazlo Barabai vom Institut für Physik der University von Notre Dame (US-Staat Indiana) stellt seine Studie in der britischen Fachzeitschrift Physics World (Juli 2001, S. 33) vor. Der Statistiker konstruierte im Rechner zunächst Modelle von großen Computernetzwerken. Grundlage für diese Abbilder war die Analyse eines kleinen Teils der Verbindungen im Web, die der Wissenschaftler automatisch von einem Programm hatte prüfen lassen. Um seine Ergebnisse zu erklären, vergleicht Barabai das World Wide Web mit den Verbindungen internationaler Fluglinien. Dort gebe es zahlreiche Flughäfen, die meist nur mit anderen Flugplätzen in ihrer näheren Umgebung in Verbindung stünden. Diese kleineren Verteiler stehen ihrerseits mit einigen wenigen großen Airports wie Frankfurt, New York oder Hongkong in Verbindung. Ähnlich sei es im Netz, wo wenige große Server die Verteilung großer Datenmengen übernähmen und weite Entfernungen überbrückten. Damit seien die Online-Wege vergleichsweise kurz. Die Untersuchung spiegelt allerdings die Situation des Jahres 1999 wider. Seinerzeit gab es vermutlich 800 Millionen Knoten."
  4. Böhm, P.; Rittberger, M.: Einsatz von Webanalyse in überregionalen Informationsinfrastruktureinrichtungen (2016) 0.01
    0.007328562 = product of:
      0.04397137 = sum of:
        0.04397137 = weight(_text_:und in 3239) [ClassicSimilarity], result of:
          0.04397137 = score(doc=3239,freq=12.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.41987535 = fieldWeight in 3239, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3239)
      0.16666667 = coord(1/6)
    
    Abstract
    Um die Nutzung ihrer Informationsdienste und -angebote beurteilen zu können, setzen Informationsinfrastruktureinrichtungen der Leibniz-Gemeinschaft die Webanalyse ein. Sieben Leibniz-Informationsinfrastruktureinrichtungen wurden mit einem Online-Fragebogen und einem teilstandardisierten Interview zur Nutzung der Webanalyse befragt. Es werden die verwendeten Methoden, Werkzeuge und Metriken sowie die verfügbaren Ressourcen als auch die Zukunftsperspektive der Webanalyse an den Einrichtungen beschrieben. Insgesamt wird der Stellenwert der Webanalyse an den Instituten als hoch angesehen. Die bisher wenig ausgeprägte Standardisierung und die fehlende Einheitlichkeit der Metriken und Erhebungsmethoden erschweren einen möglichen Vergleich von Nutzungsdaten allerdings erheblich.
    Source
    Information - Wissenschaft und Praxis. 67(2016) H.4, S.241-251
  5. Pernik, V.; Schlögl, C.: Möglichkeiten und Grenzen von Web Structure Mining am Beispiel von informationswissenschaftlichen Hochschulinstituten im deutschsprachigen Raum (2006) 0.01
    0.006838567 = product of:
      0.0410314 = sum of:
        0.0410314 = weight(_text_:und in 78) [ClassicSimilarity], result of:
          0.0410314 = score(doc=78,freq=8.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.39180204 = fieldWeight in 78, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=78)
      0.16666667 = coord(1/6)
    
    Abstract
    In diesem Beitrag wird eine webometrische Untersuchung vorgestellt, die informationswissenschaftliche Hochschulinstitute in den deutschsprachigen Ländern zum Gegenstand hatte. Ziel dieser Studie war es, einerseits die Linkbeziehungen zwischen den Hochschulinstituten zu analysieren. Andererseits sollten Ähnlichkeiten (zum Beispiel aufgrund von fachlichen, örtlichen oder institutionellen Gegebenheiten) identifiziert werden. Es werden nicht nur die Vorgehensweise bei derartigen Analysen und die daraus resultierenden Ergebnisse dargestellt. Insbesondere sollen Problembereiche und Einschränkungen, die mit der Analyse von Linkstrukturen im Web verbunden sind, thematisiert werden.
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.8, S.407-414
  6. Zhang, Y.: ¬The impact of Internet-based electronic resources on formal scholarly communication in the area of library and information science : a citation analysis (1998) 0.00
    0.0037723049 = product of:
      0.022633828 = sum of:
        0.022633828 = product of:
          0.045267656 = sum of:
            0.045267656 = weight(_text_:22 in 2808) [ClassicSimilarity], result of:
              0.045267656 = score(doc=2808,freq=4.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.27358043 = fieldWeight in 2808, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2808)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    30. 1.1999 17:22:22
  7. Neth, M.: Citation analysis and the Web (1998) 0.00
    0.0037343912 = product of:
      0.022406347 = sum of:
        0.022406347 = product of:
          0.044812694 = sum of:
            0.044812694 = weight(_text_:22 in 108) [ClassicSimilarity], result of:
              0.044812694 = score(doc=108,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.2708308 = fieldWeight in 108, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=108)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    10. 1.1999 16:22:37
  8. Tonta, Y.: Scholarly communication and the use of networked information sources (1996) 0.00
    0.0032009068 = product of:
      0.01920544 = sum of:
        0.01920544 = product of:
          0.03841088 = sum of:
            0.03841088 = weight(_text_:22 in 6389) [ClassicSimilarity], result of:
              0.03841088 = score(doc=6389,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.23214069 = fieldWeight in 6389, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6389)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Source
    IFLA journal. 22(1996) no.3, S.240-245
  9. Zhang, Y.; Jansen, B.J.; Spink, A.: Identification of factors predicting clickthrough in Web searching using neural network analysis (2009) 0.00
    0.0032009068 = product of:
      0.01920544 = sum of:
        0.01920544 = product of:
          0.03841088 = sum of:
            0.03841088 = weight(_text_:22 in 2742) [ClassicSimilarity], result of:
              0.03841088 = score(doc=2742,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.23214069 = fieldWeight in 2742, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2742)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    22. 3.2009 17:49:11
  10. Stuart, D.: Web metrics for library and information professionals (2014) 0.00
    0.0021155737 = product of:
      0.0126934415 = sum of:
        0.0126934415 = weight(_text_:und in 2274) [ClassicSimilarity], result of:
          0.0126934415 = score(doc=2274,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.12120757 = fieldWeight in 2274, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2274)
      0.16666667 = coord(1/6)
    
    BK
    06.00 Information und Dokumentation: Allgemeines
    Classification
    06.00 Information und Dokumentation: Allgemeines