Search (23 results, page 1 of 2)

  • × classification_ss:"ST 205"
  1. Handbuch Internet-Suchmaschinen 2 : Neue Entwicklungen in der Web-Suche (2011) 0.10
    0.095861234 = product of:
      0.1797398 = sum of:
        0.023199033 = weight(_text_:23 in 522) [ClassicSimilarity], result of:
          0.023199033 = score(doc=522,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.1979932 = fieldWeight in 522, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=522)
        0.023199033 = weight(_text_:23 in 522) [ClassicSimilarity], result of:
          0.023199033 = score(doc=522,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.1979932 = fieldWeight in 522, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=522)
        0.040196855 = weight(_text_:software in 522) [ClassicSimilarity], result of:
          0.040196855 = score(doc=522,freq=4.0), product of:
            0.12969498 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032692216 = queryNorm
            0.30993375 = fieldWeight in 522, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=522)
        0.026614847 = weight(_text_:und in 522) [ClassicSimilarity], result of:
          0.026614847 = score(doc=522,freq=18.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.3673144 = fieldWeight in 522, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=522)
        0.023199033 = weight(_text_:23 in 522) [ClassicSimilarity], result of:
          0.023199033 = score(doc=522,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.1979932 = fieldWeight in 522, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=522)
        0.01712277 = weight(_text_:zur in 522) [ClassicSimilarity], result of:
          0.01712277 = score(doc=522,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.17009923 = fieldWeight in 522, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0390625 = fieldNorm(doc=522)
        0.008185315 = weight(_text_:in in 522) [ClassicSimilarity], result of:
          0.008185315 = score(doc=522,freq=12.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.18406484 = fieldWeight in 522, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=522)
        0.018022915 = weight(_text_:der in 522) [ClassicSimilarity], result of:
          0.018022915 = score(doc=522,freq=8.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.2467987 = fieldWeight in 522, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=522)
      0.53333336 = coord(8/15)
    
    Abstract
    Der zweite Band des bekannten Handbuchs widmet sich den aktuellen Entwicklungen in der Web-Suche. Neue Such-Ansätze wie die Soziale und die Semantische Suche werden ebenso behandelt wir Spezialsuchen, die Evaluierung und nutzergerechte Gestaltung von Suchdiensten sowie das Monitoring von Webquellen. In 12 Kapiteln geben namhafte Wissenschaftler und Praktiker aus dem deutschsprachigen Raum den Überblick über den State of the Art, zeigen Trends auf und geben Handlungsempfehlungen für alle, die sich als Forscher, Entwickler und Nutzer sich mit dem Thema Suche beschäftigen. Dieser zweite Band erweitert das Themenspektrum des Handbuchs Internet-Suchmaschinen wesentlich und stellt damit eine wertvolle Ergänzung dar.
    Content
    Titel der einzelnen Kapitel: Social Search Folksonomies und Kollaborative Informationsdienste: Eine Alternative zur Websuche? Query Understanding Semantic Search Suche in Multimediaarchiven und Kultureinrichtungen Wissenschaftliche Suchmaschinen Journalistische Recherche im Internet Evaluierung von Suchmaschinen Usability und User Experience in Suchmaschinen Search Engine Bias Web Monitoring Tools für das Monitoring
    Date
    17. 9.2018 18:23:07
    Footnote
    Rez. in: IWP 63(2012) H.3, S.207-208 (M. Christen)
    RSWK
    Internet / Suchmaschine / Online-Recherche / Soziale Software / Evaluation / Web Site / Analyse
    Subject
    Internet / Suchmaschine / Online-Recherche / Soziale Software / Evaluation / Web Site / Analyse
  2. Web 2.0 in der Unternehmenspraxis : Grundlagen, Fallstudien und Trends zum Einsatz von Social-Software (2009) 0.05
    0.04722362 = product of:
      0.14167085 = sum of:
        0.069622986 = weight(_text_:software in 2917) [ClassicSimilarity], result of:
          0.069622986 = score(doc=2917,freq=48.0), product of:
            0.12969498 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032692216 = queryNorm
            0.53682095 = fieldWeight in 2917, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2917)
        0.02548178 = weight(_text_:und in 2917) [ClassicSimilarity], result of:
          0.02548178 = score(doc=2917,freq=66.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.3516768 = fieldWeight in 2917, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2917)
        0.012107626 = weight(_text_:zur in 2917) [ClassicSimilarity], result of:
          0.012107626 = score(doc=2917,freq=4.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.120278314 = fieldWeight in 2917, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2917)
        0.0066832816 = weight(_text_:in in 2917) [ClassicSimilarity], result of:
          0.0066832816 = score(doc=2917,freq=32.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.15028831 = fieldWeight in 2917, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2917)
        0.027775178 = weight(_text_:der in 2917) [ClassicSimilarity], result of:
          0.027775178 = score(doc=2917,freq=76.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.38034233 = fieldWeight in 2917, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2917)
      0.33333334 = coord(5/15)
    
    Abstract
    Social Software Anwendungen wie Wikis, Weblogs oder Social-Networking-Plattformen sind ein integraler Bestandteil der Weiterentwicklungen des Internets. Zur Nutzung kommen diese Anwendungen aus dem Bedürfnis heraus, Wissen zu sammeln, bereitzustellen und zu verteilen bzw. Communities aufzubauen und ihnen Raum zum Austausch zu geben. Worin liegt nun aber der Nutzen des Web 2.0 für Unternehmen? Im Rahmen dieses Buches werden von rund 30 Autoren aus Wissenschaft und Praxis vier große Themenbereiche behandelt, um sich der Beantwortung dieser Frage zu nähern.Im Einführungsteil werden die Grundlagen gelegt und unterschiedliche Social-Software-Anwendungen wie Wikis, Weblogs oder Social Bookmarking erläutert. Im darauf folgenden Abschnitt rücken die Potenziale der Anwendung in Unternehmen und die Wissensarbeiter als Nutzer in den Fokus. Welche Unternehmenskultur und Kompetenzen sind notwendig, um effizient mit Social Software im Unternehmen arbeiten zu können? Wie wird Social Software im Unternehmen eingeführt?Der dritte Teil des Buches befasst sich mit konkreten Anwendungsfällen in Unternehmen. Fallstudien aus großen und kleinen Unternehmen wie z.B. IBM, Deutsche Bahn, Opel, SUN Microsystems und der PSI AG veranschaulicht. Im abschließenden Teil werden zukünftige Entwicklungen ausgelotet und Visionen gewagt.
    Footnote
    Rez. in: IWP 60(1009) H.4, S.245-246 (C. Wolff): "Der von Andrea Back (St. Gallen), Norbert Gronau (Potsdam) und Klaus Tochtermann herausgegebene Sammelband "Web 2.0 in der Unternehmenspraxis" verbindet in schlüssiger Weise die systematische Einführung in die Themen Web 2.0 und social software mit der Darstellung von Möglichkeiten, solche neuen Informationssysteme für Veränderungen im Unternehmen zu nutzen und zeigt dies anhand einer ganzen Reihe einzelner Fallstudien auf. Auch zukünftige Anwendungen wie das social semantic web werden als Entwicklungschance erörtert. In einer knappen Einleitung werden kurz die wesentlichen Begriffe wie Web 2.0, social software oder "Enterprise 2.0" eingeführt und der Aufbau des Bandes wird erläutert. Das sehr viel umfangreichere zweite Kapitel führt in die wesentlichen Systemtypen der social software ein: Erläutert werden Wikis, Weblogs, Social Bookmarking, Social Tagging, Podcasting, Newsfeeds, Communities und soziale Netzwerke sowie die technischen Besonderheiten von social software. Die Aufteilung ist überzeugend, für jeden Systemtyp werden nicht nur wesentliche Funktionen, sondern auch typische Anwendungen und insbesondere das Potenzial zur Nutzung im Unternehmen, insbesondere mit Blick auf Fragen des Wissensmanagements erläutert. Teilweise können die Autoren auch aktuelle Nutzungsdaten der Systeme ergänzen. Auch wenn bei der hohen Entwicklungsdynamik der social software-Systeme ständig neue Formen an Bedeutung gewinnen, vermag die Einteilung der Autoren zu überzeugen.
    Das dritte Kapitel "Social Software als Treiber für Veränderungen im Unternehmen" hat eine Brückenfunktion zwischen der systematischen Systemeinführung und den konkreten Fallstudien zum praktischen Einsatz von social software, da hier zunächst systematische das Potenzial des social software-Einsatzes skizziert wird. Dabei arbeiten die Autoren wesentliche Faktoren für den Einsatz elektronischer Kommunikationsmedien heraus und diskutieren ausführlich den Zusammenhang zwischen Produktivität der Wissensarbeit und Chancen der social software-Nutzung. Erste Fallstudien (Communities in der Medienbranche, Alumnimanagement bei großen Unternehmen, Crowdsourcing als Verfahren der Wissensgewinnung, Einsatz sozialer Geotagging-Systeme, Strategien zum Aufbau von Unternehmenswikis) zeigen mögliche Einsatzstrategien im Unternehmen auf und fokussieren jeweils auf eine spezifische Funktion einer social software-Anwendung. Der vierte Teil stellt anhand mehrerer großer Fallstudien konkrete Einsatzszenerien für social software-Formen wie Wikis und Blogs vor. Dabei sind die Studien in unterschiedlichen Unternehmenstypen angesiedelt: Großkonzerne wie die Deutsche Bahn AG (Wissensmanagement in der Managementberatung mit Wikis), die Siemens AG (Einsatz von Mitarbeiter-Blogs) oder die Adam Opel AG (Podcasts in der Vertriebsschulung) finden ebenso Beachtung wie Software-Firmen (PSI AG: Wiki als Intranet-Anwendung, Sun Microsystems: Wikis und Blogs) oder IT-Mittelständler (Namics AG: Einsatz von Blogs im Unternehmen). Die sehr plastisch beschriebenen Fallstudien machen sowohl die Breite der Einsatzmöglichkeiten als auch die Vielfalt des Lösungsangebotes und der bei der Umsetzung auftretenden Probleme deutlich. Wünschenswert wäre ein noch einheitlicherer Aufbau der Studien, der eine bessere Vergleichbarkeit gewährleisten würde.
    Illustrieren die Fallstudien den aktuellen state-of-the-art vor allem großer Unernehmen, so geht das fünfte und abschließende Kapitel unter der Überschrift "Visionen und Trends" auf zukünftige Entwicklungen ein. Dabei stellen die Autoren zunächst das Verfahren der (Netzwerkanalyse vor, die einen Beitrag zum Verständnis von Struktur, Entwicklungsdynamik und Nutzung großer sozialer Netzwerke liefern kann, und schildern dann am praktischen Beispiel einer Großbäckerei den Ansatz einer living corporate landscape (Unternehmenslandkarte 2.0). Bei beiden Beispielen steht aber weniger der Einsatz von social software an sich im Vordergrund, sondern eher der Einsatz innovativer (Daten-)analytischer Verfahren und Repräsentationen, ggf. mit Bezug zu bestehenden social software-Anwendungen. Insofern wird deutlich, dass sich social software mit anderen Anwendungen im Bereich business intelligence koppeln lässt und so ein Mehrwert für die Unternehmen erzeugt werden kann. Zu den weiteren Technologien, die zukünftig social software-Anwendungen ergänzen können, zählen die Autoren virtuelle Welten und das semantic web, wodurch auch die Bandbreite künftiger Technologiekoppelungen im Umfeld der social software deutlich wird. Ein Glossar und ein sehr ausführliches Literaturverzeichnis runden den Band ab. Den Autoren gelingt es, anhand einer Vielzahl von Einzelstudien den aktuellen Stand des Einsatzes von Web 2.0-Anwendungen im Unternehmen darzustellen. Dass dabei tendenziell Großunternehmen im Mittelpunkt stehen, kann kaum verwundern, da anzunehmen ist, dass diese eher die Ressourcen verfügbaren haben, um solche Lösungen umzusetzen - und gleichzeitig mit der Unternehmensgröße auch die Dringlichkeit von Wissensmanagement-Maßnahmen wächst. Ungeachtet dieser Tatsache dürfte der Band aber gerade auch für kleinere Unternehmen oder Institutionen von Interesse sein, die aus den konkreten Erfahrungen, die in den Fallstudien geschildert werden, lernen wollen und sich dies für eigene Vorhaben zu Nutze machen wollen. Dabei ist der Band allerdings weniger ein Vademecum für die konkrete Umsetzung eines Web 2.0-Projektes, sondern dient der Einarbeitung in die heterogene Szenerie des derzeitigen Web 2.0-Einsatzes."
    RSWK
    Unternehmen / Wissensmanagement / Soziale Software / World Wide Web 2.0
    Subject
    Unternehmen / Wissensmanagement / Soziale Software / World Wide Web 2.0
  3. Rosenfeld, L.; Morville, P.: Information architecture for the World Wide Web : designing large-scale Web sites (1998) 0.04
    0.044467844 = product of:
      0.13340352 = sum of:
        0.016239323 = weight(_text_:23 in 493) [ClassicSimilarity], result of:
          0.016239323 = score(doc=493,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.13859524 = fieldWeight in 493, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=493)
        0.07945506 = weight(_text_:monographien in 493) [ClassicSimilarity], result of:
          0.07945506 = score(doc=493,freq=4.0), product of:
            0.217941 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.032692216 = queryNorm
            0.36457142 = fieldWeight in 493, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.02734375 = fieldNorm(doc=493)
        0.016239323 = weight(_text_:23 in 493) [ClassicSimilarity], result of:
          0.016239323 = score(doc=493,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.13859524 = fieldWeight in 493, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=493)
        0.016239323 = weight(_text_:23 in 493) [ClassicSimilarity], result of:
          0.016239323 = score(doc=493,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.13859524 = fieldWeight in 493, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=493)
        0.0052304957 = weight(_text_:in in 493) [ClassicSimilarity], result of:
          0.0052304957 = score(doc=493,freq=10.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.11761922 = fieldWeight in 493, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=493)
      0.33333334 = coord(5/15)
    
    Abstract
    Some web sites "work" and some don't. Good web site consultants know that you can't just jump in and start writing HTML, the same way you can't build a house by just pouring a foundation and putting up some walls. You need to know who will be using the site, and what they'll be using it for. You need some idea of what you'd like to draw their attention to during their visit. Overall, you need a strong, cohesive vision for the site that makes it both distinctive and usable. Information Architecture for the World Wide Web is about applying the principles of architecture and library science to web site design. Each web site is like a public building, available for tourists and regulars alike to breeze through at their leisure. The job of the architect is to set up the framework for the site to make it comfortable and inviting for people to visit, relax in, and perhaps even return to someday. Most books on web development concentrate either on the aesthetics or the mechanics of the site. This book is about the framework that holds the two together. With this book, you learn how to design web sites and intranets that support growth, management, and ease of use. Special attention is given to: * The process behind architecting a large, complex site * Web site hierarchy design and organization Information Architecture for the World Wide Web is for webmasters, designers, and anyone else involved in building a web site. It's for novice web designers who, from the start, want to avoid the traps that result in poorly designed sites. It's for experienced web designers who have already created sites but realize that something "is missing" from their sites and want to improve them. It's for programmers and administrators who are comfortable with HTML, CGI, and Java but want to understand how to organize their web pages into a cohesive site. The authors are two of the principals of Argus Associates, a web consulting firm. At Argus, they have created information architectures for web sites and intranets of some of the largest companies in the United States, including Chrysler Corporation, Barron's, and Dow Chemical.
    Classification
    ST 200 Informatik / Monographien / Vernetzung, verteilte Systeme / Allgemeines, Netzmanagement
    Date
    15. 8.2007 20:33:23
    RVK
    ST 200 Informatik / Monographien / Vernetzung, verteilte Systeme / Allgemeines, Netzmanagement
  4. Block, C.H.: ¬Das Intranet : die neue Informationsverarbeitung (2004) 0.04
    0.043936968 = product of:
      0.16476361 = sum of:
        0.012420262 = weight(_text_:und in 2396) [ClassicSimilarity], result of:
          0.012420262 = score(doc=2396,freq=2.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.17141339 = fieldWeight in 2396, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2396)
        0.12788546 = weight(_text_:sicherheit in 2396) [ClassicSimilarity], result of:
          0.12788546 = score(doc=2396,freq=2.0), product of:
            0.23250443 = queryWeight, product of:
              7.11192 = idf(docFreq=97, maxDocs=44218)
              0.032692216 = queryNorm
            0.5500345 = fieldWeight in 2396, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.11192 = idf(docFreq=97, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2396)
        0.0066161114 = weight(_text_:in in 2396) [ClassicSimilarity], result of:
          0.0066161114 = score(doc=2396,freq=4.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.14877784 = fieldWeight in 2396, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2396)
        0.017841775 = weight(_text_:der in 2396) [ClassicSimilarity], result of:
          0.017841775 = score(doc=2396,freq=4.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.24431825 = fieldWeight in 2396, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2396)
      0.26666668 = coord(4/15)
    
    Content
    Inhalt: Die InternetTechnologie - Intranet-Grundlagen - Das Intranet-Projekt - Aufbau eines Firmeninformationssystems - Informationsverarbeitung / Anwendungssysteme - Implementierung eines Intranet - Extranet - Intranet-Sicherheit - Datensicherung.
    Footnote
    Rez. in: Wechselwirkung 26(2004) Nr.128, S.110: "Dieses Buch zeigt die vielfältigen Möglichkeiten, die ein Intranet-Einsatz dem Unternehmen bietet - angefangen vom Firmeninformations system bis zum Einsatz in Form des Extranet als Basis für Workflow und Wissensmanagement. Dabei wird deutlich, dass ein Intranet von enormer strategischer Bedeutung für die Informationsverarbeitung des gesamten Unternehmens ist. Der Autor Carl Hans Block behandelt neben den Grundlagen, die ein Intranet-Einsatz erfordert, insbesondere das praktische Vorgehen sowohl bei der Erstellung als auch beim laufenden Betrieb des Intranet."
  5. Social Semantic Web : Web 2.0, was nun? (2009) 0.04
    0.035302084 = product of:
      0.10590625 = sum of:
        0.03410816 = weight(_text_:software in 4854) [ClassicSimilarity], result of:
          0.03410816 = score(doc=4854,freq=8.0), product of:
            0.12969498 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032692216 = queryNorm
            0.2629875 = fieldWeight in 4854, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4854)
        0.033665415 = weight(_text_:und in 4854) [ClassicSimilarity], result of:
          0.033665415 = score(doc=4854,freq=80.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.46462005 = fieldWeight in 4854, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4854)
        0.014529153 = weight(_text_:zur in 4854) [ClassicSimilarity], result of:
          0.014529153 = score(doc=4854,freq=4.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.14433399 = fieldWeight in 4854, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4854)
        0.005670953 = weight(_text_:in in 4854) [ClassicSimilarity], result of:
          0.005670953 = score(doc=4854,freq=16.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.12752387 = fieldWeight in 4854, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4854)
        0.017932573 = weight(_text_:der in 4854) [ClassicSimilarity], result of:
          0.017932573 = score(doc=4854,freq=22.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.2455616 = fieldWeight in 4854, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4854)
      0.33333334 = coord(5/15)
    
    Abstract
    Semantische Techniken zur strukturierten Erschließung von Web 2.0-Content und kollaborative Anreicherung von Web Content mit maschinenlesbaren Metadaten wachsen zum Social Semantic Web zusammen, das durch eine breite Konvergenz zwischen Social Software und Semantic Web-Technologien charakterisiert ist. Dieses Buch stellt die technischen, organisatorischen und kulturellen Veränderungen dar, die das Social Semantic Web begleiten, und hilft Entscheidungsträgern und Entwicklern, die Tragweite dieser Web-Technologie für ihr jeweiliges Unternehmen zu erkennen. Social Semantic Web: Web 2.0 - Was nun? ist quasi die 2. Auflage von Semantic Web: Wege zur vernetzten Wissensgesellschaft von 2006, in der jedoch eher die technischen Aspekte im Vordergrund standen - einiges ist seitdem im weltweiten Netz passiert, vor allem mit dem, als Web 2.0 gestempelten Ajax-User-Community-Mix in Verbindung mit dem Semantic Web wurden und werden die Karten an einigen Enden der Datenautobahn neu gemischt - dem tragen Andreas Blumauer und Tassilo Pellegrini mit einem Update ihrer Fachautorensammlung für interessierte Laien und themenfremde Experten in der passenden 2.0-Neuauflage Rechnung.
    Thematisch haben die beiden Herausgeber ihre Beitragssammlung in vier Bereiche aufgeteilt: zuerst der Einstieg ins Thema Web 2.0 mit sechs Beiträgen - die Konvergenz von Semantic Web und Web 2.0, Auswirkungen auf die Gesellschaft, Technologien und jeweils die entsprechenden Perspektiven; gute, faktenbasierte Überblicke, die das Buch auf eine solide Grundlage stellen und reichhaltiges Wissen für ansonsten meist oberflächlich geführte Diskussionen zum Thema liefern. Der zweite Themenbereich ist dann den Technologien und Methodem gewidmet: Wie sieht die Technik hinter der "Semantik" im Web aus? Wissensmodellierung, Beispiele wie die Expertensuche, Content Management Systeme oder semantische Wikis. In Teil drei werfen die Autoren dann einen Blick auf bestehende Anwendungen im aktuellen Social Semantic Web und geben einen Ausblick auf deren zukünftige Entwicklungen. Im abschließenden Teil vier schließlich geben die Autoren der drei Beiträge einen Überblick zum "Social Semantic Web" aus sozialwissenschaftlicher Perspektive. Zusammenfassungen am Anfang jedes Beitrags, gute Strukturen zusätzliche Quellen und auch die gut lesbare Länge der Beiträge - angenehme verständlich und konsumierbar. Blumauer und Pellegrini haben auch mit Social Semantic Web: Web 2.0 - Was nun? ganze Arbeit geleistet und ein breites Spektrum an Perspektiven, Meinungen und Quellen zusammengetragen - das Ergebnis ist stellenweise durchaus heterogen und nicht jeder Beitrag muss gefallen, doch das Gesamtergebnis stellt die von den Herausgebern thematisierte heterogene Welt des Social Semantic Web realistisch dar. Wer in Zukunft nicht nur "gefährliches Halbwissen" um das Web 2.0 und das Semantic Web von sich geben will, sollte Social Semantic Web: Web 2.0 - Was nun? gelesen haben!
    Content
    Semantic Web Revisited - Eine kurze Einführung in das Social Semantic Web - Andreas Blumauer und Tassilo Pellegrini Warum Web 2.0? Oder: Was vom Web 2.0 wirklich bleiben wird - Sonja Bettel Entwicklungsperspektiven von Social Software und dem Web 2.0 - Alexander Raabe Anwendungen und Technologien des Web 2.0: Ein Überblick - Alexander Stocker und Klaus Tochtermann Die Usability von Rich Internet Applications - Jörg Linder Die zwei Kulturen - Anupriya Ankolekar, Markus Krötzsch, Than Tran und Denny Vrandecic Wissensmodellierung im Semantic Web - Barbara Geyer-Hayden Anreicherung von Webinhalten mit Semantik - Microformats und RDFa - Michael Hausenblas Modellierung von Anwenderverhalten im Social Semantic Web - Armin Ulbrich, Patrick Höfler und Stefanie Lindstaedt Expertise bewerben und finden im Social Semantic Web - Axel Polleres und Malgorzata Mochol
    Semantische Content Management Systeme - Erich Gams und Daniel Mitterdorfer Tag-Recommender gestützte Annotation von Web-Dokumenten - Andreas Blumauer und Martin Hochmeister Semantische Wikis - Sebastian Schaffert, François Bry, Joachim Baumeister und Malte Kiesel Semantische Mashups auf Basis Vernetzter Daten - Sören Auer, Jens Lehmann und Christian Bizer Web-gestütztes Social Networking am Beispiel der "Plattform Wissensmanagement" - Stefanie N. Lindstaedt und Claudia Thurner Explorative Netzwerkanalyse im Living Web - Gernot Tscherteu und Christian Langreiter Semantic Desktop - Leo Sauermann, Malte Kiesel, Kinga Schumacher und Ansgar Bernardi Social Bookmarking am Beispiel BibSonomy - Andreas Hotho, Robert Jäschke, Dominik Benz, Miranda Grahl, Beate Krause, Christoph Schmitz und Gerd Stumme Semantic Wikipedia - Markus Krötzsch und Denny Vrandecic Die Zeitung der Zukunft - Christoph Wieser und Sebastian Schaffert Das Semantic Web als Werkzeug in der biomedizinischen Forschung - Holger Stenzhorn und Matthias Samwald
    RSWK
    World Wide Web 2.0 / Semantic Web / Soziale Software / Aufsatzsammlung
    Subject
    World Wide Web 2.0 / Semantic Web / Soziale Software / Aufsatzsammlung
  6. Stöcklin, N.: Wikipedia clever nutzen : in Schule und Beruf (2010) 0.03
    0.030372221 = product of:
      0.09111666 = sum of:
        0.014211732 = weight(_text_:software in 4531) [ClassicSimilarity], result of:
          0.014211732 = score(doc=4531,freq=2.0), product of:
            0.12969498 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032692216 = queryNorm
            0.10957812 = fieldWeight in 4531, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4531)
        0.026614847 = weight(_text_:und in 4531) [ClassicSimilarity], result of:
          0.026614847 = score(doc=4531,freq=72.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.3673144 = fieldWeight in 4531, product of:
              8.485281 = tf(freq=72.0), with freq of:
                72.0 = termFreq=72.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4531)
        0.020971024 = weight(_text_:zur in 4531) [ClassicSimilarity], result of:
          0.020971024 = score(doc=4531,freq=12.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.20832816 = fieldWeight in 4531, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4531)
        0.008185315 = weight(_text_:in in 4531) [ClassicSimilarity], result of:
          0.008185315 = score(doc=4531,freq=48.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.18406484 = fieldWeight in 4531, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4531)
        0.021133741 = weight(_text_:der in 4531) [ClassicSimilarity], result of:
          0.021133741 = score(doc=4531,freq=44.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.28939712 = fieldWeight in 4531, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4531)
      0.33333334 = coord(5/15)
    
    Abstract
    Dieses Werk vermittelt kompakte Informationen zur Funktionsweise der Wikipedia. Es zeigt auf, wie die Online-Enzyklopädie zu verschiedenen Zwecken sinnvoll und clever genutzt werden kann sei es zur Recherche, zur Bildersuche oder für Übersetzungen, sei es zur Beantwortung einfacher Fragen des öffentlichen Lebens oder auch nur zum Stöbern. Auch die möglichen Fallstricke werden diskutiert: fehlerhafte Informationen, mangelnde Objektivität oder Aktualität. Oberstes Ziel ist es immer, den kompetenten Umgang mit der Wikipedia zu fördern. Dabei stehen langlebige Informationen im Vordergrund. Die kurzen Kapitel sind immer gleich aufgebaut: Ein Dialog bricht das Thema des Kapitels auf eine ganz konkrete Ebene herunter; der Hauptteil zeigt detailliert einen Aspekt der Informationsfülle, welche die Wikipedia bietet, und stellt einen Zusammenhang mit anderen Informationsdiensten her. Die wichtigen Fakten und Überlegungen finden sich in einer Zusammenfassung am Schluss. Wikipedia clever nutzen wendet sich an alle, die die Möglichkeiten der Online-Enzyklopädie ausschöpfen möchten. Besonders hilfreich ist das Werk für Personen, die in der Bildung tätig sind wie auch für jene, die die Wikipedia beruflich intensiv nutzen: Lehrpersonen, Studierende, Bibliothekare, Journalistinnen oder Informationswissenschaftler.
    Footnote
    Rez. in: Mitt. VÖB 64(2011) H.1, S. 153-155 (K Niedermair): "Vor einigen Wochen war in der Wochenzeitung Die Zeit ein dreiseitiger Beitrag über die gerade 10 Jahre alt gewordene Wikipedia zu lesen, unter dem Titel "Das größte Werk der Menschen": Wie könnte Wikipedia dieses Prädikat verdienen? Wohl schon aufgrund der Quantitäten: Die freie Enzyklopädie Wikipedia ist, seit sie am 15. Jänner 2001 online ging, extrem gewachsen, es gibt Plattformen in den meisten Sprachen, mit sehr viel Content, am meisten natürlich in der englischsprachigen Version, nämlich über drei Millionen Beiträge, auch die deutschsprachige ist beachtlich vertreten mit ca. einer Million. Wikipedia ist zu einer wichtigen Informationsquelle geworden, im Alltag, im Beruf, im Lehr- und Wissenschaftsbetrieb, dies zeigen immer wieder Befragungen von Studierenden und Wissenschaftler/innen. Verdienstvoll ist Wikipedia auch, weil sie nicht auf Gewinn orientiert ist, auf Werbeeinnahmen verzichtet. Wikipedia lebt vom Idealismus unzähliger freiwilliger Mitarbeiter/innen, die nicht um Geld, sondern aus Freude an der Arbeit gemeinsam dem großen Ziel verpflichtet sind, Wissen zu sammeln, zu ordnen und bereitzustellen - und zwar kostenlos für alle zu jeder Zeit und an jedem Ort. Es ist wohltuend, dass dieses Programm einer universalen Enzyklopädia publico in der kommerzialisierten Wirklichkeit des Internet überleben konnte und dass Erfolg und Wachstum im Internet nicht immer mit Geld zu tun haben müssen, wie es Google, Facebook usw. nahelegen, deren Gründer bekanntlich inzwischen Milliardäre sind. Und Wikipedia ist insofern ein starkes Argument gegen die landläufige These, dass Information nur brauchbar ist, wenn sie etwas kostet: Qualitätssicherung von Information hängt nicht zwangsläufig mit ihrer Ökonomisierung zusammen. Tatsächlich ist Wikipedia inzwischen eine massive Konkurrenz für die herkömmlichen, kommerziell orientierten Lexika und Enzyklopädien.
    Spätestens jetzt sollten die Skeptiker, auch in den Reihen der Wissenschaftler/innen und Bibliothekar/innen, nachdenklich werden und ihre Vorbehalte gegen Wikipedia überprüfen. Dabei kann das Buch von Nado Stöcklin, einem Mitarbeiter an der Pädagogischen Hochschule Bern, sehr hilfreich sein: Mich haben seine Ausführungen und Argumente überzeugt. Doch nicht nur für Zweifler ist die Lektüre dieses Buches zu empfehlen. Es gibt einen guten Überblick über Wikipedia, es ist theoretisch fundiert, praxisbezogen, leicht verständlich, dabei spannend und angenehm zu lesen - dies auch, weil jedem Kapitel ein fiktiver Dialog vorangestellt ist, in dem aus einer konkreten Situation heraus an das Thema herangeführt wird. Im ersten Kapitel geht es um die Vorteile von Wikipedia in historischer Perspektive. Wissen übersichtlich bereit zu stellen, war das Ziel vieler unterschiedlicher Bemühungen in der Antike und in mittelalterlichen Klöstern, in Bibliotheken und mit Hilfe von Enzyklopädien seit der Aufklärung: Im Vergleich dazu ist Wikipedia für alle zugänglich, jederzeit, an jedem Ort. Im zweiten Kapitel werden weitere Mehrwerte von Wikipedia festgemacht: in der Quantität der verfügbaren Informationen, in ihrer Aktualität und im demokratischen Prozess ihrer Erstellung und Redaktion. Denn eine Bedingung für den Erfolg von Wikipedia ist sicher die Software Wiki bzw. Meta-Wiki, die es erlaubt, dass Nutzer Inhalte nicht nur lesen, sondern auch selbst verändern können, wobei frühere Versionen archiviert und jederzeit wieder reaktiviert werden können. Diese Prinzipien des Web-2.0 hat Wikipedia allerdings mit vielen anderen Wiki-Projekten gemeinsam, denen diese Berühmtheit aber versagt geblieben ist - einmal abgesehen von WikiLeaks, das vor Wochen die Berichterstattung dominierte. Das wirkliche Erfolgsgeheimnis von Wikipedia liegt vielmehr in ihrer innovativen Organisation, die auf den Prinzipien Demokratie und Selbstorganisation beruht. Die Vorgaben der Gründer von Wikipedia -Jimmy Wales, ein Börsenmakler, und Larry Sanger, ein Philosophie-Dozent - waren minimalistisch: Die Beiträge sollten neutral sein, objektiv, wenn notwendig pluralistisch, nicht dogmatisch, und vor allem überprüfbar - also Qualitätskriterien, wie sie auch für wissenschaftliches Wissen gelten. Im Unterschied zum wissenschaftlichen Publikationswesen, in dem Urheberrecht und Verwertungsrechte bekanntlich restriktiv geregelt sind, geht Wikipedia aber einen anderen Weg. Alle Beiträge stehen unter der Lizenz des Creative Commons by-sa, d.h. jeder darf Inhalte kopieren und verwerten, auch kommerziell, wenn er die Autoren angibt ("by") und, sofern er sie ändert, unter dieselbe Lizenz stellt ("sa" = "share alike").
    Thema von Kapitel 3 ist die sinnvolle Nutzung von Wikipedia: Sie ist auch eine Suchmaschine, da zu den Beiträgen qualifizierte Links angeboten werden; sie eignet sich zum Stöbern, als Einstieg in Themenbereiche und als Startpunkt für eine vertiefte Recherche, sie kann zur Bildersuche verwendet werden oder als Übersetzungsdienst. Hier klärt der Autor auch die häufig diskutierte Frage, ob aus Wikipedia zitiert werden darf. Man darf genau dann, wenn auch aus Enzyklopädien zitiert werden kann; für nicht-wissenschaftliche Zwecke ohne weiteres, weniger jedoch für wissenschaftliche, denn Enzyklopädien sind Tertiärquellen, in jedem Fall ist es also ratsam, Argumentationen auf Sekundär- und Primärquellen zu stützen, durchaus auch auf solche, die in Wikipedia genannt sind. Kapitel 4 beschäftigt sich mit den immer wieder monierten Schwachstellen von Wikipedia: fehlerhafte Informationen, Vandalismus und Manipulation, mangelnde Objektivität, mangelnde Aktualität und unberechenbare Veränderbarkeit der Inhalte. Kapitel 5 ist speziell für Lehrende in Schulen und Hochschulen interessant. Die genannten Fallstricke werden hier umgedeutet zu Chancen für eine didaktisch sinnvolle Nutzung von Wikipedia, unter dem Motto: nicht Hände weg von Wikipedia, sondern aktive Auseinandersetzung mit Wikipedia. Schüler und Studierende, die z.B. selbst Beiträge in Wikipedia verfassen, lernen schreiben und argumentieren, indem sie in Diskussion treten mit anderen Nutzer/innen; sie werden sensibilisiert für Plagiate, sie lernen selbständig zu formulieren, v.a. wenn sie nicht nur Fakten zusammentragen müssen, sondern den Auftrag haben, Informationen kritisch zu bewerten, zusammenzufassen, zu reflektieren und zu nutzen. Wikipedia kann demnach - so die sehr plausible Konsequenz - unter geeigneten didaktischen Voraussetzungen gerade zur Förderung von Informationskompetenz beitragen."
  7. Hassler, M.: Web analytics : Metriken auswerten, Besucherverhalten verstehen, Website optimieren ; [Metriken analysieren und interpretieren ; Besucherverhalten verstehen und auswerten ; Website-Ziele definieren, Webauftritt optimieren und den Erfolg steigern] (2009) 0.02
    0.02365609 = product of:
      0.08871034 = sum of:
        0.03226879 = weight(_text_:und in 3586) [ClassicSimilarity], result of:
          0.03226879 = score(doc=3586,freq=54.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.44534507 = fieldWeight in 3586, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3586)
        0.029359434 = weight(_text_:zur in 3586) [ClassicSimilarity], result of:
          0.029359434 = score(doc=3586,freq=12.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.2916594 = fieldWeight in 3586, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3586)
        0.0052304957 = weight(_text_:in in 3586) [ClassicSimilarity], result of:
          0.0052304957 = score(doc=3586,freq=10.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.11761922 = fieldWeight in 3586, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3586)
        0.021851625 = weight(_text_:der in 3586) [ClassicSimilarity], result of:
          0.021851625 = score(doc=3586,freq=24.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.29922754 = fieldWeight in 3586, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3586)
      0.26666668 = coord(4/15)
    
    Abstract
    Web Analytics bezeichnet die Sammlung, Analyse und Auswertung von Daten der Website-Nutzung mit dem Ziel, diese Informationen zum besseren Verständnis des Besucherverhaltens sowie zur Optimierung der Website zu nutzen. Je nach Ziel der eigenen Website - z.B. die Vermittlung eines Markenwerts oder die Vermehrung von Kontaktanfragen, Bestellungen oder Newsletter-Abonnements - können Sie anhand von Web Analytics herausfinden, wo sich Schwachstellen Ihrer Website befinden und wie Sie Ihre eigenen Ziele durch entsprechende Optimierungen besser erreichen. Dabei ist Web Analytics nicht nur für Website-Betreiber und IT-Abteilungen interessant, sondern wird insbesondere auch mehr und mehr für Marketing und Management nutzbar. Mit diesem Buch lernen Sie, wie Sie die Nutzung Ihrer Website analysieren. Sie können z. B. untersuchen, welche Traffic-Quelle am meisten Umsatz bringt oder welche Bereiche der Website besonders häufig genutzt werden und vieles mehr. Auf diese Weise werden Sie Ihre Besucher, ihr Verhalten und ihre Motivation besser kennen lernen, Ihre Website darauf abstimmen und somit Ihren Erfolg steigern können. Um aus Web Analytics einen wirklichen Mehrwert ziehen zu können, benötigen Sie fundiertes Wissen. Marco Hassler gibt Ihnen in seinem Buch einen umfassenden Einblick in Web Analytics. Er zeigt Ihnen detailliert, wie das Verhalten der Besucher analysiert wird und welche Metriken Sie wann sinnvoll anwenden können. Im letzten Teil des Buches zeigt Ihnen der Autor, wie Sie Ihre Auswertungsergebnisse dafür nutzen, über Conversion-Messungen die Website auf ihre Ziele hin zu optimieren. Ziel dieses Buches ist es, konkrete Web-Analytics-Kenntnisse zu vermitteln und wertvolle praxisorientierte Tipps zu geben. Dazu schlägt das Buch die Brücke zu tangierenden Themenbereichen wie Usability, User-Centered-Design, Online Branding, Online-Marketing oder Suchmaschinenoptimierung. Marco Hassler gibt Ihnen klare Hinweise und Anleitungen, wie Sie Ihre Ziele erreichen.
    BK
    85.20 / Betriebliche Information und Kommunikation
    Classification
    85.20 / Betriebliche Information und Kommunikation
    Footnote
    Rez. in Mitt. VÖB 63(2010) H.1/2, S.147-148 (M. Buzinkay): "Webseiten-Gestaltung und Webseiten-Analyse gehen Hand in Hand. Leider wird das Letztere selten wenn überhaupt berücksichtigt. Zu Unrecht, denn die Analyse der eigenen Maßnahmen ist zur Korrektur und Optimierung entscheidend. Auch wenn die Einsicht greift, dass die Analyse von Webseiten wichtig wäre, ist es oft ein weiter Weg zur Realisierung. Warum? Analyse heißt kontinuierlicher Aufwand, und viele sind nicht bereit beziehungsweise haben nicht die zeitlichen Ressourcen dazu. Ist man einmal zu der Überzeugung gelangt, dass man seine Web-Aktivitäten dennoch optimieren, wenn nicht schon mal gelegentlich hinterfragen sollte, dann lohnt es sich, Marco Hasslers "Web Analytics" in die Hand zu nehmen. Es ist definitiv kein Buch für einen einzigen Lese-Abend, sondern ein Band, mit welchem gearbeitet werden muss. D.h. auch hier: Web-Analyse bedeutet Arbeit und intensive Auseinandersetzung (ein Umstand, den viele nicht verstehen und akzeptieren wollen). Das Buch ist sehr dicht und bleibt trotzdem übersichtlich. Die Gliederung der Themen - von den Grundlagen der Datensammlung, über die Definition von Metriken, hin zur Optimierung von Seiten und schließlich bis zur Arbeit mit Web Analyse Werkzeugen - liefert einen roten Faden, der schön von einem Thema auf das nächste aufbaut. Dadurch fällt es auch leicht, ein eigenes Projekt begleitend zur Buchlektüre Schritt für Schritt aufzubauen. Zahlreiche Screenshots und Illustrationen erleichtern zudem das Verstehen der Zusammenhänge und Erklärungen im Text. Das Buch überzeugt aber auch durch seine Tiefe (bis auf das Kapitel, wo es um die Zusammenstellung von Personas geht) und den angenehm zu lesenden Schreibstil. Von mir kommt eine dringende Empfehlung an alle, die sich mit Online Marketing im Allgemeinen, mit Erfolgskontrolle von Websites und Web-Aktivitäten im Speziellen auseindersetzen."
  8. Spink, A.; Jansen, B.J.: Web searching : public searching of the Web (2004) 0.02
    0.019590247 = product of:
      0.073463425 = sum of:
        0.023887558 = weight(_text_:und in 1443) [ClassicSimilarity], result of:
          0.023887558 = score(doc=1443,freq=58.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.32967478 = fieldWeight in 1443, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1443)
        0.012107626 = weight(_text_:zur in 1443) [ClassicSimilarity], result of:
          0.012107626 = score(doc=1443,freq=4.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.120278314 = fieldWeight in 1443, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1443)
        0.006251638 = weight(_text_:in in 1443) [ClassicSimilarity], result of:
          0.006251638 = score(doc=1443,freq=28.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.14058185 = fieldWeight in 1443, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1443)
        0.031216605 = weight(_text_:der in 1443) [ClassicSimilarity], result of:
          0.031216605 = score(doc=1443,freq=96.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.42746788 = fieldWeight in 1443, product of:
              9.797959 = tf(freq=96.0), with freq of:
                96.0 = termFreq=96.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1443)
      0.26666668 = coord(4/15)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 56(2004) H.1, S.61-62 (D. Lewandowski): "Die Autoren des vorliegenden Bandes haben sich in den letzten Jahren durch ihre zahlreichen Veröffentlichungen zum Verhalten von Suchmaschinen-Nutzern einen guten Namen gemacht. Das nun erschienene Buch bietet eine Zusammenfassung der verstreut publizierten Aufsätze und stellt deren Ergebnisse in den Kontext eines umfassenderen Forschungsansatzes. Spink und Jansen verwenden zur Analyse des Nutzungsverhaltens query logs von Suchmaschinen. In diesen werden vom Server Informationen protokolliert, die die Anfragen an diesen Server betreffen. Daten, die aus diesen Dateien gewonnen werden können, sind unter anderem die gestellten Suchanfragen, die Adresse des Rechners, von dem aus die Anfrage gestellt wurde, sowie die aus den Trefferlisten ausgewählten Dokumente. Der klare Vorteil der Analyse von Logfiles liegt in der Möglichkeit, große Datenmengen ohne hohen personellen Aufwand erheben zu können. Die Daten einer Vielzahl anonymer Nutzer können analysiert werden; ohne dass dabei die Datenerhebung das Nutzerverhalten beeinflusst. Dies ist bei Suchmaschinen von besonderer Bedeutung, weil sie im Gegensatz zu den meisten anderen professionellen Information-Retrieval-Systemen nicht nur im beruflichen Kontext, sondern auch (und vor allem) privat genutzt werden. Das Bild des Nutzungsverhaltens wird in Umfragen und Laboruntersuchungen verfälscht, weil Nutzer ihr Anfrageverhalten falsch einschätzen oder aber die Themen ihrer Anfragen nicht nennen möchten. Hier ist vor allem an Suchanfragen, die auf medizinische oder pornographische Inhalte gerichtet sind, zu denken. Die Analyse von Logfiles ist allerdings auch mit Problemen behaftet: So sind nicht alle gewünschten Daten überhaupt in den Logfiles enthalten (es fehlen alle Informationen über den einzelnen Nutzer), es werden keine qualitativen Informationen wie etwa der Grund einer Suche erfasst und die Logfiles sind aufgrund technischer Gegebenheiten teils unvollständig. Die Autoren schließen aus den genannten Vor- und Nachteilen, dass sich Logfiles gut für die Auswertung des Nutzerverhaltens eignen, bei der Auswertung jedoch die Ergebnisse von Untersuchungen, welche andere Methoden verwenden, berücksichtigt werden sollten.
    Den Autoren wurden von den kommerziellen Suchmaschinen AltaVista, Excite und All the Web größere Datenbestände zur Verfügung gestellt. Die ausgewerteten Files umfassten jeweils alle an die jeweilige Suchmaschine an einem bestimmten Tag gestellten Anfragen. Die Daten wurden zwischen 199'] und 2002 erhoben; allerdings liegen nicht von allen Jahren Daten von allen Suchmaschinen vor, so dass einige der festgestellten Unterschiede im Nutzerverhalten sich wohl auf die unterschiedlichen Nutzergruppen der einzelnen Suchmaschinen zurückführen lassen. In einem Fall werden die Nutzergruppen sogar explizit nach den Suchmaschinen getrennt, so dass das Nutzerverhalten der europäischen Nutzer der Suchmaschine All the Web mit dem Verhalten der US-amerikanischen Nutzer verglichen wird. Die Analyse der Logfiles erfolgt auf unterschiedlichen Ebenen: Es werden sowohl die eingegebenen Suchbegriffe, die kompletten Suchanfragen, die Such-Sessions und die Anzahl der angesehenen Ergebnisseiten ermittelt. Bei den Suchbegriffen ist besonders interessant, dass die Spannbreite der Informationsbedürfnisse im Lauf der Jahre deutlich zugenommen hat. Zwar werden 20 Prozent aller eingegebenen Suchbegriffe regelmäßig verwendet, zehn Prozent kamen hingegen nur ein einziges Mal vor. Die thematischen Interessen der Suchmaschinen-Nutzer haben sich im Lauf der letzten Jahre ebenfalls gewandelt. Während in den Anfangsjahren viele Anfragen aus den beiden Themenfeldern Sex und Technologie stammten, gehen diese mittlerweile zurück. Dafür nehmen Anfragen im Bereich E-Commerce zu. Weiterhin zugenommen haben nicht-englischsprachige Begriffe sowie Zahlen und Akronyme. Die Popularität von Suchbegriffen ist auch saisonabhängig und wird durch aktuelle Nachrichten beeinflusst. Auf der Ebene der Suchanfragen zeigt sich weiterhin die vielfach belegte Tatsache, dass Suchanfragen in Web-Suchmaschinen extrem kurz sind. Die durchschnittliche Suchanfrage enthält je nach Suchmaschine zwischen 2,3 und 2,9 Terme. Dies deckt sich mit anderen Untersuchungen zu diesem Thema. Die Länge der Suchanfragen ist in den letzten Jahren leicht steigend; größere Sprünge hin zu längeren Anfragen sind jedoch nicht zu erwarten. Ebenso verhält es sich mit dem Einsatz von Operatoren: Nur etwa in jeder zehnten Anfrage kommen diese vor, wobei die Phrasensuche am häufigsten verwendet wird. Dass die SuchmaschinenNutzer noch weitgehend als Anfänger angesehen werden müssen, zeigt sich auch daran, dass sie pro Suchanfrage nur drei oder vier Dokumente aus der Trefferliste tatsächlich sichten.
    In Hinblick auf die Informationsbedürfnisse ergibt sich eine weitere Besonderheit dadurch, dass Suchmaschinen nicht nur für eine Anfrageform genutzt werden. Eine "Spezialität" der Suchmaschinen ist die Beantwortung von navigationsorientierten Anfragen, beispielsweise nach der Homepage eines Unternehmens. Hier wird keine Menge von Dokumenten oder Fakteninformation verlangt; vielmehr ist eine Navigationshilfe gefragt. Solche Anfragen nehmen weiter zu. Die Untersuchung der Such-Sessions bringt Ergebnisse über die Formulierung und Bearbeitung der Suchanfragen zu einem Informationsbedürfnis zutage. Die Sessions dauern weit überwiegend weniger als 15 Minuten (dies inklusive Sichtung der Dokumente!), wobei etwa fünf Dokumente angesehen werden. Die Anzahl der angesehenen Ergebnisseiten hat im Lauf der Zeit abgenommen; dies könnte darauf zurückzuführen sein, dass es den Suchmaschinen im Lauf der Zeit gelungen ist, die Suchanfragen besser zu beantworten, so dass sich brauchbare Ergebnisse öfter bereits auf der ersten Ergebnisseite finden. Insgesamt bestätigt sich auch hier das Bild vom wenig fortgeschrittenen Suchmaschinen-Nutzer, der nach Eingabe einer unspezifischen Suchanfrage schnelle und gute Ergebnisse erwartet. Der zweite Teil des Buchs widmet sich einigen der bei den Suchmaschinen-Nutzern populären Themen und analysiert das Nutzerverhalten bei solchen Suchen. Dabei werden die eingegebenen Suchbegriffe und Anfragen untersucht. Die Bereiche sind E-Commerce, medizinische Themen, Sex und Multimedia. Anfragen aus dem Bereich E-Commerce sind in der Regel länger als allgemeine Anfragen. Sie werden seltener modifiziert und pro Anfrage werden weniger Dokumente angesehen. Einige generische Ausdrücke wie "shopping" werden sehr häufig verwendet. Der Anteil der E-Commerce-Anfragen ist hoch und die Autoren sehen die Notwendigkeit, spezielle Suchfunktionen für die Suche nach Unternehmenshomepages und Produkten zu erstellen bzw. zu verbessern. Nur zwischen drei und neun Prozent der Anfragen beziehen sich auf medizinische Themen, der Anteil dieser Anfragen nimmt tendenziell ab. Auch der Anteil der Anfragen nach sexuellen Inhalten dürfte mit einem Wert zwischen drei und knapp 1'7 Prozent geringer ausfallen als allgemein angenommen.
    Der relativ hohe Wert von 17 Prozent stammt allerdings aus dem Jahr 1997; seitdem ist eine deutliche Abnahme zu verzeichnen. Betont werden muss außerdem, dass Anfragen nach sexuellen Inhalten nicht mit denen nach Pornographie gleichzusetzen sind. Die Suche nach Multimedia-Inhalten hat sich von den allgemeinen Suchinterfaces der Suchmaschinen hin zu speziellen Suchmasken verschoben, die inzwischen von allen großen Suchmaschinen angeboten werden. Die wichtigste Aussage aus den untersuchten Daten lautet, dass die Suche nach Multimedia-Inhalten komplexer und vor allem interaktiver ist als die übliche Websuche. Die Anfragen sind länger und enthalten zu einem deutlich größeren Teil Operatoren. Bei der Bildersuche stellen weiterhin sexuell orientierte Anfragen den höchsten Anteil. Bei der Bilderund Video-Suche sind die Anfragen deutlich länger als bei der regulären Suche; bei der Audio-Suche sind sie dagegen kürzer. Das vorliegende Werk bietet die bisher umfassendste Analyse des Nutzerverhaltens bezüglich der Web-Suche; insbesondere wurden bisher keine umfassenden, auf längere Zeiträume angelegten Studien vorgelegt, deren Ergebnisse wie im vorliegenden Fall direkt vergleichbar sind. Die Ergebnisse sind valide und ermöglichen es Suchmaschinen-Anbietern wie auch Forschern, künftige Entwicklungen stärker als bisher am tatsächlichen Verhalten der Nutzer auszurichten. Das Buch beschränkt sich allerdings auf die US-amerikanischen Suchmaschinen und deren Nutzer und bezieht nur bei All the Web die europäischen Nutzer ein. Insbesondere die Frage, ob die europäischen oder auch deutschsprachigen Nutzer anders suchen als die amerikanischen, bleibt unbeantwortet. Hier wären weitere Forschungen zu leisten."
  9. ¬Die Googleisierung der Informationssuche : Suchmaschinen zwischen Nutzung und Regulierung (2014) 0.02
    0.019394863 = product of:
      0.072730735 = sum of:
        0.024585744 = weight(_text_:und in 1840) [ClassicSimilarity], result of:
          0.024585744 = score(doc=1840,freq=24.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.33931053 = fieldWeight in 1840, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1840)
        0.013698216 = weight(_text_:zur in 1840) [ClassicSimilarity], result of:
          0.013698216 = score(doc=1840,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.13607939 = fieldWeight in 1840, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03125 = fieldNorm(doc=1840)
        0.0084537575 = weight(_text_:in in 1840) [ClassicSimilarity], result of:
          0.0084537575 = score(doc=1840,freq=20.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.19010136 = fieldWeight in 1840, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1840)
        0.025993017 = weight(_text_:der in 1840) [ClassicSimilarity], result of:
          0.025993017 = score(doc=1840,freq=26.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.35593814 = fieldWeight in 1840, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1840)
      0.26666668 = coord(4/15)
    
    Abstract
    Suchmaschinen ermöglichen den Zugang zu Informationen im Internet und machen es als grenzenloses Informationsportal nutzbar. Netzinhalte, die nicht durch Suchmaschinen auffindbar sind, existieren für die Internetnutzer gar nicht - ein großes Gefahrenpotenzial für den einzelnen Nutzer und die Gesellschaft. Der vorliegende Band beleuchtet das Phänomen aus kommunikationswissenschaftlicher, rechtlicher, pädagogischer und technischer Perspektive.
    Footnote
    Rez. in: Mitt. VOEB 68(2015) H.1, S.180-183 (O.Oberhauser): "Aus dieser kurzen Skizze geht hervor, dass der vorliegende Band eine Reihe interessanter und mitunter auch brisanter Teilthemen beinhaltet. Wer an der Diskussion um die Rolle der meistgenutzten Suchmaschine in unserer Gesellschaft Interesse hat, findet in diesem Buch reichlich Material und Ideen. Jeder Beitrag wird zudem durch ein Literaturverzeichnis ergänzt, in dem weiterführende Quellen genannt werden. Die Beiträge sind durchweg "lesbar" geschrieben und nur in mässigem Ausmass von soziologischem oder rechtswissenschaftlichem Fachjargon durchsetzt. In stilistischer Hinsicht ist der Text dennoch nicht ohne Probleme, zumal bereits im ersten Absatz der Einleitung ein als Hauptsatz "verkaufter" Nebensatz auffällt ("Denn Suchmaschinenbetreiber wie Google ermöglichen und gestalten den Zugang zu Informationen im Netz.") und die gleiche stilistische Schwäche allein in der 19-seitigen Einleitung in über einem Dutzend weiterer Fälle registriert werden kann, vom nächsten Beitrag gar nicht zu sprechen. Ein funktionierendes Verlagslektorat hätte derlei rigoros bereinigen müssen. Es hätte eventuell auch dafür Sorge tragen können, dass am Ende des Bandes nicht nur ein Verzeichnis der Autorinnen und Autoren aufscheint, sondern auch ein Sachregister - ein solches fehlt nämlich bedauerlicherweise. In optischer Hinsicht ist der Hardcover-Band ansprechend gestaltet und gut gelungen. Der Preis liegt mit rund 80 Euro leider in der Oberklasse; auch die E-Book-Version macht die Anschaffung nicht billiger, da kein Preisunterschied zur gebundenen Ausgabe besteht. Dennoch ist das Buch aufgrund der interessanten Inhalte durchaus zu empfehlen; grössere Bibliotheken sowie kommunikations- und informationswissenschaftliche Spezialsammlungen sollten es nach Möglichkeit erwerben."
  10. Semantische Technologien : Grundlagen - Konzepte - Anwendungen (2012) 0.02
    0.018056935 = product of:
      0.0677135 = sum of:
        0.029782742 = weight(_text_:und in 167) [ClassicSimilarity], result of:
          0.029782742 = score(doc=167,freq=46.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.41103485 = fieldWeight in 167, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
        0.011985939 = weight(_text_:zur in 167) [ClassicSimilarity], result of:
          0.011985939 = score(doc=167,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.119069465 = fieldWeight in 167, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
        0.008103048 = weight(_text_:in in 167) [ClassicSimilarity], result of:
          0.008103048 = score(doc=167,freq=24.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.1822149 = fieldWeight in 167, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
        0.017841775 = weight(_text_:der in 167) [ClassicSimilarity], result of:
          0.017841775 = score(doc=167,freq=16.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.24431825 = fieldWeight in 167, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
      0.26666668 = coord(4/15)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen, Potentiale und Anwendungen Semantischer Technologien. Es richtet sich an Studierende der Informatik und angrenzender Fächer sowie an Entwickler, die Semantische Technologien am Arbeitsplatz oder in verteilten Applikationen nutzen möchten. Mit seiner an praktischen Beispielen orientierten Darstellung gibt es aber auch Anwendern und Entscheidern in Unternehmen einen breiten Überblick über Nutzen und Möglichkeiten dieser Technologie. Semantische Technologien versetzen Computer in die Lage, Informationen nicht nur zu speichern und wieder zu finden, sondern sie ihrer Bedeutung entsprechend auszuwerten, zu verbinden, zu Neuem zu verknüpfen, und so flexibel und zielgerichtet nützliche Leistungen zu erbringen. Das vorliegende Buch stellt im ersten Teil die als Semantische Technologien bezeichneten Techniken, Sprachen und Repräsentationsformalismen vor. Diese Elemente erlauben es, das in Informationen enthaltene Wissen formal und damit für den Computer verarbeitbar zu beschreiben, Konzepte und Beziehungen darzustellen und schließlich Inhalte zu erfragen, zu erschließen und in Netzen zugänglich zu machen. Der zweite Teil beschreibt, wie mit Semantischen Technologien elementare Funktionen und umfassende Dienste der Informations- und Wissensverarbeitung realisiert werden können. Hierzu gehören etwa die Annotation und das Erschließen von Information, die Suche in den resultierenden Strukturen, das Erklären von Bedeutungszusammenhängen sowie die Integration einzelner Komponenten in komplexe Ablaufprozesse und Anwendungslösungen. Der dritte Teil beschreibt schließlich vielfältige Anwendungsbeispiele in unterschiedlichen Bereichen und illustriert so Mehrwert, Potenzial und Grenzen von Semantischen Technologien. Die dargestellten Systeme reichen von Werkzeugen für persönliches, individuelles Informationsmanagement über Unterstützungsfunktionen für Gruppen bis hin zu neuen Ansätzen im Internet der Dinge und Dienste, einschließlich der Integration verschiedener Medien und Anwendungen von Medizin bis Musik.
    Content
    Inhalt: 1. Einleitung (A. Dengel, A. Bernardi) 2. Wissensrepräsentation (A. Dengel, A. Bernardi, L. van Elst) 3. Semantische Netze, Thesauri und Topic Maps (O. Rostanin, G. Weber) 4. Das Ressource Description Framework (T. Roth-Berghofer) 5. Ontologien und Ontologie-Abgleich in verteilten Informationssystemen (L. van Elst) 6. Anfragesprachen und Reasoning (M. Sintek) 7. Linked Open Data, Semantic Web Datensätze (G.A. Grimnes, O. Hartig, M. Kiesel, M. Liwicki) 8. Semantik in der Informationsextraktion (B. Adrian, B. Endres-Niggemeyer) 9. Semantische Suche (K. Schumacher, B. Forcher, T. Tran) 10. Erklärungsfähigkeit semantischer Systeme (B. Forcher, T. Roth-Berghofer, S. Agne) 11. Semantische Webservices zur Steuerung von Prooduktionsprozessen (M. Loskyll, J. Schlick, S. Hodeck, L. Ollinger, C. Maxeiner) 12. Wissensarbeit am Desktop (S. Schwarz, H. Maus, M. Kiesel, L. Sauermann) 13. Semantische Suche für medizinische Bilder (MEDICO) (M. Möller, M. Sintek) 14. Semantische Musikempfehlungen (S. Baumann, A. Passant) 15. Optimierung von Instandhaltungsprozessen durch Semantische Technologien (P. Stephan, M. Loskyll, C. Stahl, J. Schlick)
    Footnote
    Auch als digitale Ausgabe verfügbar. Auf S. 5 befindet sich der Satz: "Wissen ist Information, die in Aktion umgesetzt wird".
  11. Webwissenschaft : eine Einführung (2010) 0.02
    0.017996177 = product of:
      0.06748566 = sum of:
        0.019837536 = weight(_text_:und in 2870) [ClassicSimilarity], result of:
          0.019837536 = score(doc=2870,freq=10.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.27378 = fieldWeight in 2870, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2870)
        0.01712277 = weight(_text_:zur in 2870) [ClassicSimilarity], result of:
          0.01712277 = score(doc=2870,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.17009923 = fieldWeight in 2870, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2870)
        0.0066832816 = weight(_text_:in in 2870) [ClassicSimilarity], result of:
          0.0066832816 = score(doc=2870,freq=8.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.15028831 = fieldWeight in 2870, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2870)
        0.023842076 = weight(_text_:der in 2870) [ClassicSimilarity], result of:
          0.023842076 = score(doc=2870,freq=14.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.326484 = fieldWeight in 2870, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2870)
      0.26666668 = coord(4/15)
    
    Abstract
    Das World Wide Web unterscheidet sich strukturell erheblich von den traditionellen Medien und hat das Mediensystem von Grund auf verändert. Radikal sind die Auswirkungen der webtechnischen Innovation sowohl für die Medienlandschaft und die Gesellschaft als auch für diejenigen Wissenschaften, die sich mit Medien - deren Geschichte, Inhalten, Formen, Technik, Wirkungen usf. - befassen. In dieser Einführung werden vor diesem Hintergrund einerseits Forschungsfragen einer zukünftigen Webwissenschaft auf einer übergeordneten Ebene diskutiert, andererseits werden die Perspektiven der relevanten Bezugswissenschaften integriert.
    Content
    Inhalt: Ist das Web ein Medium? --Konrad Scherfer Warum und zu welchem Zweck benötigen wir eine Webwissenschaft? 31- Helmut Volpers 'Diese Site wird nicht mehr gewartet'. Medienanalytische Perspektiven in den Medienwechseln - Rainer Leschke Emergente Öffentlichkeit? Bausteine zu einer Theorie der Weböffentlichkeit - Christoph Ernst Das ICH im Web - Auswirkungen virtueller Identitäten auf soziale Beziehungen - Helmut Volpers / Karin Wunder Technikgeschichte des Webs - Tom Alby Visuelles Denken im Interaktions- und Webdesign - Cyrus Khazaeli Das fotografische Bild im Web - Anja Bohnhof / Kolja Kracht Qualität im Web - Interdisziplinäre Website-Bewertung - David Kratz Für eine neue Poesie der Neugier. Das Web verändert den Journalismus - nicht nur online - Mercedes Bunz Das Web braucht Spezialisten, keine Generalisten. Zur Notwendigkeit einer webspezifischen Professionalisierung in der Ausbildung - Petra Werner Online-Forschung im Web - Methodenschwerpunkte im Überblick - Simone Fühles-Ubach Im Spiel der Moden? - Das Web in der Wirtschaft, die Wirtschaft im Web - Jörg Hoewner Medizin im Web - Martina Waitz Das Web und das Medienrecht - Bernd Holznagel / Thorsten Ricke Suchmaschinenforschung im Kontext einer zukünftigen Webwissenschaft - Dirk Lewandowski
  12. Hitzler, P.; Krötzsch, M.; Rudolph, S.: Foundations of Semantic Web technologies (2010) 0.02
    0.016593583 = product of:
      0.062225934 = sum of:
        0.018559227 = weight(_text_:23 in 359) [ClassicSimilarity], result of:
          0.018559227 = score(doc=359,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.15839456 = fieldWeight in 359, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.03125 = fieldNorm(doc=359)
        0.018559227 = weight(_text_:23 in 359) [ClassicSimilarity], result of:
          0.018559227 = score(doc=359,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.15839456 = fieldWeight in 359, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.03125 = fieldNorm(doc=359)
        0.018559227 = weight(_text_:23 in 359) [ClassicSimilarity], result of:
          0.018559227 = score(doc=359,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.15839456 = fieldWeight in 359, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.03125 = fieldNorm(doc=359)
        0.006548252 = weight(_text_:in in 359) [ClassicSimilarity], result of:
          0.006548252 = score(doc=359,freq=12.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.14725187 = fieldWeight in 359, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=359)
      0.26666668 = coord(4/15)
    
    Abstract
    This text introduces the standardized knowledge representation languages for modeling ontologies operating at the core of the semantic web. It covers RDF schema, Web Ontology Language (OWL), rules, query languages, the OWL 2 revision, and the forthcoming Rule Interchange Format (RIF). A 2010 CHOICE Outstanding Academic Title ! The nine chapters of the book guide the reader through the major foundational languages for the semantic Web and highlight the formal semantics. ! the book has very interesting supporting material and exercises, is oriented to W3C standards, and provides the necessary foundations for the semantic Web. It will be easy to follow by the computer scientist who already has a basic background on semantic Web issues; it will also be helpful for both self-study and teaching purposes. I recommend this book primarily as a complementary textbook for a graduate or undergraduate course in a computer science or a Web science academic program. --Computing Reviews, February 2010 This book is unique in several respects. It contains an in-depth treatment of all the major foundational languages for the Semantic Web and provides a full treatment of the underlying formal semantics, which is central to the Semantic Web effort. It is also the very first textbook that addresses the forthcoming W3C recommended standards OWL 2 and RIF. Furthermore, the covered topics and underlying concepts are easily accessible for the reader due to a clear separation of syntax and semantics ! I am confident this book will be well received and play an important role in training a larger number of students who will seek to become proficient in this growing discipline.
    Date
    23. 8.2012 11:08:21
    Series
    Chapman & Hall/CRC textbooks in computing
  13. Widhalm, R.; Mück, T.: Topic maps : Semantische Suche im Internet (2002) 0.01
    0.012397517 = product of:
      0.046490688 = sum of:
        0.012292872 = weight(_text_:und in 4731) [ClassicSimilarity], result of:
          0.012292872 = score(doc=4731,freq=6.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.16965526 = fieldWeight in 4731, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
        0.019372202 = weight(_text_:zur in 4731) [ClassicSimilarity], result of:
          0.019372202 = score(doc=4731,freq=4.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.19244531 = fieldWeight in 4731, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
        0.0046303137 = weight(_text_:in in 4731) [ClassicSimilarity], result of:
          0.0046303137 = score(doc=4731,freq=6.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.1041228 = fieldWeight in 4731, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
        0.0101953 = weight(_text_:der in 4731) [ClassicSimilarity], result of:
          0.0101953 = score(doc=4731,freq=4.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.13961042 = fieldWeight in 4731, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
      0.26666668 = coord(4/15)
    
    Abstract
    Das Werk behandelt die aktuellen Entwicklungen zur inhaltlichen Erschließung von Informationsquellen im Internet. Topic Maps, semantische Modelle vernetzter Informationsressourcen unter Verwendung von XML bzw. HyTime, bieten alle notwendigen Modellierungskonstrukte, um Dokumente im Internet zu klassifizieren und ein assoziatives, semantisches Netzwerk über diese zu legen. Neben Einführungen in XML, XLink, XPointer sowie HyTime wird anhand von Einsatzszenarien gezeigt, wie diese neuartige Technologie für Content Management und Information Retrieval im Internet funktioniert. Der Entwurf einer Abfragesprache wird ebenso skizziert wie der Prototyp einer intelligenten Suchmaschine. Das Buch zeigt, wie Topic Maps den Weg zu semantisch gesteuerten Suchprozessen im Internet weisen.
    Content
    Topic Maps - Einführung in den ISO Standard (Topics, Associations, Scopes, Facets, Topic Maps).- Grundlagen von XML (Aufbau, Bestandteile, Element- und Attributdefinitionen, DTD, XLink, XPointer).- Wie entsteht ein Heringsschmaus? Konkretes Beispiel einer Topic Map.Topic Maps - Meta DTD. Die formale Beschreibung des Standards.- HyTime als zugrunde liegender Formalismus (Bounded Object Sets, Location Addressing, Hyperlinks in HyTime).- Prototyp eines Topic Map Repositories (Entwicklungsprozess für Topic Maps, Prototyp Spezifikation, technische Realisierung des Prototyps).- Semantisches Datenmodell zur Speicherung von Topic Maps.- Prototypische Abfragesprache für Topic Maps.- Erweiterungsvorschläge für den ISO Standard.
  14. Köchert, R.: Auf der Suche im Internet : Die Etrusker-Spitzmaus - Online-Wissen effizient abrufen und nutzen (2005) 0.01
    0.010880229 = product of:
      0.054401144 = sum of:
        0.021512525 = weight(_text_:und in 1957) [ClassicSimilarity], result of:
          0.021512525 = score(doc=1957,freq=6.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.2968967 = fieldWeight in 1957, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1957)
        0.004678297 = weight(_text_:in in 1957) [ClassicSimilarity], result of:
          0.004678297 = score(doc=1957,freq=2.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.10520181 = fieldWeight in 1957, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1957)
        0.028210325 = weight(_text_:der in 1957) [ClassicSimilarity], result of:
          0.028210325 = score(doc=1957,freq=10.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.38630107 = fieldWeight in 1957, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1957)
      0.2 = coord(3/15)
    
    Abstract
    Diplomphysiker Ralf Köchert hat sich mit dem Medium Internet auseinandergesetzt und möchte dem Leser dessen ursprüngliche Idee - die Suche nach Informationen auf professionelle Weise näher bringen. Wertvoll sind in diesem Zusammenhang vor allem die Ausführungen über gezieltes Suchen. Des Weiteren setzt sich der Autor mit dem Aufbau der bekannten Suchmaschine Google auseinander. Zu sätzlich wird erklärt, wie das Hypertextsystem, also die Systematik der Links im Internet funktioniert. Wer sich mit diesem Buch auseinandersetzt, wird künftig bei der täglichen Recherche wohl einige Zeit und Energie sparen.
  15. Hübener, M.: Suchmaschinenoptimierung kompakt : anwendungsorientierte Techniken für die Praxis (2009) 0.01
    0.010544151 = product of:
      0.052720755 = sum of:
        0.018439308 = weight(_text_:und in 3911) [ClassicSimilarity], result of:
          0.018439308 = score(doc=3911,freq=6.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.2544829 = fieldWeight in 3911, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
        0.005670953 = weight(_text_:in in 3911) [ClassicSimilarity], result of:
          0.005670953 = score(doc=3911,freq=4.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.12752387 = fieldWeight in 3911, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
        0.028610492 = weight(_text_:der in 3911) [ClassicSimilarity], result of:
          0.028610492 = score(doc=3911,freq=14.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.3917808 = fieldWeight in 3911, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
      0.2 = coord(3/15)
    
    Abstract
    Methoden der Suchmaschinenoptimierung werden im vorliegenden Buch umfassend beleuchtet. Nach einer Einführung in das Thema besteht ein erster Schwerpunkt darin, konkrete Handlungsanweisungen für die Suchmaschinenoptimierung einer Website aufzuzeigen. Dazu wird ein Optimierungszyklus in neun Schritten vorgestellt, welcher die Felder OffPage-Optimierung, OnPage-Optimierung und Keyword-Recherche einschließt. Darüber hinaus führt der Autor die zusätzliche Kategorie der Content-Strategie ein, um die Quellen und Verbreitungswege potentieller neuer Inhalte zu systematisieren. Um die Anschaulichkeit und den Praxisbezug noch zu erhöhen, stellt der Autor eine konkrete Anwendung des vorgestellten Optimierungszyklus am Beispiel einer real existierenden Website vor.
    Content
    Einleitung - Grundlagen - Die Funktionsweise der Suchmaschinen - Die Besonderheiten der Suchmaschine Google - Multimedia im World Wide Web - Die Strukturierung einer Internetpräsenz - Der 9-Punkte-Optimierungsplan - Die Anwendung des Optimierungsplans am Beispiel www.still.de - Zusammenfassung
  16. Web-2.0-Dienste als Ergänzung zu algorithmischen Suchmaschinen (2008) 0.01
    0.009640494 = product of:
      0.04820247 = sum of:
        0.015055632 = weight(_text_:und in 4323) [ClassicSimilarity], result of:
          0.015055632 = score(doc=4323,freq=4.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.20778441 = fieldWeight in 4323, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
        0.008966564 = weight(_text_:in in 4323) [ClassicSimilarity], result of:
          0.008966564 = score(doc=4323,freq=10.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.20163295 = fieldWeight in 4323, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
        0.024180276 = weight(_text_:der in 4323) [ClassicSimilarity], result of:
          0.024180276 = score(doc=4323,freq=10.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.3311152 = fieldWeight in 4323, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
      0.2 = coord(3/15)
    
    Abstract
    Mit sozialen Suchdiensten - wie z. B. Yahoo Clever, Lycos iQ oder Mister Wong - ist eine Ergänzung und teilweise sogar eine Konkurrenz zu den bisherigen Ansätzen in der Web-Suche entstanden. Während Google und Co. automatisch generierte Trefferlisten bieten, binden soziale Suchdienste die Anwender zu Generierung der Suchergebnisse in den Suchprozess ein. Vor diesem Hintergrund wird in diesem Buch der Frage nachgegangen, inwieweit soziale Suchdienste mit traditionellen Suchmaschinen konkurrieren oder diese qualitativ ergänzen können. Der vorliegende Band beleuchtet die hier aufgeworfene Fragestellung aus verschiedenen Perspektiven, um auf die Bedeutung von sozialen Suchdiensten zu schließen.
    Content
    Das Buchprojekt entstand im Rahmen des Forschungsprojektes Theseus (Teilprojekt Alexandria). - Als Online Publikation vgl.: http://www.bui.haw-hamburg.de/fileadmin/user_upload/lewandowski/Web20-Buch/lewandowski-maass.pdf. Rez. in: ZfBB 56(2009) H.2, S.134-135 (K. Lepsky)
    Issue
    Ergebnisse des Fachprojektes "Einbindung von Frage-Antwort-Diensten in die Web-Suche" am Department Information der Hochschule für Angewandte Wissenschaften Hamburg (WS 2007/2008).
  17. Hüsken, P.: Informationssuche im Semantic Web : Methoden des Information Retrieval für die Wissensrepräsentation (2006) 0.01
    0.0070093716 = product of:
      0.035046857 = sum of:
        0.010645939 = weight(_text_:und in 4332) [ClassicSimilarity], result of:
          0.010645939 = score(doc=4332,freq=2.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.14692576 = fieldWeight in 4332, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
        0.005670953 = weight(_text_:in in 4332) [ClassicSimilarity], result of:
          0.005670953 = score(doc=4332,freq=4.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.12752387 = fieldWeight in 4332, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
        0.018729964 = weight(_text_:der in 4332) [ClassicSimilarity], result of:
          0.018729964 = score(doc=4332,freq=6.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.25648075 = fieldWeight in 4332, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
      0.2 = coord(3/15)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
  18. Rogers, R.: Information politics on the Web (2004) 0.00
    0.0018893619 = product of:
      0.014170214 = sum of:
        0.0070972927 = weight(_text_:und in 442) [ClassicSimilarity], result of:
          0.0070972927 = score(doc=442,freq=8.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.09795051 = fieldWeight in 442, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=442)
        0.007072921 = weight(_text_:in in 442) [ClassicSimilarity], result of:
          0.007072921 = score(doc=442,freq=56.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.15905021 = fieldWeight in 442, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.015625 = fieldNorm(doc=442)
      0.13333334 = coord(2/15)
    
    Abstract
    Rogers presents a profoundly different way of thinking about information in cyberspace, one that supports the political efforts of democratic activists and NGOs and takes seriously the epistemological issues at the heart of networked communications.
    BK
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Footnote
    Rez. in: JASIST 58(2007) no.4, S.608-609 (K.D. Desouza): "Richard Rogers explores the distinctiveness of the World Wide Web as a politically contested space where information searchers may encounter multiple explanations of reality. Sources of information on the Web are in constant competition with each other for attention. The attention a source receives will determine its prominence, the ability to be a provider of leading information, and its inclusion in authoritative spaces. Rogers explores the politics behind evaluating sources that are collected and housed on authoritative spaces. Information politics on the Web can be looked at in terms of frontend or back-end politics. Front-end politics is concerned with whether sources on the Web pay attention to principles of inclusivity, fairness, and scope of representation in how information is presented, while back-end politics examines the logic behind how search engines or portals select and index information. Concerning front-end politics, Rogers questions the various versions of reality one can derive from examining information on the Web, especially when issues of information inclusivity and scope of representation are toiled with. In addition, Rogers is concerned with how back-end politics are being controlled by dominant forces of the market (i.e., the more an organization is willing to pay, the greater will be the site's visibility and prominence in authoritative spaces), regardless of whether the information presented on the site justifies such a placement. In the book, Rogers illustrates the issues involved in back-end and front-end politics (though heavily slanted on front-end politics) using vivid cases, all of which are derived from his own research. The main thrust is the exploration of how various "information instruments," defined as "a digital and analytical means of recording (capturing) and subsequently reading indications of states of defined information streams (p. 19)," help capture the politics of the Web. Rogers employs four specific instruments (Lay Decision Support System, Issue Barometer, Web Issue Index of Civil Society, and Election Issue Tracker), which are covered in detail in core chapters of the book (Chapter 2-Chapter 5). The book is comprised of six chapters, with Chapter 1 being the traditional introduction and Chapter 6 being a summary of the major concepts discussed.
    Chapter 2 examines the politics of information retrieval in the context of collaborative filtering techniques. Rogers begins by discussing the underpinnings of modern search engine design by examining medieval practices of knowledge seeking, following up with a critique of the collaborative filtering techniques. Rogers's major contention is that collaborative filtering rids us of user idiosyncrasies as search query strings, preferences, and recommendations are shared among users and without much care for the differences among them, both in terms of their innate characteristics and also their search goals. To illustrate Rogers' critiques of collaborative filtering, he describes an information searching experiment that he conducted with students at University of Vienna and University of Amsterdam. Students were asked to search for information on Viagra. As one can imagine, depending on a number of issues, not the least of which is what sources did one extract information from, a student would find different accounts of reality about Viagra, everything from a medical drug to a black-market drug ideal for underground trade. Rogers described how information on the Web differed from official accounts for certain events. The information on the Web served as an alternative reality. Chapter 3 describes the Web as a dynamic debate-mapping tool, a political instrument. Rogers introduces the "Issue Barometer," an information instrument that measures the social pressure on a topic being debated by analyzing data available from the Web. Measures used by the Issue Barometer include temperature of the issue (cold to hot), activity level of the debate (mild to intense), and territorialization (one country to many countries). The Issues Barometer is applied to an illustrative case of the public debate surrounding food safety in the Netherlands in 2001. Chapter 4 introduces "The Web Issue Index," which provides an indication of leading societal issues discussed on the Web. The empirical research on the Web Issues Index was conducted on the Genoa G8 Summit in 1999 and the anti-globalization movement. Rogers focus here was to examine the changing nature of prominent issues over time, i.e., how issues gained and lost attention and traction over time.
    In Chapter 5, the "Election Issue Tracker" is introduced. The Election Issue Tracker calculates currency that is defined as "frequency of mentions of the issue terms per newspaper and across newspapers" in the three major national newspapers. The Election Issue Tracker is used to study which issues resonate with the press and which do not. As one would expect, Rogers found that not all issues that are considered important or central to a political party resonate with the press. This book contains a wealth of information that can be accessed by both researcher and practitioner. Even more interesting is the fact that researchers from a wide assortment of disciplines, from political science to information science and even communication studies, will appreciate the research and insights put forth by Rogers. Concepts presented in each chapter are thoroughly described using a wide variety of cases. Albeit all the cases are of a European flavor, mainly Dutch, they are interesting and thought-provoking. I found the descriptions of Rogers various information instruments to be very interesting. Researchers can gain from an examination of these instruments as it points to an interesting method for studying activities and behaviors on the Internet. In addition, each chapter has adequate illustrations and the bibliography is comprehensive. This book will make for an ideal supplementary text for graduate courses in information science, communication and media studies, and even political science. Like all books, however, this book had its share of shortcomings. While I was able to appreciate the content of the book, and certainly commend Rogers for studying an issue of immense significance, I found the book to be very difficult to read and parse through. The book is laden with jargon, political statements, and even has several instances of deficient writing. The book also lacked a sense of structure, and this affected the presentation of Rogers' material. I would have also hoped to see some recommendations by Rogers in terms of how should researchers further the ideas he has put forth. Areas of future research, methods for studying future problems, and even insights on what the future might hold for information politics were not given enough attention in the book; in my opinion, this was a major shortcoming. Overall, I commend Rogers for putting forth a very informative book on the issues of information politics on the Web. Information politics, especially when delivered on the communication technologies such as the Web, is going to play a vital role in our societies for a long time to come. Debates will range from the politics of how information is searched for and displayed on the Web to how the Web is used to manipulate or politicize information to meet the agendas of various entities. Richard Rogers' book will be of the seminal and foundational readings on the topic for any curious minds that want to explore these issues."
    RVK
    AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
  19. Erlhofer, S.: Suchmaschinen-Optimierung für Webentwickler : Grundlagen, Ranking optimieren, Tipps und Tricks; Neu: Keyword-Recherche, TYPO3-Optimierung, Usability (2006) 0.00
    0.0013382784 = product of:
      0.020074176 = sum of:
        0.020074176 = weight(_text_:und in 2150) [ClassicSimilarity], result of:
          0.020074176 = score(doc=2150,freq=4.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.27704588 = fieldWeight in 2150, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2150)
      0.06666667 = coord(1/15)
    
    Issue
    2., aktualisierte und stark erw. Aufl.
  20. Erlhofer, S.: Suchmaschinen-Optimierung für Webentwickler : Grundlagen, Funktionsweisen und Ranking-Optimierung (2005) 0.00
    0.0011828822 = product of:
      0.017743232 = sum of:
        0.017743232 = weight(_text_:und in 4917) [ClassicSimilarity], result of:
          0.017743232 = score(doc=4917,freq=2.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.24487628 = fieldWeight in 4917, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4917)
      0.06666667 = coord(1/15)
    

Languages

  • d 17
  • e 6

Types

  • m 23
  • s 6

Subjects

Classifications