Search (12 results, page 1 of 1)

  • × classification_ss:"ST 205"
  • × year_i:[2000 TO 2010}
  1. Widhalm, R.; Mück, T.: Topic maps : Semantische Suche im Internet (2002) 0.03
    0.029806487 = product of:
      0.059612975 = sum of:
        0.015353453 = weight(_text_:information in 4731) [ClassicSimilarity], result of:
          0.015353453 = score(doc=4731,freq=10.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.1734784 = fieldWeight in 4731, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
        0.044259522 = weight(_text_:standards in 4731) [ClassicSimilarity], result of:
          0.044259522 = score(doc=4731,freq=2.0), product of:
            0.22470023 = queryWeight, product of:
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.050415643 = queryNorm
            0.19697142 = fieldWeight in 4731, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4569545 = idf(docFreq=1393, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
      0.5 = coord(2/4)
    
    Abstract
    Das Werk behandelt die aktuellen Entwicklungen zur inhaltlichen Erschließung von Informationsquellen im Internet. Topic Maps, semantische Modelle vernetzter Informationsressourcen unter Verwendung von XML bzw. HyTime, bieten alle notwendigen Modellierungskonstrukte, um Dokumente im Internet zu klassifizieren und ein assoziatives, semantisches Netzwerk über diese zu legen. Neben Einführungen in XML, XLink, XPointer sowie HyTime wird anhand von Einsatzszenarien gezeigt, wie diese neuartige Technologie für Content Management und Information Retrieval im Internet funktioniert. Der Entwurf einer Abfragesprache wird ebenso skizziert wie der Prototyp einer intelligenten Suchmaschine. Das Buch zeigt, wie Topic Maps den Weg zu semantisch gesteuerten Suchprozessen im Internet weisen.
    Content
    Topic Maps - Einführung in den ISO Standard (Topics, Associations, Scopes, Facets, Topic Maps).- Grundlagen von XML (Aufbau, Bestandteile, Element- und Attributdefinitionen, DTD, XLink, XPointer).- Wie entsteht ein Heringsschmaus? Konkretes Beispiel einer Topic Map.Topic Maps - Meta DTD. Die formale Beschreibung des Standards.- HyTime als zugrunde liegender Formalismus (Bounded Object Sets, Location Addressing, Hyperlinks in HyTime).- Prototyp eines Topic Map Repositories (Entwicklungsprozess für Topic Maps, Prototyp Spezifikation, technische Realisierung des Prototyps).- Semantisches Datenmodell zur Speicherung von Topic Maps.- Prototypische Abfragesprache für Topic Maps.- Erweiterungsvorschläge für den ISO Standard.
    RSWK
    Internet / Information Retrieval / Semantisches Netz / HyTime
    Internet / Information Retrieval / Semantisches Netz / XML
    Subject
    Internet / Information Retrieval / Semantisches Netz / HyTime
    Internet / Information Retrieval / Semantisches Netz / XML
  2. Rosenfeld, L.; Morville, P.: Information architecture for the World Wide Web : designing large-scale Web sites (2007) 0.02
    0.022108944 = product of:
      0.04421789 = sum of:
        0.027141329 = weight(_text_:information in 5135) [ClassicSimilarity], result of:
          0.027141329 = score(doc=5135,freq=20.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.30666938 = fieldWeight in 5135, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5135)
        0.01707656 = product of:
          0.03415312 = sum of:
            0.03415312 = weight(_text_:22 in 5135) [ClassicSimilarity], result of:
              0.03415312 = score(doc=5135,freq=2.0), product of:
                0.17654699 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050415643 = queryNorm
                0.19345059 = fieldWeight in 5135, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5135)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    The scale of web site design has grown so that what was once comparable to decorating a room is now comparable to designing buildings or even cities. Designing sites so that people can find their way around is an ever-growing challenge as sites contain more and more information. In the past, Information Architecture for the World Wide Web has helped developers and designers establish consistent and usable structures for their sites and their information. This edition of the classic primer on web site design and navigation is updated with recent examples, new scenarios, and new information on best practices. Readers will learn how to present large volumes of information to visitors who need to find what they're looking for quickly. With topics that range from aesthetics to mechanics, this valuable book explains how to create interfaces that users can understand easily.
    Date
    22. 3.2008 16:18:27
    LCSH
    Information storage and retrieval systems / Architecture
    RSWK
    Internet / Information / Strukturierung (BVB)
    Subject
    Internet / Information / Strukturierung (BVB)
    Information storage and retrieval systems / Architecture
  3. Rogers, R.: Information politics on the Web (2004) 0.01
    0.0130977975 = product of:
      0.026195595 = sum of:
        0.019114895 = weight(_text_:information in 442) [ClassicSimilarity], result of:
          0.019114895 = score(doc=442,freq=62.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.21597885 = fieldWeight in 442, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=442)
        0.0070807007 = product of:
          0.014161401 = sum of:
            0.014161401 = weight(_text_:organization in 442) [ClassicSimilarity], result of:
              0.014161401 = score(doc=442,freq=2.0), product of:
                0.17974974 = queryWeight, product of:
                  3.5653565 = idf(docFreq=3399, maxDocs=44218)
                  0.050415643 = queryNorm
                0.07878399 = fieldWeight in 442, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5653565 = idf(docFreq=3399, maxDocs=44218)
                  0.015625 = fieldNorm(doc=442)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Rogers presents a profoundly different way of thinking about information in cyberspace, one that supports the political efforts of democratic activists and NGOs and takes seriously the epistemological issues at the heart of networked communications.
    Footnote
    Rez. in: JASIST 58(2007) no.4, S.608-609 (K.D. Desouza): "Richard Rogers explores the distinctiveness of the World Wide Web as a politically contested space where information searchers may encounter multiple explanations of reality. Sources of information on the Web are in constant competition with each other for attention. The attention a source receives will determine its prominence, the ability to be a provider of leading information, and its inclusion in authoritative spaces. Rogers explores the politics behind evaluating sources that are collected and housed on authoritative spaces. Information politics on the Web can be looked at in terms of frontend or back-end politics. Front-end politics is concerned with whether sources on the Web pay attention to principles of inclusivity, fairness, and scope of representation in how information is presented, while back-end politics examines the logic behind how search engines or portals select and index information. Concerning front-end politics, Rogers questions the various versions of reality one can derive from examining information on the Web, especially when issues of information inclusivity and scope of representation are toiled with. In addition, Rogers is concerned with how back-end politics are being controlled by dominant forces of the market (i.e., the more an organization is willing to pay, the greater will be the site's visibility and prominence in authoritative spaces), regardless of whether the information presented on the site justifies such a placement. In the book, Rogers illustrates the issues involved in back-end and front-end politics (though heavily slanted on front-end politics) using vivid cases, all of which are derived from his own research. The main thrust is the exploration of how various "information instruments," defined as "a digital and analytical means of recording (capturing) and subsequently reading indications of states of defined information streams (p. 19)," help capture the politics of the Web. Rogers employs four specific instruments (Lay Decision Support System, Issue Barometer, Web Issue Index of Civil Society, and Election Issue Tracker), which are covered in detail in core chapters of the book (Chapter 2-Chapter 5). The book is comprised of six chapters, with Chapter 1 being the traditional introduction and Chapter 6 being a summary of the major concepts discussed.
    Chapter 2 examines the politics of information retrieval in the context of collaborative filtering techniques. Rogers begins by discussing the underpinnings of modern search engine design by examining medieval practices of knowledge seeking, following up with a critique of the collaborative filtering techniques. Rogers's major contention is that collaborative filtering rids us of user idiosyncrasies as search query strings, preferences, and recommendations are shared among users and without much care for the differences among them, both in terms of their innate characteristics and also their search goals. To illustrate Rogers' critiques of collaborative filtering, he describes an information searching experiment that he conducted with students at University of Vienna and University of Amsterdam. Students were asked to search for information on Viagra. As one can imagine, depending on a number of issues, not the least of which is what sources did one extract information from, a student would find different accounts of reality about Viagra, everything from a medical drug to a black-market drug ideal for underground trade. Rogers described how information on the Web differed from official accounts for certain events. The information on the Web served as an alternative reality. Chapter 3 describes the Web as a dynamic debate-mapping tool, a political instrument. Rogers introduces the "Issue Barometer," an information instrument that measures the social pressure on a topic being debated by analyzing data available from the Web. Measures used by the Issue Barometer include temperature of the issue (cold to hot), activity level of the debate (mild to intense), and territorialization (one country to many countries). The Issues Barometer is applied to an illustrative case of the public debate surrounding food safety in the Netherlands in 2001. Chapter 4 introduces "The Web Issue Index," which provides an indication of leading societal issues discussed on the Web. The empirical research on the Web Issues Index was conducted on the Genoa G8 Summit in 1999 and the anti-globalization movement. Rogers focus here was to examine the changing nature of prominent issues over time, i.e., how issues gained and lost attention and traction over time.
    In Chapter 5, the "Election Issue Tracker" is introduced. The Election Issue Tracker calculates currency that is defined as "frequency of mentions of the issue terms per newspaper and across newspapers" in the three major national newspapers. The Election Issue Tracker is used to study which issues resonate with the press and which do not. As one would expect, Rogers found that not all issues that are considered important or central to a political party resonate with the press. This book contains a wealth of information that can be accessed by both researcher and practitioner. Even more interesting is the fact that researchers from a wide assortment of disciplines, from political science to information science and even communication studies, will appreciate the research and insights put forth by Rogers. Concepts presented in each chapter are thoroughly described using a wide variety of cases. Albeit all the cases are of a European flavor, mainly Dutch, they are interesting and thought-provoking. I found the descriptions of Rogers various information instruments to be very interesting. Researchers can gain from an examination of these instruments as it points to an interesting method for studying activities and behaviors on the Internet. In addition, each chapter has adequate illustrations and the bibliography is comprehensive. This book will make for an ideal supplementary text for graduate courses in information science, communication and media studies, and even political science. Like all books, however, this book had its share of shortcomings. While I was able to appreciate the content of the book, and certainly commend Rogers for studying an issue of immense significance, I found the book to be very difficult to read and parse through. The book is laden with jargon, political statements, and even has several instances of deficient writing. The book also lacked a sense of structure, and this affected the presentation of Rogers' material. I would have also hoped to see some recommendations by Rogers in terms of how should researchers further the ideas he has put forth. Areas of future research, methods for studying future problems, and even insights on what the future might hold for information politics were not given enough attention in the book; in my opinion, this was a major shortcoming. Overall, I commend Rogers for putting forth a very informative book on the issues of information politics on the Web. Information politics, especially when delivered on the communication technologies such as the Web, is going to play a vital role in our societies for a long time to come. Debates will range from the politics of how information is searched for and displayed on the Web to how the Web is used to manipulate or politicize information to meet the agendas of various entities. Richard Rogers' book will be of the seminal and foundational readings on the topic for any curious minds that want to explore these issues."
    LCSH
    Information technology / Political aspects
    Subject
    Information technology / Political aspects
  4. Manning, C.D.; Raghavan, P.; Schütze, H.: Introduction to information retrieval (2008) 0.01
    0.005946367 = product of:
      0.023785468 = sum of:
        0.023785468 = weight(_text_:information in 4041) [ClassicSimilarity], result of:
          0.023785468 = score(doc=4041,freq=24.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.2687516 = fieldWeight in 4041, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=4041)
      0.25 = coord(1/4)
    
    Abstract
    Class-tested and coherent, this textbook teaches information retrieval, including web search, text classification, and text clustering from basic concepts. Ideas are explained using examples and figures, making it perfect for introductory courses in information retrieval for advanced undergraduates and graduate students. Slides and additional exercises are available for lecturers. - This book provides what Salton and Van Rijsbergen both failed to achieve. Even more important, unlike some other books in IR, the authors appear to care about making the theory as accessible as possible to the reader, on occasion including short primers to certain topics or choosing to explain difficult concepts using simplified approaches. Its coverage [is] excellent, the quality of writing high and I was surprised how much I learned from reading it. I think the online resources are impressive.
    Content
    Inhalt: Boolean retrieval - The term vocabulary & postings lists - Dictionaries and tolerant retrieval - Index construction - Index compression - Scoring, term weighting & the vector space model - Computing scores in a complete search system - Evaluation in information retrieval - Relevance feedback & query expansion - XML retrieval - Probabilistic information retrieval - Language models for information retrieval - Text classification & Naive Bayes - Vector space classification - Support vector machines & machine learning on documents - Flat clustering - Hierarchical clustering - Matrix decompositions & latent semantic indexing - Web search basics - Web crawling and indexes - Link analysis Vgl. die digitale Fassung unter: http://nlp.stanford.edu/IR-book/pdf/irbookprint.pdf.
    LCSH
    Information retrieval
    RSWK
    Dokumentverarbeitung / Information Retrieval / Abfrageverarbeitung (GBV)
    Information Retrieval / Einführung (BVB)
    Subject
    Dokumentverarbeitung / Information Retrieval / Abfrageverarbeitung (GBV)
    Information Retrieval / Einführung (BVB)
    Information retrieval
  5. Suchen und Finden im Internet (2007) 0.01
    0.005757545 = product of:
      0.02303018 = sum of:
        0.02303018 = weight(_text_:information in 484) [ClassicSimilarity], result of:
          0.02303018 = score(doc=484,freq=10.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.2602176 = fieldWeight in 484, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
      0.25 = coord(1/4)
    
    Abstract
    Das Internet hat die Welt von Information, Kommunikation und Medien nachhaltig verändert. Suchmaschinen spielen dabei eine zentrale Rolle. Sie bilden das Tor zum Meer der elektronisch verfügbaren Informationen, leisten dem Nutzer wertvolle Hilfe beim Auffinden von Inhalten, haben sich zwischenzeitlich zum Kristallisationspunkt für vielfältige ergänzende Informations-, Kommunikations- und Mediendienste entwickelt und schicken sich an, Strukturen und Strategien der beteiligten Branchen umzuwälzen. Dabei ist die dynamische Entwicklung der Such- und Finde-Technologien für das Internet weiterhin in vollem Gange. Der MÜNCHNER KREIS hat vor diesem Hintergrund mit exzellenten Fachleuten aus Wirtschaft und Wissenschaft die Entwicklungen analysiert und die Zukunftsperspektiven diskutiert. das vorliegende Buch enthält die Ergebnisse.
    LCSH
    Business Information Systems
    Information Systems Applications (incl.Internet)
    Subject
    Business Information Systems
    Information Systems Applications (incl.Internet)
  6. Hüsken, P.: Informationssuche im Semantic Web : Methoden des Information Retrieval für die Wissensrepräsentation (2006) 0.01
    0.005757545 = product of:
      0.02303018 = sum of:
        0.02303018 = weight(_text_:information in 4332) [ClassicSimilarity], result of:
          0.02303018 = score(doc=4332,freq=10.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.2602176 = fieldWeight in 4332, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
      0.25 = coord(1/4)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
    Footnote
    Zugl.: Dortmund, Univ., Dipl.-Arb., 2006 u.d.T.: Hüsken, Peter: Information-Retrieval im Semantic-Web.
    RSWK
    Information Retrieval / Semantic Web
    Subject
    Information Retrieval / Semantic Web
  7. Hübener, M.: Suchmaschinenoptimierung kompakt : anwendungsorientierte Techniken für die Praxis (2009) 0.00
    0.0036413912 = product of:
      0.014565565 = sum of:
        0.014565565 = weight(_text_:information in 3911) [ClassicSimilarity], result of:
          0.014565565 = score(doc=3911,freq=4.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.16457605 = fieldWeight in 3911, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
      0.25 = coord(1/4)
    
    RSWK
    Suchmaschine / Information-Retrieval-System / Optimierung
    Subject
    Suchmaschine / Information-Retrieval-System / Optimierung
  8. Web-2.0-Dienste als Ergänzung zu algorithmischen Suchmaschinen (2008) 0.00
    0.0025748524 = product of:
      0.01029941 = sum of:
        0.01029941 = weight(_text_:information in 4323) [ClassicSimilarity], result of:
          0.01029941 = score(doc=4323,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.116372846 = fieldWeight in 4323, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
      0.25 = coord(1/4)
    
    Issue
    Ergebnisse des Fachprojektes "Einbindung von Frage-Antwort-Diensten in die Web-Suche" am Department Information der Hochschule für Angewandte Wissenschaften Hamburg (WS 2007/2008).
  9. Spink, A.; Jansen, B.J.: Web searching : public searching of the Web (2004) 0.00
    0.002398977 = product of:
      0.009595908 = sum of:
        0.009595908 = weight(_text_:information in 1443) [ClassicSimilarity], result of:
          0.009595908 = score(doc=1443,freq=10.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.10842399 = fieldWeight in 1443, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1443)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 56(2004) H.1, S.61-62 (D. Lewandowski): "Die Autoren des vorliegenden Bandes haben sich in den letzten Jahren durch ihre zahlreichen Veröffentlichungen zum Verhalten von Suchmaschinen-Nutzern einen guten Namen gemacht. Das nun erschienene Buch bietet eine Zusammenfassung der verstreut publizierten Aufsätze und stellt deren Ergebnisse in den Kontext eines umfassenderen Forschungsansatzes. Spink und Jansen verwenden zur Analyse des Nutzungsverhaltens query logs von Suchmaschinen. In diesen werden vom Server Informationen protokolliert, die die Anfragen an diesen Server betreffen. Daten, die aus diesen Dateien gewonnen werden können, sind unter anderem die gestellten Suchanfragen, die Adresse des Rechners, von dem aus die Anfrage gestellt wurde, sowie die aus den Trefferlisten ausgewählten Dokumente. Der klare Vorteil der Analyse von Logfiles liegt in der Möglichkeit, große Datenmengen ohne hohen personellen Aufwand erheben zu können. Die Daten einer Vielzahl anonymer Nutzer können analysiert werden; ohne dass dabei die Datenerhebung das Nutzerverhalten beeinflusst. Dies ist bei Suchmaschinen von besonderer Bedeutung, weil sie im Gegensatz zu den meisten anderen professionellen Information-Retrieval-Systemen nicht nur im beruflichen Kontext, sondern auch (und vor allem) privat genutzt werden. Das Bild des Nutzungsverhaltens wird in Umfragen und Laboruntersuchungen verfälscht, weil Nutzer ihr Anfrageverhalten falsch einschätzen oder aber die Themen ihrer Anfragen nicht nennen möchten. Hier ist vor allem an Suchanfragen, die auf medizinische oder pornographische Inhalte gerichtet sind, zu denken. Die Analyse von Logfiles ist allerdings auch mit Problemen behaftet: So sind nicht alle gewünschten Daten überhaupt in den Logfiles enthalten (es fehlen alle Informationen über den einzelnen Nutzer), es werden keine qualitativen Informationen wie etwa der Grund einer Suche erfasst und die Logfiles sind aufgrund technischer Gegebenheiten teils unvollständig. Die Autoren schließen aus den genannten Vor- und Nachteilen, dass sich Logfiles gut für die Auswertung des Nutzerverhaltens eignen, bei der Auswertung jedoch die Ergebnisse von Untersuchungen, welche andere Methoden verwenden, berücksichtigt werden sollten.
    RSWK
    Internet / Information Retrieval (BVB)
    Series
    Information science and knowledge management; 6
    Subject
    Internet / Information Retrieval (BVB)
  10. Hassler, M.: Web analytics : Metriken auswerten, Besucherverhalten verstehen, Website optimieren ; [Metriken analysieren und interpretieren ; Besucherverhalten verstehen und auswerten ; Website-Ziele definieren, Webauftritt optimieren und den Erfolg steigern] (2009) 0.00
    0.002124145 = product of:
      0.00849658 = sum of:
        0.00849658 = weight(_text_:information in 3586) [ClassicSimilarity], result of:
          0.00849658 = score(doc=3586,freq=4.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.0960027 = fieldWeight in 3586, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3586)
      0.25 = coord(1/4)
    
    BK
    85.20 / Betriebliche Information und Kommunikation
    Classification
    85.20 / Betriebliche Information und Kommunikation
  11. Alby, T.: Web 2.0 : Konzepte, Anwendungen, Technologien; [ajax, api, atom, blog, folksonomy, feeds, long tail, mashup, permalink, podcast, rich user experience, rss, social software, tagging] (2007) 0.00
    0.0012874262 = product of:
      0.005149705 = sum of:
        0.005149705 = weight(_text_:information in 1273) [ClassicSimilarity], result of:
          0.005149705 = score(doc=1273,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.058186423 = fieldWeight in 1273, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1273)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 58(2007) H.3, S.187 (W. Ratzek): "So ist das mit den Trends. Viele versuchen sich als Trendsetter - und scheitern. Andere suchen nur einen werbewirksamen Titel für eine Veranstaltung, wie das der Verleger Tim O'Reilly 2004 tat, und lösen damit einen Hype aus - wie das neudeutsch heißt. Aber so ganz zufällig war O'Reillys Wortschöpfung "Web 2.0" nicht. Nach dem Platzen der New-Economy-Blase sollten Fachleute auf einer Tagung diskutieren, wie es nun mit der Internetwirtschaft weiter gehen sollte. In nur kurzer Zeit entwickelte sich das "Web 2.0" zum Inbegriff einer neuen Bewegung, der nicht nur IT-Enthusiasten angehören. Denn das "join-in-Web" (das Mitmach-Web), wie das Web 2.0 auch bezeichnet wird, bietet auch IT-Ungeübten die Möglichkeit, im Netz-der-Netz mit eigenen Inhalten, also "user generated content", präsent zu sein. Den Schlüssel zum World Wide Web erhalten sie durch "Social Software". Selbstverständlich geht Tom Alby auch ausführlich auf die Schlüsselbegriffe ein, die sich um das Web 2.0 ranken. Dazu gehören die einer breiten Nutzerschicht bekannten Anwendungen wie Blogs, RSS oder Wikis, wie auch die weniger bekannte Technologien und Entwicklungskonzepte, wie Ajax (Asynchronous JavaScript and XML), Ruby/ Ruby on Rails. In zehn Kapiteln führt Tom Alby in Konzepte, Anwendungen und Geschäftsmodelle des Web 2.0 ein. Neben technischen Aspekten geht er auch auf die soziologischen und psychologischen Aspekte ein, wenn er beispielsweise fragt "Was motiviert die Benutzer, sich in Social SoftwarePlattformen einzubringen?" (S. 108) Die Antwort leuchtet ein: "Zunächst einmal ist da die Erwartung der Benutzer, etwas für das Gegebene zurückzubekommen: Wer sein Profil mit vielen Informationen bestückt, der hat auch eine Chance, dass das Profil von anderen angesehen und eventuell Kontakt aufgenommen wird. Wer bei Wikipedia sein Wissen einbringt, der weiß auf der anderen Seite, dass er von den Beiträgen anderer profitieren kann. Dies kann auch zu einem wirklichen Gemeinschaftsgefühl führen (...) Auch ein gewisser Stolz, Teil dieser Gemeinschaft zu sein, mag dazu gehören." (S. 108.f) Tom Albys "Web 2.0" zeichnet sich auch durch die vielen Anwendungsbeispielen aus. Ergänzt werden diese durch fünf Interviews mit Praktikern wie Johnny Haeusler von Spreeblick.de oder Vasco Sommer-Nunes und Florian Wilken von blog.de. Ein umfangreiches Glossar und ein umfangreiches Stichwortverzeichnis erleichtern die Handhabbarkeit. Getreu dem" Join-in-Web" gibt es auch ein Blog (http://web20_buch.alby.de/) zum Buch, um mit dem Autor in Kontakt zu treten. Ein weiteres Plus ist die leichte Lesbarkeit, die es auch dem Nicht-Informatiker ermöglicht, die technischen Zusammenhänge zu verstehen. Wer mehr über Folksonomy, Ruby on Rails, Ajax oder Long Tail wissen möchte, dem sei Tom Albys "Web 2.0" sehr empfohlen. Dem IT-Profi wird "Web 2.0" nicht sehr viel Neues bieten, aber für Agenturen, Designer, Webentwickler, Studierende, Bibliothekarlnnen bietet dieses engagiert geschriebene Buch viel Nützliches."
  12. Social Semantic Web : Web 2.0, was nun? (2009) 0.00
    0.0012874262 = product of:
      0.005149705 = sum of:
        0.005149705 = weight(_text_:information in 4854) [ClassicSimilarity], result of:
          0.005149705 = score(doc=4854,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.058186423 = fieldWeight in 4854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4854)
      0.25 = coord(1/4)
    
    Footnote
    Vgl.: http://www.springer.com/computer/database+management+%26+information+retrieval/book/978-3-540-72215-1.

Languages

Types

  • m 12
  • s 1

Subjects

Classifications