Search (31 results, page 1 of 2)

  • × classification_ss:"ST 205"
  1. Rosenfeld, L.; Morville, P.: Information architecture for the World Wide Web : designing large-scale Web sites (2007) 0.05
    0.051206384 = product of:
      0.087782376 = sum of:
        0.018908437 = weight(_text_:information in 5135) [ClassicSimilarity], result of:
          0.018908437 = score(doc=5135,freq=20.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.30666938 = fieldWeight in 5135, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5135)
        0.013479172 = weight(_text_:und in 5135) [ClassicSimilarity], result of:
          0.013479172 = score(doc=5135,freq=4.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.17315367 = fieldWeight in 5135, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5135)
        0.013679632 = weight(_text_:for in 5135) [ClassicSimilarity], result of:
          0.013679632 = score(doc=5135,freq=8.0), product of:
            0.06594466 = queryWeight, product of:
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.035122856 = queryNorm
            0.20744109 = fieldWeight in 5135, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5135)
        0.010800257 = weight(_text_:the in 5135) [ClassicSimilarity], result of:
          0.010800257 = score(doc=5135,freq=10.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.19489565 = fieldWeight in 5135, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5135)
        0.008217963 = weight(_text_:of in 5135) [ClassicSimilarity], result of:
          0.008217963 = score(doc=5135,freq=6.0), product of:
            0.054923624 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.035122856 = queryNorm
            0.1496253 = fieldWeight in 5135, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5135)
        0.010800257 = weight(_text_:the in 5135) [ClassicSimilarity], result of:
          0.010800257 = score(doc=5135,freq=10.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.19489565 = fieldWeight in 5135, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5135)
        0.011896656 = product of:
          0.023793312 = sum of:
            0.023793312 = weight(_text_:22 in 5135) [ClassicSimilarity], result of:
              0.023793312 = score(doc=5135,freq=2.0), product of:
                0.12299426 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035122856 = queryNorm
                0.19345059 = fieldWeight in 5135, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5135)
          0.5 = coord(1/2)
      0.5833333 = coord(7/12)
    
    Abstract
    The scale of web site design has grown so that what was once comparable to decorating a room is now comparable to designing buildings or even cities. Designing sites so that people can find their way around is an ever-growing challenge as sites contain more and more information. In the past, Information Architecture for the World Wide Web has helped developers and designers establish consistent and usable structures for their sites and their information. This edition of the classic primer on web site design and navigation is updated with recent examples, new scenarios, and new information on best practices. Readers will learn how to present large volumes of information to visitors who need to find what they're looking for quickly. With topics that range from aesthetics to mechanics, this valuable book explains how to create interfaces that users can understand easily.
    Classification
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
    Date
    22. 3.2008 16:18:27
    LCSH
    Information storage and retrieval systems / Architecture
    RSWK
    Internet / Information / Strukturierung (BVB)
    RVK
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
    Subject
    Internet / Information / Strukturierung (BVB)
    Information storage and retrieval systems / Architecture
  2. Rogers, R.: Information politics on the Web (2004) 0.04
    0.041645974 = product of:
      0.08329195 = sum of:
        0.013316694 = weight(_text_:information in 442) [ClassicSimilarity], result of:
          0.013316694 = score(doc=442,freq=62.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.21597885 = fieldWeight in 442, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=442)
        0.007624971 = weight(_text_:und in 442) [ClassicSimilarity], result of:
          0.007624971 = score(doc=442,freq=8.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.09795051 = fieldWeight in 442, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=442)
        0.010596197 = weight(_text_:for in 442) [ClassicSimilarity], result of:
          0.010596197 = score(doc=442,freq=30.0), product of:
            0.06594466 = queryWeight, product of:
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.035122856 = queryNorm
            0.16068318 = fieldWeight in 442, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.015625 = fieldNorm(doc=442)
        0.018226534 = weight(_text_:the in 442) [ClassicSimilarity], result of:
          0.018226534 = score(doc=442,freq=178.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.32890627 = fieldWeight in 442, product of:
              13.341664 = tf(freq=178.0), with freq of:
                178.0 = termFreq=178.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.015625 = fieldNorm(doc=442)
        0.015301015 = weight(_text_:of in 442) [ClassicSimilarity], result of:
          0.015301015 = score(doc=442,freq=130.0), product of:
            0.054923624 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.035122856 = queryNorm
            0.27858713 = fieldWeight in 442, product of:
              11.401754 = tf(freq=130.0), with freq of:
                130.0 = termFreq=130.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.015625 = fieldNorm(doc=442)
        0.018226534 = weight(_text_:the in 442) [ClassicSimilarity], result of:
          0.018226534 = score(doc=442,freq=178.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.32890627 = fieldWeight in 442, product of:
              13.341664 = tf(freq=178.0), with freq of:
                178.0 = termFreq=178.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.015625 = fieldNorm(doc=442)
      0.5 = coord(6/12)
    
    Abstract
    Rogers presents a profoundly different way of thinking about information in cyberspace, one that supports the political efforts of democratic activists and NGOs and takes seriously the epistemological issues at the heart of networked communications.
    BK
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Footnote
    Rez. in: JASIST 58(2007) no.4, S.608-609 (K.D. Desouza): "Richard Rogers explores the distinctiveness of the World Wide Web as a politically contested space where information searchers may encounter multiple explanations of reality. Sources of information on the Web are in constant competition with each other for attention. The attention a source receives will determine its prominence, the ability to be a provider of leading information, and its inclusion in authoritative spaces. Rogers explores the politics behind evaluating sources that are collected and housed on authoritative spaces. Information politics on the Web can be looked at in terms of frontend or back-end politics. Front-end politics is concerned with whether sources on the Web pay attention to principles of inclusivity, fairness, and scope of representation in how information is presented, while back-end politics examines the logic behind how search engines or portals select and index information. Concerning front-end politics, Rogers questions the various versions of reality one can derive from examining information on the Web, especially when issues of information inclusivity and scope of representation are toiled with. In addition, Rogers is concerned with how back-end politics are being controlled by dominant forces of the market (i.e., the more an organization is willing to pay, the greater will be the site's visibility and prominence in authoritative spaces), regardless of whether the information presented on the site justifies such a placement. In the book, Rogers illustrates the issues involved in back-end and front-end politics (though heavily slanted on front-end politics) using vivid cases, all of which are derived from his own research. The main thrust is the exploration of how various "information instruments," defined as "a digital and analytical means of recording (capturing) and subsequently reading indications of states of defined information streams (p. 19)," help capture the politics of the Web. Rogers employs four specific instruments (Lay Decision Support System, Issue Barometer, Web Issue Index of Civil Society, and Election Issue Tracker), which are covered in detail in core chapters of the book (Chapter 2-Chapter 5). The book is comprised of six chapters, with Chapter 1 being the traditional introduction and Chapter 6 being a summary of the major concepts discussed.
    Chapter 2 examines the politics of information retrieval in the context of collaborative filtering techniques. Rogers begins by discussing the underpinnings of modern search engine design by examining medieval practices of knowledge seeking, following up with a critique of the collaborative filtering techniques. Rogers's major contention is that collaborative filtering rids us of user idiosyncrasies as search query strings, preferences, and recommendations are shared among users and without much care for the differences among them, both in terms of their innate characteristics and also their search goals. To illustrate Rogers' critiques of collaborative filtering, he describes an information searching experiment that he conducted with students at University of Vienna and University of Amsterdam. Students were asked to search for information on Viagra. As one can imagine, depending on a number of issues, not the least of which is what sources did one extract information from, a student would find different accounts of reality about Viagra, everything from a medical drug to a black-market drug ideal for underground trade. Rogers described how information on the Web differed from official accounts for certain events. The information on the Web served as an alternative reality. Chapter 3 describes the Web as a dynamic debate-mapping tool, a political instrument. Rogers introduces the "Issue Barometer," an information instrument that measures the social pressure on a topic being debated by analyzing data available from the Web. Measures used by the Issue Barometer include temperature of the issue (cold to hot), activity level of the debate (mild to intense), and territorialization (one country to many countries). The Issues Barometer is applied to an illustrative case of the public debate surrounding food safety in the Netherlands in 2001. Chapter 4 introduces "The Web Issue Index," which provides an indication of leading societal issues discussed on the Web. The empirical research on the Web Issues Index was conducted on the Genoa G8 Summit in 1999 and the anti-globalization movement. Rogers focus here was to examine the changing nature of prominent issues over time, i.e., how issues gained and lost attention and traction over time.
    In Chapter 5, the "Election Issue Tracker" is introduced. The Election Issue Tracker calculates currency that is defined as "frequency of mentions of the issue terms per newspaper and across newspapers" in the three major national newspapers. The Election Issue Tracker is used to study which issues resonate with the press and which do not. As one would expect, Rogers found that not all issues that are considered important or central to a political party resonate with the press. This book contains a wealth of information that can be accessed by both researcher and practitioner. Even more interesting is the fact that researchers from a wide assortment of disciplines, from political science to information science and even communication studies, will appreciate the research and insights put forth by Rogers. Concepts presented in each chapter are thoroughly described using a wide variety of cases. Albeit all the cases are of a European flavor, mainly Dutch, they are interesting and thought-provoking. I found the descriptions of Rogers various information instruments to be very interesting. Researchers can gain from an examination of these instruments as it points to an interesting method for studying activities and behaviors on the Internet. In addition, each chapter has adequate illustrations and the bibliography is comprehensive. This book will make for an ideal supplementary text for graduate courses in information science, communication and media studies, and even political science. Like all books, however, this book had its share of shortcomings. While I was able to appreciate the content of the book, and certainly commend Rogers for studying an issue of immense significance, I found the book to be very difficult to read and parse through. The book is laden with jargon, political statements, and even has several instances of deficient writing. The book also lacked a sense of structure, and this affected the presentation of Rogers' material. I would have also hoped to see some recommendations by Rogers in terms of how should researchers further the ideas he has put forth. Areas of future research, methods for studying future problems, and even insights on what the future might hold for information politics were not given enough attention in the book; in my opinion, this was a major shortcoming. Overall, I commend Rogers for putting forth a very informative book on the issues of information politics on the Web. Information politics, especially when delivered on the communication technologies such as the Web, is going to play a vital role in our societies for a long time to come. Debates will range from the politics of how information is searched for and displayed on the Web to how the Web is used to manipulate or politicize information to meet the agendas of various entities. Richard Rogers' book will be of the seminal and foundational readings on the topic for any curious minds that want to explore these issues."
    LCSH
    Information technology / Political aspects
    Knowledge, Sociology of
    RVK
    AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
    Subject
    Information technology / Political aspects
    Knowledge, Sociology of
  3. Croft, W.B.; Metzler, D.; Strohman, T.: Search engines : information retrieval in practice (2010) 0.03
    0.03029705 = product of:
      0.07271292 = sum of:
        0.023797601 = weight(_text_:information in 2605) [ClassicSimilarity], result of:
          0.023797601 = score(doc=2605,freq=22.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.38596505 = fieldWeight in 2605, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=2605)
        0.011607553 = weight(_text_:for in 2605) [ClassicSimilarity], result of:
          0.011607553 = score(doc=2605,freq=4.0), product of:
            0.06594466 = queryWeight, product of:
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.035122856 = queryNorm
            0.17601961 = fieldWeight in 2605, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.046875 = fieldNorm(doc=2605)
        0.01296031 = weight(_text_:the in 2605) [ClassicSimilarity], result of:
          0.01296031 = score(doc=2605,freq=10.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.2338748 = fieldWeight in 2605, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.046875 = fieldNorm(doc=2605)
        0.011387144 = weight(_text_:of in 2605) [ClassicSimilarity], result of:
          0.011387144 = score(doc=2605,freq=8.0), product of:
            0.054923624 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.035122856 = queryNorm
            0.20732689 = fieldWeight in 2605, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.046875 = fieldNorm(doc=2605)
        0.01296031 = weight(_text_:the in 2605) [ClassicSimilarity], result of:
          0.01296031 = score(doc=2605,freq=10.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.2338748 = fieldWeight in 2605, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.046875 = fieldNorm(doc=2605)
      0.41666666 = coord(5/12)
    
    Abstract
    For introductory information retrieval courses at the undergraduate and graduate level in computer science, information science and computer engineering departments. Written by a leader in the field of information retrieval, Search Engines: Information Retrieval in Practice, is designed to give undergraduate students the understanding and tools they need to evaluate, compare and modify search engines. Coverage of the underlying IR and mathematical models reinforce key concepts. The book's numerous programming exercises make extensive use of Galago, a Java-based open source search engine. SUPPLEMENTS / Extensive lecture slides (in PDF and PPT format) / Solutions to selected end of chapter problems (Instructors only) / Test collections for exercises / Galago search engine
    LCSH
    Information retrieval
    Information Storage and Retrieval
    RSWK
    Suchmaschine / Information Retrieval
    Subject
    Suchmaschine / Information Retrieval
    Information retrieval
    Information Storage and Retrieval
  4. Rosenfeld, L.; Morville, P.: Information architecture for the World Wide Web : designing large-scale Web sites (1998) 0.03
    0.029128632 = product of:
      0.069908716 = sum of:
        0.010252488 = weight(_text_:information in 493) [ClassicSimilarity], result of:
          0.010252488 = score(doc=493,freq=12.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.16628155 = fieldWeight in 493, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=493)
        0.017262915 = weight(_text_:for in 493) [ClassicSimilarity], result of:
          0.017262915 = score(doc=493,freq=26.0), product of:
            0.06594466 = queryWeight, product of:
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.035122856 = queryNorm
            0.26177883 = fieldWeight in 493, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.02734375 = fieldNorm(doc=493)
        0.01621478 = weight(_text_:the in 493) [ClassicSimilarity], result of:
          0.01621478 = score(doc=493,freq=46.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.29260322 = fieldWeight in 493, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.02734375 = fieldNorm(doc=493)
        0.00996375 = weight(_text_:of in 493) [ClassicSimilarity], result of:
          0.00996375 = score(doc=493,freq=18.0), product of:
            0.054923624 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.035122856 = queryNorm
            0.18141101 = fieldWeight in 493, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.02734375 = fieldNorm(doc=493)
        0.01621478 = weight(_text_:the in 493) [ClassicSimilarity], result of:
          0.01621478 = score(doc=493,freq=46.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.29260322 = fieldWeight in 493, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.02734375 = fieldNorm(doc=493)
      0.41666666 = coord(5/12)
    
    Abstract
    Some web sites "work" and some don't. Good web site consultants know that you can't just jump in and start writing HTML, the same way you can't build a house by just pouring a foundation and putting up some walls. You need to know who will be using the site, and what they'll be using it for. You need some idea of what you'd like to draw their attention to during their visit. Overall, you need a strong, cohesive vision for the site that makes it both distinctive and usable. Information Architecture for the World Wide Web is about applying the principles of architecture and library science to web site design. Each web site is like a public building, available for tourists and regulars alike to breeze through at their leisure. The job of the architect is to set up the framework for the site to make it comfortable and inviting for people to visit, relax in, and perhaps even return to someday. Most books on web development concentrate either on the aesthetics or the mechanics of the site. This book is about the framework that holds the two together. With this book, you learn how to design web sites and intranets that support growth, management, and ease of use. Special attention is given to: * The process behind architecting a large, complex site * Web site hierarchy design and organization Information Architecture for the World Wide Web is for webmasters, designers, and anyone else involved in building a web site. It's for novice web designers who, from the start, want to avoid the traps that result in poorly designed sites. It's for experienced web designers who have already created sites but realize that something "is missing" from their sites and want to improve them. It's for programmers and administrators who are comfortable with HTML, CGI, and Java but want to understand how to organize their web pages into a cohesive site. The authors are two of the principals of Argus Associates, a web consulting firm. At Argus, they have created information architectures for web sites and intranets of some of the largest companies in the United States, including Chrysler Corporation, Barron's, and Dow Chemical.
    LCSH
    Information storage and retrieval systems / Architecture
    Subject
    Information storage and retrieval systems / Architecture
  5. Bizer, C.; Heath, T.: Linked Data : evolving the web into a global data space (2011) 0.03
    0.02629107 = product of:
      0.06309857 = sum of:
        0.004783498 = weight(_text_:information in 4725) [ClassicSimilarity], result of:
          0.004783498 = score(doc=4725,freq=2.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.0775819 = fieldWeight in 4725, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=4725)
        0.010943705 = weight(_text_:for in 4725) [ClassicSimilarity], result of:
          0.010943705 = score(doc=4725,freq=8.0), product of:
            0.06594466 = queryWeight, product of:
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.035122856 = queryNorm
            0.16595288 = fieldWeight in 4725, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.03125 = fieldNorm(doc=4725)
        0.016842863 = weight(_text_:the in 4725) [ClassicSimilarity], result of:
          0.016842863 = score(doc=4725,freq=38.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.30393726 = fieldWeight in 4725, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.03125 = fieldNorm(doc=4725)
        0.013685644 = weight(_text_:of in 4725) [ClassicSimilarity], result of:
          0.013685644 = score(doc=4725,freq=26.0), product of:
            0.054923624 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.035122856 = queryNorm
            0.2491759 = fieldWeight in 4725, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03125 = fieldNorm(doc=4725)
        0.016842863 = weight(_text_:the in 4725) [ClassicSimilarity], result of:
          0.016842863 = score(doc=4725,freq=38.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.30393726 = fieldWeight in 4725, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.03125 = fieldNorm(doc=4725)
      0.41666666 = coord(5/12)
    
    Abstract
    The World Wide Web has enabled the creation of a global information space comprising linked documents. As the Web becomes ever more enmeshed with our daily lives, there is a growing desire for direct access to raw data not currently available on the Web or bound up in hypertext documents. Linked Data provides a publishing paradigm in which not only documents, but also data, can be a first class citizen of the Web, thereby enabling the extension of the Web with a global data space based on open standards - the Web of Data. In this Synthesis lecture we provide readers with a detailed technical introduction to Linked Data. We begin by outlining the basic principles of Linked Data, including coverage of relevant aspects of Web architecture. The remainder of the text is based around two main themes - the publication and consumption of Linked Data. Drawing on a practical Linked Data scenario, we provide guidance and best practices on: architectural approaches to publishing Linked Data; choosing URIs and vocabularies to identify and describe resources; deciding what data to return in a description of a resource on the Web; methods and frameworks for automated linking of data sets; and testing and debugging approaches for Linked Data deployments. We give an overview of existing Linked Data applications and then examine the architectures that are used to consume Linked Data from the Web, alongside existing tools and frameworks that enable these. Readers can expect to gain a rich technical understanding of Linked Data fundamentals, as the basis for application development, research or further study.
    Content
    Inhalt: Introduction - Principles ofLinked Data - The Web ofData - Linked Data Design Considerations - Linked Data Design Considerations - Consuming Linked Data - Summary and Outlook Vgl.: http://linkeddatabook.com/book.
    Series
    Synthesis lectures on the semantic web: theory and technology ; 1
  6. Web 2.0 in der Unternehmenspraxis : Grundlagen, Fallstudien und Trends zum Einsatz von Social-Software (2009) 0.02
    0.024259685 = product of:
      0.058223244 = sum of:
        0.02737633 = weight(_text_:und in 2917) [ClassicSimilarity], result of:
          0.02737633 = score(doc=2917,freq=66.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.3516768 = fieldWeight in 2917, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2917)
        0.002415011 = weight(_text_:the in 2917) [ClassicSimilarity], result of:
          0.002415011 = score(doc=2917,freq=2.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.043579992 = fieldWeight in 2917, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2917)
        0.0023723217 = weight(_text_:of in 2917) [ClassicSimilarity], result of:
          0.0023723217 = score(doc=2917,freq=2.0), product of:
            0.054923624 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.035122856 = queryNorm
            0.043193102 = fieldWeight in 2917, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2917)
        0.002415011 = weight(_text_:the in 2917) [ClassicSimilarity], result of:
          0.002415011 = score(doc=2917,freq=2.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.043579992 = fieldWeight in 2917, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2917)
        0.02364457 = product of:
          0.04728914 = sum of:
            0.04728914 = weight(_text_:communities in 2917) [ClassicSimilarity], result of:
              0.04728914 = score(doc=2917,freq=6.0), product of:
                0.18632571 = queryWeight, product of:
                  5.3049703 = idf(docFreq=596, maxDocs=44218)
                  0.035122856 = queryNorm
                0.25379825 = fieldWeight in 2917, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.3049703 = idf(docFreq=596, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2917)
          0.5 = coord(1/2)
      0.41666666 = coord(5/12)
    
    Abstract
    Social Software Anwendungen wie Wikis, Weblogs oder Social-Networking-Plattformen sind ein integraler Bestandteil der Weiterentwicklungen des Internets. Zur Nutzung kommen diese Anwendungen aus dem Bedürfnis heraus, Wissen zu sammeln, bereitzustellen und zu verteilen bzw. Communities aufzubauen und ihnen Raum zum Austausch zu geben. Worin liegt nun aber der Nutzen des Web 2.0 für Unternehmen? Im Rahmen dieses Buches werden von rund 30 Autoren aus Wissenschaft und Praxis vier große Themenbereiche behandelt, um sich der Beantwortung dieser Frage zu nähern.Im Einführungsteil werden die Grundlagen gelegt und unterschiedliche Social-Software-Anwendungen wie Wikis, Weblogs oder Social Bookmarking erläutert. Im darauf folgenden Abschnitt rücken die Potenziale der Anwendung in Unternehmen und die Wissensarbeiter als Nutzer in den Fokus. Welche Unternehmenskultur und Kompetenzen sind notwendig, um effizient mit Social Software im Unternehmen arbeiten zu können? Wie wird Social Software im Unternehmen eingeführt?Der dritte Teil des Buches befasst sich mit konkreten Anwendungsfällen in Unternehmen. Fallstudien aus großen und kleinen Unternehmen wie z.B. IBM, Deutsche Bahn, Opel, SUN Microsystems und der PSI AG veranschaulicht. Im abschließenden Teil werden zukünftige Entwicklungen ausgelotet und Visionen gewagt.
    Footnote
    Rez. in: IWP 60(1009) H.4, S.245-246 (C. Wolff): "Der von Andrea Back (St. Gallen), Norbert Gronau (Potsdam) und Klaus Tochtermann herausgegebene Sammelband "Web 2.0 in der Unternehmenspraxis" verbindet in schlüssiger Weise die systematische Einführung in die Themen Web 2.0 und social software mit der Darstellung von Möglichkeiten, solche neuen Informationssysteme für Veränderungen im Unternehmen zu nutzen und zeigt dies anhand einer ganzen Reihe einzelner Fallstudien auf. Auch zukünftige Anwendungen wie das social semantic web werden als Entwicklungschance erörtert. In einer knappen Einleitung werden kurz die wesentlichen Begriffe wie Web 2.0, social software oder "Enterprise 2.0" eingeführt und der Aufbau des Bandes wird erläutert. Das sehr viel umfangreichere zweite Kapitel führt in die wesentlichen Systemtypen der social software ein: Erläutert werden Wikis, Weblogs, Social Bookmarking, Social Tagging, Podcasting, Newsfeeds, Communities und soziale Netzwerke sowie die technischen Besonderheiten von social software. Die Aufteilung ist überzeugend, für jeden Systemtyp werden nicht nur wesentliche Funktionen, sondern auch typische Anwendungen und insbesondere das Potenzial zur Nutzung im Unternehmen, insbesondere mit Blick auf Fragen des Wissensmanagements erläutert. Teilweise können die Autoren auch aktuelle Nutzungsdaten der Systeme ergänzen. Auch wenn bei der hohen Entwicklungsdynamik der social software-Systeme ständig neue Formen an Bedeutung gewinnen, vermag die Einteilung der Autoren zu überzeugen.
    Das dritte Kapitel "Social Software als Treiber für Veränderungen im Unternehmen" hat eine Brückenfunktion zwischen der systematischen Systemeinführung und den konkreten Fallstudien zum praktischen Einsatz von social software, da hier zunächst systematische das Potenzial des social software-Einsatzes skizziert wird. Dabei arbeiten die Autoren wesentliche Faktoren für den Einsatz elektronischer Kommunikationsmedien heraus und diskutieren ausführlich den Zusammenhang zwischen Produktivität der Wissensarbeit und Chancen der social software-Nutzung. Erste Fallstudien (Communities in der Medienbranche, Alumnimanagement bei großen Unternehmen, Crowdsourcing als Verfahren der Wissensgewinnung, Einsatz sozialer Geotagging-Systeme, Strategien zum Aufbau von Unternehmenswikis) zeigen mögliche Einsatzstrategien im Unternehmen auf und fokussieren jeweils auf eine spezifische Funktion einer social software-Anwendung. Der vierte Teil stellt anhand mehrerer großer Fallstudien konkrete Einsatzszenerien für social software-Formen wie Wikis und Blogs vor. Dabei sind die Studien in unterschiedlichen Unternehmenstypen angesiedelt: Großkonzerne wie die Deutsche Bahn AG (Wissensmanagement in der Managementberatung mit Wikis), die Siemens AG (Einsatz von Mitarbeiter-Blogs) oder die Adam Opel AG (Podcasts in der Vertriebsschulung) finden ebenso Beachtung wie Software-Firmen (PSI AG: Wiki als Intranet-Anwendung, Sun Microsystems: Wikis und Blogs) oder IT-Mittelständler (Namics AG: Einsatz von Blogs im Unternehmen). Die sehr plastisch beschriebenen Fallstudien machen sowohl die Breite der Einsatzmöglichkeiten als auch die Vielfalt des Lösungsangebotes und der bei der Umsetzung auftretenden Probleme deutlich. Wünschenswert wäre ein noch einheitlicherer Aufbau der Studien, der eine bessere Vergleichbarkeit gewährleisten würde.
    Illustrieren die Fallstudien den aktuellen state-of-the-art vor allem großer Unernehmen, so geht das fünfte und abschließende Kapitel unter der Überschrift "Visionen und Trends" auf zukünftige Entwicklungen ein. Dabei stellen die Autoren zunächst das Verfahren der (Netzwerkanalyse vor, die einen Beitrag zum Verständnis von Struktur, Entwicklungsdynamik und Nutzung großer sozialer Netzwerke liefern kann, und schildern dann am praktischen Beispiel einer Großbäckerei den Ansatz einer living corporate landscape (Unternehmenslandkarte 2.0). Bei beiden Beispielen steht aber weniger der Einsatz von social software an sich im Vordergrund, sondern eher der Einsatz innovativer (Daten-)analytischer Verfahren und Repräsentationen, ggf. mit Bezug zu bestehenden social software-Anwendungen. Insofern wird deutlich, dass sich social software mit anderen Anwendungen im Bereich business intelligence koppeln lässt und so ein Mehrwert für die Unternehmen erzeugt werden kann. Zu den weiteren Technologien, die zukünftig social software-Anwendungen ergänzen können, zählen die Autoren virtuelle Welten und das semantic web, wodurch auch die Bandbreite künftiger Technologiekoppelungen im Umfeld der social software deutlich wird. Ein Glossar und ein sehr ausführliches Literaturverzeichnis runden den Band ab. Den Autoren gelingt es, anhand einer Vielzahl von Einzelstudien den aktuellen Stand des Einsatzes von Web 2.0-Anwendungen im Unternehmen darzustellen. Dass dabei tendenziell Großunternehmen im Mittelpunkt stehen, kann kaum verwundern, da anzunehmen ist, dass diese eher die Ressourcen verfügbaren haben, um solche Lösungen umzusetzen - und gleichzeitig mit der Unternehmensgröße auch die Dringlichkeit von Wissensmanagement-Maßnahmen wächst. Ungeachtet dieser Tatsache dürfte der Band aber gerade auch für kleinere Unternehmen oder Institutionen von Interesse sein, die aus den konkreten Erfahrungen, die in den Fallstudien geschildert werden, lernen wollen und sich dies für eigene Vorhaben zu Nutze machen wollen. Dabei ist der Band allerdings weniger ein Vademecum für die konkrete Umsetzung eines Web 2.0-Projektes, sondern dient der Einarbeitung in die heterogene Szenerie des derzeitigen Web 2.0-Einsatzes."
  7. Manning, C.D.; Raghavan, P.; Schütze, H.: Introduction to information retrieval (2008) 0.02
    0.021565167 = product of:
      0.0517564 = sum of:
        0.016570523 = weight(_text_:information in 4041) [ClassicSimilarity], result of:
          0.016570523 = score(doc=4041,freq=24.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.2687516 = fieldWeight in 4041, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=4041)
        0.010943705 = weight(_text_:for in 4041) [ClassicSimilarity], result of:
          0.010943705 = score(doc=4041,freq=8.0), product of:
            0.06594466 = queryWeight, product of:
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.035122856 = queryNorm
            0.16595288 = fieldWeight in 4041, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.03125 = fieldNorm(doc=4041)
        0.010223229 = weight(_text_:the in 4041) [ClassicSimilarity], result of:
          0.010223229 = score(doc=4041,freq=14.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.18448292 = fieldWeight in 4041, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.03125 = fieldNorm(doc=4041)
        0.0037957146 = weight(_text_:of in 4041) [ClassicSimilarity], result of:
          0.0037957146 = score(doc=4041,freq=2.0), product of:
            0.054923624 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.035122856 = queryNorm
            0.06910896 = fieldWeight in 4041, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03125 = fieldNorm(doc=4041)
        0.010223229 = weight(_text_:the in 4041) [ClassicSimilarity], result of:
          0.010223229 = score(doc=4041,freq=14.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.18448292 = fieldWeight in 4041, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.03125 = fieldNorm(doc=4041)
      0.41666666 = coord(5/12)
    
    Abstract
    Class-tested and coherent, this textbook teaches information retrieval, including web search, text classification, and text clustering from basic concepts. Ideas are explained using examples and figures, making it perfect for introductory courses in information retrieval for advanced undergraduates and graduate students. Slides and additional exercises are available for lecturers. - This book provides what Salton and Van Rijsbergen both failed to achieve. Even more important, unlike some other books in IR, the authors appear to care about making the theory as accessible as possible to the reader, on occasion including short primers to certain topics or choosing to explain difficult concepts using simplified approaches. Its coverage [is] excellent, the quality of writing high and I was surprised how much I learned from reading it. I think the online resources are impressive.
    Content
    Inhalt: Boolean retrieval - The term vocabulary & postings lists - Dictionaries and tolerant retrieval - Index construction - Index compression - Scoring, term weighting & the vector space model - Computing scores in a complete search system - Evaluation in information retrieval - Relevance feedback & query expansion - XML retrieval - Probabilistic information retrieval - Language models for information retrieval - Text classification & Naive Bayes - Vector space classification - Support vector machines & machine learning on documents - Flat clustering - Hierarchical clustering - Matrix decompositions & latent semantic indexing - Web search basics - Web crawling and indexes - Link analysis Vgl. die digitale Fassung unter: http://nlp.stanford.edu/IR-book/pdf/irbookprint.pdf.
    LCSH
    Information retrieval
    RSWK
    Dokumentverarbeitung / Information Retrieval / Abfrageverarbeitung (GBV)
    Information Retrieval / Einführung (BVB)
    Subject
    Dokumentverarbeitung / Information Retrieval / Abfrageverarbeitung (GBV)
    Information Retrieval / Einführung (BVB)
    Information retrieval
  8. Hitzler, P.; Krötzsch, M.; Rudolph, S.: Foundations of Semantic Web technologies (2010) 0.02
    0.020527344 = product of:
      0.061582033 = sum of:
        0.014477162 = weight(_text_:for in 359) [ClassicSimilarity], result of:
          0.014477162 = score(doc=359,freq=14.0), product of:
            0.06594466 = queryWeight, product of:
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.035122856 = queryNorm
            0.21953502 = fieldWeight in 359, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.8775425 = idf(docFreq=18385, maxDocs=44218)
              0.03125 = fieldNorm(doc=359)
        0.018531177 = weight(_text_:the in 359) [ClassicSimilarity], result of:
          0.018531177 = score(doc=359,freq=46.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.3344037 = fieldWeight in 359, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.03125 = fieldNorm(doc=359)
        0.010042517 = weight(_text_:of in 359) [ClassicSimilarity], result of:
          0.010042517 = score(doc=359,freq=14.0), product of:
            0.054923624 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.035122856 = queryNorm
            0.18284513 = fieldWeight in 359, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03125 = fieldNorm(doc=359)
        0.018531177 = weight(_text_:the in 359) [ClassicSimilarity], result of:
          0.018531177 = score(doc=359,freq=46.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.3344037 = fieldWeight in 359, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.03125 = fieldNorm(doc=359)
      0.33333334 = coord(4/12)
    
    Abstract
    This text introduces the standardized knowledge representation languages for modeling ontologies operating at the core of the semantic web. It covers RDF schema, Web Ontology Language (OWL), rules, query languages, the OWL 2 revision, and the forthcoming Rule Interchange Format (RIF). A 2010 CHOICE Outstanding Academic Title ! The nine chapters of the book guide the reader through the major foundational languages for the semantic Web and highlight the formal semantics. ! the book has very interesting supporting material and exercises, is oriented to W3C standards, and provides the necessary foundations for the semantic Web. It will be easy to follow by the computer scientist who already has a basic background on semantic Web issues; it will also be helpful for both self-study and teaching purposes. I recommend this book primarily as a complementary textbook for a graduate or undergraduate course in a computer science or a Web science academic program. --Computing Reviews, February 2010 This book is unique in several respects. It contains an in-depth treatment of all the major foundational languages for the Semantic Web and provides a full treatment of the underlying formal semantics, which is central to the Semantic Web effort. It is also the very first textbook that addresses the forthcoming W3C recommended standards OWL 2 and RIF. Furthermore, the covered topics and underlying concepts are easily accessible for the reader due to a clear separation of syntax and semantics ! I am confident this book will be well received and play an important role in training a larger number of students who will seek to become proficient in this growing discipline.
  9. Spink, A.; Jansen, B.J.: Web searching : public searching of the Web (2004) 0.02
    0.01849212 = product of:
      0.044381086 = sum of:
        0.0066851415 = weight(_text_:information in 1443) [ClassicSimilarity], result of:
          0.0066851415 = score(doc=1443,freq=10.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.10842399 = fieldWeight in 1443, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1443)
        0.02566358 = weight(_text_:und in 1443) [ClassicSimilarity], result of:
          0.02566358 = score(doc=1443,freq=58.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.32967478 = fieldWeight in 1443, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1443)
        0.004830022 = weight(_text_:the in 1443) [ClassicSimilarity], result of:
          0.004830022 = score(doc=1443,freq=8.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.087159984 = fieldWeight in 1443, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1443)
        0.0023723217 = weight(_text_:of in 1443) [ClassicSimilarity], result of:
          0.0023723217 = score(doc=1443,freq=2.0), product of:
            0.054923624 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.035122856 = queryNorm
            0.043193102 = fieldWeight in 1443, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1443)
        0.004830022 = weight(_text_:the in 1443) [ClassicSimilarity], result of:
          0.004830022 = score(doc=1443,freq=8.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.087159984 = fieldWeight in 1443, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1443)
      0.41666666 = coord(5/12)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 56(2004) H.1, S.61-62 (D. Lewandowski): "Die Autoren des vorliegenden Bandes haben sich in den letzten Jahren durch ihre zahlreichen Veröffentlichungen zum Verhalten von Suchmaschinen-Nutzern einen guten Namen gemacht. Das nun erschienene Buch bietet eine Zusammenfassung der verstreut publizierten Aufsätze und stellt deren Ergebnisse in den Kontext eines umfassenderen Forschungsansatzes. Spink und Jansen verwenden zur Analyse des Nutzungsverhaltens query logs von Suchmaschinen. In diesen werden vom Server Informationen protokolliert, die die Anfragen an diesen Server betreffen. Daten, die aus diesen Dateien gewonnen werden können, sind unter anderem die gestellten Suchanfragen, die Adresse des Rechners, von dem aus die Anfrage gestellt wurde, sowie die aus den Trefferlisten ausgewählten Dokumente. Der klare Vorteil der Analyse von Logfiles liegt in der Möglichkeit, große Datenmengen ohne hohen personellen Aufwand erheben zu können. Die Daten einer Vielzahl anonymer Nutzer können analysiert werden; ohne dass dabei die Datenerhebung das Nutzerverhalten beeinflusst. Dies ist bei Suchmaschinen von besonderer Bedeutung, weil sie im Gegensatz zu den meisten anderen professionellen Information-Retrieval-Systemen nicht nur im beruflichen Kontext, sondern auch (und vor allem) privat genutzt werden. Das Bild des Nutzungsverhaltens wird in Umfragen und Laboruntersuchungen verfälscht, weil Nutzer ihr Anfrageverhalten falsch einschätzen oder aber die Themen ihrer Anfragen nicht nennen möchten. Hier ist vor allem an Suchanfragen, die auf medizinische oder pornographische Inhalte gerichtet sind, zu denken. Die Analyse von Logfiles ist allerdings auch mit Problemen behaftet: So sind nicht alle gewünschten Daten überhaupt in den Logfiles enthalten (es fehlen alle Informationen über den einzelnen Nutzer), es werden keine qualitativen Informationen wie etwa der Grund einer Suche erfasst und die Logfiles sind aufgrund technischer Gegebenheiten teils unvollständig. Die Autoren schließen aus den genannten Vor- und Nachteilen, dass sich Logfiles gut für die Auswertung des Nutzerverhaltens eignen, bei der Auswertung jedoch die Ergebnisse von Untersuchungen, welche andere Methoden verwenden, berücksichtigt werden sollten.
    Den Autoren wurden von den kommerziellen Suchmaschinen AltaVista, Excite und All the Web größere Datenbestände zur Verfügung gestellt. Die ausgewerteten Files umfassten jeweils alle an die jeweilige Suchmaschine an einem bestimmten Tag gestellten Anfragen. Die Daten wurden zwischen 199'] und 2002 erhoben; allerdings liegen nicht von allen Jahren Daten von allen Suchmaschinen vor, so dass einige der festgestellten Unterschiede im Nutzerverhalten sich wohl auf die unterschiedlichen Nutzergruppen der einzelnen Suchmaschinen zurückführen lassen. In einem Fall werden die Nutzergruppen sogar explizit nach den Suchmaschinen getrennt, so dass das Nutzerverhalten der europäischen Nutzer der Suchmaschine All the Web mit dem Verhalten der US-amerikanischen Nutzer verglichen wird. Die Analyse der Logfiles erfolgt auf unterschiedlichen Ebenen: Es werden sowohl die eingegebenen Suchbegriffe, die kompletten Suchanfragen, die Such-Sessions und die Anzahl der angesehenen Ergebnisseiten ermittelt. Bei den Suchbegriffen ist besonders interessant, dass die Spannbreite der Informationsbedürfnisse im Lauf der Jahre deutlich zugenommen hat. Zwar werden 20 Prozent aller eingegebenen Suchbegriffe regelmäßig verwendet, zehn Prozent kamen hingegen nur ein einziges Mal vor. Die thematischen Interessen der Suchmaschinen-Nutzer haben sich im Lauf der letzten Jahre ebenfalls gewandelt. Während in den Anfangsjahren viele Anfragen aus den beiden Themenfeldern Sex und Technologie stammten, gehen diese mittlerweile zurück. Dafür nehmen Anfragen im Bereich E-Commerce zu. Weiterhin zugenommen haben nicht-englischsprachige Begriffe sowie Zahlen und Akronyme. Die Popularität von Suchbegriffen ist auch saisonabhängig und wird durch aktuelle Nachrichten beeinflusst. Auf der Ebene der Suchanfragen zeigt sich weiterhin die vielfach belegte Tatsache, dass Suchanfragen in Web-Suchmaschinen extrem kurz sind. Die durchschnittliche Suchanfrage enthält je nach Suchmaschine zwischen 2,3 und 2,9 Terme. Dies deckt sich mit anderen Untersuchungen zu diesem Thema. Die Länge der Suchanfragen ist in den letzten Jahren leicht steigend; größere Sprünge hin zu längeren Anfragen sind jedoch nicht zu erwarten. Ebenso verhält es sich mit dem Einsatz von Operatoren: Nur etwa in jeder zehnten Anfrage kommen diese vor, wobei die Phrasensuche am häufigsten verwendet wird. Dass die SuchmaschinenNutzer noch weitgehend als Anfänger angesehen werden müssen, zeigt sich auch daran, dass sie pro Suchanfrage nur drei oder vier Dokumente aus der Trefferliste tatsächlich sichten.
    In Hinblick auf die Informationsbedürfnisse ergibt sich eine weitere Besonderheit dadurch, dass Suchmaschinen nicht nur für eine Anfrageform genutzt werden. Eine "Spezialität" der Suchmaschinen ist die Beantwortung von navigationsorientierten Anfragen, beispielsweise nach der Homepage eines Unternehmens. Hier wird keine Menge von Dokumenten oder Fakteninformation verlangt; vielmehr ist eine Navigationshilfe gefragt. Solche Anfragen nehmen weiter zu. Die Untersuchung der Such-Sessions bringt Ergebnisse über die Formulierung und Bearbeitung der Suchanfragen zu einem Informationsbedürfnis zutage. Die Sessions dauern weit überwiegend weniger als 15 Minuten (dies inklusive Sichtung der Dokumente!), wobei etwa fünf Dokumente angesehen werden. Die Anzahl der angesehenen Ergebnisseiten hat im Lauf der Zeit abgenommen; dies könnte darauf zurückzuführen sein, dass es den Suchmaschinen im Lauf der Zeit gelungen ist, die Suchanfragen besser zu beantworten, so dass sich brauchbare Ergebnisse öfter bereits auf der ersten Ergebnisseite finden. Insgesamt bestätigt sich auch hier das Bild vom wenig fortgeschrittenen Suchmaschinen-Nutzer, der nach Eingabe einer unspezifischen Suchanfrage schnelle und gute Ergebnisse erwartet. Der zweite Teil des Buchs widmet sich einigen der bei den Suchmaschinen-Nutzern populären Themen und analysiert das Nutzerverhalten bei solchen Suchen. Dabei werden die eingegebenen Suchbegriffe und Anfragen untersucht. Die Bereiche sind E-Commerce, medizinische Themen, Sex und Multimedia. Anfragen aus dem Bereich E-Commerce sind in der Regel länger als allgemeine Anfragen. Sie werden seltener modifiziert und pro Anfrage werden weniger Dokumente angesehen. Einige generische Ausdrücke wie "shopping" werden sehr häufig verwendet. Der Anteil der E-Commerce-Anfragen ist hoch und die Autoren sehen die Notwendigkeit, spezielle Suchfunktionen für die Suche nach Unternehmenshomepages und Produkten zu erstellen bzw. zu verbessern. Nur zwischen drei und neun Prozent der Anfragen beziehen sich auf medizinische Themen, der Anteil dieser Anfragen nimmt tendenziell ab. Auch der Anteil der Anfragen nach sexuellen Inhalten dürfte mit einem Wert zwischen drei und knapp 1'7 Prozent geringer ausfallen als allgemein angenommen.
    Der relativ hohe Wert von 17 Prozent stammt allerdings aus dem Jahr 1997; seitdem ist eine deutliche Abnahme zu verzeichnen. Betont werden muss außerdem, dass Anfragen nach sexuellen Inhalten nicht mit denen nach Pornographie gleichzusetzen sind. Die Suche nach Multimedia-Inhalten hat sich von den allgemeinen Suchinterfaces der Suchmaschinen hin zu speziellen Suchmasken verschoben, die inzwischen von allen großen Suchmaschinen angeboten werden. Die wichtigste Aussage aus den untersuchten Daten lautet, dass die Suche nach Multimedia-Inhalten komplexer und vor allem interaktiver ist als die übliche Websuche. Die Anfragen sind länger und enthalten zu einem deutlich größeren Teil Operatoren. Bei der Bildersuche stellen weiterhin sexuell orientierte Anfragen den höchsten Anteil. Bei der Bilderund Video-Suche sind die Anfragen deutlich länger als bei der regulären Suche; bei der Audio-Suche sind sie dagegen kürzer. Das vorliegende Werk bietet die bisher umfassendste Analyse des Nutzerverhaltens bezüglich der Web-Suche; insbesondere wurden bisher keine umfassenden, auf längere Zeiträume angelegten Studien vorgelegt, deren Ergebnisse wie im vorliegenden Fall direkt vergleichbar sind. Die Ergebnisse sind valide und ermöglichen es Suchmaschinen-Anbietern wie auch Forschern, künftige Entwicklungen stärker als bisher am tatsächlichen Verhalten der Nutzer auszurichten. Das Buch beschränkt sich allerdings auf die US-amerikanischen Suchmaschinen und deren Nutzer und bezieht nur bei All the Web die europäischen Nutzer ein. Insbesondere die Frage, ob die europäischen oder auch deutschsprachigen Nutzer anders suchen als die amerikanischen, bleibt unbeantwortet. Hier wären weitere Forschungen zu leisten."
    RSWK
    Internet / Information Retrieval (BVB)
    Series
    Information science and knowledge management; 6
    Subject
    Internet / Information Retrieval (BVB)
  10. Handbuch Internet-Suchmaschinen 2 : Neue Entwicklungen in der Web-Suche (2011) 0.01
    0.014332775 = product of:
      0.042998325 = sum of:
        0.02859364 = weight(_text_:und in 522) [ClassicSimilarity], result of:
          0.02859364 = score(doc=522,freq=18.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.3673144 = fieldWeight in 522, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=522)
        0.004830022 = weight(_text_:the in 522) [ClassicSimilarity], result of:
          0.004830022 = score(doc=522,freq=2.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.087159984 = fieldWeight in 522, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.0390625 = fieldNorm(doc=522)
        0.0047446433 = weight(_text_:of in 522) [ClassicSimilarity], result of:
          0.0047446433 = score(doc=522,freq=2.0), product of:
            0.054923624 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.035122856 = queryNorm
            0.086386204 = fieldWeight in 522, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0390625 = fieldNorm(doc=522)
        0.004830022 = weight(_text_:the in 522) [ClassicSimilarity], result of:
          0.004830022 = score(doc=522,freq=2.0), product of:
            0.05541559 = queryWeight, product of:
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.035122856 = queryNorm
            0.087159984 = fieldWeight in 522, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5777643 = idf(docFreq=24812, maxDocs=44218)
              0.0390625 = fieldNorm(doc=522)
      0.33333334 = coord(4/12)
    
    Abstract
    Der zweite Band des bekannten Handbuchs widmet sich den aktuellen Entwicklungen in der Web-Suche. Neue Such-Ansätze wie die Soziale und die Semantische Suche werden ebenso behandelt wir Spezialsuchen, die Evaluierung und nutzergerechte Gestaltung von Suchdiensten sowie das Monitoring von Webquellen. In 12 Kapiteln geben namhafte Wissenschaftler und Praktiker aus dem deutschsprachigen Raum den Überblick über den State of the Art, zeigen Trends auf und geben Handlungsempfehlungen für alle, die sich als Forscher, Entwickler und Nutzer sich mit dem Thema Suche beschäftigen. Dieser zweite Band erweitert das Themenspektrum des Handbuchs Internet-Suchmaschinen wesentlich und stellt damit eine wertvolle Ergänzung dar.
    Content
    Titel der einzelnen Kapitel: Social Search Folksonomies und Kollaborative Informationsdienste: Eine Alternative zur Websuche? Query Understanding Semantic Search Suche in Multimediaarchiven und Kultureinrichtungen Wissenschaftliche Suchmaschinen Journalistische Recherche im Internet Evaluierung von Suchmaschinen Usability und User Experience in Suchmaschinen Search Engine Bias Web Monitoring Tools für das Monitoring
  11. Alby, T.: Web 2.0 : Konzepte, Anwendungen, Technologien; [ajax, api, atom, blog, folksonomy, feeds, long tail, mashup, permalink, podcast, rich user experience, rss, social software, tagging] (2007) 0.01
    0.008669959 = product of:
      0.034679838 = sum of:
        0.0061648544 = product of:
          0.018494563 = sum of:
            0.018494563 = weight(_text_:f in 1273) [ClassicSimilarity], result of:
              0.018494563 = score(doc=1273,freq=2.0), product of:
                0.13999219 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.035122856 = queryNorm
                0.13211139 = fieldWeight in 1273, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1273)
          0.33333334 = coord(1/3)
        0.0035876236 = weight(_text_:information in 1273) [ClassicSimilarity], result of:
          0.0035876236 = score(doc=1273,freq=2.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.058186423 = fieldWeight in 1273, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1273)
        0.024927357 = weight(_text_:und in 1273) [ClassicSimilarity], result of:
          0.024927357 = score(doc=1273,freq=38.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.32021725 = fieldWeight in 1273, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1273)
      0.25 = coord(3/12)
    
    Abstract
    Dem neuen Web mal auf die Finger geschaut -- Tom Alby hat sich bereits mit seinem Suchmaschinenoptimierung-Buch einen Namen gemacht und setzt dem Erfolg seines ersten Buches nun mit Web 2.0. Konzepte, Anwendungen, Technologien noch einen drauf. Wie schon bei der Optimierung für Suchmaschinen geht er auch bei seinem Blick auf das Phänomen Web 2.0 ganzheitlich und umfassend an die Arbeit: Ideen, Technik, Umsetzungen, Beispiele, Erfolge, Probleme, Ausblicke und Interviews mit den Machern. Ein Blitzlichtfoto im dunklen Web-Dschungel. Endlich geht es dem Web wieder gut. Alle freuen sich. Die Verlierer werden die Sieger sein. Jetzt wird alles anders. Das Blablabla in den Medien klingt ähnlich wie schon zu Zeiten des Web 1.0. Und doch ist es anders. Was sich geändert hat, zeigt sich jedoch meist erst auf den zweiten Blick -- Alby hat diese Einblicke zusammen getragen und zeigt den aktuellen Stand. Ohne Wortblasen, an Beispielen mit Hintergrund. Nach einem Blick auf die Historie von der New Economy zum Web 2.0 stürzt sich Alby auf das bekannteste Web 2.0-Beispiel: den Blog. Alsdann durchleuchtet er Podcasts, Social Software wie FlickR oder Skype, Folksonomy (wo bleibt das Geld), die Plattformrepräsentanten wie Google, die Technik im Hintergrund von AJAX bis Ruby, Business-Modelle und der Blick Richtung 3.0. Zuletzt dann Interviews mit den Vorreitern der Szene: von Johnny Haeusler bis Jörg Petermann. In Web 2.0. Konzepte, Anwendungen, Technologienkann man pieksen wie man will, es platzt nicht. Das fundierte Über- und Einblicksbuch ist jedem Journalisten, Manager, Trendforscher und Webaktivisten zu empfehlen, denn wer nicht weiß, was Alby weiß, sollte zum Thema Web 2.0 lieber schweigen.
    Classification
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 58(2007) H.3, S.187 (W. Ratzek): "So ist das mit den Trends. Viele versuchen sich als Trendsetter - und scheitern. Andere suchen nur einen werbewirksamen Titel für eine Veranstaltung, wie das der Verleger Tim O'Reilly 2004 tat, und lösen damit einen Hype aus - wie das neudeutsch heißt. Aber so ganz zufällig war O'Reillys Wortschöpfung "Web 2.0" nicht. Nach dem Platzen der New-Economy-Blase sollten Fachleute auf einer Tagung diskutieren, wie es nun mit der Internetwirtschaft weiter gehen sollte. In nur kurzer Zeit entwickelte sich das "Web 2.0" zum Inbegriff einer neuen Bewegung, der nicht nur IT-Enthusiasten angehören. Denn das "join-in-Web" (das Mitmach-Web), wie das Web 2.0 auch bezeichnet wird, bietet auch IT-Ungeübten die Möglichkeit, im Netz-der-Netz mit eigenen Inhalten, also "user generated content", präsent zu sein. Den Schlüssel zum World Wide Web erhalten sie durch "Social Software". Selbstverständlich geht Tom Alby auch ausführlich auf die Schlüsselbegriffe ein, die sich um das Web 2.0 ranken. Dazu gehören die einer breiten Nutzerschicht bekannten Anwendungen wie Blogs, RSS oder Wikis, wie auch die weniger bekannte Technologien und Entwicklungskonzepte, wie Ajax (Asynchronous JavaScript and XML), Ruby/ Ruby on Rails. In zehn Kapiteln führt Tom Alby in Konzepte, Anwendungen und Geschäftsmodelle des Web 2.0 ein. Neben technischen Aspekten geht er auch auf die soziologischen und psychologischen Aspekte ein, wenn er beispielsweise fragt "Was motiviert die Benutzer, sich in Social SoftwarePlattformen einzubringen?" (S. 108) Die Antwort leuchtet ein: "Zunächst einmal ist da die Erwartung der Benutzer, etwas für das Gegebene zurückzubekommen: Wer sein Profil mit vielen Informationen bestückt, der hat auch eine Chance, dass das Profil von anderen angesehen und eventuell Kontakt aufgenommen wird. Wer bei Wikipedia sein Wissen einbringt, der weiß auf der anderen Seite, dass er von den Beiträgen anderer profitieren kann. Dies kann auch zu einem wirklichen Gemeinschaftsgefühl führen (...) Auch ein gewisser Stolz, Teil dieser Gemeinschaft zu sein, mag dazu gehören." (S. 108.f) Tom Albys "Web 2.0" zeichnet sich auch durch die vielen Anwendungsbeispielen aus. Ergänzt werden diese durch fünf Interviews mit Praktikern wie Johnny Haeusler von Spreeblick.de oder Vasco Sommer-Nunes und Florian Wilken von blog.de. Ein umfangreiches Glossar und ein umfangreiches Stichwortverzeichnis erleichtern die Handhabbarkeit. Getreu dem" Join-in-Web" gibt es auch ein Blog (http://web20_buch.alby.de/) zum Buch, um mit dem Autor in Kontakt zu treten. Ein weiteres Plus ist die leichte Lesbarkeit, die es auch dem Nicht-Informatiker ermöglicht, die technischen Zusammenhänge zu verstehen. Wer mehr über Folksonomy, Ruby on Rails, Ajax oder Long Tail wissen möchte, dem sei Tom Albys "Web 2.0" sehr empfohlen. Dem IT-Profi wird "Web 2.0" nicht sehr viel Neues bieten, aber für Agenturen, Designer, Webentwickler, Studierende, Bibliothekarlnnen bietet dieses engagiert geschriebene Buch viel Nützliches."
    RVK
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
  12. Suchen und Finden im Internet (2007) 0.01
    0.008065727 = product of:
      0.048394356 = sum of:
        0.016044341 = weight(_text_:information in 484) [ClassicSimilarity], result of:
          0.016044341 = score(doc=484,freq=10.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.2602176 = fieldWeight in 484, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.032350015 = weight(_text_:und in 484) [ClassicSimilarity], result of:
          0.032350015 = score(doc=484,freq=16.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.41556883 = fieldWeight in 484, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
      0.16666667 = coord(2/12)
    
    Abstract
    Das Internet hat die Welt von Information, Kommunikation und Medien nachhaltig verändert. Suchmaschinen spielen dabei eine zentrale Rolle. Sie bilden das Tor zum Meer der elektronisch verfügbaren Informationen, leisten dem Nutzer wertvolle Hilfe beim Auffinden von Inhalten, haben sich zwischenzeitlich zum Kristallisationspunkt für vielfältige ergänzende Informations-, Kommunikations- und Mediendienste entwickelt und schicken sich an, Strukturen und Strategien der beteiligten Branchen umzuwälzen. Dabei ist die dynamische Entwicklung der Such- und Finde-Technologien für das Internet weiterhin in vollem Gange. Der MÜNCHNER KREIS hat vor diesem Hintergrund mit exzellenten Fachleuten aus Wirtschaft und Wissenschaft die Entwicklungen analysiert und die Zukunftsperspektiven diskutiert. das vorliegende Buch enthält die Ergebnisse.
    LCSH
    Business Information Systems
    Information Systems Applications (incl.Internet)
    Subject
    Business Information Systems
    Information Systems Applications (incl.Internet)
  13. Hassler, M.: Web analytics : Metriken auswerten, Besucherverhalten verstehen, Website optimieren ; [Metriken analysieren und interpretieren ; Besucherverhalten verstehen und auswerten ; Website-Ziele definieren, Webauftritt optimieren und den Erfolg steigern] (2009) 0.01
    0.006764538 = product of:
      0.040587228 = sum of:
        0.0059192767 = weight(_text_:information in 3586) [ClassicSimilarity], result of:
          0.0059192767 = score(doc=3586,freq=4.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.0960027 = fieldWeight in 3586, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3586)
        0.03466795 = weight(_text_:und in 3586) [ClassicSimilarity], result of:
          0.03466795 = score(doc=3586,freq=54.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.44534507 = fieldWeight in 3586, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3586)
      0.16666667 = coord(2/12)
    
    Abstract
    Web Analytics bezeichnet die Sammlung, Analyse und Auswertung von Daten der Website-Nutzung mit dem Ziel, diese Informationen zum besseren Verständnis des Besucherverhaltens sowie zur Optimierung der Website zu nutzen. Je nach Ziel der eigenen Website - z.B. die Vermittlung eines Markenwerts oder die Vermehrung von Kontaktanfragen, Bestellungen oder Newsletter-Abonnements - können Sie anhand von Web Analytics herausfinden, wo sich Schwachstellen Ihrer Website befinden und wie Sie Ihre eigenen Ziele durch entsprechende Optimierungen besser erreichen. Dabei ist Web Analytics nicht nur für Website-Betreiber und IT-Abteilungen interessant, sondern wird insbesondere auch mehr und mehr für Marketing und Management nutzbar. Mit diesem Buch lernen Sie, wie Sie die Nutzung Ihrer Website analysieren. Sie können z. B. untersuchen, welche Traffic-Quelle am meisten Umsatz bringt oder welche Bereiche der Website besonders häufig genutzt werden und vieles mehr. Auf diese Weise werden Sie Ihre Besucher, ihr Verhalten und ihre Motivation besser kennen lernen, Ihre Website darauf abstimmen und somit Ihren Erfolg steigern können. Um aus Web Analytics einen wirklichen Mehrwert ziehen zu können, benötigen Sie fundiertes Wissen. Marco Hassler gibt Ihnen in seinem Buch einen umfassenden Einblick in Web Analytics. Er zeigt Ihnen detailliert, wie das Verhalten der Besucher analysiert wird und welche Metriken Sie wann sinnvoll anwenden können. Im letzten Teil des Buches zeigt Ihnen der Autor, wie Sie Ihre Auswertungsergebnisse dafür nutzen, über Conversion-Messungen die Website auf ihre Ziele hin zu optimieren. Ziel dieses Buches ist es, konkrete Web-Analytics-Kenntnisse zu vermitteln und wertvolle praxisorientierte Tipps zu geben. Dazu schlägt das Buch die Brücke zu tangierenden Themenbereichen wie Usability, User-Centered-Design, Online Branding, Online-Marketing oder Suchmaschinenoptimierung. Marco Hassler gibt Ihnen klare Hinweise und Anleitungen, wie Sie Ihre Ziele erreichen.
    BK
    85.20 / Betriebliche Information und Kommunikation
    Classification
    85.20 / Betriebliche Information und Kommunikation
    Footnote
    Rez. in Mitt. VÖB 63(2010) H.1/2, S.147-148 (M. Buzinkay): "Webseiten-Gestaltung und Webseiten-Analyse gehen Hand in Hand. Leider wird das Letztere selten wenn überhaupt berücksichtigt. Zu Unrecht, denn die Analyse der eigenen Maßnahmen ist zur Korrektur und Optimierung entscheidend. Auch wenn die Einsicht greift, dass die Analyse von Webseiten wichtig wäre, ist es oft ein weiter Weg zur Realisierung. Warum? Analyse heißt kontinuierlicher Aufwand, und viele sind nicht bereit beziehungsweise haben nicht die zeitlichen Ressourcen dazu. Ist man einmal zu der Überzeugung gelangt, dass man seine Web-Aktivitäten dennoch optimieren, wenn nicht schon mal gelegentlich hinterfragen sollte, dann lohnt es sich, Marco Hasslers "Web Analytics" in die Hand zu nehmen. Es ist definitiv kein Buch für einen einzigen Lese-Abend, sondern ein Band, mit welchem gearbeitet werden muss. D.h. auch hier: Web-Analyse bedeutet Arbeit und intensive Auseinandersetzung (ein Umstand, den viele nicht verstehen und akzeptieren wollen). Das Buch ist sehr dicht und bleibt trotzdem übersichtlich. Die Gliederung der Themen - von den Grundlagen der Datensammlung, über die Definition von Metriken, hin zur Optimierung von Seiten und schließlich bis zur Arbeit mit Web Analyse Werkzeugen - liefert einen roten Faden, der schön von einem Thema auf das nächste aufbaut. Dadurch fällt es auch leicht, ein eigenes Projekt begleitend zur Buchlektüre Schritt für Schritt aufzubauen. Zahlreiche Screenshots und Illustrationen erleichtern zudem das Verstehen der Zusammenhänge und Erklärungen im Text. Das Buch überzeugt aber auch durch seine Tiefe (bis auf das Kapitel, wo es um die Zusammenstellung von Personas geht) und den angenehm zu lesenden Schreibstil. Von mir kommt eine dringende Empfehlung an alle, die sich mit Online Marketing im Allgemeinen, mit Erfolgskontrolle von Websites und Web-Aktivitäten im Speziellen auseindersetzen."
  14. Horch, A.; Kett, H.; Weisbecker, A.: Semantische Suchsysteme für das Internet : Architekturen und Komponenten semantischer Suchmaschinen (2013) 0.01
    0.006758731 = product of:
      0.040552385 = sum of:
        0.011958744 = weight(_text_:information in 4063) [ClassicSimilarity], result of:
          0.011958744 = score(doc=4063,freq=8.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.19395474 = fieldWeight in 4063, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.02859364 = weight(_text_:und in 4063) [ClassicSimilarity], result of:
          0.02859364 = score(doc=4063,freq=18.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.3673144 = fieldWeight in 4063, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
      0.16666667 = coord(2/12)
    
    Abstract
    In der heutigen Zeit nimmt die Flut an Informationen exponentiell zu. In dieser »Informationsexplosion« entsteht täglich eine unüberschaubare Menge an neuen Informationen im Web: Beispielsweise 430 deutschsprachige Artikel bei Wikipedia, 2,4 Mio. Tweets bei Twitter und 12,2 Mio. Kommentare bei Facebook. Während in Deutschland vor einigen Jahren noch Google als nahezu einzige Suchmaschine beim Zugriff auf Informationen im Web genutzt wurde, nehmen heute die u.a. in Social Media veröffentlichten Meinungen und damit die Vorauswahl sowie Bewertung von Informationen einzelner Experten und Meinungsführer an Bedeutung zu. Aber wie können themenspezifische Informationen nun effizient für konkrete Fragestellungen identifiziert und bedarfsgerecht aufbereitet und visualisiert werden? Diese Studie gibt einen Überblick über semantische Standards und Formate, die Prozesse der semantischen Suche, Methoden und Techniken semantischer Suchsysteme, Komponenten zur Entwicklung semantischer Suchmaschinen sowie den Aufbau bestehender Anwendungen. Die Studie erläutert den prinzipiellen Aufbau semantischer Suchsysteme und stellt Methoden der semantischen Suche vor. Zudem werden Softwarewerkzeuge vorgestellt, mithilfe derer einzelne Funktionalitäten von semantischen Suchmaschinen realisiert werden können. Abschließend erfolgt die Betrachtung bestehender semantischer Suchmaschinen zur Veranschaulichung der Unterschiede der Systeme im Aufbau sowie in der Funktionalität.
    RSWK
    Suchmaschine / Semantic Web / Information Retrieval
    Suchmaschine / Information Retrieval / Ranking / Datenstruktur / Kontextbezogenes System
    Subject
    Suchmaschine / Semantic Web / Information Retrieval
    Suchmaschine / Information Retrieval / Ranking / Datenstruktur / Kontextbezogenes System
  15. Semantische Technologien : Grundlagen - Konzepte - Anwendungen (2012) 0.01
    0.0067280317 = product of:
      0.04036819 = sum of:
        0.008371122 = weight(_text_:information in 167) [ClassicSimilarity], result of:
          0.008371122 = score(doc=167,freq=8.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.13576832 = fieldWeight in 167, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
        0.031997066 = weight(_text_:und in 167) [ClassicSimilarity], result of:
          0.031997066 = score(doc=167,freq=46.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.41103485 = fieldWeight in 167, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
      0.16666667 = coord(2/12)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen, Potentiale und Anwendungen Semantischer Technologien. Es richtet sich an Studierende der Informatik und angrenzender Fächer sowie an Entwickler, die Semantische Technologien am Arbeitsplatz oder in verteilten Applikationen nutzen möchten. Mit seiner an praktischen Beispielen orientierten Darstellung gibt es aber auch Anwendern und Entscheidern in Unternehmen einen breiten Überblick über Nutzen und Möglichkeiten dieser Technologie. Semantische Technologien versetzen Computer in die Lage, Informationen nicht nur zu speichern und wieder zu finden, sondern sie ihrer Bedeutung entsprechend auszuwerten, zu verbinden, zu Neuem zu verknüpfen, und so flexibel und zielgerichtet nützliche Leistungen zu erbringen. Das vorliegende Buch stellt im ersten Teil die als Semantische Technologien bezeichneten Techniken, Sprachen und Repräsentationsformalismen vor. Diese Elemente erlauben es, das in Informationen enthaltene Wissen formal und damit für den Computer verarbeitbar zu beschreiben, Konzepte und Beziehungen darzustellen und schließlich Inhalte zu erfragen, zu erschließen und in Netzen zugänglich zu machen. Der zweite Teil beschreibt, wie mit Semantischen Technologien elementare Funktionen und umfassende Dienste der Informations- und Wissensverarbeitung realisiert werden können. Hierzu gehören etwa die Annotation und das Erschließen von Information, die Suche in den resultierenden Strukturen, das Erklären von Bedeutungszusammenhängen sowie die Integration einzelner Komponenten in komplexe Ablaufprozesse und Anwendungslösungen. Der dritte Teil beschreibt schließlich vielfältige Anwendungsbeispiele in unterschiedlichen Bereichen und illustriert so Mehrwert, Potenzial und Grenzen von Semantischen Technologien. Die dargestellten Systeme reichen von Werkzeugen für persönliches, individuelles Informationsmanagement über Unterstützungsfunktionen für Gruppen bis hin zu neuen Ansätzen im Internet der Dinge und Dienste, einschließlich der Integration verschiedener Medien und Anwendungen von Medizin bis Musik.
    Content
    Inhalt: 1. Einleitung (A. Dengel, A. Bernardi) 2. Wissensrepräsentation (A. Dengel, A. Bernardi, L. van Elst) 3. Semantische Netze, Thesauri und Topic Maps (O. Rostanin, G. Weber) 4. Das Ressource Description Framework (T. Roth-Berghofer) 5. Ontologien und Ontologie-Abgleich in verteilten Informationssystemen (L. van Elst) 6. Anfragesprachen und Reasoning (M. Sintek) 7. Linked Open Data, Semantic Web Datensätze (G.A. Grimnes, O. Hartig, M. Kiesel, M. Liwicki) 8. Semantik in der Informationsextraktion (B. Adrian, B. Endres-Niggemeyer) 9. Semantische Suche (K. Schumacher, B. Forcher, T. Tran) 10. Erklärungsfähigkeit semantischer Systeme (B. Forcher, T. Roth-Berghofer, S. Agne) 11. Semantische Webservices zur Steuerung von Prooduktionsprozessen (M. Loskyll, J. Schlick, S. Hodeck, L. Ollinger, C. Maxeiner) 12. Wissensarbeit am Desktop (S. Schwarz, H. Maus, M. Kiesel, L. Sauermann) 13. Semantische Suche für medizinische Bilder (MEDICO) (M. Möller, M. Sintek) 14. Semantische Musikempfehlungen (S. Baumann, A. Passant) 15. Optimierung von Instandhaltungsprozessen durch Semantische Technologien (P. Stephan, M. Loskyll, C. Stahl, J. Schlick)
    Footnote
    Auch als digitale Ausgabe verfügbar. Auf S. 5 befindet sich der Satz: "Wissen ist Information, die in Aktion umgesetzt wird".
    RSWK
    Semantic Web / Information Extraction / Suche / Wissensbasiertes System / Aufsatzsammlung
    Subject
    Semantic Web / Information Extraction / Suche / Wissensbasiertes System / Aufsatzsammlung
  16. Social Semantic Web : Web 2.0, was nun? (2009) 0.01
    0.006626006 = product of:
      0.039756037 = sum of:
        0.0035876236 = weight(_text_:information in 4854) [ClassicSimilarity], result of:
          0.0035876236 = score(doc=4854,freq=2.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.058186423 = fieldWeight in 4854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4854)
        0.036168415 = weight(_text_:und in 4854) [ClassicSimilarity], result of:
          0.036168415 = score(doc=4854,freq=80.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.46462005 = fieldWeight in 4854, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4854)
      0.16666667 = coord(2/12)
    
    Abstract
    Semantische Techniken zur strukturierten Erschließung von Web 2.0-Content und kollaborative Anreicherung von Web Content mit maschinenlesbaren Metadaten wachsen zum Social Semantic Web zusammen, das durch eine breite Konvergenz zwischen Social Software und Semantic Web-Technologien charakterisiert ist. Dieses Buch stellt die technischen, organisatorischen und kulturellen Veränderungen dar, die das Social Semantic Web begleiten, und hilft Entscheidungsträgern und Entwicklern, die Tragweite dieser Web-Technologie für ihr jeweiliges Unternehmen zu erkennen. Social Semantic Web: Web 2.0 - Was nun? ist quasi die 2. Auflage von Semantic Web: Wege zur vernetzten Wissensgesellschaft von 2006, in der jedoch eher die technischen Aspekte im Vordergrund standen - einiges ist seitdem im weltweiten Netz passiert, vor allem mit dem, als Web 2.0 gestempelten Ajax-User-Community-Mix in Verbindung mit dem Semantic Web wurden und werden die Karten an einigen Enden der Datenautobahn neu gemischt - dem tragen Andreas Blumauer und Tassilo Pellegrini mit einem Update ihrer Fachautorensammlung für interessierte Laien und themenfremde Experten in der passenden 2.0-Neuauflage Rechnung.
    Thematisch haben die beiden Herausgeber ihre Beitragssammlung in vier Bereiche aufgeteilt: zuerst der Einstieg ins Thema Web 2.0 mit sechs Beiträgen - die Konvergenz von Semantic Web und Web 2.0, Auswirkungen auf die Gesellschaft, Technologien und jeweils die entsprechenden Perspektiven; gute, faktenbasierte Überblicke, die das Buch auf eine solide Grundlage stellen und reichhaltiges Wissen für ansonsten meist oberflächlich geführte Diskussionen zum Thema liefern. Der zweite Themenbereich ist dann den Technologien und Methodem gewidmet: Wie sieht die Technik hinter der "Semantik" im Web aus? Wissensmodellierung, Beispiele wie die Expertensuche, Content Management Systeme oder semantische Wikis. In Teil drei werfen die Autoren dann einen Blick auf bestehende Anwendungen im aktuellen Social Semantic Web und geben einen Ausblick auf deren zukünftige Entwicklungen. Im abschließenden Teil vier schließlich geben die Autoren der drei Beiträge einen Überblick zum "Social Semantic Web" aus sozialwissenschaftlicher Perspektive. Zusammenfassungen am Anfang jedes Beitrags, gute Strukturen zusätzliche Quellen und auch die gut lesbare Länge der Beiträge - angenehme verständlich und konsumierbar. Blumauer und Pellegrini haben auch mit Social Semantic Web: Web 2.0 - Was nun? ganze Arbeit geleistet und ein breites Spektrum an Perspektiven, Meinungen und Quellen zusammengetragen - das Ergebnis ist stellenweise durchaus heterogen und nicht jeder Beitrag muss gefallen, doch das Gesamtergebnis stellt die von den Herausgebern thematisierte heterogene Welt des Social Semantic Web realistisch dar. Wer in Zukunft nicht nur "gefährliches Halbwissen" um das Web 2.0 und das Semantic Web von sich geben will, sollte Social Semantic Web: Web 2.0 - Was nun? gelesen haben!
    Content
    Semantic Web Revisited - Eine kurze Einführung in das Social Semantic Web - Andreas Blumauer und Tassilo Pellegrini Warum Web 2.0? Oder: Was vom Web 2.0 wirklich bleiben wird - Sonja Bettel Entwicklungsperspektiven von Social Software und dem Web 2.0 - Alexander Raabe Anwendungen und Technologien des Web 2.0: Ein Überblick - Alexander Stocker und Klaus Tochtermann Die Usability von Rich Internet Applications - Jörg Linder Die zwei Kulturen - Anupriya Ankolekar, Markus Krötzsch, Than Tran und Denny Vrandecic Wissensmodellierung im Semantic Web - Barbara Geyer-Hayden Anreicherung von Webinhalten mit Semantik - Microformats und RDFa - Michael Hausenblas Modellierung von Anwenderverhalten im Social Semantic Web - Armin Ulbrich, Patrick Höfler und Stefanie Lindstaedt Expertise bewerben und finden im Social Semantic Web - Axel Polleres und Malgorzata Mochol
    Semantische Content Management Systeme - Erich Gams und Daniel Mitterdorfer Tag-Recommender gestützte Annotation von Web-Dokumenten - Andreas Blumauer und Martin Hochmeister Semantische Wikis - Sebastian Schaffert, François Bry, Joachim Baumeister und Malte Kiesel Semantische Mashups auf Basis Vernetzter Daten - Sören Auer, Jens Lehmann und Christian Bizer Web-gestütztes Social Networking am Beispiel der "Plattform Wissensmanagement" - Stefanie N. Lindstaedt und Claudia Thurner Explorative Netzwerkanalyse im Living Web - Gernot Tscherteu und Christian Langreiter Semantic Desktop - Leo Sauermann, Malte Kiesel, Kinga Schumacher und Ansgar Bernardi Social Bookmarking am Beispiel BibSonomy - Andreas Hotho, Robert Jäschke, Dominik Benz, Miranda Grahl, Beate Krause, Christoph Schmitz und Gerd Stumme Semantic Wikipedia - Markus Krötzsch und Denny Vrandecic Die Zeitung der Zukunft - Christoph Wieser und Sebastian Schaffert Das Semantic Web als Werkzeug in der biomedizinischen Forschung - Holger Stenzhorn und Matthias Samwald
    Footnote
    Vgl.: http://www.springer.com/computer/database+management+%26+information+retrieval/book/978-3-540-72215-1.
  17. ¬Die Googleisierung der Informationssuche : Suchmaschinen zwischen Nutzung und Regulierung (2014) 0.01
    0.005529761 = product of:
      0.033178564 = sum of:
        0.0067648874 = weight(_text_:information in 1840) [ClassicSimilarity], result of:
          0.0067648874 = score(doc=1840,freq=4.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.10971737 = fieldWeight in 1840, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=1840)
        0.026413675 = weight(_text_:und in 1840) [ClassicSimilarity], result of:
          0.026413675 = score(doc=1840,freq=24.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.33931053 = fieldWeight in 1840, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1840)
      0.16666667 = coord(2/12)
    
    Abstract
    Suchmaschinen ermöglichen den Zugang zu Informationen im Internet und machen es als grenzenloses Informationsportal nutzbar. Netzinhalte, die nicht durch Suchmaschinen auffindbar sind, existieren für die Internetnutzer gar nicht - ein großes Gefahrenpotenzial für den einzelnen Nutzer und die Gesellschaft. Der vorliegende Band beleuchtet das Phänomen aus kommunikationswissenschaftlicher, rechtlicher, pädagogischer und technischer Perspektive.
    Footnote
    Rez. in: Mitt. VOEB 68(2015) H.1, S.180-183 (O.Oberhauser): "Aus dieser kurzen Skizze geht hervor, dass der vorliegende Band eine Reihe interessanter und mitunter auch brisanter Teilthemen beinhaltet. Wer an der Diskussion um die Rolle der meistgenutzten Suchmaschine in unserer Gesellschaft Interesse hat, findet in diesem Buch reichlich Material und Ideen. Jeder Beitrag wird zudem durch ein Literaturverzeichnis ergänzt, in dem weiterführende Quellen genannt werden. Die Beiträge sind durchweg "lesbar" geschrieben und nur in mässigem Ausmass von soziologischem oder rechtswissenschaftlichem Fachjargon durchsetzt. In stilistischer Hinsicht ist der Text dennoch nicht ohne Probleme, zumal bereits im ersten Absatz der Einleitung ein als Hauptsatz "verkaufter" Nebensatz auffällt ("Denn Suchmaschinenbetreiber wie Google ermöglichen und gestalten den Zugang zu Informationen im Netz.") und die gleiche stilistische Schwäche allein in der 19-seitigen Einleitung in über einem Dutzend weiterer Fälle registriert werden kann, vom nächsten Beitrag gar nicht zu sprechen. Ein funktionierendes Verlagslektorat hätte derlei rigoros bereinigen müssen. Es hätte eventuell auch dafür Sorge tragen können, dass am Ende des Bandes nicht nur ein Verzeichnis der Autorinnen und Autoren aufscheint, sondern auch ein Sachregister - ein solches fehlt nämlich bedauerlicherweise. In optischer Hinsicht ist der Hardcover-Band ansprechend gestaltet und gut gelungen. Der Preis liegt mit rund 80 Euro leider in der Oberklasse; auch die E-Book-Version macht die Anschaffung nicht billiger, da kein Preisunterschied zur gebundenen Ausgabe besteht. Dennoch ist das Buch aufgrund der interessanten Inhalte durchaus zu empfehlen; grössere Bibliotheken sowie kommunikations- und informationswissenschaftliche Spezialsammlungen sollten es nach Möglichkeit erwerben."
    RSWK
    Google / Internet / Information Retrieval / Aufsatzsammlung
    Subject
    Google / Internet / Information Retrieval / Aufsatzsammlung
  18. Stöcklin, N.: Wikipedia clever nutzen : in Schule und Beruf (2010) 0.01
    0.005470283 = product of:
      0.032821696 = sum of:
        0.0042280545 = weight(_text_:information in 4531) [ClassicSimilarity], result of:
          0.0042280545 = score(doc=4531,freq=4.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.068573356 = fieldWeight in 4531, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4531)
        0.02859364 = weight(_text_:und in 4531) [ClassicSimilarity], result of:
          0.02859364 = score(doc=4531,freq=72.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.3673144 = fieldWeight in 4531, product of:
              8.485281 = tf(freq=72.0), with freq of:
                72.0 = termFreq=72.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4531)
      0.16666667 = coord(2/12)
    
    Abstract
    Dieses Werk vermittelt kompakte Informationen zur Funktionsweise der Wikipedia. Es zeigt auf, wie die Online-Enzyklopädie zu verschiedenen Zwecken sinnvoll und clever genutzt werden kann sei es zur Recherche, zur Bildersuche oder für Übersetzungen, sei es zur Beantwortung einfacher Fragen des öffentlichen Lebens oder auch nur zum Stöbern. Auch die möglichen Fallstricke werden diskutiert: fehlerhafte Informationen, mangelnde Objektivität oder Aktualität. Oberstes Ziel ist es immer, den kompetenten Umgang mit der Wikipedia zu fördern. Dabei stehen langlebige Informationen im Vordergrund. Die kurzen Kapitel sind immer gleich aufgebaut: Ein Dialog bricht das Thema des Kapitels auf eine ganz konkrete Ebene herunter; der Hauptteil zeigt detailliert einen Aspekt der Informationsfülle, welche die Wikipedia bietet, und stellt einen Zusammenhang mit anderen Informationsdiensten her. Die wichtigen Fakten und Überlegungen finden sich in einer Zusammenfassung am Schluss. Wikipedia clever nutzen wendet sich an alle, die die Möglichkeiten der Online-Enzyklopädie ausschöpfen möchten. Besonders hilfreich ist das Werk für Personen, die in der Bildung tätig sind wie auch für jene, die die Wikipedia beruflich intensiv nutzen: Lehrpersonen, Studierende, Bibliothekare, Journalistinnen oder Informationswissenschaftler.
    Footnote
    Rez. in: Mitt. VÖB 64(2011) H.1, S. 153-155 (K Niedermair): "Vor einigen Wochen war in der Wochenzeitung Die Zeit ein dreiseitiger Beitrag über die gerade 10 Jahre alt gewordene Wikipedia zu lesen, unter dem Titel "Das größte Werk der Menschen": Wie könnte Wikipedia dieses Prädikat verdienen? Wohl schon aufgrund der Quantitäten: Die freie Enzyklopädie Wikipedia ist, seit sie am 15. Jänner 2001 online ging, extrem gewachsen, es gibt Plattformen in den meisten Sprachen, mit sehr viel Content, am meisten natürlich in der englischsprachigen Version, nämlich über drei Millionen Beiträge, auch die deutschsprachige ist beachtlich vertreten mit ca. einer Million. Wikipedia ist zu einer wichtigen Informationsquelle geworden, im Alltag, im Beruf, im Lehr- und Wissenschaftsbetrieb, dies zeigen immer wieder Befragungen von Studierenden und Wissenschaftler/innen. Verdienstvoll ist Wikipedia auch, weil sie nicht auf Gewinn orientiert ist, auf Werbeeinnahmen verzichtet. Wikipedia lebt vom Idealismus unzähliger freiwilliger Mitarbeiter/innen, die nicht um Geld, sondern aus Freude an der Arbeit gemeinsam dem großen Ziel verpflichtet sind, Wissen zu sammeln, zu ordnen und bereitzustellen - und zwar kostenlos für alle zu jeder Zeit und an jedem Ort. Es ist wohltuend, dass dieses Programm einer universalen Enzyklopädia publico in der kommerzialisierten Wirklichkeit des Internet überleben konnte und dass Erfolg und Wachstum im Internet nicht immer mit Geld zu tun haben müssen, wie es Google, Facebook usw. nahelegen, deren Gründer bekanntlich inzwischen Milliardäre sind. Und Wikipedia ist insofern ein starkes Argument gegen die landläufige These, dass Information nur brauchbar ist, wenn sie etwas kostet: Qualitätssicherung von Information hängt nicht zwangsläufig mit ihrer Ökonomisierung zusammen. Tatsächlich ist Wikipedia inzwischen eine massive Konkurrenz für die herkömmlichen, kommerziell orientierten Lexika und Enzyklopädien.
    Spätestens jetzt sollten die Skeptiker, auch in den Reihen der Wissenschaftler/innen und Bibliothekar/innen, nachdenklich werden und ihre Vorbehalte gegen Wikipedia überprüfen. Dabei kann das Buch von Nado Stöcklin, einem Mitarbeiter an der Pädagogischen Hochschule Bern, sehr hilfreich sein: Mich haben seine Ausführungen und Argumente überzeugt. Doch nicht nur für Zweifler ist die Lektüre dieses Buches zu empfehlen. Es gibt einen guten Überblick über Wikipedia, es ist theoretisch fundiert, praxisbezogen, leicht verständlich, dabei spannend und angenehm zu lesen - dies auch, weil jedem Kapitel ein fiktiver Dialog vorangestellt ist, in dem aus einer konkreten Situation heraus an das Thema herangeführt wird. Im ersten Kapitel geht es um die Vorteile von Wikipedia in historischer Perspektive. Wissen übersichtlich bereit zu stellen, war das Ziel vieler unterschiedlicher Bemühungen in der Antike und in mittelalterlichen Klöstern, in Bibliotheken und mit Hilfe von Enzyklopädien seit der Aufklärung: Im Vergleich dazu ist Wikipedia für alle zugänglich, jederzeit, an jedem Ort. Im zweiten Kapitel werden weitere Mehrwerte von Wikipedia festgemacht: in der Quantität der verfügbaren Informationen, in ihrer Aktualität und im demokratischen Prozess ihrer Erstellung und Redaktion. Denn eine Bedingung für den Erfolg von Wikipedia ist sicher die Software Wiki bzw. Meta-Wiki, die es erlaubt, dass Nutzer Inhalte nicht nur lesen, sondern auch selbst verändern können, wobei frühere Versionen archiviert und jederzeit wieder reaktiviert werden können. Diese Prinzipien des Web-2.0 hat Wikipedia allerdings mit vielen anderen Wiki-Projekten gemeinsam, denen diese Berühmtheit aber versagt geblieben ist - einmal abgesehen von WikiLeaks, das vor Wochen die Berichterstattung dominierte. Das wirkliche Erfolgsgeheimnis von Wikipedia liegt vielmehr in ihrer innovativen Organisation, die auf den Prinzipien Demokratie und Selbstorganisation beruht. Die Vorgaben der Gründer von Wikipedia -Jimmy Wales, ein Börsenmakler, und Larry Sanger, ein Philosophie-Dozent - waren minimalistisch: Die Beiträge sollten neutral sein, objektiv, wenn notwendig pluralistisch, nicht dogmatisch, und vor allem überprüfbar - also Qualitätskriterien, wie sie auch für wissenschaftliches Wissen gelten. Im Unterschied zum wissenschaftlichen Publikationswesen, in dem Urheberrecht und Verwertungsrechte bekanntlich restriktiv geregelt sind, geht Wikipedia aber einen anderen Weg. Alle Beiträge stehen unter der Lizenz des Creative Commons by-sa, d.h. jeder darf Inhalte kopieren und verwerten, auch kommerziell, wenn er die Autoren angibt ("by") und, sofern er sie ändert, unter dieselbe Lizenz stellt ("sa" = "share alike").
    Thema von Kapitel 3 ist die sinnvolle Nutzung von Wikipedia: Sie ist auch eine Suchmaschine, da zu den Beiträgen qualifizierte Links angeboten werden; sie eignet sich zum Stöbern, als Einstieg in Themenbereiche und als Startpunkt für eine vertiefte Recherche, sie kann zur Bildersuche verwendet werden oder als Übersetzungsdienst. Hier klärt der Autor auch die häufig diskutierte Frage, ob aus Wikipedia zitiert werden darf. Man darf genau dann, wenn auch aus Enzyklopädien zitiert werden kann; für nicht-wissenschaftliche Zwecke ohne weiteres, weniger jedoch für wissenschaftliche, denn Enzyklopädien sind Tertiärquellen, in jedem Fall ist es also ratsam, Argumentationen auf Sekundär- und Primärquellen zu stützen, durchaus auch auf solche, die in Wikipedia genannt sind. Kapitel 4 beschäftigt sich mit den immer wieder monierten Schwachstellen von Wikipedia: fehlerhafte Informationen, Vandalismus und Manipulation, mangelnde Objektivität, mangelnde Aktualität und unberechenbare Veränderbarkeit der Inhalte. Kapitel 5 ist speziell für Lehrende in Schulen und Hochschulen interessant. Die genannten Fallstricke werden hier umgedeutet zu Chancen für eine didaktisch sinnvolle Nutzung von Wikipedia, unter dem Motto: nicht Hände weg von Wikipedia, sondern aktive Auseinandersetzung mit Wikipedia. Schüler und Studierende, die z.B. selbst Beiträge in Wikipedia verfassen, lernen schreiben und argumentieren, indem sie in Diskussion treten mit anderen Nutzer/innen; sie werden sensibilisiert für Plagiate, sie lernen selbständig zu formulieren, v.a. wenn sie nicht nur Fakten zusammentragen müssen, sondern den Auftrag haben, Informationen kritisch zu bewerten, zusammenzufassen, zu reflektieren und zu nutzen. Wikipedia kann demnach - so die sehr plausible Konsequenz - unter geeigneten didaktischen Voraussetzungen gerade zur Förderung von Informationskompetenz beitragen."
  19. Hübener, M.: Suchmaschinenoptimierung kompakt : anwendungsorientierte Techniken für die Praxis (2009) 0.00
    0.0049929316 = product of:
      0.029957589 = sum of:
        0.010147331 = weight(_text_:information in 3911) [ClassicSimilarity], result of:
          0.010147331 = score(doc=3911,freq=4.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.16457605 = fieldWeight in 3911, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
        0.019810257 = weight(_text_:und in 3911) [ClassicSimilarity], result of:
          0.019810257 = score(doc=3911,freq=6.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.2544829 = fieldWeight in 3911, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
      0.16666667 = coord(2/12)
    
    Abstract
    Methoden der Suchmaschinenoptimierung werden im vorliegenden Buch umfassend beleuchtet. Nach einer Einführung in das Thema besteht ein erster Schwerpunkt darin, konkrete Handlungsanweisungen für die Suchmaschinenoptimierung einer Website aufzuzeigen. Dazu wird ein Optimierungszyklus in neun Schritten vorgestellt, welcher die Felder OffPage-Optimierung, OnPage-Optimierung und Keyword-Recherche einschließt. Darüber hinaus führt der Autor die zusätzliche Kategorie der Content-Strategie ein, um die Quellen und Verbreitungswege potentieller neuer Inhalte zu systematisieren. Um die Anschaulichkeit und den Praxisbezug noch zu erhöhen, stellt der Autor eine konkrete Anwendung des vorgestellten Optimierungszyklus am Beispiel einer real existierenden Website vor.
    RSWK
    Suchmaschine / Information-Retrieval-System / Optimierung
    Subject
    Suchmaschine / Information-Retrieval-System / Optimierung
  20. Hüsken, P.: Informationssuche im Semantic Web : Methoden des Information Retrieval für die Wissensrepräsentation (2006) 0.00
    0.0045803 = product of:
      0.027481798 = sum of:
        0.016044341 = weight(_text_:information in 4332) [ClassicSimilarity], result of:
          0.016044341 = score(doc=4332,freq=10.0), product of:
            0.0616574 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.035122856 = queryNorm
            0.2602176 = fieldWeight in 4332, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
        0.011437457 = weight(_text_:und in 4332) [ClassicSimilarity], result of:
          0.011437457 = score(doc=4332,freq=2.0), product of:
            0.07784514 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.035122856 = queryNorm
            0.14692576 = fieldWeight in 4332, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
      0.16666667 = coord(2/12)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
    Footnote
    Zugl.: Dortmund, Univ., Dipl.-Arb., 2006 u.d.T.: Hüsken, Peter: Information-Retrieval im Semantic-Web.
    RSWK
    Information Retrieval / Semantic Web
    Subject
    Information Retrieval / Semantic Web

Languages

  • d 24
  • e 7

Types

  • m 30
  • s 6
  • r 1
  • More… Less…

Subjects

Classifications