Search (832 results, page 42 of 42)

  • × type_ss:"m"
  1. Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 5134) [ClassicSimilarity], result of:
              0.014933716 = score(doc=5134,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 5134, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5134)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
  2. a cataloger's primer : Metadata (2005) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 133) [ClassicSimilarity], result of:
              0.014933716 = score(doc=133,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 133, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=133)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Footnote
    Part II consists of five papers on specific metadata standards and applications. Anita Coleman presents an element-by-element description of how to create Dublin Core metadata for Web resources to be included in a library catalog, using principles inspired by cataloging practice, in her paper "From Cataloging to Metadata: Dublin Core Records for the Library Catalog." The next three papers provide especially excellent introductory overviews of three diverse types of metadata-related standards: "Metadata Standards for Archival Control: An Introduction to EAD and EAC" by Alexander C. Thurman, "Introduction to XML" by Patrick Yott, and "METS: the Metadata Encoding and Transmission Standard" by Linda Cantara. Finally, Michael Chopey offers a superb and most useful overview of "Planning and Implementing a Metadata-Driven Digital Repository." Although all of the articles in this book contain interesting, often illuminating, and potentially useful information, not all serve equally well as introductory material for working catalogers not already familiar with metadata. It would be difficult to consider this volume, taken as a whole, as truly a "primer" for catalog librarians, as the subtitle implies. The content of the articles is too much a mix of introductory essays and original research, some of it at a relatively more advanced level. The collection does not approach the topic in the kind of coherent, systematic, or comprehensive way that would be necessary for a true "primer" or introductory textbook. While several of the papers would be quite appropriate for a primer, such a text would need to include, among other things, coverage of other metadata schemes and protocols such as TEI, VRA, and OAI, which are missing here. That having been said, however, Dr. Smiraglia's excellent introduction to the volume itself serves as a kind of concise, well-written "mini-primer" for catalogers new to metadata. It succinctly covers definitions of metadata, basic concepts, content designation and markup languages, metadata for resource description, including short overviews of TEI, DC, EAD, and AACR2/MARC21, and introduces the papers included in the book. In the conclusion to this essay, Dr. Smiraglia says about the book: "In the end the contents go beyond the definition of primer as `introductory textbook.' But the authors have collectively compiled a thought-provoking volume about the uses of metadata" (p. 15). This is a fair assessment of the work taken as a whole. In this reviewer's opinion, there is to date no single introductory textbook on metadata that is fully satisfactory for both working catalogers and for library and information science (LIS) students who may or may not have had exposure to cataloging. But there are a handful of excellent books that serve different aspects of that function. These include the following recent publications:
  3. ¬La interdisciplinariedad y la transdisciplinariedad en la organización del conocimiento científico : actas del VIII Congreso ISKO-España, León, 18, 19 y 20 de Abril de 2007 : Interdisciplinarity and transdisciplinarity in the organization of scientific knowledge (2007) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 1150) [ClassicSimilarity], result of:
              0.014933716 = score(doc=1150,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 1150, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1150)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    Benavides, C., Aláiz, H., Alfonso, J., Alonso, Á.: An ontology for control engineering; Ferreira de Oliveira, M.F., Schiessl, M.: Estimate of the distance between areas of an organization using the concept of interlinguistic distance; Lara, M.G.L. de.: Ciencias del lenguaje, terminología y ciencia de la información: relaciones interdisciplinarias y transdisciplinariedad; Moreiro González, J.A.: Evolución paralela de los lenguajes documentales y la terminología; Triska, R.: Artificial intelligence, classification theory and the uncertainty reduction process; Casari Boccato, V.R., Spotti Lopes Fujita, M.: Aproximación cualitativa-cognitiva como método de evaluación de lenguajes documentales: una técnica de protocolo verbal; De Brito Neves, D.A., De Albuquerque, M.E.B.C.: Biblioteca digital un convergencia multidisciplinar; Miranda, A., Simeão, E.: Aspectos interdisciplinarios y tecnológicos de la autoría colectiva e individual; San Segundo, R.: Incidencia de aspectos culturales y siciales en la organización del conocimento transdisciplinar; Barber, E., et al.: Los catálogos en línea de acceso público disponibles en entorno web de las bibliotecas universitarias y especializadas en Argentina y Brasil: diagnóstico de situación; Forsman, M.: Diffusion of a new concept: the case of social capital; Pajor, E.: Una aplicación de topic map que puede ser un modelo posible; Moreiro González, J.A., Franco Álvarez, G., Garcia Martul, D.: Un vocabulario controlado para una hemerotecá: posibilidades y características de los topicsets; Cavalcanti de Miranda, M.L.: Organización y representación del conocimiento: fundamentos teóricos y metológicos para la recuperación de la información en entornos virtuales; Moacir Francelin, M.: Espacios de significación y representación del conocimiento: un análisis sobre teorias y métodos de organización de conceptos en ciencia de la información; Spiteri, L.: The structure and form of folksonomy tags: the road to the public library catalogue;
  4. Culture and identity in knowledge organization : Proceedings of the Tenth International ISKO Conference 5-8 August 2008, Montreal, Canada (2008) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 2494) [ClassicSimilarity], result of:
              0.014933716 = score(doc=2494,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 2494, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2494)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    EPISTEMOLOGICAL FOUNDATIONS OF KNOWLEDGE ORGANIZATION H. Peter Ohly. Knowledge Organization Pro and Retrospective. Judith Simon. Knowledge and Trust in Epistemology and Social Software/Knowledge Technologies. - D. Grant Campbell. Derrida, Logocentrism, and the Concept of Warrant on the Semantic Web. - Jian Qin. Controlled Semantics Versus Social Semantics: An Epistemological Analysis. - Hope A. Olson. Wind and Rain and Dark of Night: Classification in Scientific Discourse Communities. - Thomas M. Dousa. Empirical Observation, Rational Structures, and Pragmatist Aims: Epistemology and Method in Julius Otto Kaiser's Theory of Systematic Indexing. - Richard P. Smiraglia. Noesis: Perception and Every Day Classification. Birger Hjorland. Deliberate Bias in Knowledge Organization? Joseph T. Tennis and Elin K. Jacob. Toward a Theory of Structure in Information Organization Frameworks. - Jack Andersen. Knowledge Organization as a Cultural Form: From Knowledge Organization to Knowledge Design. - Hur-Li Lee. Origins of the Main Classes in the First Chinese Bibliographie Classification. NON-TEXTUAL MATERIALS Abby Goodrum, Ellen Hibbard, Deborah Fels and Kathryn Woodcock. The Creation of Keysigns American Sign Language Metadata. - Ulrika Kjellman. Visual Knowledge Organization: Towards an International Standard or a Local Institutional Practice?
  5. Rösch, H.: Academic libraries und cyberinfrastructure in den USA : das System wissenschaftlicher Kommunikation zu Beginn des 21. Jahrhunderts (2008) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 3074) [ClassicSimilarity], result of:
              0.014933716 = score(doc=3074,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 3074, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3074)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Footnote
    Aber auch die Library of Congress, so zitiert Rösch, hat im Jahr 2000 dargelegt, dass heute keine einzelne Bibliothek mehr in der Lage ist, dass Wissenschaftssystem komplett mit der benötigten Information zu versorgen. Nur ein funktional differenziertes System kann dies leisten. Ansätze dazu sieht Rösch vor allem in Formen arbeitsteiliger Bibliothekskooperation wie Global Resources Network, JSTOR, Portico, CLOCKSS oder SPARC und bescheinigt den amerikanischen Verbänden, dass sie mit Energie und Erfolg den Wandel zum funktional differenzierten System befördern. Ausführlich beschreibt der Autor die Anforderungen, die seitens der Wissenschaft an ihre Informationslogistik gestellt werden. Hier behandelt er gründlich den »Atkins-Report« von 2003 und die nachfolgenden Studien zur Cyberinfrastructure wie den »Cultural Commonwealth Report«. Bemerkenswert ist, mit welcher Klarheit bei aller Knappheit der Autor diese Entwicklungen kennzeichnet und analytisch einordnet. Er hält folgende Merkmale dieses Umbruchs in der wissenschaftlichen Kommunikation fest: - Primat der Online-Quellen und Beschleunigung - Interdisziplinarität, Kollaboration, Internationalisierung - Mengenwachstum und Informationsüberflutung - wachsende Bedeutung informeller Kommunikationsformen und nachlassende Unterscheidbarkeit von institutionell formalisierten Kommunikationsformen (Strukturverlust der Kommunikation) - Nutzung von Datenbank- und Retrievaltechnologie - Data-Mining, Aufwertung und exponentielle Vermehrung wissenschaftlicher Primärdaten - Selbst-Archivierung und Open Access - Multimedialität. Wertvoll in diesem Zusammenhang ist, dass Rösch die Tatsache diskutiert, dass Open-Access-Publikationen bei Berufungen von Professoren teilweise einfach ignoriert werden und wie sie mittels informetrischer Ansätze und Web-2.0-Funktionalitäten in formalisierte Bewertungen eingehen können.
  6. Stöcklin, N.: Wikipedia clever nutzen : in Schule und Beruf (2010) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 4531) [ClassicSimilarity], result of:
              0.014933716 = score(doc=4531,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 4531, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4531)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Footnote
    Spätestens jetzt sollten die Skeptiker, auch in den Reihen der Wissenschaftler/innen und Bibliothekar/innen, nachdenklich werden und ihre Vorbehalte gegen Wikipedia überprüfen. Dabei kann das Buch von Nado Stöcklin, einem Mitarbeiter an der Pädagogischen Hochschule Bern, sehr hilfreich sein: Mich haben seine Ausführungen und Argumente überzeugt. Doch nicht nur für Zweifler ist die Lektüre dieses Buches zu empfehlen. Es gibt einen guten Überblick über Wikipedia, es ist theoretisch fundiert, praxisbezogen, leicht verständlich, dabei spannend und angenehm zu lesen - dies auch, weil jedem Kapitel ein fiktiver Dialog vorangestellt ist, in dem aus einer konkreten Situation heraus an das Thema herangeführt wird. Im ersten Kapitel geht es um die Vorteile von Wikipedia in historischer Perspektive. Wissen übersichtlich bereit zu stellen, war das Ziel vieler unterschiedlicher Bemühungen in der Antike und in mittelalterlichen Klöstern, in Bibliotheken und mit Hilfe von Enzyklopädien seit der Aufklärung: Im Vergleich dazu ist Wikipedia für alle zugänglich, jederzeit, an jedem Ort. Im zweiten Kapitel werden weitere Mehrwerte von Wikipedia festgemacht: in der Quantität der verfügbaren Informationen, in ihrer Aktualität und im demokratischen Prozess ihrer Erstellung und Redaktion. Denn eine Bedingung für den Erfolg von Wikipedia ist sicher die Software Wiki bzw. Meta-Wiki, die es erlaubt, dass Nutzer Inhalte nicht nur lesen, sondern auch selbst verändern können, wobei frühere Versionen archiviert und jederzeit wieder reaktiviert werden können. Diese Prinzipien des Web-2.0 hat Wikipedia allerdings mit vielen anderen Wiki-Projekten gemeinsam, denen diese Berühmtheit aber versagt geblieben ist - einmal abgesehen von WikiLeaks, das vor Wochen die Berichterstattung dominierte. Das wirkliche Erfolgsgeheimnis von Wikipedia liegt vielmehr in ihrer innovativen Organisation, die auf den Prinzipien Demokratie und Selbstorganisation beruht. Die Vorgaben der Gründer von Wikipedia -Jimmy Wales, ein Börsenmakler, und Larry Sanger, ein Philosophie-Dozent - waren minimalistisch: Die Beiträge sollten neutral sein, objektiv, wenn notwendig pluralistisch, nicht dogmatisch, und vor allem überprüfbar - also Qualitätskriterien, wie sie auch für wissenschaftliches Wissen gelten. Im Unterschied zum wissenschaftlichen Publikationswesen, in dem Urheberrecht und Verwertungsrechte bekanntlich restriktiv geregelt sind, geht Wikipedia aber einen anderen Weg. Alle Beiträge stehen unter der Lizenz des Creative Commons by-sa, d.h. jeder darf Inhalte kopieren und verwerten, auch kommerziell, wenn er die Autoren angibt ("by") und, sofern er sie ändert, unter dieselbe Lizenz stellt ("sa" = "share alike").
  7. Bade, D.: ¬The creation and persistence of misinformation in shared library catalogs : language and subject knowledge in a technological era (2002) 0.00
    0.0022925914 = product of:
      0.006877774 = sum of:
        0.006877774 = product of:
          0.013755548 = sum of:
            0.013755548 = weight(_text_:22 in 1858) [ClassicSimilarity], result of:
              0.013755548 = score(doc=1858,freq=2.0), product of:
                0.17776565 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050763648 = queryNorm
                0.07738023 = fieldWeight in 1858, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1858)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 9.1997 19:16:05
  8. Ratzan, L.: Understanding information systems : what they do and why we need them (2004) 0.00
    0.001991162 = product of:
      0.005973486 = sum of:
        0.005973486 = product of:
          0.011946972 = sum of:
            0.011946972 = weight(_text_:web in 4581) [ClassicSimilarity], result of:
              0.011946972 = score(doc=4581,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.07211407 = fieldWeight in 4581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4581)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Footnote
    In "Organizing Information" various fundamental organizational schemes are compared. These include hierarchical, relational, hypertext, and random access models. Each is described initially and then expanded an by listing advantages and disadvantages. This comparative format-not found elsewhere in the book-improves access to the subject and overall understanding. The author then affords considerable space to Boolean searching in the chapter "Retrieving Information." Throughout this chapter, the intricacies and problems of pattern matching and relevance are highlighted. The author elucidates the fact that document retrieval by simple pattern matching is not the same as problem solving. Therefore, "always know the nature of the problem you are trying to solve" (p. 56). This chapter is one of the more important ones in the book, covering a large topic swiftly and concisely. Chapters 5 through 11 then delve deeper into various specific issues of information systems. The chapters an securing and concealing information are exceptionally good. Without mentioning specific technologies, Mr. Ratzan is able to clearly present fundamental aspects of information security. Principles of backup security, password management, and encryption are also discussed in some detail. The latter is illustrated with some fascinating examples, from the Navajo Code Talkers to invisible ink and others. The chapters an measuring, counting, and numbering information complement each other well. Some of the more math-centric discussions and examples are found here. "Measuring Information" begins with a brief overview of bibliometrics and then moves quickly through Lotka's law, Zipf's law, and Bradford's law. For an LIS student, exposure to these topics is invaluable. Baseball statistics and web metrics are used for illustration purposes towards the end. In "counting Information," counting devices and methods are first presented, followed by discussion of the Fibonacci sequence and golden ratio. This relatively long chapter ends with examples of the tower of Hanoi, the changes of winning the lottery, and poker odds. The bulk of "Numbering Information" centers an prime numbers and pi. This chapter reads more like something out of an arithmetic book and seems somewhat extraneous here. Three specific types of information systems are presented in the second half of the book, each afforded its own chapter. These examples are universal as not to become dated or irrelevant over time. "The Computer as an Information System" is relatively short and focuses an bits, bytes, and data compression. Considering the Internet as an information system-chapter 13-is an interesting illustration. It brings up issues of IP addressing and the "privilege-vs.-right" access issue. We are reminded that the distinction between information rights and privileges is often unclear. A highlight of this chapter is the discussion of metaphors people use to describe the Internet, derived from the author's own research. He has found that people have varying mental models of the Internet, potentially affecting its perception and subsequent use.
  9. Mossberger, K.; Tolbert, C.J.; Stansbury, M.: Virtual inequality : beyond the digital divide (2003) 0.00
    0.001991162 = product of:
      0.005973486 = sum of:
        0.005973486 = product of:
          0.011946972 = sum of:
            0.011946972 = weight(_text_:web in 1795) [ClassicSimilarity], result of:
              0.011946972 = score(doc=1795,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.07211407 = fieldWeight in 1795, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1795)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Footnote
    The economic opportunity divide is predicated an the hypothesis that there has, indeed, been a major shift in opportunities driven by changes in the information environment. The authors document this paradigm shift well with arguments from the political and economic right and left. This chapter might be described as an "attitudinal" chapter. The authors are concerned here with the perceptions of their respondents of their information skills and skill levels with their economic outlook and opportunities. Technological skills and economic opportunities are correlated, one finds, in the minds of all across all ages, genders, races, ethnicities, and income levels. African Americans in particular are ". . attuned to the use of technology for economic opportunity" (p. 80). The fourth divide is the democratic divide. The Internet may increase political participation, the authors posit, but only among groups predisposed to participate and perhaps among those with the skills necessary to take advantage of the electronic environment (p. 86). Certainly the Web has played an important role in disseminating and distributing political messages and in some cases in political fund raising. But by the analysis here, we must conclude that the message does not reach everyone equally. Thus, the Internet may widen the political participation gap rather than narrow it. The book has one major, perhaps fatal, flaw: its methodology and statistical application. The book draws upon a survey performed for the authors in June and July 2001 by the Kent State University's Computer Assisted Telephone Interviewing (CATI) lab (pp. 7-9). CATI employed a survey protocol provided to the reader as Appendix 2. An examination of the questionnaire reveals that all questions yield either nominal or ordinal responses, including the income variable (pp. 9-10). Nevertheless, Mossberger, Tolbert, and Stansbury performed a series of multiple regression analyses (reported in a series of tables in Appendix 1) utilizing these data. Regression analysis requires interval/ratio data in order to be valid although nominal and ordinal data can be incorporated by building dichotomous dummy variables. Perhaps Mossberger, Tolbert, and Stansbury utilized dummy variables; but 1 do not find that discussed. Moreover, 1 would question a multiple regression made up completely of dichotomous dummy variables. I come away from Virtual Inequality with mixed feelings. It is useful to think of the digital divide as more than one phenomenon. The four divides that Mossberger, Tolbert, and Stansbury offeraccess, skills, economic opportunity, and democratic-are useful as a point of departure and debate. No doubt, other divides will be identified and documented. This book will lead the way. Second, without question, Mossberger, Tolbert, and Stansbury provide us with an extremely well-documented, -written, and -argued work. Third, the authors are to be commended for the multidisciplinarity of their work. Would that we could see more like it. My reservations about their methodological approach, however, hang over this review like a shroud."
  10. IFLA Cataloguing Principles : steps towards an International Cataloguing Code. Report from the 1st Meeting of Experts on an International Cataloguing Code, Frankfurt 2003 (2004) 0.00
    0.001991162 = product of:
      0.005973486 = sum of:
        0.005973486 = product of:
          0.011946972 = sum of:
            0.011946972 = weight(_text_:web in 2312) [ClassicSimilarity], result of:
              0.011946972 = score(doc=2312,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.07211407 = fieldWeight in 2312, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2312)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Footnote
    Rez. in: KO 31(2004) no.4, S.255-257: (P. Riva): "Cataloguing standardization at the international level can be viewed as proceeding in a series of milestone conferences. This meeting, the first in a series which will cover different regions of the world, will take its place in that progression. The first IFLA Meeting of Experts an an International Cataloguing Code (IME ICC), held July 28-30, 2003 at Die Deutsche Bibliothek in Frankfurt, gathered representatives of almost all European countries as well as three of the four AACR author countries. As explained in the introduction by Barbara Tillett, chair of the IME ICC planning committee, the plan is for five meetings in total. Subsequent meetings are to take place in Buenos Aires, Argentina (held August 17-18, 2004) for Latin America and the Carribean, to be followed by Alexandria, Egypt (2005) for the Middle East, Seoul, South Korea (2006) for Asia, and Durban, South Africa (2007) for Africa. The impetus for planning these meetings was triggered by the 40th anniversary of the Paris Principles, approved at the International Conference an Cataloguing Principles held in 1961. Many will welcome the timely publication of the reports and papers from this important conference in book form. The original conference website (details given an p. 176) which includes most of the same material, is still extant, but the reports and papers gathered into this volume will be referred to by cataloguing rule makers long after the web as we know it has transformed itself into a new (and quite possibly not backwards compatible) environment.
  11. Broughton, V.: Essential thesaurus construction (2006) 0.00
    0.001991162 = product of:
      0.005973486 = sum of:
        0.005973486 = product of:
          0.011946972 = sum of:
            0.011946972 = weight(_text_:web in 2924) [ClassicSimilarity], result of:
              0.011946972 = score(doc=2924,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.07211407 = fieldWeight in 2924, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2924)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Footnote
    Rez. in: Mitt. VÖB 60(2007) H.1, S.98-101 (O. Oberhauser): "Die Autorin von Essential thesaurus construction (and essential taxonomy construction, so der implizite Untertitel, vgl. S. 1) ist durch ihre Lehrtätigkeit an der bekannten School of Library, Archive and Information Studies des University College London und durch ihre bisherigen Publikationen auf den Gebieten (Facetten-)Klassifikation und Thesaurus fachlich einschlägig ausgewiesen. Nach Essential classification liegt nun ihr Thesaurus-Lehrbuch vor, mit rund 200 Seiten Text und knapp 100 Seiten Anhang ein handliches Werk, das seine Genese zum Grossteil dem Lehrbetrieb verdankt, wie auch dem kurzen Einleitungskapitel zu entnehmen ist. Das Buch ist der Schule von Jean Aitchison et al. verpflichtet und wendet sich an "the indexer" im weitesten Sinn, d.h. an alle Personen, die ein strukturiertes, kontrolliertes Fachvokabular für die Zwecke der sachlichen Erschliessung und Suche erstellen wollen bzw. müssen. Es möchte dieser Zielgruppe das nötige methodische Rüstzeug für eine solche Aufgabe vermitteln, was einschliesslich der Einleitung und der Schlussbemerkungen in zwanzig Kapiteln geschieht - eine ansprechende Strukturierung, die ein wohldosiertes Durcharbeiten möglich macht. Zu letzterem tragen auch die von der Autorin immer wieder gestellten Übungsaufgaben bei (Lösungen jeweils am Kapitelende). Zu Beginn der Darstellung wird der "information retrieval thesaurus" von dem (zumindest im angelsächsischen Raum) weit öfter mit dem Thesaurusbegriff assoziierten "reference thesaurus" abgegrenzt, einem nach begrifflicher Ähnlichkeit angeordneten Synonymenwörterbuch, das gerne als Mittel zur stilistischen Verbesserung beim Abfassen von (wissenschaftlichen) Arbeiten verwendet wird. Ohne noch ins Detail zu gehen, werden optische Erscheinungsform und Anwendungsgebiete von Thesauren vorgestellt, der Thesaurus als postkoordinierte Indexierungssprache erläutert und seine Nähe zu facettierten Klassifikationssystemen erwähnt. In der Folge stellt Broughton die systematisch organisierten Systeme (Klassifikation/ Taxonomie, Begriffs-/Themendiagramme, Ontologien) den alphabetisch angeordneten, wortbasierten (Schlagwortlisten, thesaurusartige Schlagwortsysteme und Thesauren im eigentlichen Sinn) gegenüber, was dem Leser weitere Einordnungshilfen schafft. Die Anwendungsmöglichkeiten von Thesauren als Mittel der Erschliessung (auch als Quelle für Metadatenangaben bei elektronischen bzw. Web-Dokumenten) und der Recherche (Suchformulierung, Anfrageerweiterung, Browsing und Navigieren) kommen ebenso zur Sprache wie die bei der Verwendung natürlichsprachiger Indexierungssysteme auftretenden Probleme. Mit Beispielen wird ausdrücklich auf die mehr oder weniger starke fachliche Spezialisierung der meisten dieser Vokabularien hingewiesen, wobei auch Informationsquellen über Thesauren (z.B. www.taxonomywarehouse.com) sowie Thesauren für nicht-textuelle Ressourcen kurz angerissen werden.
  12. Chowdhury, G.G.; Chowdhury, S.: Introduction to digital libraries (2003) 0.00
    0.0017422669 = product of:
      0.0052268007 = sum of:
        0.0052268007 = product of:
          0.010453601 = sum of:
            0.010453601 = weight(_text_:web in 6119) [ClassicSimilarity], result of:
              0.010453601 = score(doc=6119,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.06309982 = fieldWeight in 6119, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.013671875 = fieldNorm(doc=6119)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Footnote
    Chapter 13 an DL evaluation merges criteria from traditional library evaluation with criteria from user interface design and information retrieval. Quantitative, macro-evaluation techniques are emphasized, and again, some DL evaluation projects and reports are illustrated. A very brief chapter an the role of librarians in the DL follows, emphasizing that traditional reference skills are paramount to the success of the digital librarian, but that he should also be savvy in Web page and user interface design. A final chapter an research trends in digital libraries seems a bit incoherent. It mentions many of the previous chapters' topics, and would possibly be better organized if written as summary sections and distributed among the other chapters. The book's breadth is quite expansive, touching an both fundamental and advanced topics necessary to a well-rounded DL education. As the book is thoroughly referenced to DL and DL-related research projects, it serves as a useful starting point for those interested in more in depth learning. However, this breadth is also a weakness. In my opinion, the sheer number of research projects and papers surveyed leaves the authors little space to critique and summarize key issues. Many of the case studies are presented as itemized lists and not used to exemplify specific points. I feel that an introductory text should exercise some editorial and evaluative rights to create structure and organization for the uninitiated. Case studies should be carefully Chosen to exemplify the specific issues and differences and strengths highlighted. It is lamentable that in many of the descriptions of research projects, the authors tend to give more historical and funding Background than is necessary and miss out an giving a synthesis of the pertinent details.

Languages

  • e 466
  • d 346
  • m 9
  • es 2
  • de 1
  • f 1
  • pl 1
  • More… Less…

Types

  • s 203
  • i 25
  • el 8
  • b 2
  • d 1
  • n 1
  • r 1
  • u 1
  • x 1
  • More… Less…

Themes

Subjects

Classifications