Search (8687 results, page 434 of 435)

  1. Wehrand, F.: 21. SISIS-Anwenderforum Berlin-Brandenburg (2006) 0.00
    0.0034032771 = product of:
      0.0068065543 = sum of:
        0.0068065543 = product of:
          0.013613109 = sum of:
            0.013613109 = weight(_text_:systems in 5951) [ClassicSimilarity], result of:
              0.013613109 = score(doc=5951,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.08488525 = fieldWeight in 5951, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5951)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Am 16. Juni 2006 fand in der Hochschulbibliothek der EH Lausitz, Standort Senftenberg, das 21. SISIS-Anwenderforum Berlin-Brandenburg statt. Der amtierende Vorsitzende, Herr Wehrand (FHVR Berlin), hob hervor, dass seit Gründung des Forums erstmals eine Tagung an der FH Lausitz durchgeführt wird. Die regelmäßigen Treffen von Vertretern der SISIS-Anwenderbibliotheken dienen dem Erfahrungsaustausch mit dem Ziel, die Erfordernisse und Wünsche, die sich aus der praktischen Anwendung des SISIS-Systems ergeben, in die Planungen der Firma OCLC PICA GmbH einzubringen und Vorschläge für weitere Entwicklungen vorzulegen.
  2. Deegan, M.; Tanner, S.: Digital futures : strategies for the information age (2002) 0.00
    0.0034032771 = product of:
      0.0068065543 = sum of:
        0.0068065543 = product of:
          0.013613109 = sum of:
            0.013613109 = weight(_text_:systems in 13) [ClassicSimilarity], result of:
              0.013613109 = score(doc=13,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.08488525 = fieldWeight in 13, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=13)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    The most common definition for metadata is "data about data." What metadata does is provide schemes for describing, organizing, exchanging, and receiving information over networks. The authors explain how metadata is used to describe resources by tagging item attributes like author, title, creation date, key words, file formats, compression, etc. The most well known scheme is MARC, but other schemes are developing for creating and managing digital collections, such as XML, TEI, EAD, and Dublin Core. The authors also do a good job of describing the difference between metadata and mark-up languages like HTML. The next two chapters discuss developing, designing, and providing access to a digital collection. In Chapter Six, "Developing and Designing Systems for Sharing Digital Resources," the authors examine a number of issues related to designing a shared collection. For instance, one issue the authors examine is interoperability. The authors stress that when designing a digital collection the creators should take care to ensure that their collection is "managed in such a way as to maximize opportunities for exchange and reuse of information, whether internally or externally" (p. 140). As a complement to Chapter Six, Chapter Seven, "Portals and Personalization: Mechanisms for End-user Access," focuses an the other end of the process; how the collection is used once it is made available. The majority of this chapter concentrates an the use of portals or gateways to digital collections. One example the authors use is MyLibrary@NCState, which provides the university community with a flexible user-drive customizable portal that allows user to access remote and local resources. The work logically concludes with a chapter an preservation and a chapter an the evolving role of librarians. Chapter Eight, "Preservation," is a thought-provoking discussion an preserving digital data and digitization as a preservation technique. The authors do a good job of relaying the complexity of preservation issues in a digital world in a single chapter. While the authors do not answer their questions, they definitely provide the reader wich some things to ponder. The final chapter, "Digital Librarians: New Roles for the Information Age," outlines where the authors believe librarianship is headed. Throughout the work they stress the role of the librarian in the digital world, but Chapter Nine really brings the point home. As the authors stress, librarians have always managed information and as experienced leaders in the information field, librarians are uniquely suited to take the digital bull by the horns. Also, the role of the librarian and what librarians can do is growing and evolving. The authors suggest that librarians are likely to move into rotes such as knowledge mediator, information architect, hybrid librarian-who brings resources and technologies together, and knowledge preserver. While these librarians must have the technical skills to cope with new technologies, the authors also state that management skills and subject skills will prove equally important.
  3. Context: nature, impact, and role : 5th International Conference on Conceptions of Library and Information Science, CoLIS 2005, Glasgow 2005; Proceedings (2005) 0.00
    0.0034032771 = product of:
      0.0068065543 = sum of:
        0.0068065543 = product of:
          0.013613109 = sum of:
            0.013613109 = weight(_text_:systems in 42) [ClassicSimilarity], result of:
              0.013613109 = score(doc=42,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.08488525 = fieldWeight in 42, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=42)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Am interessantesten und wichtigsten erschien mir der Grundsatzartikel von Peter Ingwersen und Kalervo Järvelin (Kopenhagen/Tampere), The sense of information: Understanding the cognitive conditional information concept in relation to information acquisition (S. 7-19). Hier versuchen die Autoren, den ursprünglich von Ingwersen1 vorgeschlagenen und damals ausschliesslich im Zusammenhang mit dem interaktiven Information Retrieval verwendeten Begriff "conditional cognitive information" anhand eines erweiterten Modells nicht nur auf das Gesamtgebiet von "information seeking and retrieval" (IS&R) auszuweiten, sondern auch auf den menschlichen Informationserwerb aus der Sinneswahrnehmung, wie z.B. im Alltag oder im Rahmen der wissenschaftlichen Erkenntnistätigkeit. Dabei werden auch alternative Informationsbegriffe sowie die Beziehung von Information und Bedeutung diskutiert. Einen ebenfalls auf Ingwersen zurückgehenden Ansatz thematisiert der Beitrag von Birger Larsen (Kopenhagen), indem er sich mit dessen vor über 10 Jahren veröffentlichten2 Principle of Polyrepresentation befasst. Dieses beruht auf der Hypothese, wonach die Überlappung zwischen unterschiedlichen kognitiven Repräsentationen - nämlich jenen der Situation des Informationssuchenden und der Dokumente - zur Reduktion der einer Retrievalsituation anhaftenden Unsicherheit und damit zur Verbesserung der Performance des IR-Systems genutzt werden könne. Das Prinzip stellt die Dokumente, ihre Autoren und Indexierer, aber auch die sie zugänglich machende IT-Lösung in einen umfassenden und kohärenten theoretischen Bezugsrahmen, der die benutzerorientierte Forschungsrichtung "Information-Seeking" mit der systemorientierten IR-Forschung zu integrieren trachtet. Auf der Basis theoretischer Überlegungen sowie der (wenigen) dazu vorliegenden empirischen Studien hält Larsen das Model, das von Ingwersen sowohl für "exact match-IR" als auch für "best match-IR" intendiert war, allerdings schon in seinen Grundzügen für "Boolean" (d.h. "exact match"-orientiert) und schlägt ein "polyrepresentation continuum" als Verbesserungsmöglichkeit vor.
  4. Semantic Web : Wege zur vernetzten Wissensgesellschaft (2006) 0.00
    0.0034032771 = product of:
      0.0068065543 = sum of:
        0.0068065543 = product of:
          0.013613109 = sum of:
            0.013613109 = weight(_text_:systems in 117) [ClassicSimilarity], result of:
              0.013613109 = score(doc=117,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.08488525 = fieldWeight in 117, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=117)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Der dritte Teil des Bandes thematisiert die organisationalen Dimensionen des Semantic Web und demonstriert unter dem Stichwort "Wissensmanagement" eine Reihe von Konzepten und Anwendungen im betrieblichen und kollaborativen Umgang mit Information. Der Beitrag von Andreas Blumauer und Thomas Fundneider bietet einen Überblick über den Einsatz semantischer Technologien am Beispiel eines integrierten Wissensmanagement-Systems. Michael John und Jörg Drescher zeichnen den historischen Entwicklungsprozess des IT-Einsatzes für das Management von Informations- und Wissensprozessen im betrieblichen Kontext. Vor dem Hintergrund der betrieblichen Veränderungen durch Globalisierung und angeheizten Wettbewerb zeigt Heiko Beier, welche Rollen, Prozesse und Instrumente in wissensbasierten Organisationen die effiziente Nutzung von Wissen unterstützen. Mit dem Konzept des kollaborativen Wissensmanagement präsentiert das Autorenteam Schmitz et al. einen innovativen WissensmanagementAnsatz auf Peer-to-Peer-Basis mit dem Ziel der kollaborativen Einbindung und Pflege von dezentralisierten Wissensbasen. York Sure und Christoph Tempich demonstrieren anhand der Modellierungsmethode DILIGENT, welchen Beitrag Ontologien bei der Wissensvernetzung in Organisationen leisten können. Hannes Werthner und Michael Borovicka adressieren die Bedeutung semantischer Technologien für eCommerce und demonstrieren am Beispiel HARMONISE deren Einsatz im Bereich des eTourismus. Erweitert wird diese Perspektive durch den Beitrag von Fill et al., in dem das Zusammenspiel zwischen Web-Services und Geschäftsprozessen aus der Perspektive der Wirtschaftsinformatik analysiert wird. Abschließend präsentiert das Autorenteam Angele et al. eine Reihe von realisierten Anwendungen auf Basis semantischer Technologien und identifiziert kritische Faktoren für deren Einsatz.
  5. Willinsky, J.: ¬The access principle : the case for open access to research and scholarship (2006) 0.00
    0.0034032771 = product of:
      0.0068065543 = sum of:
        0.0068065543 = product of:
          0.013613109 = sum of:
            0.013613109 = weight(_text_:systems in 298) [ClassicSimilarity], result of:
              0.013613109 = score(doc=298,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.08488525 = fieldWeight in 298, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=298)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: JASIST 58(2007) no.9, S.1386 (L.A. Ennis): "Written by John Willinsky. Pacific Press Professor of Literacy and Technology at the University of British Columbia and Open Journals Systems Software des eloper. the eighth hook in the Digital Libraries and Electronic Publishing series (edited by William Y. Arms) provides a compelling and convincing argument in favor of open access. At the core of this work is Willinsky's "access principle." a commitment that "research carries with it a responsibility to extend circulation of such work as far as possible and ideally to all who are interested in it and all who might profit from it" (p.xii). One by one Willinsky tackles the obstacles. both real and perceived, to open access. succeeding in his goal to "inform and inspire a larger debate over the political and moral economy of knowledge" (p.xiv). The author does note the irony of publishing a hook while advocating for open access, but points out that he does so to reach a larger audience. Willinsky also points out that most of the chapters' earlier versions can be found in open-access journals and on his Web site (http://www.11ed.educubc.ca/faculty/willinsky.html). The Access Principle is organized topically into thirteen chapters covering a broad range of practical and theoretical issues. Taken together. these chapters provide the reader with an excellent introduction to the open-access debate as well as all the potential benefits and possible impacts of the open-access movement. The author also includes six appendices. with information on metadata and indexing. os er twenty pages of references, and an index. ... All of Willinsky's arguments arc convincing and heartfelt. It is apparent throughout the hook that the author deeply believes in the principles behind open access. and his passion and conviction come through in the work. making the hook a thought-provoking and very interesting read. While he offers numerous examples to illustrate his points throughout the work. he does not. however. offer solutions or state that he has all the answers. In that, he succeeds in his goal to craft a hook that "informs and inspires. As a result, The Access Principle is an important read for information professionals, researchers, and academics of all kinds, whether or not the reader agrees with Willinsky."
  6. Shaping the network society : the new role of civil society in cyberspace (2004) 0.00
    0.0034032771 = product of:
      0.0068065543 = sum of:
        0.0068065543 = product of:
          0.013613109 = sum of:
            0.013613109 = weight(_text_:systems in 441) [ClassicSimilarity], result of:
              0.013613109 = score(doc=441,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.08488525 = fieldWeight in 441, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=441)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Peter Day and Douglas Schuler wind up the book by taking a close look at the sociotechnical context in the 1990s. They argue that utopian schemes for the development of civil society and/or the public sphere may entail a degree of risk. However. Day and Schuler argue that community networks should be ''networks of awareness. advocacy and action" with a high degree of grassroots involvement. This can be done through more responsive policies. Local citizens-the first beneficiaries or victims of policy-should he brought into the decision-making process via civic dialogue. Public funding must be provided for projects that enable dissemination of information about a variety of cultures and belief systems. Shaping the Network Society is understandably more cautious than earlier accounts of cyberculture in its reception of new information and communications technology. Haunted by post 9/11 security measures. increasing surveillance, the faster erosion of liberal humanist ideals, and the internationalization/ commercialization of the media, the essays prefer to be wary about the potential of cyberpower. However, the optimist tone of every essay is unmistakable. While admitting that much more needs to be done to overcome the digital divide and the (mis)appropriation of cyberpower. the essays and ease studies draw attention to the potential for public debate and alternative ideologies. The case studies demonstrate success stories, but invariably conclude with a moral: about the need for vigilance against appropriation and fascist control! What emerges clearly is that the new media have achieved considerable progress in opening up the space for greater citizen involvement, more locally-responsive policy decisions. and socially relevant information-dissemination. Shaping the Network Society, with a strangely messianic slant, is a useful step in the mapping of the present and future cyberspace as the space of new democracies to come of a justice to he worked and prepared for."
  7. Paskin, N.: Identifier interoperability : a report on two recent ISO activities (2006) 0.00
    0.0034032771 = product of:
      0.0068065543 = sum of:
        0.0068065543 = product of:
          0.013613109 = sum of:
            0.013613109 = weight(_text_:systems in 1179) [ClassicSimilarity], result of:
              0.013613109 = score(doc=1179,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.08488525 = fieldWeight in 1179, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1179)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    There has been continuing discussion over a number of years within ISO TC46 SC9 of the need for interoperability between the various standard identifiers for which this committee is responsible. However, the nature of what that interoperability might mean - and how it might be achieved - has not been well explored. Considerable amounts of work have been done on standardising the identification schemes within each media sector, by creating standard identifiers that can be used within that sector. Equally, much work has been done on creating standard or reference metadata sets that can be used to associate key metadata descriptors with content. Much less work has been done on the impact of cross-sector working. Relatively little is understood about the effect of using one industry's identifiers in another industry, or on attempting to import metadata from one identification scheme into a system based on another. In the long term it is clear that interoperability of all these media identifiers and metadata schemes will be required. What is not clear is what initial steps are likely to deliver this soonest. Under the auspices of ISO TC46, an ad hoc group of representatives of TC46 SC9 Registration Authorities and invited experts met in London in late 2005, in a facilitated workshop funded by the registration agencies (RAs) responsible for ISAN, ISWC, ISRC, ISAN and DOI, to develop definitions and use cases, with the intention of providing a framework within which a more structured exploration of the issues might be undertaken. A report of the workshop prepared by Mark Bide of Rightscom Ltd. was used as the input for a wider discussion at the ISO TC46 meeting held in Thailand in February 2006, at which ISO TC46/SC9 agreed that Registration Authorities for ISRC, ISWC, ISAN, ISBN, ISSN and ISMN and the proposed RAs for ISTC and DOI should continue working on common issues relating to interoperability of identifier systems developed within TC46/SC9; some of the use cases have been selected for further in-depth investigation, in parallel with discussions on potential solutions.
  8. Rösch, H.: Academic libraries und cyberinfrastructure in den USA : das System wissenschaftlicher Kommunikation zu Beginn des 21. Jahrhunderts (2008) 0.00
    0.0034032771 = product of:
      0.0068065543 = sum of:
        0.0068065543 = product of:
          0.013613109 = sum of:
            0.013613109 = weight(_text_:systems in 3074) [ClassicSimilarity], result of:
              0.013613109 = score(doc=3074,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.08488525 = fieldWeight in 3074, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3074)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Spätestens im 19. Jahrhundert führte die wachsende Publikationsflut zur Erkenntnis, dass dies nicht leistbar ist; einzelne Bibliotheken gewannen nun die Funktion einer mehr oder minder anleitenden Instanz (stratifikatorisch differenziertes Bibliothekssystem), besonders in Frankreich, England und Preußen, wo die Königliche Bibliothek in Berlin mit dem Gesamtkatalog begann. An der Schwelle zum 20. Jahrhundert wandelte sich dieses System, das freilich im Verhältnis der Universitätsbibliothek zu den Institutsbibliotheken oft erst mit beträchtlicher Zeitverschiebung eingeführt wurde, zu einem funktional differenzierten Bibliothekssystem, das durch eine vernetzte und koordinierte Kooperation (zum Beispiel Leihverkehr, abgestimmte Erwerbung, Sondersammelgebietesplan) gekennzeichnet ist. Damit liefert Rösch nebenbei ein bisher von den Bibliothekshistorikern nicht beachtetes Erklärungsmodell. Dieses wendet Rösch auf das Bibliotheksystem und seine Rahmenbedingungen in den USA an, das er ausführlich, zielstrebig und besonders an aktuellen Entwicklungen interessiert analysiert (etwa die Rolle der Library of Congress, der Verbände oder des OCLC, einzelne Projekte, Organisationen und Initiativen wie Coalition for Networked Information, Educause, Digital Library Federation). Funktional differenziertes System Der Autor kommt zu dem Ergebnis, dass sich das US-amerikanische Bibliothekswesen teils aufgrund der föderalen Struktur und der Zurückhaltung der Bundesebene, teils aufgrund der gesplitteten Trägerschaft (privat - staatlich) bei in vielen Fällen außerordentlichen Etatmitteln überwiegend noch in der Phase eines stratifikatorisch differenzierten, teilweise noch eines segmentär differenzierten Systems befindet.
  9. Facets: a fruitful notion in many domains : special issue on facet analysis (2008) 0.00
    0.0034032771 = product of:
      0.0068065543 = sum of:
        0.0068065543 = product of:
          0.013613109 = sum of:
            0.013613109 = weight(_text_:systems in 3262) [ClassicSimilarity], result of:
              0.013613109 = score(doc=3262,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.08488525 = fieldWeight in 3262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3262)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Several of the papers are clearly written as primers and neatly address the second agenda item: attracting others to the study and use of facet analysis. The most valuable papers are written in clear, approachable language. Vickery's paper (p. 145-160) is a clarion call for faceted classification and facet analysis. The heart of the paper is a primer for central concepts and techniques. Vickery explains the value of using faceted classification in document retrieval. Also provided are potential solutions to thorny interface and display issues with facets. Vickery looks to complementary themes in knowledge organization, such as thesauri and ontologies as potential areas for extending the facet concept. Broughton (p. 193-210) describes a rigorous approach to the application of facet analysis in the creation of a compatible thesaurus from the schedules of the 2nd edition of the Bliss Classification (BC2). This discussion of exemplary faceted thesauri, recent standards work, and difficulties encountered in the project will provide valuable guidance for future research in this area. Slavic (p. 257-271) provides a challenge to make faceted classification come 'alive' through promoting the use of machine-readable formats for use and exchange in applications such as Topic Maps and SKOS (Simple Knowledge Organization Systems), and as supported by the standard BS8723 (2005) Structured Vocabulary for Information Retrieval. She also urges designers of faceted classifications to get involved in standards work. Cheti and Paradisi (p. 223-241) outline a basic approach to converting an existing subject indexing tool, the Nuovo Soggetario, into a faceted thesaurus through the use of facet analysis. This discussion, well grounded in the canonical literature, may well serve as a primer for future efforts. Also useful for those who wish to construct faceted thesauri is the article by Tudhope and Binding (p. 211-222). This contains an outline of basic elements to be found in exemplar faceted thesauri, and a discussion of project FACET (Faceted Access to Cultural heritage Terminology) with algorithmically-based semantic query expansion in a dataset composed of items from the National Museum of Science and Industry indexed with AAT (Art and Architecture Thesaurus). This paper looks to the future hybridization of ontologies and facets through standards developments such as SKOS because of the "lightweight semantics" inherent in facets.
  10. Sandner, M.: Neues aus der Kommission für Sacherschließung (2010) 0.00
    0.0034032771 = product of:
      0.0068065543 = sum of:
        0.0068065543 = product of:
          0.013613109 = sum of:
            0.013613109 = weight(_text_:systems in 4314) [ClassicSimilarity], result of:
              0.013613109 = score(doc=4314,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.08488525 = fieldWeight in 4314, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4314)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Zunächst führte Bernhard HASLHOFER vom Department of Distributed and Multimedia Systems, Universität Wien, behutsam in die Thematik Linked Data als Perspektive für die bibliothekarische Inhaltserschließung ein. Dann stellte Lars SVENSSON von der Deutschen Nationalbibliothek, Frankfurt am Main die uns vertrauten Normdateien SWD, GKD und PND als Linked Data vor und erläuterte deren bisher erreichten Stand und Perspektiven. Auch DDC-Deutsch und die Ergebnisse aus dem CrissCross-Projekt sind bereits jetzt "open linked" verfügbar. Steffen HENNICKE vom Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität Berlin stellte in seinem mit Gemälden als Beispiele sehr anschaulich gestalteten Vortrag "Linked Data und semantische Suchfunktionalitäten in Europeana besonders den Nutzen eines so genannten "Semantic Data Layer", also der semantischen Datenschicht, die heterogene Objektmetadaten kontextualisiert, dar und zeigte wie und warum Search & Retrieval in einer derartigen Informationsarchitektur funktionieren. Im ersten Vortrag nach der Pause mit dem Titel Freie Katalogdaten und Linked Data, rückte Adrian POHL vom Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz), Köln dann die wichtige Komponente Linked "Open" Data mit der lizenzrechtlichen Seite von im Web frei verfügbaren bibliographischen Daten in unseren Fokus. Außerdem berücksichtigte er, dass viele Aleph-Anwender/-innen im Auditorium saßen und erläuterte die praktischen Probleme beim regelmäßigen Export von Daten aus dem Verbundkatalog. Schließlich stellte er laufende und zukünftige Linked-Open-Data-Projekte des hbz vor, in denen - teilweise in Kooperation mit der DNB - eine Basisinfrastruktur für Bibliotheken im Semantic Web entwickelt werden soll. Ulrike JUNGER, Leiterin der Inhaltserschließung an beiden Standorten der Deutschen Nationalbibliothek, Leipzig und Frankfurt am Main, holte uns wieder in die Realität des Sacherschließungsalltags zurück und stellte in ihrem Vortrag Automatisierung in der Inhaltserschließung - neue Ansätze in der Deutschen Nationalbibliothek konkrete Planungen und Aktivitäten der DNB für automatische Erschließungsverfahren vor. Im Bereich der Netzpublikationen wurde die traditionelle, intellektuell durchgeführte verbale und klassifikatorische Inhalterschließung seit Anfang 2010 eingestellt und soll durch automatische Verfahren ersetzt werden. Derzeit wird insbesondere die Vergabe von DDC-Sachgruppen und Schlagwörtern erprobt. In die bisher vorliegenden Testergebnisse beider Verfahren erhielten wir kurz Einblick. Wenig überraschend schnitten dabei Fächer wie Medizin am günstigsten ab. Schon 2012 könnten solche Verfahren in DNB zur Anwendung kommen."
  11. Hänger, C.; Krätzsch, C.; Niemann, C.: Was vom Tagging übrig blieb : Erkenntnisse und Einsichten aus zwei Jahren Projektarbeit (2011) 0.00
    0.0034032771 = product of:
      0.0068065543 = sum of:
        0.0068065543 = product of:
          0.013613109 = sum of:
            0.013613109 = weight(_text_:systems in 4519) [ClassicSimilarity], result of:
              0.013613109 = score(doc=4519,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.08488525 = fieldWeight in 4519, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4519)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    - Struktur der Tags Der Vergleich von zwei großen Tagging-Systemen hat große Ähnlichkeiten in der grammatikalischen Struktur der Tagging-Daten ergeben. Es werden mehrheitlich Substantive bzw. Eigennamen zur Erschließung sowie auch Verben zur Organisation der Quellen eingesetzt. Systembedingt kann außerdem eine große Menge von Wortkombinationen und Wortneuschöpfungen konstatiert werden, die aus den unterschiedlichsten Beweggründen und für sehr unterschiedliche Zwecke gebildet werden. Nur ein geringer Teil der Tags entspricht den formalen Kriterien kontrollierter Vokabulare. Eine besondere Hierarchisierung der Tags innerhalb eines Tagging-Systems über den Indikator der Häufigkeit der Nutzung hinaus hat sich nicht ergeben. In inhaltlicher Hinsicht hat sich eine klare Dominanz informatiknaher bzw. naturwissenschaftlicher Disziplinen gezeigt, wobei es sich hierbei um systemspezifische Präferenzen handelt. Insgesamt ist eine klare Tendenz zu zunehmender inhaltlicher Diversifikation in den Tagging-Systemen zu erkennen, was mit hoher Wahrscheinlichkeit der wachsenden Akzeptanz durch breitere Nutzergruppen zuzuschreiben ist. - Qualität der Tags Bei der Evaluation der Qualität der Tags bestätigte sich die Einschätzung, dass sich die Verschlagwortung mittels Tagging von jener durch Fachreferenten grundsätzlich unterscheidet. Nur ein kleiner Teil der Konzepte wurde in den beiden Systemen semantisch identisch oder wenigstens analog vergeben. Grundsätzlich liegen für eine Ressource fast immer mehr Tags als Schlagwörter vor, die zudem wesentlich häufiger exklusiv im Tagging-System zu finden sind. Diese Tatsache berührt jedoch nicht den inhaltlichen Erschließungsgrad einer Quelle, der sich trotz einer geringeren Anzahl an SWD-Schlagwörtern pro Ressource in beiden Systemen als gleichwertig gezeigt hat. Dennoch ist das Ausmaß der semantischen Abdeckung des Taggings überraschend, da sie der allgemeinen Erwartungshaltung von einer deutlich höheren Qualität der Verschlagwortung durch die professionelle Inhaltserschließung teilweise widerspricht. Diese Erwartung ist zumindest bezüglich der inhaltlichen Dimension zu relativieren.
  12. Grundlagen der praktischen Information und Dokumentation (2004) 0.00
    0.0034032771 = product of:
      0.0068065543 = sum of:
        0.0068065543 = product of:
          0.013613109 = sum of:
            0.013613109 = weight(_text_:systems in 693) [ClassicSimilarity], result of:
              0.013613109 = score(doc=693,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.08488525 = fieldWeight in 693, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=693)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Jiri Panyr: Technische Redaktion Wolfgang F. Finke: E-Learning Harald H. Zimmermann: Maschinelle und Computergestützte Übersetzung Franziskus Geeb und Ulrike Spree: Wörterbücher und Enzyklopädien Angelika Menne-Haritz: Archive Hans-Christoph Hobohm: Bibliotheken Günter Peters: Medien, Medienwirtschaft Ulrich Riehm: Buchhandel Helmut Wittenzellner: Transformationsprozesse für die Druckbranche auf dem Weg zum Mediendienstleister Dietmar Strauch: Verlagswesen Ulrich Riehm, Knud Böhle und Bernd Wingert: Elektronisches Publizieren Heike Andermann: Initiativen zur Reformierung des Systems wissenschaftlicher Kommunikation Ute Schwens und Hans Liegmann: Langzeitarchivierung digitaler Ressourcen Achim OBwald: Document Delivery/ Dokumentlieferung Willi Bredemeier und Patrick Müller: Informationswirtschaft Martin Michelson: Wirtschaftsinformation Ulrich Kämper: Chemie-Information Wilhelm Gaus: Information und Dokumentation in der Medizin Gottfried Herzog und Hans Jörg Wiesner: Normung Jürgen Krause: Standardisierung und Heterogenität Reinhard Schramm: Patentinformation Wolfgang Semar: E-Commerce Wolfgang Semar: Kryptografie Knud Böhle: Elektronische Zahlungssysteme Herbert Stoyan: Information in der Informatik Gerhard Roth und Christian Eurich: Der Begriff der Information in der Neurobiologie Margarete Boos: Information in der Psychologie Harald H. Zimmermann: Information in der Sprachwissenschaft Ulrich Glowalla: Information und Lernen Eric Schoop: Information in der Betriebswirtschaft: ein neuer Produktionsfaktor? Gerhard Vowe: Der Informationsbegriff in der Politikwissenschaft - eine historische und systematische Bestandsaufnahme Jürgen Krause: Information in den Sozialwissenschaften Holger Lyre: Information in den Naturwissenschaften Norbert Henrichs: Information in der Philosophie
  13. Markoff, J.: Researchers announce advance in image-recognition software (2014) 0.00
    0.0034032771 = product of:
      0.0068065543 = sum of:
        0.0068065543 = product of:
          0.013613109 = sum of:
            0.013613109 = weight(_text_:systems in 1875) [ClassicSimilarity], result of:
              0.013613109 = score(doc=1875,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.08488525 = fieldWeight in 1875, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1875)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Computer vision specialists said that despite the improvements, these software systems had made only limited progress toward the goal of digitally duplicating human vision and, even more elusive, understanding. "I don't know that I would say this is 'understanding' in the sense we want," said John R. Smith, a senior manager at I.B.M.'s T.J. Watson Research Center in Yorktown Heights, N.Y. "I think even the ability to generate language here is very limited." But the Google and Stanford teams said that they expect to see significant increases in accuracy as they improve their software and train these programs with larger sets of annotated images. A research group led by Tamara L. Berg, a computer scientist at the University of North Carolina at Chapel Hill, is training a neural network with one million images annotated by humans. "You're trying to tell the story behind the image," she said. "A natural scene will be very complex, and you want to pick out the most important objects in the image.""
  14. Vocht, L. De: Exploring semantic relationships in the Web of Data : Semantische relaties verkennen in data op het web (2017) 0.00
    0.0034032771 = product of:
      0.0068065543 = sum of:
        0.0068065543 = product of:
          0.013613109 = sum of:
            0.013613109 = weight(_text_:systems in 4232) [ClassicSimilarity], result of:
              0.013613109 = score(doc=4232,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.08488525 = fieldWeight in 4232, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4232)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    After the launch of the World Wide Web, it became clear that searching documentson the Web would not be trivial. Well-known engines to search the web, like Google, focus on search in web documents using keywords. The documents are structured and indexed to ensure keywords match documents as accurately as possible. However, searching by keywords does not always suice. It is oen the case that users do not know exactly how to formulate the search query or which keywords guarantee retrieving the most relevant documents. Besides that, it occurs that users rather want to browse information than looking up something specific. It turned out that there is need for systems that enable more interactivity and facilitate the gradual refinement of search queries to explore the Web. Users expect more from the Web because the short keyword-based queries they pose during search, do not suffice for all cases. On top of that, the Web is changing structurally. The Web comprises, apart from a collection of documents, more and more linked data, pieces of information structured so they can be processed by machines. The consequently applied semantics allow users to exactly indicate machines their search intentions. This is made possible by describing data following controlled vocabularies, concept lists composed by experts, published uniquely identifiable on the Web. Even so, it is still not trivial to explore data on the Web. There is a large variety of vocabularies and various data sources use different terms to identify the same concepts.
  15. Information und Wissen : global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011 (2010) 0.00
    0.0034032771 = product of:
      0.0068065543 = sum of:
        0.0068065543 = product of:
          0.013613109 = sum of:
            0.013613109 = weight(_text_:systems in 5190) [ClassicSimilarity], result of:
              0.013613109 = score(doc=5190,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.08488525 = fieldWeight in 5190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5190)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    - Information Domains & Concepts Michal Golinski: Use, but verify Mohammad Nazim, Bhaskar Mukherjee: Problems and prospects of implementing knowledge management in university libraries: A case study of Banaras Hindu University Library System Daniela Becks, Julia Maria Schulz: Domänenübergreifende Phrasenextraktion mithilfe einer lexikonunabhängigen Analysekomponente Wolfram Sperber, Bernd Wegner: Content Analysis in der Mathematik: Erschließung und Retrieval mathematischer Publikationen Jürgen Reischer: Das Konzept der Informativität - Information Society Joseph Adjei, Peter Tobbin: Identification Systems Adoption in Africa; The Case of Ghana Alexander Botte, Marc Rittberger, Christoph Schindler: Virtuelle Forschungsumgebungen Rainer Kuhlen: Der Streit um die Regelung des Zweitveröffentlichungsrechts im Urheberrecht - E-Learning / Social Media Marketing Tobias Fries, Sebastian Boosz, Andreas Henrich: Integrating industrial partners into e-teaching efforts Christopher Stehr, Melanie Hiller: E-Learningkurs Globalisierung Manuel Burghardt, Markus Heckner, Tim Schneidermeier, Christian Wolff: Social-Media-Marketing im Hochschulbereich
  16. Dodge, M.: ¬A map of Yahoo! (2000) 0.00
    0.0027226217 = product of:
      0.0054452433 = sum of:
        0.0054452433 = product of:
          0.010890487 = sum of:
            0.010890487 = weight(_text_:systems in 1555) [ClassicSimilarity], result of:
              0.010890487 = score(doc=1555,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.0679082 = fieldWeight in 1555, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1555)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Research Prototypes Visual SiteMap Developed by Xia Lin, based at the College of Library and Information Science, Drexel University. CVG Cyberspace geography visualization, developed by Luc Girardin, at The Graduate Institute of International Studies, Switzerland. WEBSOM Maps the thousands of articles posted on Usenet newsgroups. It is being developed by researchers at the Neural Networks Research Centre, Helsinki University of Technology in Finland. TreeMaps Developed by Brian Johnson, Ben Shneiderman and colleagues in the Human-Computer Interaction Lab at the University of Maryland. Commercial Information Maps: NewsMaps Provides interactive information landscapes summarizing daily news stories, developed Cartia, Inc. Web Squirrel Creates maps known as information farms. It is developed by Eastgate Systems, Inc. Umap Produces interactive maps of Web searches. Map of the Market An interactive map of the market performance of the stocks of major US corporations developed by SmartMoney.com."
  17. Hoffmann, L.: Bericht über die Konstituierende Sitzung des Beirats für das Projekt "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" am 3. Februar 2003 (2003) 0.00
    0.0027226217 = product of:
      0.0054452433 = sum of:
        0.0054452433 = product of:
          0.010890487 = sum of:
            0.010890487 = weight(_text_:systems in 1789) [ClassicSimilarity], result of:
              0.010890487 = score(doc=1789,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.0679082 = fieldWeight in 1789, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1789)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Ein umfangreicher Fragebogen wurde entwickelt, der unter anderem verlässliche Daten zu folgenden Fragestellungen ermitteln soll: - Welche Bibliothekssysteme sind im Einsatz? - Welche Bibliothekssysteme sind auf MARC konfigurierbar? - Wie groß ist der Datenbestand insgesamt? - Wie hoch ist der Fremddatenanteil? - Welche Fremddaten werden genutzt? - In welchen Formaten und Regelwerken liegen diese Fremddaten vor? Werden die genutzten Fremddaten unverändert übernommen? - Wenn sie geändert werden, geschieht dies maschinell oder manuell? - Werden Dublettenprüfungen eingesetzt? Dieser Fragebogen wurde als Online-Fragebogen konzipiert und über die Vorsitzenden der Sektionen des Deutschen Bibliotheksverbandes verschickt. Gleichzeitig wurden Fragestellungen für die Expertengruppen des Standardisierungsausschusses (Expertengruppen Formalerschließung, PND, GKD sowie MAB-Ausschuss) entwickelt. Spezielle Fragen, die die Besonderheiten der fortlaufenden Sammelwerke und Zeitschriften betreffen, wurden an die Zeitschriftendatenbank (ZDB) und die Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB (AGDBT) gestellt. Gleichzeitig wurden diese Fragen auch externen Experten vorgelegt. Zu diesen Untersuchungsgegenständen gehören unter anderem: Vergleich von RAK und AACR unter folgenden Aspekten: - Ansetzung von persönlichen Namen - Individualisierung von Personennamen - Ansetzung von Gebietskörperschaften und Kongressen - Split entries bei fortlaufenden Sammelwerken - Transliterationen Vergleich von MAB und MARC unter folgenden Aspekten - Darstellung der Mehrbändigkeit - Darstellung der Nichtsortierzeichen - Verwendung von Pflichtcodes und Pflichtfeldern Der Vergleich beschränkt sich schwerpunktmäßig auf diejenigen Aspekte, die mit großer Wahrscheinlichkeit bei einer Migration zu Konflikten führen werden. Die Ergebnisse des Vergleichs werden auf ihre Konsequenzen untersucht und zwar jeweils auf die verschiedenen Migrationsszenarien bezogen. Für die Errechnung der Kosten eines Umstiegs wird sich das Projekt eines externen Unternehmensberaters bedienen. Dabei geht es nicht nur um die Kosten einer Neuanschaffung bzw. der Umrüstung eines EDV-Systems. Die Kosten werden differenziert je nach Migrationsmodell errechnet. Darüber hinaus werden Folgekosten wie Anpassungen von Schnittstellen an das MARCFormat sowie die Fortbildung von Mitarbeitern kalkuliert. Es werden aber auch die Kosten errechnet, die bei einem "Nicht"-Umstieg entstehen. Dazu gehören die Kosten, die entstehen, wenn ein neues SoftwareSystem bei seiner Installierung auf MAB aufgerüstet werden muss. Hier werden Kalkulationen über entgangene Fremddatennutzung, entgangene Kooperationen, Kosten für Anpassungen von MARC-Daten an das MAB-Format u.dgl. aufgestellt. Dabei wird nicht nur der internationale Datentausch betrachtet, sondern auch der Datentausch zwischen MAB-Datenbanken. Für die Untersuchung betriebwirtschaftlicher Aspekte im Hinblick auf die Finanzierung eines Umstiegs oder der verschiedenen Umstiegsvarianten sowie des Verbleibs bei den bisherigen Systemen sind erste Kontakte mit Experten auf dem Gebiet der Kostenrechnung im Bibliothekswesen aufgenommen worden. Es haben außerdem Vorgespräche in Der Deutschen Bibliothek für den formalen Ablauf einer-Ausschreibung sowohl im Inland wie auch in den USA stattgefunden. Der Beirat regte an, den Projektplan stärker in Abhängigkeit von den Umstiegsszenarien zu systematisieren und hat eine stärkere Einbeziehung der Nutzersicht und der Konsequenzen eines Umstiegs für Fernleihe, Dokumentlieferung und OPAC empfohlen. Insbesondere die Anliegen der wissenschaftlichen Nutzer aus der Sicht der DFG und die Bedeutung des internationalen Informationsaustauschs sollen stärker akzentuiert werden. Abschließend wurden die nächsten Schritte von Frau Hoffmann skizziert:
  18. Schildt, A.: Masse und Macht : Mediengeschichtliche Deutungsansätze zwischen Konstruktivismus und Ideologiekritik (2001) 0.00
    0.0027226217 = product of:
      0.0054452433 = sum of:
        0.0054452433 = product of:
          0.010890487 = sum of:
            0.010890487 = weight(_text_:systems in 1894) [ClassicSimilarity], result of:
              0.010890487 = score(doc=1894,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.0679082 = fieldWeight in 1894, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1894)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rundfunkdichte wie Kinobesuche stiegen bis 1943 weiter steil an: Auch in der Nachkriegstristesse behauptete der Hörfunk, schon wegen des anfänglichen Papiermangels seine führende Position im Medienensemble, und im Laufe der 50er Jahre hielt das Radio Einzug in die letzten zuvor noch nicht erreichten Haushalte. Die politischen Rahmenbedingungen und Inhalte hatten sich zwar verändert, aber die Programmstruktur des auditiven Mediums war davon weitgehend unberührt geblieben. Die Unterhaltung im Radio, aber auch den Film und die illustrierten in den 50er Jahren zeichnete ein hohes Maß von Ähnlichkeit zur Zwischenkriegszeit aus, sozusagen als äethetischen Ausdruck sozialhistorischer Kontinuität: Dies gilt selbst für die großen Innovationen des Printsektors, etwa die Prögrammzeitschrift Hör Zu aus dem Springer-Konzern, die es wie wohl kein anderes Druckerzeugnis vermochte, die Mentalität einer Mehrheit der Bundesbürger im Wiederaufbau, aufgeschlossen gegenüber der Konsummoderne und zugleich politisch konservativ gestimmt, publizistisch zu inszenieren. Der Aufstieg des Fernsehens führte das massenmediale Ensemble auf seine dritte Stufe. Das TV-Gerät übernahm vom Hörfunk insbesondere die zentrale Funktion der Unterhaltung in der stetig wachsenden Freizeit, vor allem am "langen Wochenende", und es zementierte Häuslichkeit, indem es sie noch attraktiver werden ließ. Anfang der 60er Jahre war der Fernsehapparat in etwa einem Viertel aller Haushalte vorhanden, ein Jahrzehnt später in drei Vierteln. Wenn das Radio das Leitmedium der Zeit des Wiederaufbaus gewesen war, so nahm das Fernsehen diese Stelle in der beginnenden postindustriellen Wohlstands- und Erlebnisgesellschaft ein. Das Fernsehen brachte eine enorme Vermehrung fiktionaler Angebote und der Möglichkeiten, sich über ferne und nahe Welten informieren und zugehörige Bilder auf sich wirken zu lassen. In eben diesem Zeitraum, den 60er Jahren, begann auch die Ankoppelung der ostdeutschen Bevölkerung an die westlichen Massenmedien - ein wenig bekannter Teil der Vorgeschichte der deutschen Einigung: Während heute vielfach vom Ende des Zeitalters der Massenmedien und herkömmlichen Kommunikationsmedien durch digitale Netze die Rede ist, steht die Geschichtswissenschaft noch am Anfang der Erforschung des massenmedialen Ensembles, der von ihr geprägten Öffentlichkeit und erzielten gesellschaftlichen Wirkungen. Insofern klafft eine historische Erklärungslücke, die auch . aktuelle Diskussionen tangiert. Dass der geschichtswissenschatliche Forschungsbeitrag zum Verständnis der Massenmedien über die lange Zeit übliche Betrachtung der der Medien als Spiegel der Zeitläufe hinauszugehen hat, spricht sich zwar allmählich herum, aber wie der gesellschaftliche Prozess der Kommunikation selbst zu analysieren tat bleibt unklar. Ratlos stehen Historiker heute vor einer riesigen und stetig wachsenden medientheoretischen Angebotspalette benachbarter Disziplinen. Hier sollen nur einige derjenigen Ansätze und ihre Probleme erwähnt werden, die für die Konzeptionierung historischer Forschung einige Anregungen versprechen. Von sozialwissenschaftlicher Seite, häufig mit kritischem Bezug auf Niklas Luhmann, werden vor allem strukturfunktionalistische Theorien präsentiert, die es zwar erlauben, Öffentlichkeit als Systems von einer Vielzahl kleiner und großer Foren au verstehen; allerdings wird Öffentlichkeit dabei tendenziell als sich selbsterzeugendes und selbstreferenzielles System begriffen, während die umgebende Gesellschaft unter Einschluss ihrer ökonomischen Strukturen und die beteiligten Menschen in solchen Ansätzen kaum Beachtung finden. Eine besondere Rolle nimmt in diesem Zusammenhang eine stark diskutierte Richtung ein, die sich nicht ohne Selbstironie als "radikalen Konstruktivismus" (Siegfried J. Schmidt) bezeichnet und davon ausgeht, dass durch Medien Wirklichkeitsentwürfe produziert werden, die Welt nicht abbilden, sondern 'konstruieren'; die Konstruiertheit unserer Wirklichkeit werde uns erst bewußt, wenn wir beobachten; wie wir beobachtenund handeln.
  19. XML in libraries (2002) 0.00
    0.0027226217 = product of:
      0.0054452433 = sum of:
        0.0054452433 = product of:
          0.010890487 = sum of:
            0.010890487 = weight(_text_:systems in 3100) [ClassicSimilarity], result of:
              0.010890487 = score(doc=3100,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.0679082 = fieldWeight in 3100, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3100)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Tennant's collection covers a variety of well- and lesser-known XML-based pilot and prototype projects undertaken by libraries around the world. Some of the projects included are: Stanford's XMLMARC conversion, Oregon State's use of XML in interlibrary loaning, e-books (California Digital Library) and electronic scholarly publishing (University of Michigan), the Washington Research Library Consortium's XML-based Web Services, and using TEI Lite to support indexing (Halton Hills Public Library). Of the 13 projects presented, nine are sited in academe, three are state library endeavors, and one is an American public library initiative. The projects are gathered into sections grouped by seven library applications: the use of XML in library catalog records, interlibrary loan, cataloging and indexing, collection building, databases, data migration, and systems interoperability. Each project is introduced with a few paragraphs of background information. The project reports-averaging about 13 pages each-include project goals and justification, project description, challenges and lessons learned (successes and failures), future plans, implications of the work, contact information for individual(s) responsible for the project, and relevant Web links and resources. The clear strengths of this collection are in the details and the consistency of presentation. The concise project write-ups flow well and encourage interested readers to follow-up via personal contacts and URLs. The sole weakness is the price. XML in Libraries will excite and inspire institutions and organizations with technically adept staff resources and visionary leaders. Erik Ray has written a how-to book. Unlike most, Learning XML is not aimed at the professional programming community. The intended audience is readers familiar with a structured markup (HTML, TEX, etc.) and Web concepts (hypertext links, data representation). In the first six chapters, Ray introduces XMUs main concepts and tools for writing, viewing, testing, and transforming XML (chapter 1), describes basic syntax (chapter 2), discusses linking with XLink and XPointer (chapter 3), introduces Cascading Style Sheets for use with XML (chapter 4), explains document type definitions (DTDs) and schemas (chapter 5), and covers XSLT stylesheets and XPath (chapter 6). Chapter 7 introduces Unicode, internationalization and language support, including CSS and XSLT encoding. Chapter 8 is an overview of writing software for processing XML, and includes the Perl code for an XML syntax checker. This work is written very accessibly for nonprogrammers. Writers, designers, and students just starting to acquire Web technology skills will find Ray's style approachable. Concepts are introduced in a logical flow, and explained clearly. Code samples (130+), illustrations and screen shots (50+), and numerous tables are distributed throughout the text. Ray uses a modified DocBook DTD and a checkbook example throughout, introducing concepts in early chapters and adding new concepts to them. Readers become familiar with the code and its evolution through repeated exposure. The code for converting the "barebones DocBook" DTD (10 pages of code) to HTML via XSLT stylesheet occupies 19 pages. Both code examples allow the learner to sec an accumulation of snippets incorporated into a sensible whole. While experienced programmers might not need this type of support, nonprogrammers certainly do. Using the checkbook example is an inspired choice: Most of us are familiar with personal checking, even if few of us world build an XML application for it. Learning XML is an excellent textbook. I've used it for several years as a recommended text for adult continuing education courses and workshops."
  20. Learning XML (2003) 0.00
    0.0027226217 = product of:
      0.0054452433 = sum of:
        0.0054452433 = product of:
          0.010890487 = sum of:
            0.010890487 = weight(_text_:systems in 3101) [ClassicSimilarity], result of:
              0.010890487 = score(doc=3101,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.0679082 = fieldWeight in 3101, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3101)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Tennant's collection covers a variety of well- and lesser-known XML-based pilot and prototype projects undertaken by libraries around the world. Some of the projects included are: Stanford's XMLMARC conversion, Oregon State's use of XML in interlibrary loaning, e-books (California Digital Library) and electronic scholarly publishing (University of Michigan), the Washington Research Library Consortium's XML-based Web Services, and using TEI Lite to support indexing (Halton Hills Public Library). Of the 13 projects presented, nine are sited in academe, three are state library endeavors, and one is an American public library initiative. The projects are gathered into sections grouped by seven library applications: the use of XML in library catalog records, interlibrary loan, cataloging and indexing, collection building, databases, data migration, and systems interoperability. Each project is introduced with a few paragraphs of background information. The project reports-averaging about 13 pages each-include project goals and justification, project description, challenges and lessons learned (successes and failures), future plans, implications of the work, contact information for individual(s) responsible for the project, and relevant Web links and resources. The clear strengths of this collection are in the details and the consistency of presentation. The concise project write-ups flow well and encourage interested readers to follow-up via personal contacts and URLs. The sole weakness is the price. XML in Libraries will excite and inspire institutions and organizations with technically adept staff resources and visionary leaders. Erik Ray has written a how-to book. Unlike most, Learning XML is not aimed at the professional programming community. The intended audience is readers familiar with a structured markup (HTML, TEX, etc.) and Web concepts (hypertext links, data representation). In the first six chapters, Ray introduces XMUs main concepts and tools for writing, viewing, testing, and transforming XML (chapter 1), describes basic syntax (chapter 2), discusses linking with XLink and XPointer (chapter 3), introduces Cascading Style Sheets for use with XML (chapter 4), explains document type definitions (DTDs) and schemas (chapter 5), and covers XSLT stylesheets and XPath (chapter 6). Chapter 7 introduces Unicode, internationalization and language support, including CSS and XSLT encoding. Chapter 8 is an overview of writing software for processing XML, and includes the Perl code for an XML syntax checker. This work is written very accessibly for nonprogrammers. Writers, designers, and students just starting to acquire Web technology skills will find Ray's style approachable. Concepts are introduced in a logical flow, and explained clearly. Code samples (130+), illustrations and screen shots (50+), and numerous tables are distributed throughout the text. Ray uses a modified DocBook DTD and a checkbook example throughout, introducing concepts in early chapters and adding new concepts to them. Readers become familiar with the code and its evolution through repeated exposure. The code for converting the "barebones DocBook" DTD (10 pages of code) to HTML via XSLT stylesheet occupies 19 pages. Both code examples allow the learner to sec an accumulation of snippets incorporated into a sensible whole. While experienced programmers might not need this type of support, nonprogrammers certainly do. Using the checkbook example is an inspired choice: Most of us are familiar with personal checking, even if few of us world build an XML application for it. Learning XML is an excellent textbook. I've used it for several years as a recommended text for adult continuing education courses and workshops."

Authors

Languages

Types

  • a 7266
  • m 796
  • s 423
  • el 389
  • x 74
  • r 62
  • b 45
  • i 30
  • n 12
  • ? 10
  • p 10
  • d 7
  • u 3
  • z 2
  • A 1
  • EL 1
  • au 1
  • h 1
  • l 1
  • More… Less…

Themes

Subjects

Classifications