Search (134 results, page 7 of 7)

  • × theme_ss:"Grundlagen u. Einführungen: Allgemeine Literatur"
  1. Rowley, J.E.; Hartley, R.: Organizing knowledge : an introduction to managing access to information (2008) 0.00
    0.001556572 = product of:
      0.003113144 = sum of:
        0.003113144 = product of:
          0.009339432 = sum of:
            0.009339432 = weight(_text_:h in 2464) [ClassicSimilarity], result of:
              0.009339432 = score(doc=2464,freq=2.0), product of:
                0.113413334 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045649286 = queryNorm
                0.08234863 = fieldWeight in 2464, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2464)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: VOEB-Mitt. 61(2008) H.4, S.164-167 (O. Oberhauser): " Dieses nunmehr in vierter Auflage vorliegende Werk ist - vor allem in der angelsächsischen Welt - bereits zu einem Standardlehrtext für Studenten informationswissenschaftlicher Studiengänge geworden. Es zeichnete sich stets durch klaren Aufbau, gute Lesbarkeit und eine bei aller Knappheit doch relativ umfassende Themenbehandlung aus. Der im Titel verwendete Begriff organizing knowledge steht hier ja nicht für mögliche engere Bedeutungen wie etwa Wissensrepräsentation oder gar Klassifikation, sondern für den gesamten Themenbereich information retrieval bzw. information management. Die beiden ersten Auflagen verfasste die versierte und produktive Lehrbuchautorin Jennifer Rowley noch alleine;1 erst bei der dritten Auflage (2000) stand ihr John Farrow (2002 verstorben) als Mitautor zur Seite.2 Inzwischen zur Professorin am Department of Information and Communications der Manchester Metropolitan University avanciert, konnte Rowley nunmehr für die neueste Auflage den ebenfalls als Lehrbuchautor erfahrenen Richard Hartley, Professor am selben Institut und überdies dessen Vorstand, als zweiten Verfasser gewinnen. Wie die Autoren in der Einleitung ausführen, wurde das Buch gegenüber der letzten Auflage stark verändert. Die Neuerungen spiegeln insbesondere die anhaltende Verschiebung hin zu einer vernetzten und digitalen Informationswelt wider, mit allen Konsequenzen dieser Entwicklung für Dokumente, Information, Wissen, Informationsdienste und Benutzer. Neue bzw. stark überarbeitete Themenbereiche sind u.a. Ontologien und Taxonomien, Informationsverhalten, digitale Bibliotheken, Semantisches Web, Evaluation von Informationssystemen, Authentifizierung und Sicherheit, Veränderungsmanagement. Der Text wurde revidiert und auch, was diverse Standards und Normen betrifft, auf den aktuellen Stand gebracht. Der in der dritten Auflage noch separate Abschnitt über das Internet und seine Anwendungen wurde zugunsten einer Integration dieser Themen in die einzelnen Kapitel aufgelassen. Das Buch wurde neu gegliedert - es weist jetzt zwölf Kapitel auf, die in drei grosse Abschnitte gruppiert sind. Jedes Kapitel beginnt mit einer kurzen Einleitung, in der die beabsichtigten Lehr- bzw. Lernziele vorgestellt werden. Am Kapitelende gibt es jeweils eine Zusammenfassung, einige (Prüfungs-)Fragen zum Stoff sowie eine nicht allzu lange Liste der zitierten bzw. zur Vertiefung empfohlenen Literatur. Diese durchgehende Strukturierung erleichtert die Lektüre und Rezeption der Inhalte und ist m.E. für einen Lehrtext besonders vorteilhaft.
  2. Gaus, W.; Leiner, F.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2003) 0.00
    0.0015170728 = product of:
      0.0030341456 = sum of:
        0.0030341456 = product of:
          0.009102437 = sum of:
            0.009102437 = weight(_text_:d in 4524) [ClassicSimilarity], result of:
              0.009102437 = score(doc=4524,freq=2.0), product of:
                0.0867278 = queryWeight, product of:
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.045649286 = queryNorm
                0.104954086 = fieldWeight in 4524, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4524)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Language
    d
  3. Langridge, D.W.: Inhaltsanalyse: Grundlagen und Methoden (1994) 0.00
    0.0015170728 = product of:
      0.0030341456 = sum of:
        0.0030341456 = product of:
          0.009102437 = sum of:
            0.009102437 = weight(_text_:d in 3923) [ClassicSimilarity], result of:
              0.009102437 = score(doc=3923,freq=2.0), product of:
                0.0867278 = queryWeight, product of:
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.045649286 = queryNorm
                0.104954086 = fieldWeight in 3923, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3923)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Language
    d
  4. Sprachtechnologie : ein Überblick (2012) 0.00
    0.0015170728 = product of:
      0.0030341456 = sum of:
        0.0030341456 = product of:
          0.009102437 = sum of:
            0.009102437 = weight(_text_:d in 1750) [ClassicSimilarity], result of:
              0.009102437 = score(doc=1750,freq=2.0), product of:
                0.0867278 = queryWeight, product of:
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.045649286 = queryNorm
                0.104954086 = fieldWeight in 1750, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1750)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Language
    d
  5. Antoniou, G.; Harmelen, F. van: ¬A semantic Web primer (2004) 0.00
    0.0012971435 = product of:
      0.002594287 = sum of:
        0.002594287 = product of:
          0.007782861 = sum of:
            0.007782861 = weight(_text_:h in 468) [ClassicSimilarity], result of:
              0.007782861 = score(doc=468,freq=2.0), product of:
                0.113413334 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045649286 = queryNorm
                0.06862386 = fieldWeight in 468, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=468)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: JASIST 57(2006) no.8, S.1132-1133 (H. Che): "The World Wide Web has been the main source of an important shift in the way people communicate with each other, get information, and conduct business. However, most of the current Web content is only suitable for human consumption. The main obstacle to providing better quality of service is that the meaning of Web content is not machine-accessible. The "Semantic Web" is envisioned by Tim Berners-Lee as a logical extension to the current Web that enables explicit representations of term meaning. It aims to bring the Web to its full potential via the exploration of these machine-processable metadata. To fulfill this, it pros ides some meta languages like RDF, OWL, DAML+OIL, and SHOE for expressing knowledge that has clear, unambiguous meanings. The first steps in searing the Semantic Web into the current Web are successfully underway. In the forthcoming years, these efforts still remain highly focused in the research and development community. In the next phase, the Semantic Web will respond more intelligently to user queries. The first chapter gets started with an excellent introduction to the Semantic Web vision. At first, today's Web is introduced, and problems with some current applications like search engines are also covered. Subsequently, knowledge management. business-to-consumer electronic commerce, business-to-business electronic commerce, and personal agents are used as examples to show the potential requirements for the Semantic Web. Next comes the brief description of the underpinning technologies, including metadata, ontology, logic, and agent. The differences between the Semantic Web and Artificial Intelligence are also discussed in a later subsection. In section 1.4, the famous "laser-cake" diagram is given to show a layered view of the Semantic Web. From chapter 2, the book starts addressing some of the most important technologies for constructing the Semantic Web. In chapter 2, the authors discuss XML and its related technologies such as namespaces, XPath, and XSLT. XML is a simple, very flexible text format which is often used for the exchange of a wide variety of data on the Web and elsewhere. The W3C has defined various languages on top of XML, such as RDF. Although this chapter is very well planned and written, many details are not included because of the extensiveness of the XML technologies. Many other books on XML provide more comprehensive coverage.
  6. Oberhauser, O.: Automatisches Klassifizieren : Verfahren zur Erschließung elektronischer Dokumente (2004) 0.00
    0.0012136583 = product of:
      0.0024273165 = sum of:
        0.0024273165 = product of:
          0.0072819493 = sum of:
            0.0072819493 = weight(_text_:d in 2487) [ClassicSimilarity], result of:
              0.0072819493 = score(doc=2487,freq=2.0), product of:
                0.0867278 = queryWeight, product of:
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.045649286 = queryNorm
                0.08396327 = fieldWeight in 2487, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2487)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Language
    d
  7. Henzler, R.G.: Information und Dokumentation : Sammeln, Speichern und Wiedergewinnen von Fachinformation in Datenbanken (1992) 0.00
    0.0012136583 = product of:
      0.0024273165 = sum of:
        0.0024273165 = product of:
          0.0072819493 = sum of:
            0.0072819493 = weight(_text_:d in 4839) [ClassicSimilarity], result of:
              0.0072819493 = score(doc=4839,freq=2.0), product of:
                0.0867278 = queryWeight, product of:
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.045649286 = queryNorm
                0.08396327 = fieldWeight in 4839, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4839)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Language
    d
  8. Gaus, W.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2005) 0.00
    0.0012136583 = product of:
      0.0024273165 = sum of:
        0.0024273165 = product of:
          0.0072819493 = sum of:
            0.0072819493 = weight(_text_:d in 679) [ClassicSimilarity], result of:
              0.0072819493 = score(doc=679,freq=2.0), product of:
                0.0867278 = queryWeight, product of:
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.045649286 = queryNorm
                0.08396327 = fieldWeight in 679, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.03125 = fieldNorm(doc=679)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Language
    d
  9. Computerlinguistik und Sprachtechnologie : Eine Einführung (2010) 0.00
    0.0012136583 = product of:
      0.0024273165 = sum of:
        0.0024273165 = product of:
          0.0072819493 = sum of:
            0.0072819493 = weight(_text_:d in 1735) [ClassicSimilarity], result of:
              0.0072819493 = score(doc=1735,freq=2.0), product of:
                0.0867278 = queryWeight, product of:
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.045649286 = queryNorm
                0.08396327 = fieldWeight in 1735, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1735)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Language
    d
  10. Booth, P.F.: Indexing : the manual of good practice (2001) 0.00
    0.0010377148 = product of:
      0.0020754295 = sum of:
        0.0020754295 = product of:
          0.0062262886 = sum of:
            0.0062262886 = weight(_text_:h in 1968) [ClassicSimilarity], result of:
              0.0062262886 = score(doc=1968,freq=2.0), product of:
                0.113413334 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045649286 = queryNorm
                0.05489909 = fieldWeight in 1968, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1968)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.7, S.440-442 (R. Fugmann): "Das Buch beginnt mit dem Kapitel "Myths about Indexing" und mit der Nennung von weit verbreiteten Irrtümern über das Indexieren, und zwar vorrangig über das Registermachen. Mit einem einzigen Satz ist die Problematik treffend skizziert, welcher das Buch gewidmet ist: "With the development of electronic documents, it has become possible to store very large amounts of information; but storage is not of much use without the capability to retrieve, to convert, transfer and reuse the information". Kritisiert wird die weit verbreitet anzutreffende Ansicht, das Indexieren sei lediglich eine Sache vom "picking out words from the text or naming objects in images and using those words as index headings". Eine solche Arbeitsweise führt jedoch nicht zu Registern, sondern zu Konkordanzen (d.h. zu alphabetischen Fundstellenlisten für Textwörter) und"... is entirely dependent an the words themselves and is not concerned with the ideas behind them". Das Sammeln von Information ist einfach. Aber die (Wieder-) Auffindbarkeit herzustellen muss gelernt werden, wenn mehr ermöglicht werden soll als lediglich das Wiederfinden von Texten, die man in allen Einzelheiten noch genau in Erinnerung behalten hat (known-item searches, questions of recall), die Details der sprachlichen Ausdrucksweise für die gesuchten Begriffe eingeschlossen. Die Verfasserin beschreibt aus ihrer großen praktischen Erfahrung, welche Schritte hierzu auf der gedanklichen und technischen Ebene unternommen werden müssen. Zu den erstgenannten Schritten rechnet die Abtrennung von Details, welche nicht im Index vertreten sein sollten ("unsought terms"), weil sie mit Sicherheit kein Suchziel darstellen werden und als "false friends" zur Überflutung des Suchenden mit Nebensächlichkeiten führen würden, eine Entscheidung, welche nur mit guter Sachkenntnis gefällt werden kann. All Dasjenige hingegen, was in Gegenwart und Zukunft (!) ein sinnvolles Suchziel darstellen könnte und "sufficiently informative" ist, verdient ein Schlagwort im Register. Man lernt auch durch lehrreiche Beispiele, wodurch ein Textwort unbrauchbar für das Register wird, wenn es dort als (schlechtes) Schlagwort erscheint, herausgelöst aus dem interpretierenden Zusammenhang, in welchen es im Text eingebettet gewesen ist. Auch muss die Vieldeutigkeit bereinigt werden, die fast jedem natursprachigen Wort anhaftet. Sonst wird der Suchende beim Nachschlagen allzu oft in die Irre geführt, und zwar um so öfter, je größer ein diesbezüglich unbereinigter Speicher bereits geworden ist.
  11. Broughton, V.: Essential thesaurus construction (2006) 0.00
    0.0010377148 = product of:
      0.0020754295 = sum of:
        0.0020754295 = product of:
          0.0062262886 = sum of:
            0.0062262886 = weight(_text_:h in 2924) [ClassicSimilarity], result of:
              0.0062262886 = score(doc=2924,freq=2.0), product of:
                0.113413334 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045649286 = queryNorm
                0.05489909 = fieldWeight in 2924, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2924)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Mitt. VÖB 60(2007) H.1, S.98-101 (O. Oberhauser): "Die Autorin von Essential thesaurus construction (and essential taxonomy construction, so der implizite Untertitel, vgl. S. 1) ist durch ihre Lehrtätigkeit an der bekannten School of Library, Archive and Information Studies des University College London und durch ihre bisherigen Publikationen auf den Gebieten (Facetten-)Klassifikation und Thesaurus fachlich einschlägig ausgewiesen. Nach Essential classification liegt nun ihr Thesaurus-Lehrbuch vor, mit rund 200 Seiten Text und knapp 100 Seiten Anhang ein handliches Werk, das seine Genese zum Grossteil dem Lehrbetrieb verdankt, wie auch dem kurzen Einleitungskapitel zu entnehmen ist. Das Buch ist der Schule von Jean Aitchison et al. verpflichtet und wendet sich an "the indexer" im weitesten Sinn, d.h. an alle Personen, die ein strukturiertes, kontrolliertes Fachvokabular für die Zwecke der sachlichen Erschliessung und Suche erstellen wollen bzw. müssen. Es möchte dieser Zielgruppe das nötige methodische Rüstzeug für eine solche Aufgabe vermitteln, was einschliesslich der Einleitung und der Schlussbemerkungen in zwanzig Kapiteln geschieht - eine ansprechende Strukturierung, die ein wohldosiertes Durcharbeiten möglich macht. Zu letzterem tragen auch die von der Autorin immer wieder gestellten Übungsaufgaben bei (Lösungen jeweils am Kapitelende). Zu Beginn der Darstellung wird der "information retrieval thesaurus" von dem (zumindest im angelsächsischen Raum) weit öfter mit dem Thesaurusbegriff assoziierten "reference thesaurus" abgegrenzt, einem nach begrifflicher Ähnlichkeit angeordneten Synonymenwörterbuch, das gerne als Mittel zur stilistischen Verbesserung beim Abfassen von (wissenschaftlichen) Arbeiten verwendet wird. Ohne noch ins Detail zu gehen, werden optische Erscheinungsform und Anwendungsgebiete von Thesauren vorgestellt, der Thesaurus als postkoordinierte Indexierungssprache erläutert und seine Nähe zu facettierten Klassifikationssystemen erwähnt. In der Folge stellt Broughton die systematisch organisierten Systeme (Klassifikation/ Taxonomie, Begriffs-/Themendiagramme, Ontologien) den alphabetisch angeordneten, wortbasierten (Schlagwortlisten, thesaurusartige Schlagwortsysteme und Thesauren im eigentlichen Sinn) gegenüber, was dem Leser weitere Einordnungshilfen schafft. Die Anwendungsmöglichkeiten von Thesauren als Mittel der Erschliessung (auch als Quelle für Metadatenangaben bei elektronischen bzw. Web-Dokumenten) und der Recherche (Suchformulierung, Anfrageerweiterung, Browsing und Navigieren) kommen ebenso zur Sprache wie die bei der Verwendung natürlichsprachiger Indexierungssysteme auftretenden Probleme. Mit Beispielen wird ausdrücklich auf die mehr oder weniger starke fachliche Spezialisierung der meisten dieser Vokabularien hingewiesen, wobei auch Informationsquellen über Thesauren (z.B. www.taxonomywarehouse.com) sowie Thesauren für nicht-textuelle Ressourcen kurz angerissen werden.
  12. Batley, S.: Classification in theory and practice (2005) 0.00
    0.0010377148 = product of:
      0.0020754295 = sum of:
        0.0020754295 = product of:
          0.0062262886 = sum of:
            0.0062262886 = weight(_text_:h in 1170) [ClassicSimilarity], result of:
              0.0062262886 = score(doc=1170,freq=2.0), product of:
                0.113413334 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045649286 = queryNorm
                0.05489909 = fieldWeight in 1170, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1170)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Weitere Rez. in: Mitt. VÖB 59(2006) H.1, S.58-60 (O. Oberhauser).
  13. Broughton, V.: Essential classification (2004) 0.00
    0.0010377148 = product of:
      0.0020754295 = sum of:
        0.0020754295 = product of:
          0.0062262886 = sum of:
            0.0062262886 = weight(_text_:h in 2824) [ClassicSimilarity], result of:
              0.0062262886 = score(doc=2824,freq=2.0), product of:
                0.113413334 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045649286 = queryNorm
                0.05489909 = fieldWeight in 2824, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2824)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Weitere Rez. in: ZfBB 53(2006) H.2, S.111-113 (W. Gödert)
  14. Chowdhury, G.G.; Chowdhury, S.: Introduction to digital libraries (2003) 0.00
    5.3097546E-4 = product of:
      0.0010619509 = sum of:
        0.0010619509 = product of:
          0.0031858527 = sum of:
            0.0031858527 = weight(_text_:d in 6119) [ClassicSimilarity], result of:
              0.0031858527 = score(doc=6119,freq=2.0), product of:
                0.0867278 = queryWeight, product of:
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.045649286 = queryNorm
                0.03673393 = fieldWeight in 6119, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.899872 = idf(docFreq=17979, maxDocs=44218)
                  0.013671875 = fieldNorm(doc=6119)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    This book covers all of the primary areas in the DL Curriculum as suggested by T. Saracevic and M. Dalbello's (2001) and A. Spink and C. Cool's (1999) D-Lib articles an DL education. In fact, the book's coverage is quite broad; it includes a Superset of recommended topics, offering a chapter an professional issues (recommended in Spink and Cool) as well as three chapters devoted to DL research. The book comes with a comprehensive list of references and an index, allowing readers to easily locate a specific topic or research project of interest. Each chapter also begins with a short outline of the chapter. As an additional plus, the book is quite heavily Cross-referenced, allowing easy navigation across topics. The only drawback with regard to supplementary materials is that it Lacks a glossary that world be a helpful reference to students needing a reference guide to DL terminology. The book's organization is well thought out and each chapter stands independently of the others, facilitating instruction by parts. While not officially delineated into three parts, the book's fifteen chapters are logically organized as such. Chapters 2 and 3 form the first part, which surveys various DLs and DL research initiatives. The second and core part of the book examines the workings of a DL along various dimensions, from its design to its eventual implementation and deployment. The third part brings together extended topics that relate to a deployed DL: its preservation, evaluation, and relationship to the larger social content. Chapter 1 defines digital libraries and discusses the scope of the materials covered in the book. The authors posit that the meaning of digital library is best explained by its sample characteristics rather than by definition, noting that it has largely been shaped by the melding of the research and information professions. This reveals two primary facets of the DL: an "emphasis an digital content" coming from an engineering and computer science perspective as well as an "emphasis an services" coming from library and information professionals (pp. 4-5). The book's organization mirrors this dichotomy, focusing an the core aspects of content in the earlier chapters and retuming to the service perspective in later chapters.

Years

Languages

  • d 91
  • e 42
  • f 1
  • More… Less…

Types

  • m 110
  • a 11
  • s 10
  • el 4
  • h 4
  • x 1
  • More… Less…

Subjects

Classifications