Search (3516 results, page 176 of 176)

  • × language_ss:"e"
  • × type_ss:"a"
  1. Thenmalar, S.; Geetha, T.V.: Enhanced ontology-based indexing and searching (2014) 0.00
    0.004483383 = product of:
      0.008966766 = sum of:
        0.008966766 = product of:
          0.017933533 = sum of:
            0.017933533 = weight(_text_:22 in 1633) [ClassicSimilarity], result of:
              0.017933533 = score(doc=1633,freq=2.0), product of:
                0.13243347 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037818365 = queryNorm
                0.1354154 = fieldWeight in 1633, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1633)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    20. 1.2015 18:30:22
  2. Shah, T.A.; Gul, S.; Gaur, R.C.: Authors self-citation behaviour in the field of Library and Information Science (2015) 0.00
    0.004483383 = product of:
      0.008966766 = sum of:
        0.008966766 = product of:
          0.017933533 = sum of:
            0.017933533 = weight(_text_:22 in 2597) [ClassicSimilarity], result of:
              0.017933533 = score(doc=2597,freq=2.0), product of:
                0.13243347 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037818365 = queryNorm
                0.1354154 = fieldWeight in 2597, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2597)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    20. 1.2015 18:30:22
  3. Bee, G.: Abschlussworkshop zum Projekt DDC Deutsch (2005) 0.00
    0.0044373986 = product of:
      0.008874797 = sum of:
        0.008874797 = product of:
          0.017749595 = sum of:
            0.017749595 = weight(_text_:22 in 3675) [ClassicSimilarity], result of:
              0.017749595 = score(doc=3675,freq=6.0), product of:
                0.13243347 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037818365 = queryNorm
                0.1340265 = fieldWeight in 3675, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3675)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Innerhalb der im Rahmen der allgemeinen Globalisierungsdiskussion geforderten stärkeren internationalen Vernetzung des deutschen Bibliothekswesens kommt der Orientierung an der Dewey-Dezimalklassifkation (DDC) seit einigen Jahren eine Schlüsselrolle zu. Die Deutsche Bibliothek, die Fachhochschule Köln und die Universitätsbibliothek Regensburg starteten deshalb im Oktober 2002 ein von der Deutschen Forschungsgemeinschaft (DFG) gefördertes Übersetzungsprojekt, das darauf abzielte, die DDC auf der Basis der derzeitigen englischen StandardEdition 22 als international verbreitetes Klassifikationssystem zu übersetzen und dabei an die spezifischen Bedürfnisse des Bibliothekswesens im deutschsprachigen Raum anzupassen. Zum Abschluss dieses Projekts fand am 20. April 2005 im Vortragssaal der Deutschen Bibliothek Frankfurt am Main ein Workshop statt, bei dem neben einer Bilanz der Übersetzungsarbeit auch die vielfältigen Überlegungen für die künftige Arbeit mit der DDC im Zentrum standen. Zu dieser Veranstaltung, die den Titel » Vorstellung der deutschen DDC 22 und Perspektiven für die DDC-Anwendung in den deutschsprachigen Ländern und international« trug, konnte die Generaldirektorin Der Deutschen Bibliothek, Dr. Elisabeth Niggemann, über 120 Vertreter aus Bibliotheken des deutschen Sprachgebiets begrüßen. In einer kurzen Einführungsrede hob Projektleiterin Magda Heiner-Freiling von der Deutschen Bibliothek Frankfurt am Main die gelungene Zusammenarbeit der verschiedenen Partner hervor. Ein für den Erfolg des Projekts entscheidender Glücksfall sei die enge Zusammenarbeit Der Deutschen Bibliothek mit der Fachhochschule Köln gewesen. Von maßgeblicher Bedeutung war aber auch die Mitwirkung der im Konsortium DDC zusammengeschlossenen Partner, zu denen neben den deutschen Bibliotheken und Verbünden auch die Schweizerische Landesbibliothek, Bern (SLB) und die Österreichische Bibliotheksverbund und Service GmbH gehören.
    Der Startvortrag von Anne Betz, Melanie Jackenkroll und Tina Mengel von der Fachhochschule Köln vermittelte einen sehr anschaulichen Eindruck von der Herkulesaufgabe, der sich das Übersetzerteam zu stellen hatte. Im permanenten gedanklichen Austausch mit dem Online Computer Library Center (OCLC) und der Library of Congress, Washington (LoC) sowie zahlreichen bibliothekarischen Fachleuten aus deutschsprachigen Bibliotheken galt es 4.000 Seiten, 45.000 Klassen und 96.000 Registerbegriffe zu bewältigen. Dabei kam es darauf an, die Fachterminologie korrekt wiederzugeben, die mitunter schwerfällige und stark gewöhnungsbedürftige »DDC-Sprache« in angemessenes Deutsch zu übertragen und bei all dem den Erhalt des Gefüges von Themen und Disziplinen innerhalb des Systems, die »DDC-Mechanik«, zu gewährleisten. In welchem Maße es bei dieser Gratwanderung nicht nur sprachliche, sondern auch kulturelle und weltanschauliche Klippen zu überwinden galt, führte Anne Betz an einer Reihe von Beispielen aus. Bereits scheinbar harmlose Begriffe wie »worker« oder »recreation« und die mit ihnen verbundenen klassifikatorischen Zuordnungen bargen Fallstricke, die besondere Übersetzungsleistungen verlangten. In vielen Fällen wurden Kompromisslösungen gefunden, etwa bei der Frage, ob man englische Körperschaftsbezeichnungen ins Deutsche übersetzen oder die im Deutschen gebräuchlichen Namensformen verwenden sollte. Hier entschied man sich dafür, die englische Bezeichnung beizubehalten und durch den Zusatz der entsprechenden deutschen Bedeutung zu ergänzen. Die deutsche Übersetzung der DDC 22, soviel wurde bereits hier deutlich, hat einen wichtigen ersten Schritt vollzogen, um über eine regelgerechte Übersetzung hinaus den unterschiedlichen kulturellen Gegebenheiten und den spezifischen Suchgewohnheiten deutschsprachiger Benutzer in besonderer Weise entgegenzukommen.
  4. Beagle, D.: Visualizing keyword distribution across multidisciplinary c-space (2003) 0.00
    0.004051265 = product of:
      0.00810253 = sum of:
        0.00810253 = product of:
          0.01620506 = sum of:
            0.01620506 = weight(_text_:p in 1202) [ClassicSimilarity], result of:
              0.01620506 = score(doc=1202,freq=2.0), product of:
                0.1359764 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.037818365 = queryNorm
                0.11917553 = fieldWeight in 1202, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1202)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    The concept of c-space is proposed as a visualization schema relating containers of content to cataloging surrogates and classification structures. Possible applications of keyword vector clusters within c-space could include improved retrieval rates through the use of captioning within visual hierarchies, tracings of semantic bleeding among subclasses, and access to buried knowledge within subject-neutral publication containers. The Scholastica Project is described as one example, following a tradition of research dating back to the 1980's. Preliminary focus group assessment indicates that this type of classification rendering may offer digital library searchers enriched entry strategies and an expanded range of re-entry vocabularies. Those of us who work in traditional libraries typically assume that our systems of classification: Library of Congress Classification (LCC) and Dewey Decimal Classification (DDC), are descriptive rather than prescriptive. In other words, LCC classes and subclasses approximate natural groupings of texts that reflect an underlying order of knowledge, rather than arbitrary categories prescribed by librarians to facilitate efficient shelving. Philosophical support for this assumption has traditionally been found in a number of places, from the archetypal tree of knowledge, to Aristotelian categories, to the concept of discursive formations proposed by Michel Foucault. Gary P. Radford has elegantly described an encounter with Foucault's discursive formations in the traditional library setting: "Just by looking at the titles on the spines, you can see how the books cluster together...You can identify those books that seem to form the heart of the discursive formation and those books that reside on the margins. Moving along the shelves, you see those books that tend to bleed over into other classifications and that straddle multiple discursive formations. You can physically and sensually experience...those points that feel like state borders or national boundaries, those points where one subject ends and another begins, or those magical places where one subject has morphed into another..."
  5. Bertolucci, K.: Happiness is taxonomy : four structures for Snoopy - libraries' method of categorizing and classification (2003) 0.00
    0.004051265 = product of:
      0.00810253 = sum of:
        0.00810253 = product of:
          0.01620506 = sum of:
            0.01620506 = weight(_text_:p in 1212) [ClassicSimilarity], result of:
              0.01620506 = score(doc=1212,freq=2.0), product of:
                0.1359764 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.037818365 = queryNorm
                0.11917553 = fieldWeight in 1212, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1212)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Vgl.: http://findarticles.com/p/articles/mi_m0FWE/is_3_7/ai_99011617.
  6. Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003) 0.00
    0.004051265 = product of:
      0.00810253 = sum of:
        0.00810253 = product of:
          0.01620506 = sum of:
            0.01620506 = weight(_text_:p in 3068) [ClassicSimilarity], result of:
              0.01620506 = score(doc=3068,freq=2.0), product of:
                0.1359764 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.037818365 = queryNorm
                0.11917553 = fieldWeight in 3068, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3068)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  7. Weiße, A.: AG Dezimalklassifikation (AG DK) (2002) 0.00
    0.0038428998 = product of:
      0.0076857996 = sum of:
        0.0076857996 = product of:
          0.015371599 = sum of:
            0.015371599 = weight(_text_:22 in 1693) [ClassicSimilarity], result of:
              0.015371599 = score(doc=1693,freq=2.0), product of:
                0.13243347 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037818365 = queryNorm
                0.116070345 = fieldWeight in 1693, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1693)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die diesjährige Öffentliche Sitzung der AG Dezimalklassifikationen fand am 23.7.02 im Rahmen der 26. Jahrestagung der Gesellschaft für Klassifikation in Mannheim statt. Das Programm bot ein breites Spektrum der klassifikatorischen Sacherschließung. In ihrem Vortrag unter dem Thema "Aktuelle Anwendungen und Entwicklungen der DDC" berichtete Frau Esther Scheven (DDB Frankfurt) über die Projekte "RENARDUS" und "DDC Deutsch". Das EU-Projekt RENARDUS (http://www.renardus.org) ist ein Recherchesystem für Internet-Fachinformationsführer mit einer gemeinsamen Suchoberfläche, in dem die DDC als CrossBrowse-Instrument eingesetzt wird. Die RENARDUS-Partner haben jeweils eine Konkordanztabelle von ihrer lokalen Klassifikation zur DDC erstellt. Das Klassifikationssystem DDC wurde deshalb bevorzugt, weil es online verfügbar ist, in verschiedene europäische Sprachen übersetzt wurde, einen weltweiten Anwenderkreis habe und zum Cross-Browsen besser geeignet sei als das Klassifikationssystem UDC. Anhand von geographischen Schlagwörtern wurde untersucht, inwieweit DDC-Notationen die Interoperabilität der Erschließung mit Schlagwörtern verschiedener Gateways mit unterschiedlichen Sprachen verbessern. Die DDC wird als Suchelement im Geographischen Index benutzt. Zum Projekt "DDC Deutsch" (http://www.ddb.de/professionell/ ddc info.htm) gab Frau Scheven einen kurzen Überblick über die wichtigsten Tätigkeiten und Entwicklungen. Dazu gehören die Übersetzung der 22. Auflage der DDC, die Überarbeitung der Table 2 für Deutschland und Österreich, die Überarbeitung der Sachgebiete Geschichte Deutschland, Geschichte Österreich, Parteiensysteme Deutschland. Nach Abschluß der Arbeiten wird ab 2005 in der Deutschen Nationalbibliographie (Reihe A, B und H) die DDC als Klassifikationssystem für wissenschaftliche relevante bzw. international wichtige Publikationen verwendet. Desweiteren ist vorgesehen, Schlagwörter der Schlagwortnormdatei (SWD) mit DDCNotationen zu verknüpfen. Herr Dr. Holger Flachmann (ULB Münster) stellte in seinem Vortrag "Digitale Reproduktion systematischer Zettelkataloge: Praxis, Gewinn und Grenzen am Beispiel des UDK-Kataloges der ULB Münster" ein interessantes und nachahmenswertes Projekt vor. In der ULB Münster wurde der bis 1990 nach UDK geführte Systematische Katalog (1,4 Millionen Katalogkarten mit 80 000 Systemstellen) als Imagekatalog konvertiert. Die elektronisch erfassten Systemstellen (UDK-Notationen) sind recherchierbar und mit den dazugehörigen Titeln verknüpft, die als digitale Bilder der Katalogzettel gespeichert sind. Ebenso ist die Suche mit Stichwörtern möglich.
  8. Lavoie, B.; Connaway, L.S.; Dempsey, L.: Anatomy of aggregate collections : the example of Google print for libraries (2005) 0.00
    0.0038428998 = product of:
      0.0076857996 = sum of:
        0.0076857996 = product of:
          0.015371599 = sum of:
            0.015371599 = weight(_text_:22 in 1184) [ClassicSimilarity], result of:
              0.015371599 = score(doc=1184,freq=2.0), product of:
                0.13243347 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037818365 = queryNorm
                0.116070345 = fieldWeight in 1184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1184)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    26.12.2011 14:08:22
  9. DeSilva, J.M.; Traniello, J.F.A.; Claxton, A.G.; Fannin, L.D.: When and why did human brains decrease in size? : a new change-point analysis and insights from brain evolution in ants (2021) 0.00
    0.0038428998 = product of:
      0.0076857996 = sum of:
        0.0076857996 = product of:
          0.015371599 = sum of:
            0.015371599 = weight(_text_:22 in 405) [ClassicSimilarity], result of:
              0.015371599 = score(doc=405,freq=2.0), product of:
                0.13243347 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037818365 = queryNorm
                0.116070345 = fieldWeight in 405, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=405)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Frontiers in ecology and evolution, 22 October 2021 [https://www.frontiersin.org/articles/10.3389/fevo.2021.742639/full]
  10. Smiraglia, R.P.: Curating and virtual shelves : an editorial (2006) 0.00
    0.0033760543 = product of:
      0.0067521087 = sum of:
        0.0067521087 = product of:
          0.013504217 = sum of:
            0.013504217 = weight(_text_:p in 409) [ClassicSimilarity], result of:
              0.013504217 = score(doc=409,freq=2.0), product of:
                0.1359764 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.037818365 = queryNorm
                0.099312946 = fieldWeight in 409, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=409)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Librarianship incorporates the tools of knowledge organization as part of its role as cultural disseminator. Subject headings and classification were both intended by their 19`h century promulgators - perhaps most notably Dewey and Cutter - to facilitate learning by grouping materials of high quality together. We might call this enhanced serendipity if we think it happens by accident or act of fate, or we might call it curatorship if we realize the responsibility inherent in our social role. The cataloger's job always has been to place each work sensitively among other works related to it, and to make the relationships explicit to facilitate and even encourage selection (see Miksa 1983). Schallier (2004) reported on the use of classification in an online catalog to enhance just such a curatorial purpose. UDC classification codes were exploded into linguistic strings to allow users to search, not just for a given term, but for the terms that occur around it - that is, terms that are adjacent in the classification. These displays are used alongside LCSH to provide enhanced-serendipity for users. What caught my attention was the intention of the project (p. 271): UDC permits librarians to build virtual library shelves, where a document's subjects can be described in thematic categories rather than in detailed verbal terms. And: It is our experience that most end users are not familiar with large controlled vocabularies. UDC could be an answer to this, since its alphanumeric makeup could be used to build a tree structure of terms, which would guide end users in their searchers. There are other implications from this project, including background linkage from UDC codes that drive the "virtual shelves" to subject terms that drive the initial classification. Knowledge organization has consequences in both theory and application."
  11. Crane, G.; Jones, A.: Text, information, knowledge and the evolving record of humanity (2006) 0.00
    0.0033760543 = product of:
      0.0067521087 = sum of:
        0.0067521087 = product of:
          0.013504217 = sum of:
            0.013504217 = weight(_text_:p in 1182) [ClassicSimilarity], result of:
              0.013504217 = score(doc=1182,freq=2.0), product of:
                0.1359764 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.037818365 = queryNorm
                0.099312946 = fieldWeight in 1182, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1182)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Consider a sentence such as "the current price of tea in China is 35 cents per pound." In a library with millions of books we might find many statements of the above form that we could capture today with relatively simple rules: rather than pursuing every variation of a statement, programs can wait, like predators at a water hole, for their informational prey to reappear in a standard linguistic pattern. We can make inferences from sentences such as "NAME1 born at NAME2 in DATE" that NAME more likely than not represents a person and NAME a place and then convert the statement into a proposition about a person born at a given place and time. The changing price of tea in China, pedestrian birth and death dates, or other basic statements may not be truth and beauty in the Phaedrus, but a digital library that could plot the prices of various commodities in different markets over time, plot the various lifetimes of individuals, or extract and classify many events would be very useful. Services such as the Syllabus Finder1 and H-Bot2 (which Dan Cohen describes elsewhere in this issue of D-Lib) represent examples of information extraction already in use. H-Bot, in particular, builds on our evolving ability to extract information from very large corpora such as the billions of web pages available through the Google API. Aside from identifying higher order statements, however, users also want to search and browse named entities: they want to read about "C. P. E. Bach" rather than his father "Johann Sebastian" or about "Cambridge, Maryland", without hearing about "Cambridge, Massachusetts", Cambridge in the UK or any of the other Cambridges scattered around the world. Named entity identification is a well-established area with an ongoing literature. The Natural Language Processing Research Group at the University of Sheffield has developed its open source Generalized Architecture for Text Engineering (GATE) for years, while IBM's Unstructured Information Analysis and Search (UIMA) is "available as open source software to provide a common foundation for industry and academia." Powerful tools are thus freely available and more demanding users can draw upon published literature to develop their own systems. Major search engines such as Google and Yahoo also integrate increasingly sophisticated tools to categorize and identify places. The software resources are rich and expanding. The reference works on which these systems depend, however, are ill-suited for historical analysis. First, simple gazetteers and similar authority lists quickly grow too big for useful information extraction. They provide us with potential entities against which to match textual references, but existing electronic reference works assume that human readers can use their knowledge of geography and of the immediate context to pick the right Boston from the Bostons in the Getty Thesaurus of Geographic Names (TGN), but, with the crucial exception of geographic location, the TGN records do not provide any machine readable clues: we cannot tell which Bostons are large or small. If we are analyzing a document published in 1818, we cannot filter out those places that did not yet exist or that had different names: "Jefferson Davis" is not the name of a parish in Louisiana (tgn,2000880) or a county in Mississippi (tgn,2001118) until after the Civil War.
  12. Hermes, H.-J.: AG Dezimalklassifikation (AG DK) 12. März (2003) 0.00
    0.0032024167 = product of:
      0.0064048334 = sum of:
        0.0064048334 = product of:
          0.012809667 = sum of:
            0.012809667 = weight(_text_:22 in 1695) [ClassicSimilarity], result of:
              0.012809667 = score(doc=1695,freq=2.0), product of:
                0.13243347 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037818365 = queryNorm
                0.09672529 = fieldWeight in 1695, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1695)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Während im Rahmen der beiden bibliothekarischen Veranstaltungstage am 11. und 12.3.2003 eine Reihe von wichtigen Vorträgen zur Bedeutung und Entwicklung, aber auch zu Kosten bibliothekarischer Sacherschließung gehalten wurden, fand die jährliche Besprechung der AG Dezimalklassifikationen am 12.3. vormittags, also zu Beginn der 27. Jahrestagung der Gesellschaft an der Brandenburgischen Technischen Universität Cottbus statt. Zunächst war erster Redner dieser Besprechung der AG außerordentlicherweise der Vorsitzende der GfKl, Herr Prof. Dr. Opitz. Dieser äußerte dabei den Wunsch der Gesellschaft, die bibliothekarische Arbeit und dementsprechend die Arbeitsgemeinschaft Dezimalklassifikationen auf Dauer in der GfKI integriert zu wissen. Dabei würde er auch eine intensivere Verflechtung mit der Jahrestagung, auch mit ihren gesellschaftlichen Ereignissen begrüßen, um so auch persönliche Kontakte zu fördern bzw. zu ermöglichen. Ebenso wies Prof. Opitz darauf hin, daß jeder AG jährlich auch ein Finanzbeitrag der Gesellschaft zur Organisation von Vorträgen u.ä. zur Verfügung steht. Bei der Besprechung der AG selbst aktualisierten zunächst Herr Dr. Holger Flachmann (ULB Münster) und Herr Dr. Jiri Pika (ETH Zürich) ihre Berichte der Vorjahrestagung (vgl. GfKI Nr. 52 vom November 2002, S. 12). Danach gab Herr Dr. Bernd Lorenz (Bay. BeamtenFachhochschule München) einen kurzen Überblick über wichtige deutsche Literatur zum Projekt DDC Deutsch. Während der Workshop von DDB am 17.1.2001 in Frankfurt/M. die Entwicklung von DDC und UDK sowie die Bedeutung einer Konkordanzarbeit unterstrich (vgl. Dialog mit Bibliotheken 13. 2001, S. 29-31), verweist Magda Heiner-Freiling in ihrem Beitrag "Dewey in der Deutschen Nationalbibliographie" (Bibliotheksdienst 36. 2002, S. 709-715) auch auf die Unterschiede zwischen der derzeitigen Gliederung der DNBSachgruppen und der künftigen Entwicklung gemäß DDC (S. 711 f.). Sie erinnert zu Recht daran, dass "für Aufstellungszwekke von einer Weiterverwendung der bisherigen Klassifikationen im deutschsprachigen Raum auszugehen (ist), im Fall der RVK sogar von einer weiteren Verbreitung" (S. 714). Von einem "Anschluß der deutschen Bibliotheken an die amerikanische DDC" (ZfBB 50, 2003 S. 27) kann somit nicht gesprochen werden. Von grundsätzlicher Bedeutung bleibt weiterhin die Arbeit von Magda Heiner-Freiling "DDC Deutsch 22 formale, terminologische und inhaltliche Aspekte einer deutschen DDCAusgabe" (ZfBB 48. 2001, S. 333-339). Hier seien zehn Aspekte zur DDC-Arbeit herausgegriffen, denen bleibende Bedeutung zu kommt. - Es ist noch keine angemessene Berücksichtigung europäischer Belange erreicht (S. 333) - Die bekannten Terminologieprobleme (S. 336 ff.) sind auch für Bereiche von Pflanzen und Tieren anzuzeigen (S. 339). - Inhaltliche Probleme bestehen, die aber nicht relevant werden, die die meisten Bibliotheken nicht an eine Aufstellung gemäß DDC denken (S. 337). - Dementsprechend ist auch der Umfang einer DDC-Nutzung in den Bibliotheken unklar (S. 334). - Davon hängt die perspektivische Frage nach einem Bedarf an späteren Buchausgaben ab (S. 335). - Große Bedeutung kommt auch der geplanten DDCDatenbank zu (S. 335). Hierzu gibt es inzwischen Vorarbeiten. - Wichtig für die Anwendung wird die unverzichtbare Verzahnung von DDC und SWD (S. 336). - Bedeutend ist auch die Möglichkeit einer Trunkierbarkeit der Notationen (S. 336). - Ebenso ist die Erstellung von Arbeitsanweisungen vorrangig (S.337). - Denkbar große Bedeutung hat die Feststellung und Vorhersage, dass die DDC Deutsch keine "reine" Übersetzung der DDC darstellen wird, sondern zugleich Auslegung, Bearbeitung usw. (S. 335).
  13. Plieninger, J.: Vermischtes und noch mehr ... : Ein Essay über die (vergebliche) Nutzung bibliothekarischer Erschließungssysteme in der neuen digitalen Ordnung (2007) 0.00
    0.0032024167 = product of:
      0.0064048334 = sum of:
        0.0064048334 = product of:
          0.012809667 = sum of:
            0.012809667 = weight(_text_:22 in 680) [ClassicSimilarity], result of:
              0.012809667 = score(doc=680,freq=2.0), product of:
                0.13243347 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037818365 = queryNorm
                0.09672529 = fieldWeight in 680, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=680)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    4.11.2007 13:22:29
  14. Smiraglia, R.P.: On sameness and difference : an editorial (2008) 0.00
    0.0032024167 = product of:
      0.0064048334 = sum of:
        0.0064048334 = product of:
          0.012809667 = sum of:
            0.012809667 = weight(_text_:22 in 1919) [ClassicSimilarity], result of:
              0.012809667 = score(doc=1919,freq=2.0), product of:
                0.13243347 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037818365 = queryNorm
                0.09672529 = fieldWeight in 1919, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1919)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    12. 6.2008 20:18:22
  15. Metoyer, C.A.; Doyle, A.M.: Introduction to a speicial issue on "Indigenous Knowledge Organization" (2015) 0.00
    0.0032024167 = product of:
      0.0064048334 = sum of:
        0.0064048334 = product of:
          0.012809667 = sum of:
            0.012809667 = weight(_text_:22 in 2186) [ClassicSimilarity], result of:
              0.012809667 = score(doc=2186,freq=2.0), product of:
                0.13243347 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037818365 = queryNorm
                0.09672529 = fieldWeight in 2186, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2186)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    26. 8.2015 19:22:31
  16. Ewbank, L.: Crisis in subject cataloging and retrieval (1996) 0.00
    0.0025619334 = product of:
      0.0051238667 = sum of:
        0.0051238667 = product of:
          0.010247733 = sum of:
            0.010247733 = weight(_text_:22 in 5580) [ClassicSimilarity], result of:
              0.010247733 = score(doc=5580,freq=2.0), product of:
                0.13243347 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037818365 = queryNorm
                0.07738023 = fieldWeight in 5580, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=5580)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Cataloging and classification quarterly. 22(1996) no.2, S.90-97

Types

  • el 77
  • b 31
  • p 2
  • More… Less…

Themes