Search (4929 results, page 1 of 247)

  • × language_ss:"e"
  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.12
    0.11887189 = product of:
      0.35661566 = sum of:
        0.034793857 = product of:
          0.10438157 = sum of:
            0.10438157 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
              0.10438157 = score(doc=2918,freq=2.0), product of:
                0.18572637 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021906832 = queryNorm
                0.56201804 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.33333334 = coord(1/3)
        0.10438157 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.10438157 = score(doc=2918,freq=2.0), product of:
            0.18572637 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021906832 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.10438157 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.10438157 = score(doc=2918,freq=2.0), product of:
            0.18572637 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021906832 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.10438157 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.10438157 = score(doc=2918,freq=2.0), product of:
            0.18572637 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021906832 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.0026870528 = weight(_text_:in in 2918) [ClassicSimilarity], result of:
          0.0026870528 = score(doc=2918,freq=2.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.09017298 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.005990031 = product of:
          0.017970093 = sum of:
            0.017970093 = weight(_text_:29 in 2918) [ClassicSimilarity], result of:
              0.017970093 = score(doc=2918,freq=2.0), product of:
                0.077061385 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021906832 = queryNorm
                0.23319192 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.33333334 = coord(1/3)
      0.33333334 = coord(6/18)
    
    Abstract
    The employees of an organization often use a personal hierarchical classification scheme to organize digital documents that are stored on their own workstations. As this may make it hard for other employees to retrieve these documents, there is a risk that the organization will lose track of needed documentation. Furthermore, the inherent boundaries of such a hierarchical structure require making arbitrary decisions about which specific criteria the classification will b.e based on (for instance, the administrative activity or the document type, although a document can have several attributes and require classification in several classes).A faceted classification model to support corporate information organization is proposed. Partially based on Ranganathan's facets theory, this model aims not only to standardize the organization of digital documents, but also to simplify the management of a document throughout its life cycle for both individuals and organizations, while ensuring compliance to regulatory and policy requirements.
    Date
    29. 8.2009 21:15:48
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
  2. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.12
    0.11885393 = product of:
      0.35656178 = sum of:
        0.034793857 = product of:
          0.10438157 = sum of:
            0.10438157 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.10438157 = score(doc=562,freq=2.0), product of:
                0.18572637 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021906832 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.10438157 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10438157 = score(doc=562,freq=2.0), product of:
            0.18572637 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021906832 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.10438157 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10438157 = score(doc=562,freq=2.0), product of:
            0.18572637 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021906832 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.10438157 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.10438157 = score(doc=562,freq=2.0), product of:
            0.18572637 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021906832 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.0026870528 = weight(_text_:in in 562) [ClassicSimilarity], result of:
          0.0026870528 = score(doc=562,freq=2.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.09017298 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.0059361467 = product of:
          0.01780844 = sum of:
            0.01780844 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.01780844 = score(doc=562,freq=2.0), product of:
                0.076713994 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021906832 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
      0.33333334 = coord(6/18)
    
    Abstract
    Document representations for text classification are typically based on the classical Bag-Of-Words paradigm. This approach comes with deficiencies that motivate the integration of features on a higher semantic level than single words. In this paper we propose an enhancement of the classical document representation through concepts extracted from background knowledge. Boosting is used for actual classification. Experimental evaluations on two well known text corpora support our approach through consistent improvement of the results.
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  3. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.11
    0.11470506 = product of:
      0.4129382 = sum of:
        0.040592838 = product of:
          0.12177851 = sum of:
            0.12177851 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.12177851 = score(doc=306,freq=2.0), product of:
                0.18572637 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021906832 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.12177851 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.12177851 = score(doc=306,freq=2.0), product of:
            0.18572637 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021906832 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.12177851 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.12177851 = score(doc=306,freq=2.0), product of:
            0.18572637 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021906832 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.12177851 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.12177851 = score(doc=306,freq=2.0), product of:
            0.18572637 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021906832 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.0070098387 = weight(_text_:in in 306) [ClassicSimilarity], result of:
          0.0070098387 = score(doc=306,freq=10.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.23523843 = fieldWeight in 306, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.2777778 = coord(5/18)
    
    Abstract
    Although service-oriented architectures go a long way toward providing interoperability in distributed, heterogeneous environments, managing semantic differences in such environments remains a challenge. We give an overview of the issue of semantic interoperability (integration), provide a semantic characterization of services, and discuss the role of ontologies. Then we analyze four basic models of semantic interoperability that differ in respect to their mapping between service descriptions and ontologies and in respect to where the evaluation of the integration logic is performed. We also provide some guidelines for selecting one of the possible interoperability models.
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  4. Ackermann, E.: Piaget's constructivism, Papert's constructionism : what's the difference? (2001) 0.04
    0.037869517 = product of:
      0.17041282 = sum of:
        0.028994884 = product of:
          0.08698465 = sum of:
            0.08698465 = weight(_text_:3a in 692) [ClassicSimilarity], result of:
              0.08698465 = score(doc=692,freq=2.0), product of:
                0.18572637 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021906832 = queryNorm
                0.46834838 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
          0.33333334 = coord(1/3)
        0.067966506 = product of:
          0.13593301 = sum of:
            0.13593301 = weight(_text_:2c in 692) [ClassicSimilarity], result of:
              0.13593301 = score(doc=692,freq=2.0), product of:
                0.23217463 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.021906832 = queryNorm
                0.5854775 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
          0.5 = coord(1/2)
        0.067966506 = product of:
          0.13593301 = sum of:
            0.13593301 = weight(_text_:2c in 692) [ClassicSimilarity], result of:
              0.13593301 = score(doc=692,freq=2.0), product of:
                0.23217463 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.021906832 = queryNorm
                0.5854775 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
          0.5 = coord(1/2)
        0.0054849237 = weight(_text_:in in 692) [ClassicSimilarity], result of:
          0.0054849237 = score(doc=692,freq=12.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.18406484 = fieldWeight in 692, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=692)
      0.22222222 = coord(4/18)
    
    Abstract
    What is the difference between Piaget's constructivism and Papert's "constructionism"? Beyond the mere play on the words, I think the distinction holds, and that integrating both views can enrich our understanding of how people learn and grow. Piaget's constructivism offers a window into what children are interested in, and able to achieve, at different stages of their development. The theory describes how children's ways of doing and thinking evolve over time, and under which circumstance children are more likely to let go of-or hold onto- their currently held views. Piaget suggests that children have very good reasons not to abandon their worldviews just because someone else, be it an expert, tells them they're wrong. Papert's constructionism, in contrast, focuses more on the art of learning, or 'learning to learn', and on the significance of making things in learning. Papert is interested in how learners engage in a conversation with [their own or other people's] artifacts, and how these conversations boost self-directed learning, and ultimately facilitate the construction of new knowledge. He stresses the importance of tools, media, and context in human development. Integrating both perspectives illuminates the processes by which individuals come to make sense of their experience, gradually optimizing their interactions with the world.
    Content
    Vgl.: https://www.semanticscholar.org/paper/Piaget-%E2%80%99-s-Constructivism-%2C-Papert-%E2%80%99-s-%3A-What-%E2%80%99-s-Ackermann/89cbcc1e740a4591443ff4765a6ae8df0fdf5554. Darunter weitere Hinweise auf verwandte Beiträge. Auch unter: Learning Group Publication 5(2001) no.3, S.438.
  5. Hermes, H.-J.: Bibliothekarische Fortbildung (AG BIB) und AG Dezimalklassifikation (2003) 0.01
    0.01095055 = product of:
      0.0657033 = sum of:
        0.038590543 = weight(_text_:telekommunikation in 3653) [ClassicSimilarity], result of:
          0.038590543 = score(doc=3653,freq=2.0), product of:
            0.15970448 = queryWeight, product of:
              7.290168 = idf(docFreq=81, maxDocs=44218)
              0.021906832 = queryNorm
            0.2416372 = fieldWeight in 3653, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.290168 = idf(docFreq=81, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3653)
        0.0053741056 = weight(_text_:in in 3653) [ClassicSimilarity], result of:
          0.0053741056 = score(doc=3653,freq=32.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.18034597 = fieldWeight in 3653, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3653)
        0.02173866 = weight(_text_:der in 3653) [ClassicSimilarity], result of:
          0.02173866 = score(doc=3653,freq=72.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.44423765 = fieldWeight in 3653, product of:
              8.485281 = tf(freq=72.0), with freq of:
                72.0 = termFreq=72.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3653)
      0.16666667 = coord(3/18)
    
    Content
    "Erster Tag: Bibliothekarische Fortbildung zum Thema "Bibliothekarische Sacherschließung - können wir uns die noch leisten?" Der erste Veranstaltungstag in Cottbus (Dienstag) war für die traditionelle Bibliothekarische Fortbildung organisiert. Es ging diesmal um Kosten. Das Leitreferat lautete dementsprechend: "Bibliothekarische Sacherschließung - können wir uns die noch leisten?" Und der Leitreferent Dr. Klaus Ceynowa von der Staats- und Universitätsbibliothek Göttingen gab seine ExpertenAntwort mit dem ihm zu Gebote stehenden Mittel des Controlling. Heraus kam nach Abklärung der Prämissen ein "Prozesskostensatz" von 16,57 EURO pro Dokument bei einer Bearbeitungszeit von 18 Minuten im Fachreferat. Das alles berechnet nach beispielhaften Annahmen, die in der Realität einer Einzelbibliothek sicher ähnlich ausfallen würden. Eingedenk der stetig steigenden Kosten mögen in Zweifelsfällen die "Zuständigen" (die allemal in höheren Hierarchien angesiedelt sind als wir Bibliothekare) nun entscheiden, ob der Preis für das solchermaßen seriös berechnete Produkt Sacherschließung angemessen ist. Wobei zu bedenken sein würde, dass eine Literatur, die ohne sachliche Erschließung im Online-Katalog angeboten wird, noch teurer sein könnte. Man denke nur an vertane Suchzeiten am Katalog, Erhöhung der Mitarbeiterzahlen am Informationsdienst einer Bibliothek und an den worst case: Das einschlägige Buch bleibt unentdeckt im Regal stehen. Über das Produkt Sacherschließung selbst äußerte sich Dr. Holger Flachmann von der Universitäts- und Landesbibliothek Münster (Effiziente Sacherschließung als Kernaufgabe von Bibliotheken: Perspektiven und Probleme leistungsgerechter bibliothekarischer Produkte). In einem ersten Teil wurden verschiedene Ansatzmöglichkeiten vorgestellt, um die Frage nach der Effizienz der bibliothekarischen Sacherschließung zu präzisieren. Dem schloß sich als beispielhafter Anwendungsfall die Untersuchung der Effizienz eines konkreten Erschließungsverfahrens an, und zwar der verbalen Sacherschließung nach den Regeln für den Schlagwortkatalog (RSWK). Wie man die Erarbeitung des Produkts Sacherschließung wirtschaftlicher gestalten kann, war Gegenstand der Referenten Günter Peters von der Gruner + Jahr-Dokumentation, Hamburg, Prof. Dr. Harald Zimmermann, Universität des Saarlandes und Stefan Wolf vom Bibliotheksservice-Zentrum BadenWürttemberg (BSZ). Alle miteinander waren auf der Suche nach den zukunftsfähigen Erschließungsverfahren, die intellektuelle Leistungen einsparen helfen und trotzdem den Weg zur gewünschten Literatur öffnen können sollen.
    Günter Peters legte eine PowerPoint-Datei vor, die er krankheitshalber nicht erläutern konnte. Dem bei Gruner + Jahr eingesetzten System DocCat attestierte er eine erhebliche Kompetenz. Umso bedauerlicher, dass in seiner Abwesenheit in Cottbus lediglich einige seiner Folien mit laienhaftem Kommentar vorgestellt werden konnten. Unser Trost: Vielleicht wird DocCat im März 2004 in Dortmund vom Kollegen Peters vorgeführt. Prof. Zimmermann war einer der Beteiligten bei der Entwicklung des Systems Milos/KASCADE (das bei der Jahrestagung der GfKI in München schon vorgestellt wurde). In Cottbus lieferte Zimmermann Gedanken zur automatisierten verbalen Sacherschließung, wobei er kurz das Milos/KASCADE-Verfahren streifte und an das von Lustig und Knorz in den 80er Jahren entwickelte Verfahren Air/Phys erinnerte. Dort "lernt" das System mit dem Anwachsen eines lexikalischen Inventars (ISBN 3-48707825-2). Leider ist die Weiterentwicklung von Air/Phys aber unterblieben. Stefan Wolf vom BSZ berichtete über den anderen Weg, Sacherschließung zu erleichtern, nämlich durch Übernahme von Fremdleistungen. Aktuelle Maßnahme hierzu war die Übernahme von Erschließungsdaten sowohl klassifikatorischer als auch verbaler Art aus dem Bibliotheks-Verbund Bayern (BVB) in die Titelaufnahmen, die der Südwestverbund vorhält. Im Frühjahr 2002 verfügte der Südwestverbund über 1,6 Millionen Schlagwortketten an 1,3 Millionen Titeln. Bei der klassifikatorischen Sacherschließung durch die Regensburger Verbundklassifikation (RVK) verfügte der Verbund über lediglich 2% Erschließung. Nach der Anreicherung der Titeldaten durch Übernahme von Bayerischen Sacherschließungsdaten im Laufe des Jahres 2002 verfügten nunmehr 2.4 Millionen Titelaufnahmen über verbale Erschließung (24,9 % von derzeit 9,6 Millionen Titeln Gesamtbestand) und über 18,2 % klassifikatorische Erschließung mit RVK. Dieser Zugang an intellektueller Indexierung fließt derzeit in die Online-Kataloge der angeschlossenen Bibliotheken und eröffnet dort den Nutzern die sachlichen Zugänge zu ihren Schätzen. Abgerundet wurde die Thematik durch Berichte aus Bibliotheken und einer sachlich nahestehenden Einrichtung, so von Jiri Pika von der ETH-Bibliothek in Zürich, Kerstin Zimmerman vom Forschungszentrum Telekommunikation Wien, Horst Lindner von der Universitätsbibliothek der Brandenburgischen Technischen Universität Cottbus und Dörte Braune-Egloff von der UB der Freien Universität Berlin. Wobei Frau Braune-Egloff deutlich machte, dass die von Ihr vertretene Bibliothek zwar zentrale Aufgaben im Bereich der SWD-Kooperation im Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV). wahrnimmt, allerdings nicht komplett diejenigen einer "Verbundzentrale Sacherschliessung" im herkömmlichen Sinn. Die Vorträge bzw. Power-Point-Präsentationen von Cottbus werden bei Erscheinen des Mitgliederbriefes bereits auf dem Archivserver MONARCH der TU Chemnitz verfügbar sein. Die Adresse: http://archiv.tu-chemnitz.de. In der Sache ein klares Eingeständnis: Noch sind wir nicht so weit, dass sich beispielsweise eine Scan-Apparatur gleichsam in ein Buch versenkt und anschließend dem Online Katalog der besitzenden Bibliothek einen oder mehrere Erschließungsdatensätze hinzufügt. Zum Glück nicht, denn dann könnten die Bibliothekare die Reise nach Dortmund von vornherein unterlassen. So wie die Dinge liegen, gibt es noch viel Neues zu entdecken und Gedanken darüber auszutauschen. Daher schon jetzt mein Aufruf: Die Dortmunder Tagung vom Dienstag, 9. bis Donnerstag, 11. März 2004 vormerken!"
  6. Steinhagen, E.N.: Historical perspective of a union catalog in Chile : authorities and periodicals (2003) 0.01
    0.009384898 = product of:
      0.056309383 = sum of:
        0.0044784215 = weight(_text_:in in 4064) [ClassicSimilarity], result of:
          0.0044784215 = score(doc=4064,freq=2.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.15028831 = fieldWeight in 4064, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=4064)
        0.0120770335 = weight(_text_:der in 4064) [ClassicSimilarity], result of:
          0.0120770335 = score(doc=4064,freq=2.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.2467987 = fieldWeight in 4064, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=4064)
        0.03975393 = product of:
          0.05963089 = sum of:
            0.029950155 = weight(_text_:29 in 4064) [ClassicSimilarity], result of:
              0.029950155 = score(doc=4064,freq=2.0), product of:
                0.077061385 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021906832 = queryNorm
                0.38865322 = fieldWeight in 4064, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4064)
            0.029680735 = weight(_text_:22 in 4064) [ClassicSimilarity], result of:
              0.029680735 = score(doc=4064,freq=2.0), product of:
                0.076713994 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021906832 = queryNorm
                0.38690117 = fieldWeight in 4064, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4064)
          0.6666667 = coord(2/3)
      0.16666667 = coord(3/18)
    
    Date
    29. 7.2006 20:06:22
    Theme
    Geschichte der Kataloge
  7. BMBF fördert Langzeitarchivierung für digitale Daten : Deutsche Bibliothek schließt erste Testhase erfolgreich ab (2006) 0.01
    0.00871977 = product of:
      0.052318618 = sum of:
        0.035967726 = weight(_text_:technik in 4970) [ClassicSimilarity], result of:
          0.035967726 = score(doc=4970,freq=2.0), product of:
            0.109023005 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.021906832 = queryNorm
            0.3299095 = fieldWeight in 4970, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.046875 = fieldNorm(doc=4970)
        0.003800067 = weight(_text_:in in 4970) [ClassicSimilarity], result of:
          0.003800067 = score(doc=4970,freq=4.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.12752387 = fieldWeight in 4970, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4970)
        0.012550822 = weight(_text_:der in 4970) [ClassicSimilarity], result of:
          0.012550822 = score(doc=4970,freq=6.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.25648075 = fieldWeight in 4970, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4970)
      0.16666667 = coord(3/18)
    
    Abstract
    Digital auf elektronischen Datenträgern vorliegende Informationen können derzeit nur schwer über Jahre gespeichert werden. Im Interesse von Wissenschaft und Forschung muss diese komplexe Aufgabe mit innovativer Technik bewältigt werden.
    Content
    Unter Leitung Der Deutschen Bibliothek wurde jetzt erstmals ein neues System zur digitalen Langzeitarchivierung erfolgreich getestet. Es könne problemlos in bestehende Bibliothekssysteme integriert werden, teilte das Bundesministerium für Bildung und Forschung (BMBF) am 16. Dezember 2005 in Berlin mit. Das BMBF förderte die erste Phase des so genannten »kopalSystems« (www.kopal.langzeitarchivierung.de) mit 4,2Millionen Euro. Es soll auf der CeBIT 2006 öffentlich vorgestellt werden. Dabei sollen dem Publikum die Aufgaben Land Funktionen eines Langzeitarchivs digitaler Informationen mit einem »kopal-Demonstrator« anschaulich u und greifbar vertmittelt werden. Das Projekt »kopal« (Kooperativer Aufbau eines Langzeitarchivs digitaler Informationen) widmet sich der langfristigen Bewahrung Land Bereitstellung digitaler Daten. Dabei kooperieren Die Deutsche Bibliothek, die Niedersächsische Staats- und Universitätsbibliothek Göttingen, die Gesellschaft für wissenschaftliche Datenverarbeitung Göttingen und die IBM Deutschland. Das von ihnen entwickelte System soll künftig mit standardisierten Schnittstellen kooperativ betrieben werden."
  8. Zurück zur Papierkopie : Artikelversand per E-Mail verstößt gegen gültige Urheberrechtsgesetze (2007) 0.01
    0.008103042 = product of:
      0.04861825 = sum of:
        0.023978485 = weight(_text_:technik in 426) [ClassicSimilarity], result of:
          0.023978485 = score(doc=426,freq=2.0), product of:
            0.109023005 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.021906832 = queryNorm
            0.21993968 = fieldWeight in 426, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.03125 = fieldNorm(doc=426)
        0.003582737 = weight(_text_:in in 426) [ClassicSimilarity], result of:
          0.003582737 = score(doc=426,freq=8.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.120230645 = fieldWeight in 426, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=426)
        0.021057026 = weight(_text_:der in 426) [ClassicSimilarity], result of:
          0.021057026 = score(doc=426,freq=38.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.43030822 = fieldWeight in 426, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=426)
      0.16666667 = coord(3/18)
    
    Abstract
    Das Oberlandesgericht München hat Anfang Mai im langjährigen Rechtsstreit zwischen dem Deutschen Börsenverein und dem Dokumentenversanddienst subito sein mit Spannung erwartetes Urteil gefällt. Nach Auffassung der Münchener Richter verstößt der Service gegen das geltende Urheberrecht und darf in dieser Form nicht weitergeführt werden. Der Musterprozess hat, laut Mitteilung der Technischen Informationsbibliothek Hannover (TIB), auch Einfluss auf die Angebote anderer Dokumentlieferdienste wie Tiborder, der im Bereich von Technik und Naturwissenschaften eine führende Stellung einnimmt.
    Content
    "Der Versand von kopierten Artikeln aus wissenschaftlichen Fachzeitschriften per E-Mail verstößt gegen geltendes Recht - das ist die Kernaussage des vom Oberlandesgericht München verkündeten Urteils. Vorbehaltlich der Revision durch subito würde dieses Urteil die Forschung am Wissenschaftsstandort Deutschland maßgeblich verändern. Zwei Szenarien sind dabei denkbar. Szenario eins: subito und Anbieter von ähnlich agierenden Diensten wie Tiborder stellen den Dokumentenversand komplett auf den Postweg um. Für Kunden wären damit deutliche Komforteinbußen zur bisherigen elektronischen Lieferung verbunden. Die Wartezeit auf bestellte Fachartikel verlängert sich, zumal sich die Papierkopie nicht direkt am PC aufrufen lässt. Szenario zwei: Die Anbieter einigen sich mit den Verlagen über Lizenzen zur Nutzung von Fachartikeln auch auf dem elektronischen Wege. Dies würde eine deutliche Erhöhung der Preise für solche Dienste mit sich bringen. Uwe Rosemann, Direktor der TIB und der Universitätsbibliothek Hannover, sieht speziell im zweiten Szenario eine echte Gefahr für den Wissenschaftsstandort Deutschland: »Sollten die Verlage Lizenzen aushandeln, dann sicherlich zu Konditionen, die zwangsläufig zu großen Preissteigerungen für die Nutzer führen.« Besonders Wissenschaftler im akademischen Bereich und Studierende könnten sich solche Dienste dann nicht mehr leisten. Dass Universitäten und Hochschulen, die unter enormem Kostendruck stünden, weiterhin im bisherigen Rahmen auf solche Dokumentlieferdienste zugreifen könnten, sei unwahrscheinlich. Rosemann weiter: »Damit wird das Niveau der Literaturversorgung entscheidend gesenkt. Ein wesentliches Ziel der Lizenzverhandlung mit den Verlagen muss daher die Etablierung eines angemessen niedrigen Preises für akademische Kunden sein.«
    Bereits im Juni 2004 hatten der Börsenverein des Deutschen Buchhandels und die Vereinigung internationaler Fachverlage, Stichting STM, Klage gegen das elektronische Verschicken von kopierten beziehungsweise gescannten Artikeln durch subito erhoben. Besonders Fachverlage sehen den von subito angebotenen Dienst kritisch, bieten sie doch mittlerweile selbst Einzelartikel online zum kostenpflichtigen Download an. In seiner Klageerwiderung argumentierte der Dokumentenlieferdienst damit, dass der angebotene Service im Rahmen der Urheberrechtsgesetze liege und es keine Konkurrenzsituation zwischen subito und den Verlagen gebe. Ob subito gegen das jetzt ergangene Urteil des Oberlandesgerichts München in die Revision geht, stand bei Redaktionsschluss noch nicht fest. Zum Hintergrund: Im Jahre 1999 hatte der Bundesgerichtshof der TIB in einem Grundsatzurteil den Kopienversand ausdrücklich erlaubt. Das Oberlandesgericht München und auch der gegenwärtige Regierungsentwurf zur Reform des Urheberrechts würden die vergleichbare elektronische Form des Kopienversands für das elektronische Zeitalter zunichte machen."
  9. Rösch, H.: Entwicklungsstand und Qualitätsmanagement digitaler Auskunft in Bibliotheken (2007) 0.01
    0.007843506 = product of:
      0.047061034 = sum of:
        0.023978485 = weight(_text_:technik in 400) [ClassicSimilarity], result of:
          0.023978485 = score(doc=400,freq=2.0), product of:
            0.109023005 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.021906832 = queryNorm
            0.21993968 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
        0.005664805 = weight(_text_:in in 400) [ClassicSimilarity], result of:
          0.005664805 = score(doc=400,freq=20.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.19010136 = fieldWeight in 400, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
        0.017417746 = weight(_text_:der in 400) [ClassicSimilarity], result of:
          0.017417746 = score(doc=400,freq=26.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.35593814 = fieldWeight in 400, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
      0.16666667 = coord(3/18)
    
    Abstract
    Zunächst wird die aktuelle Bedeutung digitaler Auskunft in der Informationsgesellschaft angesprochen. Anschließend folgt ein Überblick über den bislang erreichten Entwicklungsstand dieser relativ neuen Dienstleistung. Dabei werden die Vor- und Nachteile der technischen und organisatorischen Varianten erläutert. Schließlich richtet sich der Blick auf Qualitätskriterien zur Bewertung und Verbesserung digitaler Auskunft in der Praxis.
    Content
    "Die Ursprünge digitaler Auskunft reichen zurück in die 1980er Jahre. Aus bescheidenen Anfängen hat sich inzwischen eine bibliothekarische Standarddienstleistung entwickelt. Mit dem digitalen Umbruch stellten die Bibliotheken zunächst ihre Kataloge im Web für die Recherche bereit und boten FAQs zur Beantwortung von Standardfragen an. Um den vollen Umfang bibliothekarischer Dienstleistungen im Internet präsentieren zu können, bedurfte es darüber hinaus der Entwicklung eines Äquivalents für die klassische Auskunft im WWW. Die Entwicklung von digitaler Auskunft drängte sich aber nicht nur aus diesem Grund auf; das Web veränderte (und verändert) zudem die Informationskultur der Kunden; diese erwarten schnelleren und einfacheren Service. Alles soll so unmittelbar und so unkompliziert recherchierbar sein, wie man es von Google, Yahoo und anderen gewohnt ist. Außerdem hat die bibliothekarische Auskunft mit "Yahoo Clever" oder "Lycos IQ" kommerzielle Konkurrenten erhalten. Digitale Auskunft musste also als Antwort auf die Herausforderungen der kommerziellen Konkurrenz und der veränderten Benutzergewohnheiten schnell entwickelt werden. Denn nur so konnte und kann rechtzeitig unter Beweis gestellt werden, dass Bibliotheken für viele Auskunftsfälle gegenüber Suchmaschinen und Webkatalogen einen ungeheueren Vorteil besitzen: Die klassische und damit auch die digitale Auskunft zielt nicht darauf, die Fragen zu beantworten, die Benutzer stellen, sondern (idealerweise) darauf, ihnen die Informationen zu verschaffen, die sie tatsächlich benötigen.
    Schon in der ersten Hälfte des 20. Jahrhunderts war in der Praxis des Auskunftsdienstes in den USA bekannt geworden, dass Benutzer häufig nicht nach dem fragen was sie eigentlich suchen, sondern meist allgemeine und nicht selten irreführende Fragen stellen. Dafür ist die Technik des Auskunftsinterviews entwickelt worden, um gemeinsam mit dem Kunden zu ermitteln, welche Informationen exakt gesucht werden. Während Suchmaschinen nur die syntaktische und (in Ausnahmefällen) die semantische Ebene der gestellten Frage abarbeiten können, vermag bibliothekarische Auskunft einer dritten, nämlich jener pragmatischen Dimension gerecht zu werden. Anders ausgedrückt: Suchmaschinen und andere Navigationsinstrumente des Internet arbeiten objektorientiert, digitale Auskunft durch bibliothekarische Experten hingegen erbringt subjekt- bzw. kundenorientierte Dienstleistungen. Bibliotheken mit elaborierter digitaler Auskunft sind den Herausforderungen der Informationsgesellschaft damit gewachsen: ja sie sind noch unverzichtbarer als zuvor. Speziell in Deutschland allerdings ist es nicht damit getan, digitale Auskunft mit Engagement zu entwickeln. Darüber hinaus müssen große Anstrengungen unternommen werden, um die Leistungsfähigkeit dieser bibliothekarischen Dienstleistung in das Bewusstsein der realen und potentiellen Kunden zu rücken."
  10. Hermes, H.-J.: AG "Bibliotheken" (AG-BIB) und AG Dezimalklassifikation (AG-DK) : Gemeinsame Tagung der AG-BIB und AG-DK (2005) 0.01
    0.007165187 = product of:
      0.04299112 = sum of:
        0.014986553 = weight(_text_:technik in 3654) [ClassicSimilarity], result of:
          0.014986553 = score(doc=3654,freq=2.0), product of:
            0.109023005 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.021906832 = queryNorm
            0.1374623 = fieldWeight in 3654, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3654)
        0.00581764 = weight(_text_:in in 3654) [ClassicSimilarity], result of:
          0.00581764 = score(doc=3654,freq=54.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.19523025 = fieldWeight in 3654, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3654)
        0.022186927 = weight(_text_:der in 3654) [ClassicSimilarity], result of:
          0.022186927 = score(doc=3654,freq=108.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.45339817 = fieldWeight in 3654, product of:
              10.392304 = tf(freq=108.0), with freq of:
                108.0 = termFreq=108.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3654)
      0.16666667 = coord(3/18)
    
    Abstract
    Die Arbeitsgruppe Bibliotheken (AG BIB) gestaltete wie gewohnt zwei volle Verhandlungstage - wieder gemeinsam mit der AG Dezimalklassifikationen. Organisatorisch ist zu berichten, daß die Arbeitsgemeinschaft sich nunmehr eine Struktur innerhalb der GfKl verordnet hat mit einem gewählten Vorsitzenden (Hermes). Nach wie vor geht es den Bibliothekaren aber um inhaltliche Arbeit im Sinne des bibliothekarischen Beitrags zur Festschrift der GfKI von 2001: "Neues hat Vorrang". Des weiteren sei dem nachfolgenden Tagungsbericht vorangestellt, daß die Langfassungen der Magdeburger Referate wiederum auf den Archivserver MONARCH der Technischen Universität Chemnitz aufgespielt werden. Die einzelnen Beiträge können über die Adresse MONARCH - http://archiv.tu-chemnitz.de/ erreicht werden oder über Suchmaschinen, die über die Eingabe von Autornamen und/oder Titelwörtern schnellstens zum gewünschten Ziel führen.
    Content
    "Inhaltlich hatte sich die AG BIB in den zurückliegenden Jahrestagungen überwiegend den Fragestellungen nach elementaren Sachverhalten in der Inhaltserschließung (Cottbus, Dortmund) zugewandt mit der Konzentration bspsw. auf das Controlling von bibliothekarischen Funktionen. Nach der Abarbeitung dieses Feldes war nunmehr das - kontrastierende - Bedürfnis entstanden zur globalen Betrachtung unseres Arbeitsfeldes. Gefragt war in Magdeburg vor allem die "Draufsicht" auf die Informationslandschaft. Das hierzu passende Leitreferat lieferte Prof. Dr. Jürgen KRAUSE, Leiter des Informationszentrums Sozialwissenschaften, Bonn. Sein Thema: "Informationswesen / Sacherschliessung in Deutschland. Lösungsansätze für eine WeIt der polyzentrischen Informationsversorgung". Ausgehend von einer Informationsversorgung, die in Zeiten des Web unvermeidlich polyzentrisch ist, konzentrierte Krause sich auf die in der heutigen Informationslandschaft vorhandene - und zu überwindende - Heterogenität. Seine Leitlinie: "Standardisierung von der Heterogenität her zu denken". Ein Beispiel: Mit dem genormten Schlagwort "Evaluationsforschung" aus der SWD finden sich in der Universitäts- und Stadtbibliothek 56 Treffer, in der Datenbank SOLIS dagegen 0. Die Suche in SOLIS, durchgeführt mit dem entsprechenden gültigen Schlagwort "wissenschaftliche Begleitung" hätte zu 327 Treffern geführt. Krauses Fazit: angemessenes Retrieval (zu erreichen durch Standardisierung) hilft die "offene Zange" schließen. Seine Rezepte hierzu: Crosskonkordanzen und algorithmische Metadatenermittlung. Beispiele für erste Einsätze dieser Instrumente waren VASCODA und infoconnex. Wobei weitere Forschungen zur bilateralen Vagheitsbehandlung anstehen.
    Patrice LANDRY von der Schweizerischen Landesbibliothek, Bern, berichtete über "The recent history of European cooperation: from the "need" to cooperate to the will` to cooperate". Er zeichnete kurz die letzten 25 Jahre verbaler Sacherschließung in den USA und den europäischen Ländern nach, die im 21. Jahrhundert in das Projekt MACS mündete. MACS wird es beispielsweise einem englischsprachigen Benutzer gestatten, seine Suchanfrage englisch einzugeben und Erträge über international verlinkte vielsprachige Suchformulierungen zu bekommen. Nadine SCHMIDT-MÄNZ vom Institut für Entscheidungstheorie u. Unternehmensforschung, Universität Karlsruhe, berichtete über "Suchverhalten im Web: Empirische Ergebnisse". Rund 6000 Benutzer von Suchmaschinen füllten den von ihr hergestellten Online-Fragebogen aus. Einige ihrer Erkenntnisse: Als Suchmaschine wurde mit 91,3 Google benutzt. Die Monopolstellung von Google war den Suchenden nicht bewußt. Einer der Schlüsse der Referentin: Es mangelt nicht an Suchmaschinen, sondern an der "Weiterentwicklung" der Suchenden. Klaus LOTH, Zürich, führte neue Suchverfahren in der Eidgenössischen Technischen Hochschulbibliothek Zürich vor. Das vormals unter dem Akronym ETHICS geschätzte Retrievalsystem wird durch noch bessere Routinen übertroffen - mittlerweile unter der Kurzbezeichnung NEBIS - , die im wesentlichen auf Computerlinguistik basieren. Erschlossen werden Dokumente in englischer, französischer und deutscher Sprache. Kerstin ZIMMERMANN, DERI Innsbruck, stellte herkömmliche Portale vor sowie sog. "Ontologien". Diese erwachsen aus den elementaren Fragen nach "What" (topic), "Who" (person), "When" (time/event), "Where" (location) und "How" (meta). Entscheidend bei den Ontologien: Zur Erstellung ist einiger Aufwand notwendig, der aber sich in Mehrwert auszahlt. Mehr dazu unter http://sw-portal.deri.org/ontologies/swportal.html.
    Aus der Truppe der Beiträger, die überwiegend dezimalklassifikatorische Beiträge lieferten, gab Magda HEINER-FREILING, Die Deutsche Bibliothek, Frankfurt, einen Sachstandsbericht zum Projekt "DDC Deutsch" und eine Vorausschau auf die zu erwartenden Dienstleistungen. Festzuhalten ist an dieser Stelle nur soviel, dass die Sachgruppen der Deutschen Nationalbibliografie seit Jahrgang 2004 auf DDC umgestellt sind; damit wurde unsere laufende Nationalbibliografie von einer hausgemachten Systematik in eine international gebräuchliche Klassifikation überführt. Dies entsprach auch der Empfehlung, die im Jahre 1998 von einer Expertenkommission des damaligen Deutschen Bibliotheksinstituts gegeben wurde, die überwiegend mit Mitgliedern der Gesellschaft für Klassifikation besetzt war. Mehr dazu findet sich unter www .ddc-deutsch.de Dr. Andreas STUMM von der Universitätsbibliothek "Georgius Agricola" der Technischen Universität Berbauakademie Freiberg (UB Freiberg) stellte GEO-LEO vor, definiert als die "Virtuelle Fachbibliothek für Geowissenschaften, Bergbau, Geographie und Thematische Karten". GEO-LEO entstand - DFG-gefördert - aus der Zusammenarbeit der geo- und montanwissenschaftlichen Sondersammelgebietsbibliotheken UB Freiberg und der Niedersächsischen Staats- und Universitätsbibliothek Göttingen. Der Nutzer von www.geo-leo.de adressiert mit seiner Suchanfrage (sozusagen unwissentlich) über Z39.50 die OPACs in Freiberg, Göttingen und diejenigen der Partnerbibliotheken GFZ in Potsdam und der ETH-Bibliothek in Zürich. Darüberhinaus werden die Aufsätze in den Online Contents des Anbieters Swets OLC (SSG Geowissenschaften) gefunden sowie über HTTP die herkömmlichen internet-Erträge aus Geo-Guide. Aufgewertet wurden die Retrievalerträge der beteiligten OPACs durch Konkordanzleistung in der Weise, daß klassifikatorische Verbindungen gelegt wurden zwischen Klassifikaten der UDC, DDC und BK sowie der sog. GOK (Göttinger Onlineklassifikation). Dagmar ROTHE, Stellvertretende Vorsitzende der AG Dezimalklassifikationen, lieferte einen Anwenderbericht betreffend ihre Bibliothek. Gegenstand war dementsprechend die Hochschulbibliothek der Hochschule für Technik, Wirtschaft und Kultur (HTWK) in Leipzig. Die entscheidende Charakteristik dieser Bibliothek ist, dass die Bestände nach der Wende durchgängig nach der UDK klassifiziert werden und nach UDK aufgestellt sind. Die gegenwärtige Schwierigkeit der Bibliothek besteht darin, dass das für Sachsen eingeführte OPAL-System Libero in der Version 5.0 anders als die Vorgängerversionen die sachliche Recherche nach DK-Notationen nicht mehr unterstützt. Insoweit schließt der Anwenderbericht mit einer "offenen Frage". Hans-Ulrich SEIFERT von der UB Trier stellte mit dem von der DFG geförderten Projekt Krünitz ein in jeder Hinsicht außergewöhnliches Digitalisierungsvorhaben vor. Es geht um die 140.000 Druckseiten der in 242 Bänden vorliegenden Oekonomisch-Technologischen Encyklopädie von Johann Georg Krünitz, die zwischen 1773 und 1858 entstand. Die Digitalisierung der 140.000 Druckseiten ist inzwischen erfolgt; als problematisch erwies sich gleichwohl, dass allein der lange Erscheinungszeitraum das seinige dazu tat, dass inhaltlich zusammengehörige Sachverhalte an vielerlei Alphabetstellen auftauchen. Hier setzen die Trierer Fachleute die DDC zur Klassifizierung aller Lemmata und Bilder ein und erreichen eine sachliche Gliederung und eine Gesamtschau, die in der Papierausgabe nicht zu erreichen war. Ein Beispiel: Das Suchwort Bier ergab 2.558 Treffer. Mehr hierzu unter www.kruenitz.uni-trier.de Damit endet die Nachlese über die beiden Verhandlungstage anläßlich der GfKl-Jahrestagung in Magdeburg. Sie soll nicht schließen ohne ein Dankeschön an die Universitätsbibliothek Magdeburg und ihre Mitarbeiter, die unsere beiden Arbeitsgruppen in ihrem architektonisch und funktional glänzend gelungenen Neubau freundlich aufgenommen und professionell bestens unterstützt haben."
  11. Weber, A.: "HeiIFASTen" - Entschlacken mit Leistungsgewinn : Neue Möglichkeiten für Bibliothekskataloge durch den Einsatz von Suchmaschinentechnologie (2007) 0.01
    0.0071213124 = product of:
      0.042727873 = sum of:
        0.017983863 = weight(_text_:technik in 401) [ClassicSimilarity], result of:
          0.017983863 = score(doc=401,freq=2.0), product of:
            0.109023005 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.021906832 = queryNorm
            0.16495475 = fieldWeight in 401, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0234375 = fieldNorm(doc=401)
        0.0042486037 = weight(_text_:in in 401) [ClassicSimilarity], result of:
          0.0042486037 = score(doc=401,freq=20.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.14257601 = fieldWeight in 401, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=401)
        0.020495405 = weight(_text_:der in 401) [ClassicSimilarity], result of:
          0.020495405 = score(doc=401,freq=64.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.4188313 = fieldWeight in 401, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=401)
      0.16666667 = coord(3/18)
    
    Content
    "Der Einsatz von Suchmaschinentechnologie in Bibliothekskatalogen hat bewiesen, dass durch optimierte Indexierungsverfahren Verbesserungen der Informationsversorgung für Bibliotheksbenutzer erreicht werden. Im Dezember 2006 wurde das lokale Bibliotheksportal "SISIS-InfoGuide" von OCLC PICA um eine auf FAST Technologie basierende Suchmaschine erweitert. Die Investition des Freistaates Bayern in eine Landeslizenz für den Einsatz von FAST in den Bayerischen Universitätsbibliotheken hat sich ausgezahlt. Nachfolgend werden einige der Vorteile kurz skizziert, die sich aus dieser Erweiterung ergeben haben. Am deutlichsten ist die Auswirkung dieser Technik bei den Antwortzeiten. Insbesondere die Suche nach häufig in den Bibliotheksdaten vorkommenden Begriffen, z.B. Deutschland oder Geschichte, werden selbst sehr große Treffermengen in Bruchteilen von Sekunden geliefert. Das Scheitern von Abfragen wegen erreichter Zeitlimits gehört damit der Vergangenheit an. Aus dieser Tatsache ergibt sich auch, dass Benutzer nicht mehr spezifisch suchen müssen, da nun auch große Treffermengen in kurzer Zeit präsentiert werden. Das alleine wäre kein Vorteil, wenn nicht auch Methoden zur Verfügung gestellt würden, mit diesen Treffermengen umzugehen. Auch hier liefert die Suchmaschinentechnologie adäquate Hilfsmittel, die so genannten "Drill Downs". Bestimmte, vordefinierte Felder werden beim Aufbau der Trefferlisten analysiert und die Feldinhalte nach Häufigkeit sortiert als Sucheinschränkung angeboten. Die Eingrenzung auf eine Sprache, einen Erscheinungszeitraum oder ein bestimmtes Schlagwort ist so mit einem einzigen Mausklick möglich. Die daraus neu entstehende Treffermenge wird wiederum dieser Analyse unterworfen. Mit wenigen Mausklicks gelangt der Benutzer so von einem allgemeinen Ergebnis zu einer überschaubaren Menge an Treffern Standardmäßig werden die Treffer nicht mehr nach dem Alphabet oder Erscheinungsjahren sortiert, sondern es wird aus dem Vorkommen der Suchmuster in den Elementen der Katalogaufnahme und dem Erscheinungsjahr eine Relevanz ermittelt. Wie bei Internetsuchmaschinen gewohnt, werden die Treffer, die der Suchanfrage am besten entsprechen, in der Trefferliste ganz oben präsentiert,. Weiterhin ermöglicht die FAST Technologie eine Ähnlichkeitssuche, die auf Dokumentvektoren aufbaut. Diese werden an Hand statistischer Verfahren für das zu indexierende Dokument errechnet. Die Ermittlung von Ähnlichkeiten wird auf die erstellte Treffermenge angewendet und erlaubt sowohl Einschränkungen als auch Ausweitungen der ermittelten Suchergebnisse.
    Eine zusätzliche Unterstützung der Recherche bietet die auf Wörterbüchern basierende linguistische Komponente der Suchmaschine. Die Begriffe werden beim Indexieren der Daten lemmatisiert - also auf eine Grundform zurückgeführt. Bei der Eingabe der Suchanfrage werden dieselben linguistischen Methoden verwendet, um die eingegebenen Begriffe der Suchanfrage zu analysieren und ggf. auf die im Index enthaltene Form zu verändern. Dies führt zu Treffern auch wenn Suchbegriffe nicht exakt eingegeben werden und steigert so die Erfolgsquote. Mit Hilfe der Linguistik werden zusätzlich evtl. vorhandene Rechtschreibfehler korrigiert, oder ggf. alternative Begriffe vorgeschlagen. ("Meinten Sie?"). Der wesentliche Vorteil des Einsatzes der FAST Suchmaschine besteht aber darin, dass ein zusätzlicher Index zur Verfügung steht, der unabhängig von den internen Bibliotheksanwendungen ist. Die für die bibliotheksinternen Abläufe optimiert gespeicherten Daten können so vor der Indexierung durch die Suchmaschine verändert werden, ohne dass interne Arbeitsvorgänge davon betroffen wären. Auf diese Weise lassen sich viele, für den Benutzer nicht transparente, fachspezifische Daten aussondern oder transparenter gestalten. Das einfachste Beispiel dafür ist das Filtern von Sonderzeichen, z. B. im Erscheinungsjahr. Weiterhin können aus verschiedenen codiert gespeicherten Kategorien neue, mit sprechenden Bezeichnungen versehene Kategorien gebildet werden, z.B. für die Erscheinungsform eines Werkes. Die Bildung eines zusätzlichen Feldes "Fach" aus der in der Bibliothek verwendeten Klassifikation hat sich als effektiver Filter für die Selektion relevanter Treffer bei der Suche nach unspezifischen Suchbegriffen, wie z.B. Chaos, herausgestellt. Die Möglichkeit nach Schlagwortketten, also der Kombination von Schlagworten einzugrenzen, führt den Benutzer sehr einfach zu spezifischen Treffern und ist auch bei kleineren Treffermengen wirkungsvoll. Die Einbindung der FAST Suchmaschine in den lokalen Bibliothekskatalog bietet nicht nur eine wesentliche Verbesserung der Suchgeschwindigkeit, sondern sie eröffnet dem Benutzer durch die vielfältigen Analysemethoden der Treffer während der Anzeige auch ganz neue Wege im Umgang mit Treffermengen. Hinzu kommt, dass durch die geeignete Aufbereitung der Ausgangsdaten es nun auch möglich ist, die von der Bibliothek geleistete Sacherschließung als effektives Hilfsmittel für den Endanwender einzusetzen."
  12. Woldering, B.: ¬Die Europäische Digitale Bibliothek nimmt Gestalt an (2007) 0.01
    0.00707118 = product of:
      0.042427078 = sum of:
        0.004387939 = weight(_text_:in in 2439) [ClassicSimilarity], result of:
          0.004387939 = score(doc=2439,freq=12.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.14725187 = fieldWeight in 2439, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.022137567 = weight(_text_:der in 2439) [ClassicSimilarity], result of:
          0.022137567 = score(doc=2439,freq=42.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.45238948 = fieldWeight in 2439, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.015901571 = product of:
          0.023852356 = sum of:
            0.011980061 = weight(_text_:29 in 2439) [ClassicSimilarity], result of:
              0.011980061 = score(doc=2439,freq=2.0), product of:
                0.077061385 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021906832 = queryNorm
                0.15546128 = fieldWeight in 2439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2439)
            0.011872293 = weight(_text_:22 in 2439) [ClassicSimilarity], result of:
              0.011872293 = score(doc=2439,freq=2.0), product of:
                0.076713994 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021906832 = queryNorm
                0.15476047 = fieldWeight in 2439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2439)
          0.6666667 = coord(2/3)
      0.16666667 = coord(3/18)
    
    Abstract
    Der Aufbau der Europäischen Digitalen Bibliothek wurde im Herbst 2007 auf soliden Grund gestellt: Mit der European Digital Library Foundation steht eine geschäftsfähige Organisation als Trägerin der Europäischen Digitalen Bibliothek zur Verfügung. Sie fungiert zunächst als Steuerungsgremium für das EU-finanzierte Projekt EDLnet und übernimmt sukzessive die Aufgaben, die für den Aufbau und die Weiterentwicklung der Europäischen Digitalen Bibliothek notwendig sind. Die Gründungsmitglieder sind zehn europäische Dachorganisationen aus den Bereichen Bibliothek, Archiv, audiovisuelle Sammlungen und Museen. Vorstandsmitglieder sind die Vorsitzende Elisabeth Niggemann (CENL) die Vize-Vorsitzende Martine de Boisdeffre (EURBICA), der Schatzmeister Edwin van Huis (FIAT) sowie Wim van Drimmelen, der Generaldirektor der Koninklijke Bibliotheek, der Nationalbibliothek der Niederlande, welche die Europäische Digitale Bibliothek hostet. Der Prototyp für die Europäische Digitale Bibliothek wird im Rahmen des EDLnet-Projekts entwickelt. Die erste Version des Prototyps wurde auf der internationalen Konferenz »One more step towards the European Digital Library« vorgestellt, die am 31. Januar und 1. Februar 2008 in der Deutschen Nationalbibliothek (DNB) in Frankfurt am Main stattfand. Die endgültige Version des Prototyps wird im November 2008 von der EU-Kommissarin für Informationsgesellschaft und Medien, Viviane Reding, in Paris vorgestellt werden. Dieser Prototyp wird direkten Zugang zu mindestens zwei Mio. digitalisierten Büchern, Fotografien, Karten, Tonaufzeichnungen, Filmaufnahmen und Archivalien aus Bibliotheken, Archiven, audiovisuellen Sammlungen und Museen Europas bieten.
    Content
    Darin u.a. "Interoperabilität als Kernstück - Technische und semantische Interoperabilität bilden somit das Kernstück für das Funktionieren der Europäischen Digitalen Bibliothek. Doch bevor Wege gefunden werden können, wie etwas funktionieren kann, muss zunächst einmal festgelegt werden, was funktionieren soll. Hierfür sind die Nutzeranforderungen das Maß aller Dinge, weshalb sich ein ganzes Arbeitspaket in EDLnet mit der Nutzersicht, den Nutzeranforderungen und der Nutzbarkeit der Europäischen Digitalen Bibliothek befasst, Anforderungen formuliert und diese im Arbeitspaket »Interoperabilität« umgesetzt werden. Für die Entscheidung, welche Inhalte wie präsentiert werden, sind jedoch nicht allein technische und semantische Fragestellungen zu klären, sondern auch ein Geschäftsmodell zu entwickeln, das festlegt, was die beteiligten Institutionen und Organisationen in welcher Form zu welchen Bedingungen zur Europäischen Digitalen Bibliothek beitragen. Auch das Geschäftsmodell wird Auswirkungen auf technische und semantische Interoperabilität haben und liefert die daraus abgeleiteten Anforderungen zur Umsetzung an das entsprechende Arbeitspaket. Im EDLnet-Projekt ist somit ein ständiger Arbeitskreislauf installiert, in welchem die Anforderungen an die Europäische Digitale Bibliothek formuliert, an das Interoperabilitäts-Arbeitspaket weitergegeben und dort umgesetzt werden. Diese Lösung wird wiederum an die Arbeitspakete »Nutzersicht« und »Geschäftsmodell« zurückgemeldet, getestet, kommentiert und für die Kommentare wiederum technische Lösungen gesucht. Dies ist eine Form des »rapid prototyping«, das hier zur Anwendung kommt, d. h. die Funktionalitäten werden schrittweise gemäß des Feedbacks der zukünftigen Nutzer sowie der Projektpartner erweitert und gleichzeitig wird der Prototyp stets lauffähig gehalten und bis zur Produktreife weiterentwickelt. Hierdurch verspricht man sich ein schnelles Ergebnis bei geringem Risiko einer Fehlentwicklung durch das ständige Feedback."
    Date
    22. 2.2009 19:10:56
    Source
    Dialog mit Bibliotheken. 20(2008) H.1, S.29-31
  13. Weinberg, B.H.: Book indexes in France : medieval specimens and modern practices (2000) 0.01
    0.0068805874 = product of:
      0.061925285 = sum of:
        0.0062697898 = weight(_text_:in in 486) [ClassicSimilarity], result of:
          0.0062697898 = score(doc=486,freq=2.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.21040362 = fieldWeight in 486, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.109375 = fieldNorm(doc=486)
        0.055655494 = product of:
          0.08348324 = sum of:
            0.041930214 = weight(_text_:29 in 486) [ClassicSimilarity], result of:
              0.041930214 = score(doc=486,freq=2.0), product of:
                0.077061385 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021906832 = queryNorm
                0.5441145 = fieldWeight in 486, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=486)
            0.041553028 = weight(_text_:22 in 486) [ClassicSimilarity], result of:
              0.041553028 = score(doc=486,freq=2.0), product of:
                0.076713994 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021906832 = queryNorm
                0.5416616 = fieldWeight in 486, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=486)
          0.6666667 = coord(2/3)
      0.11111111 = coord(2/18)
    
    Date
    20. 4.2002 19:29:54
    Source
    Indexer. 22(2000) no.1, S.2-13
  14. Trkulja, V.: ¬Die Digitale Kluft : eine Analyse der Informationsinfrastruktur in Bosnien-Herzegowina (2008) 0.01
    0.0062977336 = product of:
      0.0377864 = sum of:
        0.0062054833 = weight(_text_:in in 1600) [ClassicSimilarity], result of:
          0.0062054833 = score(doc=1600,freq=6.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.2082456 = fieldWeight in 1600, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=1600)
        0.023666056 = weight(_text_:der in 1600) [ClassicSimilarity], result of:
          0.023666056 = score(doc=1600,freq=12.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.4836247 = fieldWeight in 1600, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1600)
        0.007914863 = product of:
          0.023744587 = sum of:
            0.023744587 = weight(_text_:22 in 1600) [ClassicSimilarity], result of:
              0.023744587 = score(doc=1600,freq=2.0), product of:
                0.076713994 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021906832 = queryNorm
                0.30952093 = fieldWeight in 1600, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1600)
          0.33333334 = coord(1/3)
      0.16666667 = coord(3/18)
    
    Abstract
    Eines der meistdiskutierten Themen bezüglich der Informationsgesellschaft ist das der Digitalen Kluft. Die Informations- und Kommunikationstechnologien (IKT) sind Grundbausteine einer jeden Informationsgesellschaft und bieten große Chancen für die soziale und ökonomische Entwicklung eines Landes. Im Vergleich zu den Teilstaaten des ehemaligen Jugoslawiens wird der aktuelle Stand der Informationsinfrastruktur in Bosnien-Herzegowina aufgezeigt. Auch wenn die IKT in den letzten Jahren eine dynamische Entwicklung erfahren haben, leidet das Land noch immer an den Folgen des Bürgerkrieges. Die komplizierten politischen Verhältnisse verzögern den Ausbau hin zu einer Informationsgesellschaft.
    Date
    5. 3.2008 19:22:56
  15. Ruskai, M.B.: Response to Graham : the quantum view (2001) 0.01
    0.0058976463 = product of:
      0.053078815 = sum of:
        0.0053741056 = weight(_text_:in in 5779) [ClassicSimilarity], result of:
          0.0053741056 = score(doc=5779,freq=2.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.18034597 = fieldWeight in 5779, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=5779)
        0.047704708 = product of:
          0.07155706 = sum of:
            0.035940185 = weight(_text_:29 in 5779) [ClassicSimilarity], result of:
              0.035940185 = score(doc=5779,freq=2.0), product of:
                0.077061385 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021906832 = queryNorm
                0.46638384 = fieldWeight in 5779, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5779)
            0.03561688 = weight(_text_:22 in 5779) [ClassicSimilarity], result of:
              0.03561688 = score(doc=5779,freq=2.0), product of:
                0.076713994 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021906832 = queryNorm
                0.46428138 = fieldWeight in 5779, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5779)
          0.6666667 = coord(2/3)
      0.11111111 = coord(2/18)
    
    Footnote
    Erwiderung auf: Graham, L.R.: Do mathematical equations display social attributes? in: Mathematical intelligencer 22(2000) no.3, S.31-36
    Source
    Mathematical intelligencer. 23(2001) no.1, S.23-29
  16. Hermes, H.-J.: AG Dezimalklassifikation (AG DK) 12. März (2003) 0.01
    0.00583 = product of:
      0.03498 = sum of:
        0.003878427 = weight(_text_:in in 1695) [ClassicSimilarity], result of:
          0.003878427 = score(doc=1695,freq=24.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.1301535 = fieldWeight in 1695, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1695)
        0.019095466 = weight(_text_:der in 1695) [ClassicSimilarity], result of:
          0.019095466 = score(doc=1695,freq=80.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.390223 = fieldWeight in 1695, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1695)
        0.012006108 = product of:
          0.018009162 = sum of:
            0.010588978 = weight(_text_:29 in 1695) [ClassicSimilarity], result of:
              0.010588978 = score(doc=1695,freq=4.0), product of:
                0.077061385 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021906832 = queryNorm
                0.13740966 = fieldWeight in 1695, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1695)
            0.0074201836 = weight(_text_:22 in 1695) [ClassicSimilarity], result of:
              0.0074201836 = score(doc=1695,freq=2.0), product of:
                0.076713994 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021906832 = queryNorm
                0.09672529 = fieldWeight in 1695, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1695)
          0.6666667 = coord(2/3)
      0.16666667 = coord(3/18)
    
    Content
    "Während im Rahmen der beiden bibliothekarischen Veranstaltungstage am 11. und 12.3.2003 eine Reihe von wichtigen Vorträgen zur Bedeutung und Entwicklung, aber auch zu Kosten bibliothekarischer Sacherschließung gehalten wurden, fand die jährliche Besprechung der AG Dezimalklassifikationen am 12.3. vormittags, also zu Beginn der 27. Jahrestagung der Gesellschaft an der Brandenburgischen Technischen Universität Cottbus statt. Zunächst war erster Redner dieser Besprechung der AG außerordentlicherweise der Vorsitzende der GfKl, Herr Prof. Dr. Opitz. Dieser äußerte dabei den Wunsch der Gesellschaft, die bibliothekarische Arbeit und dementsprechend die Arbeitsgemeinschaft Dezimalklassifikationen auf Dauer in der GfKI integriert zu wissen. Dabei würde er auch eine intensivere Verflechtung mit der Jahrestagung, auch mit ihren gesellschaftlichen Ereignissen begrüßen, um so auch persönliche Kontakte zu fördern bzw. zu ermöglichen. Ebenso wies Prof. Opitz darauf hin, daß jeder AG jährlich auch ein Finanzbeitrag der Gesellschaft zur Organisation von Vorträgen u.ä. zur Verfügung steht. Bei der Besprechung der AG selbst aktualisierten zunächst Herr Dr. Holger Flachmann (ULB Münster) und Herr Dr. Jiri Pika (ETH Zürich) ihre Berichte der Vorjahrestagung (vgl. GfKI Nr. 52 vom November 2002, S. 12). Danach gab Herr Dr. Bernd Lorenz (Bay. BeamtenFachhochschule München) einen kurzen Überblick über wichtige deutsche Literatur zum Projekt DDC Deutsch. Während der Workshop von DDB am 17.1.2001 in Frankfurt/M. die Entwicklung von DDC und UDK sowie die Bedeutung einer Konkordanzarbeit unterstrich (vgl. Dialog mit Bibliotheken 13. 2001, S. 29-31), verweist Magda Heiner-Freiling in ihrem Beitrag "Dewey in der Deutschen Nationalbibliographie" (Bibliotheksdienst 36. 2002, S. 709-715) auch auf die Unterschiede zwischen der derzeitigen Gliederung der DNBSachgruppen und der künftigen Entwicklung gemäß DDC (S. 711 f.). Sie erinnert zu Recht daran, dass "für Aufstellungszwekke von einer Weiterverwendung der bisherigen Klassifikationen im deutschsprachigen Raum auszugehen (ist), im Fall der RVK sogar von einer weiteren Verbreitung" (S. 714). Von einem "Anschluß der deutschen Bibliotheken an die amerikanische DDC" (ZfBB 50, 2003 S. 27) kann somit nicht gesprochen werden. Von grundsätzlicher Bedeutung bleibt weiterhin die Arbeit von Magda Heiner-Freiling "DDC Deutsch 22 formale, terminologische und inhaltliche Aspekte einer deutschen DDCAusgabe" (ZfBB 48. 2001, S. 333-339). Hier seien zehn Aspekte zur DDC-Arbeit herausgegriffen, denen bleibende Bedeutung zu kommt. - Es ist noch keine angemessene Berücksichtigung europäischer Belange erreicht (S. 333) - Die bekannten Terminologieprobleme (S. 336 ff.) sind auch für Bereiche von Pflanzen und Tieren anzuzeigen (S. 339). - Inhaltliche Probleme bestehen, die aber nicht relevant werden, die die meisten Bibliotheken nicht an eine Aufstellung gemäß DDC denken (S. 337). - Dementsprechend ist auch der Umfang einer DDC-Nutzung in den Bibliotheken unklar (S. 334). - Davon hängt die perspektivische Frage nach einem Bedarf an späteren Buchausgaben ab (S. 335). - Große Bedeutung kommt auch der geplanten DDCDatenbank zu (S. 335). Hierzu gibt es inzwischen Vorarbeiten. - Wichtig für die Anwendung wird die unverzichtbare Verzahnung von DDC und SWD (S. 336). - Bedeutend ist auch die Möglichkeit einer Trunkierbarkeit der Notationen (S. 336). - Ebenso ist die Erstellung von Arbeitsanweisungen vorrangig (S.337). - Denkbar große Bedeutung hat die Feststellung und Vorhersage, dass die DDC Deutsch keine "reine" Übersetzung der DDC darstellen wird, sondern zugleich Auslegung, Bearbeitung usw. (S. 335).
    Die Vielfältigkeit dieses Themas war dann Gegenstand des wesentlichen Vortrags von Michael Preuss (FH Köln) "Die DDC übersetzen: ein Werkstattbericht". Es folgte eine umfangreiche Diskussion. Dieses Referat wird veröffentlicht werden und ist daher an dieser Stelle nicht ausführlich dargestellt. Gewiß wird die Thematik in späteren Besprechungen eine wichtige Rolle spielen. Neben der Publikationstätigkeit leistet DDB neben dem Expertenpool und DDC Deutsch seit Januar 2003 durch das (Internet) Informationsforum DDC Deutsch einen wichtigen Beitrag zur Information der Berufsöffentlichkeit. Die mehrfach von DDB vorgebrachte Äußerung "Wünschenswert ist in jedem Fall eine Meinungsbildung und Entscheidungsfindung auf breiter Basis" (hier M. HeinerFreiling: Bibliotheksdienst 36. 2002, S. 715) wurde nicht unerwartet, dafür aber geradezu heftig in einer Inetbib-Diskussion erfüllt, die Ende Januar 2003 etwa zwei Dutzend Äußerungen erbrachte. Neben allgemeinen Fragen wie einheitliche (Fein-) Klassifikation und dem wiederholten Hinweis auf inhaltliche Probleme der DDC wurden hier vorrangig Fragen von Sinn und Nutzen einer DDC-Anwendung angesprochen, aber auch die häufig in ihrer Bedeutung unterschätzten bzw. auch heruntergespielten Probleme von Urheberrecht, Lizenz und Folgekosten, Probleme, denen bisher im deutschen Klassifikationsbereich kaum Relevanz zukam. Weiter ist natürlich bei DDB nachzufragen, inwieweit DDB ihre Aufgabe zur national-bibliographischen Arbeit erfüllen wird, denn Erläuterungen wie "Es werden nicht alle Titel der DNB mit DDC erschlossen, nur international wichtige Literatur" (Chr. Baumann in BuB 54, 2002 S. 75 f.) führen u.a. auch zu der Fragestellung nach Sinn und Begründung einer DDC-Einführung bei der DNB, nach der Relation von Kosten und Ergebnis. Als Diskussionsbasis für die weitere Arbeit der AG listete dann der Vorsitzende B. Lorenz folgende Überlegungen auf: 1. Grundlegend für die Arbeit ist die Feststellung von (auch bisher unbekannten) Nutzern der Dezimalklassifikationen im deutschen Sprachbereich 2. Dementsprechend stellt sich die Frage nach (klassifikationsbezogenen) Kontakten dieser Nutzer untereinander 3. Wie sind Kontakte mit internationalen Gremien (UDCC) im Ablauf bzw. nach Belang einzuordnen? DACH? 4. Gibt es eine Nutzung von klassifikatorischen Fremddaten im Anwenderkreis (direkt bzw. über Verbünde) (mit Statistik dafür)? 5. Wird die DK-Arbeit insbesondere der ETH Zürich genutzt? 6. Besteht (auch inoffizielle) Arbeit am Klassifikationstext durch Anwender? Auch durch bewusste Nichtverwendung offizieller Notationen bzw. vom Text abweichende Anwendungen? Werden Verweisungen berücksichtigt? Welche Bedeutung hat der MRF? 7. In letzter Konsequenz: Verwenden die Anwender die DK? Mit Adaptionen? Oder liegen Lokalsysteme auf dem Hintergrund der DK vor? B. Gibt es Beobachtungen/Notizen zu den Unterschieden zwischen DDC und DK? 9. Besteht Interesse/Möglichkeit an derartiger Arbeit (mögliche Perspektive: Dezimal-Spezialisten auch für DDB)? 10. Wichtig wäre auch Konkordanzarbeit betreffs DDC, DK, RVK, BK (zunächst für Einzelfächer zur methodischen Erprobung) Grundsätzlich zu überprüfen sind die Möglichkeiten dieser Arbeiten in Bezug auf (auch finanzielles) Engagement von Bibliotheken und Mitarbeitern, ebenso Ausbildungs-Stätten und weiteren Interessierten."
    Date
    24. 6.2003 18:29:00
  17. Blake, V.L.P.: Forging the Anglo-American Cataloging Alliance : descriptive cataloging, 1830-1908 (2003) 0.01
    0.0057589957 = product of:
      0.051830962 = sum of:
        0.0120770335 = weight(_text_:der in 4056) [ClassicSimilarity], result of:
          0.0120770335 = score(doc=4056,freq=2.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.2467987 = fieldWeight in 4056, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=4056)
        0.03975393 = product of:
          0.05963089 = sum of:
            0.029950155 = weight(_text_:29 in 4056) [ClassicSimilarity], result of:
              0.029950155 = score(doc=4056,freq=2.0), product of:
                0.077061385 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021906832 = queryNorm
                0.38865322 = fieldWeight in 4056, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4056)
            0.029680735 = weight(_text_:22 in 4056) [ClassicSimilarity], result of:
              0.029680735 = score(doc=4056,freq=2.0), product of:
                0.076713994 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021906832 = queryNorm
                0.38690117 = fieldWeight in 4056, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4056)
          0.6666667 = coord(2/3)
      0.11111111 = coord(2/18)
    
    Date
    29. 7.2006 20:05:15
    Pages
    S.3-22
    Theme
    Geschichte der Kataloge
  18. Weiße, A.: AG Dezimalklassifikation (AG DK) (2002) 0.01
    0.00569769 = product of:
      0.03418614 = sum of:
        0.005856296 = weight(_text_:in in 1693) [ClassicSimilarity], result of:
          0.005856296 = score(doc=1693,freq=38.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.19652747 = fieldWeight in 1693, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1693)
        0.02536177 = weight(_text_:der in 1693) [ClassicSimilarity], result of:
          0.02536177 = score(doc=1693,freq=98.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.5182773 = fieldWeight in 1693, product of:
              9.899495 = tf(freq=98.0), with freq of:
                98.0 = termFreq=98.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1693)
        0.0029680734 = product of:
          0.00890422 = sum of:
            0.00890422 = weight(_text_:22 in 1693) [ClassicSimilarity], result of:
              0.00890422 = score(doc=1693,freq=2.0), product of:
                0.076713994 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021906832 = queryNorm
                0.116070345 = fieldWeight in 1693, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1693)
          0.33333334 = coord(1/3)
      0.16666667 = coord(3/18)
    
    Abstract
    Die diesjährige Öffentliche Sitzung der AG Dezimalklassifikationen fand am 23.7.02 im Rahmen der 26. Jahrestagung der Gesellschaft für Klassifikation in Mannheim statt. Das Programm bot ein breites Spektrum der klassifikatorischen Sacherschließung. In ihrem Vortrag unter dem Thema "Aktuelle Anwendungen und Entwicklungen der DDC" berichtete Frau Esther Scheven (DDB Frankfurt) über die Projekte "RENARDUS" und "DDC Deutsch". Das EU-Projekt RENARDUS (http://www.renardus.org) ist ein Recherchesystem für Internet-Fachinformationsführer mit einer gemeinsamen Suchoberfläche, in dem die DDC als CrossBrowse-Instrument eingesetzt wird. Die RENARDUS-Partner haben jeweils eine Konkordanztabelle von ihrer lokalen Klassifikation zur DDC erstellt. Das Klassifikationssystem DDC wurde deshalb bevorzugt, weil es online verfügbar ist, in verschiedene europäische Sprachen übersetzt wurde, einen weltweiten Anwenderkreis habe und zum Cross-Browsen besser geeignet sei als das Klassifikationssystem UDC. Anhand von geographischen Schlagwörtern wurde untersucht, inwieweit DDC-Notationen die Interoperabilität der Erschließung mit Schlagwörtern verschiedener Gateways mit unterschiedlichen Sprachen verbessern. Die DDC wird als Suchelement im Geographischen Index benutzt. Zum Projekt "DDC Deutsch" (http://www.ddb.de/professionell/ ddc info.htm) gab Frau Scheven einen kurzen Überblick über die wichtigsten Tätigkeiten und Entwicklungen. Dazu gehören die Übersetzung der 22. Auflage der DDC, die Überarbeitung der Table 2 für Deutschland und Österreich, die Überarbeitung der Sachgebiete Geschichte Deutschland, Geschichte Österreich, Parteiensysteme Deutschland. Nach Abschluß der Arbeiten wird ab 2005 in der Deutschen Nationalbibliographie (Reihe A, B und H) die DDC als Klassifikationssystem für wissenschaftliche relevante bzw. international wichtige Publikationen verwendet. Desweiteren ist vorgesehen, Schlagwörter der Schlagwortnormdatei (SWD) mit DDCNotationen zu verknüpfen. Herr Dr. Holger Flachmann (ULB Münster) stellte in seinem Vortrag "Digitale Reproduktion systematischer Zettelkataloge: Praxis, Gewinn und Grenzen am Beispiel des UDK-Kataloges der ULB Münster" ein interessantes und nachahmenswertes Projekt vor. In der ULB Münster wurde der bis 1990 nach UDK geführte Systematische Katalog (1,4 Millionen Katalogkarten mit 80 000 Systemstellen) als Imagekatalog konvertiert. Die elektronisch erfassten Systemstellen (UDK-Notationen) sind recherchierbar und mit den dazugehörigen Titeln verknüpft, die als digitale Bilder der Katalogzettel gespeichert sind. Ebenso ist die Suche mit Stichwörtern möglich.
    Das Recherchesystem bietet eine Übersicht der Fachgebiete nach UDK, ein Register der Fächer (z.B. Register A-Z Wirtschaftswissenschaften), eine alphabetische Auflistung der Fächer und die systematische Gliederung der Fachgebiete mit Anzeige der Anzahl der Titelnachweise. Der von der Firma Mikro Univers GmbH Berlin erstellte digitalisierte Katalog wurde ab 1.8.02 frei geschaltet (http://altkataloge.uni-muenster.de/de/index sys.htm). Das von der ULB Münster realisierte Projekt könnte für andere Universitätsbibliotheken Anregung sein, konventionelle Systematische Zettelkataloge, die vor allem ältere wissenschaftliche Literatur nachweisen und erfahrungsgemäß in dieser Form wenig genutzt werden, in digitalisierter Form einem über die Grenzen der jeweiligen Universitätsbibliothek erweiterten Nutzerkreis zur Verfügung zu stellen. Herr Dr. Jiri Pika (ETH Zürich) referierte in seinem Vortrag "Anwendung der UDK in NEBIS in der Schweiz: ein Ausblick" über die seit etwa 20 Jahren praktizierte inhaltliche Erschließung von Dokumenten nach UDK im neuen Bibliothekssystem NEBIS (Netzwerk von Bibliotheken und Informationsstellen in der Schweiz http://www.nebis.ch/index.html), das das Bibliothekssystem ETHICS ablöste. Wie im System ETHICS beruht die Abfrage auf Deskriptoren in drei Sprachen (deutsch, englisch, französisch) und einer Anzahl weiterer Begriffe (Synonyme, Akronyme), womit ein benutzerfreundlicher den Gegebenheiten der multilingualen Schweiz angepasster Einstieg in die Recherche ermöglicht wird. Hinter den Deskriptoren steht eine einzige DK-Zahl, die im Hintergrund die mit ihr verknüpften Titel zusammenführt. Das von Fachreferenten gepflegte Sachregister beinhaltet etwa 63 513 Grundbegriffe (Stand 27.3.2002) mit einer DK-Zahl, die Anzahl der Zusatzbegriffe beträgt das 5 - 8fache. Die Vorzüge des Systems bestehen darin, dass unter Verwendung von Deskriptoren bei der Recherche der Zugriff sowohl auf gedruckte als auch auf elektronische Medien (etwa 2 Millionen Dokumente) möglich ist, ohne dass Kenntnisse des Klassifikationssystems erforderlich sind. Mit der Umstellung von ETHICS auf NEBIS im Jahre 1999 wurde eine neue Benutzeroberfläche angeboten und eine wesentliche Verkürzung der Antwortzeiten erreicht. Zum Anwenderkreis gehören etwa 60 Bibliotheken von Hochschulen, Fachhochschulen und Forschungsanstalten aus allen Regionen der Schweiz, z.B. ETH Zürich, Ecole Polytechnique Federale de Lausanne, weitere Schweizer Verbundbibliotheken, sowie in der Suchmaschine GERHARD (German Harvest Automated Retrieval Directory http://www.gerhard.de/gerold/owa/gerhard.create_ Index html?form-language=99). Der im Programm ausgewiesene Vortrag von Herrn Dr. Bernd Lorenz (München) zum Thema "Konkordanz RVK (Regensburger Verbundklassifikation) - DDC (Dewey Decimal Classification): Notwendigkeit und Vorüberlegungen" wurde vertretungsweise von Herrn Dr. Hans-Joachim Hermes (Chemnitz) übernommen. Bereits seit Beginn der Überlegungen, die DDC in der Deutschen Nationalbibliographie als Klassifikationssystem zu verwenden, werden auch Vorstellungen über eine Konkordanz zwischen den beiden Klassifikationssystemen RVK und DDC geäußert. Die geplante Konkordanz wird die Nutzung beider Klassifikationssysteme vergrößern. In der Darstellung wurden Probleme auf der sprachlichterminologischen Ebene, die bei den Benennungen der Notationen sichtbar werden, aufgezeigt. Nach den Fachvorträgen fand die turnusmäßige Neuwahl des Leiters der AG Dezimalklassifikationen statt. Zum neuen Vorsitzenden wurde Herr Dr. Bernd Lorenz (Bayerische Beamtenfachhochschule München) gewählt.
    Footnote
    Bericht der Arbeitsgruppe, insbesondere von der Öffentlichen Sitzung am 23.7.02 im Rahmen der 26. Jahrestagung der Gesellschaft für Klassifikation in Mannheim
  19. Hubrich, J.: Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2005) 0.01
    0.005520995 = product of:
      0.033125967 = sum of:
        0.005429798 = weight(_text_:in in 3690) [ClassicSimilarity], result of:
          0.005429798 = score(doc=3690,freq=6.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.1822149 = fieldWeight in 3690, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3690)
        0.0207078 = weight(_text_:der in 3690) [ClassicSimilarity], result of:
          0.0207078 = score(doc=3690,freq=12.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.4231716 = fieldWeight in 3690, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3690)
        0.006988369 = product of:
          0.020965107 = sum of:
            0.020965107 = weight(_text_:29 in 3690) [ClassicSimilarity], result of:
              0.020965107 = score(doc=3690,freq=2.0), product of:
                0.077061385 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021906832 = queryNorm
                0.27205724 = fieldWeight in 3690, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3690)
          0.33333334 = coord(1/3)
      0.16666667 = coord(3/18)
    
    Abstract
    »Sacherschließung - können wir uns die noch leisten?« Angesichts des zunehmend geringeren Gesamtetats, der den Bibliotheken zur Verfügung steht, drängt sich diese Frage nahezu auf. Sacherschließung ist teuer und für das moderne Bibliothekswesen nur dann noch tragbar, wenn der Mitteleinsatz in einem angemessenen Verhältnis zum Ergebnis steht, das sich in der Leistungsfähigkeit des Produkts widerspiegelt. Im deutschsprachigen Raum trägt die SWD wesentlich zu einer effektiveren Sacherschließungsarbeit bei. Ihre Pflege und Weiterentwicklung ist jedoch mit einem enormen Aufwand gekoppelt, der nur mit einer entsprechenden Nutzung der Daten für das thematische Retrieval in den OPACs gerechtfertigt werden kann.
    Source
    Dialog mit Bibliotheken. 17(2005) H.2, S.19-29
  20. "Catalogue enrichment" : hbz kooperiert mit Springer (2006) 0.01
    0.005344029 = product of:
      0.032064173 = sum of:
        0.0044784215 = weight(_text_:in in 5165) [ClassicSimilarity], result of:
          0.0044784215 = score(doc=5165,freq=8.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.15028831 = fieldWeight in 5165, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5165)
        0.02259406 = weight(_text_:der in 5165) [ClassicSimilarity], result of:
          0.02259406 = score(doc=5165,freq=28.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.46171808 = fieldWeight in 5165, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5165)
        0.0049916925 = product of:
          0.0149750775 = sum of:
            0.0149750775 = weight(_text_:29 in 5165) [ClassicSimilarity], result of:
              0.0149750775 = score(doc=5165,freq=2.0), product of:
                0.077061385 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021906832 = queryNorm
                0.19432661 = fieldWeight in 5165, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5165)
          0.33333334 = coord(1/3)
      0.16666667 = coord(3/18)
    
    Abstract
    Ein weiterer Meilenstein beim Catalogue Enrichment ist die Kooperation zwischen dem Hochschulbibliothekszentrum NRW (hbz) und Springer Science+Business Media. Ziel der Kooperation ist eine Anreicherung der im hbz-Verbundbestand nachgewiesenen Springer-Titel um Inhalte wie Buchcover, Inhaltsverzeichnisse, Vorworte und Probekapitel.
    Content
    "»Die Anreicherung von Bibliothekskatalogen bedeutet zusätzliche Informationen für die Bibliotheksnutzer«, betont Hans Ollig; der Leiter des hbz. »Sie erhalten dadurch wichtige Orientierungs- und Entscheidungshilfen bei der Auswahl der Literatur.« Der Springer-Verlag lieferte dem hbz zunächst einen Grundbestand von 22.000 Objekten der Verlagsproduktion der letzten fünf Jahre. Daran schließen sich Ergänzungslieferungen an: Neue Titel des Verlags werden monatlich auf den Servern des hbz eingespielt. Technische Basis des Catalogue Enrichment sind das Verbundsystem Aleph, der hbz-Medienserver und die hbz-Suchmaschinentechnologie zur Präsentation der Daten. Zunächst sind die rund 17.000 im hbz-Verbundkatalog vorhandenen Springer-Titel in den Medienserver geladen und in der hbz-Verbunddatenbank verfügbar gemacht worden. Von dort aus werden sie in die lokalen Kataloge der Verbundbibliotheken und in den Dreiländerkatalog des hbz integriert. Die Daten werden soweit möglich volltextlich indexiert und können somit bei der Recherche direkt durchsucht werden. Die Kooperation mit Springer Science+Business Media ist erst der Anfang: Das hbz verhandelt bereits mit weiteren Verlagen und Datenanbietern über Kooperationen, um den Bibliotheken weiteren, über die traditionelle sachliche Erschließung hinausgehenden Mehrwert für ihre Kataloge bieten zu können,"
    Date
    4. 7.2006 20:29:31

Authors

Types

Themes