Search (22959 results, page 1 of 1148)

  • × language_ss:"e"
  • × type_ss:"a"
  1. Müller, T.; Neth, H.: Wissenswust : Multimedia-Enzyklopädien auf CD-ROM (1996) 0.33
    0.3258344 = product of:
      0.43444586 = sum of:
        0.29166713 = weight(_text_:lexikon in 4878) [ClassicSimilarity], result of:
          0.29166713 = score(doc=4878,freq=8.0), product of:
            0.30085498 = queryWeight, product of:
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.04800207 = queryNorm
            0.96946084 = fieldWeight in 4878, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4878)
        0.03737085 = weight(_text_:von in 4878) [ClassicSimilarity], result of:
          0.03737085 = score(doc=4878,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29180688 = fieldWeight in 4878, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4878)
        0.105407864 = product of:
          0.1581118 = sum of:
            0.008549047 = weight(_text_:a in 4878) [ClassicSimilarity], result of:
              0.008549047 = score(doc=4878,freq=6.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.1544581 = fieldWeight in 4878, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4878)
            0.14956275 = weight(_text_:z in 4878) [ClassicSimilarity], result of:
              0.14956275 = score(doc=4878,freq=4.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.5837686 = fieldWeight in 4878, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4878)
          0.6666667 = coord(2/3)
      0.75 = coord(3/4)
    
    Content
    Vorgestellt werden: Kompakt Brockhaus Multimedial; Bertelsmann Universallexikon 1996; Bertelsmann Discovery 1995/96; Knaurs Lexikon von A bis Z 4.3b; Micrsoft Home LexiROM; LexiCon; Data Becker Lexikon 1.0e; Compton's Interactive Encyclopedia 1996; Grolier Multimedia Encyclopedia 1996; Hutchinson Multimedia Encyclopedia 1995; Microsoft Encarta 96; InfoPedia 2.0; Encyclopaedia Britannica CD 2.02
    Object
    Knaurs Lexikon von A-Z
    Große Data Becker Lexikon
    Type
    a
  2. Jiang, T.: Architektur und Anwendungen des kollaborativen Lernsystems K3 (2008) 0.10
    0.10099386 = product of:
      0.20198771 = sum of:
        0.04576976 = weight(_text_:von in 1391) [ClassicSimilarity], result of:
          0.04576976 = score(doc=1391,freq=6.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.357389 = fieldWeight in 1391, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1391)
        0.15621796 = sum of:
          0.004935794 = weight(_text_:a in 1391) [ClassicSimilarity], result of:
            0.004935794 = score(doc=1391,freq=2.0), product of:
              0.055348642 = queryWeight, product of:
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.04800207 = queryNorm
              0.089176424 = fieldWeight in 1391, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1391)
          0.105756834 = weight(_text_:z in 1391) [ClassicSimilarity], result of:
            0.105756834 = score(doc=1391,freq=2.0), product of:
              0.2562021 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04800207 = queryNorm
              0.41278675 = fieldWeight in 1391, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1391)
          0.045525327 = weight(_text_:22 in 1391) [ClassicSimilarity], result of:
            0.045525327 = score(doc=1391,freq=2.0), product of:
              0.16809508 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04800207 = queryNorm
              0.2708308 = fieldWeight in 1391, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1391)
      0.5 = coord(2/4)
    
    Abstract
    Die K3-Architektur zur technischen Entwicklung und Realisierung des netzbasierten Wissensmanagement in der Lehre wird dargestellt. Das aktuelle K3-System besteht aus drei zentralen Komponenten; K3Forum (Diskurs), K3Vis (Visualisierung) und K3Wiki (kollaborative Textproduktion, z. B. für Zusammenfassungen). K3 verwendet Open-Source-Software unter der LGPL Lizenz.. Dadurch können freie Verwendung, überschaubare Entwicklungskosten und Nachhaltigkeit garantiert und die Unabhängigkeit von kommerziellen Software-Anbietern gesichert werden. Dank des komponentenbasierten Entwicklungskonzepts kann K3 flexibel und robust laufend weiterentwickelt werden, ohne die Stabilität der bestehenden Funktionalitäten zu beeinträchtigen. Der Artikel dokumentiert exemplarisch die Hauptkomponenten und Funktionen von K3, so dass nachfolgende Entwickler leicht eine Übersicht über das K3-System gewinnen können. Die Anforderungen an den Transfer des Systems in Umgebungen außerhalb von Konstanz werden beschrieben.
    Date
    10. 2.2008 14:22:00
    Type
    a
  3. Popper, K.R.: Three worlds : the Tanner lecture on human values. Deliverd at the University of Michigan, April 7, 1978 (1978) 0.10
    0.09531948 = product of:
      0.19063896 = sum of:
        0.10165336 = product of:
          0.30496007 = sum of:
            0.30496007 = weight(_text_:3a in 230) [ClassicSimilarity], result of:
              0.30496007 = score(doc=230,freq=2.0), product of:
                0.4069621 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04800207 = queryNorm
                0.7493574 = fieldWeight in 230, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=230)
          0.33333334 = coord(1/3)
        0.08898561 = product of:
          0.1334784 = sum of:
            0.012613453 = weight(_text_:a in 230) [ClassicSimilarity], result of:
              0.012613453 = score(doc=230,freq=10.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.22789092 = fieldWeight in 230, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=230)
            0.12086495 = weight(_text_:z in 230) [ClassicSimilarity], result of:
              0.12086495 = score(doc=230,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.47175628 = fieldWeight in 230, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0625 = fieldNorm(doc=230)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    In this lecture I intend to challenge those who uphold a monist or even a dualist view of the universe; and I will propose, instead, a pluralist view. I will propose a view of the universe that recognizes at least three different but interacting sub-universes.
    Source
    https%3A%2F%2Ftannerlectures.utah.edu%2F_documents%2Fa-to-z%2Fp%2Fpopper80.pdf&usg=AOvVaw3f4QRTEH-OEBmoYr2J_c7H
    Type
    a
  4. ¬The use of alternate classification numbers (1993) 0.09
    0.085903086 = product of:
      0.17180617 = sum of:
        0.04530031 = weight(_text_:von in 3922) [ClassicSimilarity], result of:
          0.04530031 = score(doc=3922,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.35372335 = fieldWeight in 3922, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.09375 = fieldNorm(doc=3922)
        0.12650587 = product of:
          0.18975879 = sum of:
            0.008461362 = weight(_text_:a in 3922) [ClassicSimilarity], result of:
              0.008461362 = score(doc=3922,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.15287387 = fieldWeight in 3922, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3922)
            0.18129744 = weight(_text_:z in 3922) [ClassicSimilarity], result of:
              0.18129744 = score(doc=3922,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.70763445 = fieldWeight in 3922, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3922)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Auswertung einer Umfrage (abgedruckt in: Cataloging service bulletin 1992, no.55) betr. die alternative Zuteilung von LCC-Notationen für Bibliographien (üblicherweise bei Z eingeordnet)
    Type
    a
  5. Soubusta, S.: On click fraud (2008) 0.07
    0.06832276 = product of:
      0.13664553 = sum of:
        0.0523083 = weight(_text_:von in 5133) [ClassicSimilarity], result of:
          0.0523083 = score(doc=5133,freq=6.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.40844458 = fieldWeight in 5133, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0625 = fieldNorm(doc=5133)
        0.084337234 = product of:
          0.12650585 = sum of:
            0.005640907 = weight(_text_:a in 5133) [ClassicSimilarity], result of:
              0.005640907 = score(doc=5133,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.10191591 = fieldWeight in 5133, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5133)
            0.12086495 = weight(_text_:z in 5133) [ClassicSimilarity], result of:
              0.12086495 = score(doc=5133,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.47175628 = fieldWeight in 5133, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5133)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Über Klickbetrug Internetwerbung wird immer wichtiger. Wie in jeder Wachstumsbranche versuchen auch hier Kriminelle von diesem Wachstum zu profitieren. Dies ist durch die Manipulation von Pay-Per-Click (PPC) Werbeanzeigen mithilfe künstlich produzierter Klicks möglich - eine Vorgehensweise, die als Klickbetrug (Click Fraud) bekannt ist. Klickbetrug ist nicht schwierig und könnte daher die Existenz von Firmen wie Google bedrohen. Zur Zeit scheint es keine Möglichkeit zu geben, Klickbetrug zu entdecken oder zu verhindern. Man kann Klickbetrug jedoch vermeiden, indem man PPC Werbung durch eine andere Berechnungsgrundlage, wie z. B. Cost-Per-Action, ersetzt.
    Type
    a
  6. Malsburg, C. von der: ¬The correlation theory of brain function (1981) 0.06
    0.06445054 = product of:
      0.08593405 = sum of:
        0.06353335 = product of:
          0.19060004 = sum of:
            0.19060004 = weight(_text_:3a in 76) [ClassicSimilarity], result of:
              0.19060004 = score(doc=76,freq=2.0), product of:
                0.4069621 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04800207 = queryNorm
                0.46834838 = fieldWeight in 76, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=76)
          0.33333334 = coord(1/3)
        0.01887513 = weight(_text_:von in 76) [ClassicSimilarity], result of:
          0.01887513 = score(doc=76,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.14738473 = fieldWeight in 76, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=76)
        0.0035255672 = product of:
          0.010576702 = sum of:
            0.010576702 = weight(_text_:a in 76) [ClassicSimilarity], result of:
              0.010576702 = score(doc=76,freq=18.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.19109234 = fieldWeight in 76, product of:
                  4.2426405 = tf(freq=18.0), with freq of:
                    18.0 = termFreq=18.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=76)
          0.33333334 = coord(1/3)
      0.75 = coord(3/4)
    
    Abstract
    A summary of brain theory is given so far as it is contained within the framework of Localization Theory. Difficulties of this "conventional theory" are traced back to a specific deficiency: there is no way to express relations between active cells (as for instance their representing parts of the same object). A new theory is proposed to cure this deficiency. It introduces a new kind of dynamical control, termed synaptic modulation, according to which synapses switch between a conducting and a non- conducting state. The dynamics of this variable is controlled on a fast time scale by correlations in the temporal fine structure of cellular signals. Furthermore, conventional synaptic plasticity is replaced by a refined version. Synaptic modulation and plasticity form the basis for short-term and long-term memory, respectively. Signal correlations, shaped by the variable network, express structure and relationships within objects. In particular, the figure-ground problem may be solved in this way. Synaptic modulation introduces exibility into cerebral networks which is necessary to solve the invariance problem. Since momentarily useless connections are deactivated, interference between di erent memory traces can be reduced, and memory capacity increased, in comparison with conventional associative memory
    Source
    http%3A%2F%2Fcogprints.org%2F1380%2F1%2FvdM_correlation.pdf&usg=AOvVaw0g7DvZbQPb2U7dYb49b9v_
    Type
    a
  7. Weiße, A.: AG Dezimalklassifikation (AG DK) (2002) 0.05
    0.054949522 = product of:
      0.109899044 = sum of:
        0.04083315 = weight(_text_:von in 1693) [ClassicSimilarity], result of:
          0.04083315 = score(doc=1693,freq=26.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.31884193 = fieldWeight in 1693, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1693)
        0.0690659 = sum of:
          0.004230681 = weight(_text_:a in 1693) [ClassicSimilarity], result of:
            0.004230681 = score(doc=1693,freq=8.0), product of:
              0.055348642 = queryWeight, product of:
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.04800207 = queryNorm
              0.07643694 = fieldWeight in 1693, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1693)
          0.04532436 = weight(_text_:z in 1693) [ClassicSimilarity], result of:
            0.04532436 = score(doc=1693,freq=2.0), product of:
              0.2562021 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04800207 = queryNorm
              0.17690861 = fieldWeight in 1693, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1693)
          0.019510854 = weight(_text_:22 in 1693) [ClassicSimilarity], result of:
            0.019510854 = score(doc=1693,freq=2.0), product of:
              0.16809508 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04800207 = queryNorm
              0.116070345 = fieldWeight in 1693, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1693)
      0.5 = coord(2/4)
    
    Abstract
    Die diesjährige Öffentliche Sitzung der AG Dezimalklassifikationen fand am 23.7.02 im Rahmen der 26. Jahrestagung der Gesellschaft für Klassifikation in Mannheim statt. Das Programm bot ein breites Spektrum der klassifikatorischen Sacherschließung. In ihrem Vortrag unter dem Thema "Aktuelle Anwendungen und Entwicklungen der DDC" berichtete Frau Esther Scheven (DDB Frankfurt) über die Projekte "RENARDUS" und "DDC Deutsch". Das EU-Projekt RENARDUS (http://www.renardus.org) ist ein Recherchesystem für Internet-Fachinformationsführer mit einer gemeinsamen Suchoberfläche, in dem die DDC als CrossBrowse-Instrument eingesetzt wird. Die RENARDUS-Partner haben jeweils eine Konkordanztabelle von ihrer lokalen Klassifikation zur DDC erstellt. Das Klassifikationssystem DDC wurde deshalb bevorzugt, weil es online verfügbar ist, in verschiedene europäische Sprachen übersetzt wurde, einen weltweiten Anwenderkreis habe und zum Cross-Browsen besser geeignet sei als das Klassifikationssystem UDC. Anhand von geographischen Schlagwörtern wurde untersucht, inwieweit DDC-Notationen die Interoperabilität der Erschließung mit Schlagwörtern verschiedener Gateways mit unterschiedlichen Sprachen verbessern. Die DDC wird als Suchelement im Geographischen Index benutzt. Zum Projekt "DDC Deutsch" (http://www.ddb.de/professionell/ ddc info.htm) gab Frau Scheven einen kurzen Überblick über die wichtigsten Tätigkeiten und Entwicklungen. Dazu gehören die Übersetzung der 22. Auflage der DDC, die Überarbeitung der Table 2 für Deutschland und Österreich, die Überarbeitung der Sachgebiete Geschichte Deutschland, Geschichte Österreich, Parteiensysteme Deutschland. Nach Abschluß der Arbeiten wird ab 2005 in der Deutschen Nationalbibliographie (Reihe A, B und H) die DDC als Klassifikationssystem für wissenschaftliche relevante bzw. international wichtige Publikationen verwendet. Desweiteren ist vorgesehen, Schlagwörter der Schlagwortnormdatei (SWD) mit DDCNotationen zu verknüpfen. Herr Dr. Holger Flachmann (ULB Münster) stellte in seinem Vortrag "Digitale Reproduktion systematischer Zettelkataloge: Praxis, Gewinn und Grenzen am Beispiel des UDK-Kataloges der ULB Münster" ein interessantes und nachahmenswertes Projekt vor. In der ULB Münster wurde der bis 1990 nach UDK geführte Systematische Katalog (1,4 Millionen Katalogkarten mit 80 000 Systemstellen) als Imagekatalog konvertiert. Die elektronisch erfassten Systemstellen (UDK-Notationen) sind recherchierbar und mit den dazugehörigen Titeln verknüpft, die als digitale Bilder der Katalogzettel gespeichert sind. Ebenso ist die Suche mit Stichwörtern möglich.
    Das Recherchesystem bietet eine Übersicht der Fachgebiete nach UDK, ein Register der Fächer (z.B. Register A-Z Wirtschaftswissenschaften), eine alphabetische Auflistung der Fächer und die systematische Gliederung der Fachgebiete mit Anzeige der Anzahl der Titelnachweise. Der von der Firma Mikro Univers GmbH Berlin erstellte digitalisierte Katalog wurde ab 1.8.02 frei geschaltet (http://altkataloge.uni-muenster.de/de/index sys.htm). Das von der ULB Münster realisierte Projekt könnte für andere Universitätsbibliotheken Anregung sein, konventionelle Systematische Zettelkataloge, die vor allem ältere wissenschaftliche Literatur nachweisen und erfahrungsgemäß in dieser Form wenig genutzt werden, in digitalisierter Form einem über die Grenzen der jeweiligen Universitätsbibliothek erweiterten Nutzerkreis zur Verfügung zu stellen. Herr Dr. Jiri Pika (ETH Zürich) referierte in seinem Vortrag "Anwendung der UDK in NEBIS in der Schweiz: ein Ausblick" über die seit etwa 20 Jahren praktizierte inhaltliche Erschließung von Dokumenten nach UDK im neuen Bibliothekssystem NEBIS (Netzwerk von Bibliotheken und Informationsstellen in der Schweiz http://www.nebis.ch/index.html), das das Bibliothekssystem ETHICS ablöste. Wie im System ETHICS beruht die Abfrage auf Deskriptoren in drei Sprachen (deutsch, englisch, französisch) und einer Anzahl weiterer Begriffe (Synonyme, Akronyme), womit ein benutzerfreundlicher den Gegebenheiten der multilingualen Schweiz angepasster Einstieg in die Recherche ermöglicht wird. Hinter den Deskriptoren steht eine einzige DK-Zahl, die im Hintergrund die mit ihr verknüpften Titel zusammenführt. Das von Fachreferenten gepflegte Sachregister beinhaltet etwa 63 513 Grundbegriffe (Stand 27.3.2002) mit einer DK-Zahl, die Anzahl der Zusatzbegriffe beträgt das 5 - 8fache. Die Vorzüge des Systems bestehen darin, dass unter Verwendung von Deskriptoren bei der Recherche der Zugriff sowohl auf gedruckte als auch auf elektronische Medien (etwa 2 Millionen Dokumente) möglich ist, ohne dass Kenntnisse des Klassifikationssystems erforderlich sind. Mit der Umstellung von ETHICS auf NEBIS im Jahre 1999 wurde eine neue Benutzeroberfläche angeboten und eine wesentliche Verkürzung der Antwortzeiten erreicht. Zum Anwenderkreis gehören etwa 60 Bibliotheken von Hochschulen, Fachhochschulen und Forschungsanstalten aus allen Regionen der Schweiz, z.B. ETH Zürich, Ecole Polytechnique Federale de Lausanne, weitere Schweizer Verbundbibliotheken, sowie in der Suchmaschine GERHARD (German Harvest Automated Retrieval Directory http://www.gerhard.de/gerold/owa/gerhard.create_ Index html?form-language=99). Der im Programm ausgewiesene Vortrag von Herrn Dr. Bernd Lorenz (München) zum Thema "Konkordanz RVK (Regensburger Verbundklassifikation) - DDC (Dewey Decimal Classification): Notwendigkeit und Vorüberlegungen" wurde vertretungsweise von Herrn Dr. Hans-Joachim Hermes (Chemnitz) übernommen. Bereits seit Beginn der Überlegungen, die DDC in der Deutschen Nationalbibliographie als Klassifikationssystem zu verwenden, werden auch Vorstellungen über eine Konkordanz zwischen den beiden Klassifikationssystemen RVK und DDC geäußert. Die geplante Konkordanz wird die Nutzung beider Klassifikationssysteme vergrößern. In der Darstellung wurden Probleme auf der sprachlichterminologischen Ebene, die bei den Benennungen der Notationen sichtbar werden, aufgezeigt. Nach den Fachvorträgen fand die turnusmäßige Neuwahl des Leiters der AG Dezimalklassifikationen statt. Zum neuen Vorsitzenden wurde Herr Dr. Bernd Lorenz (Bayerische Beamtenfachhochschule München) gewählt.
    Footnote
    Bericht der Arbeitsgruppe, insbesondere von der Öffentlichen Sitzung am 23.7.02 im Rahmen der 26. Jahrestagung der Gesellschaft für Klassifikation in Mannheim
    Type
    a
  8. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.05
    0.053947702 = product of:
      0.107895404 = sum of:
        0.07624002 = product of:
          0.22872004 = sum of:
            0.22872004 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.22872004 = score(doc=562,freq=2.0), product of:
                0.4069621 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04800207 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.031655382 = product of:
          0.04748307 = sum of:
            0.008461362 = weight(_text_:a in 562) [ClassicSimilarity], result of:
              0.008461362 = score(doc=562,freq=8.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.15287387 = fieldWeight in 562, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
            0.039021708 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.039021708 = score(doc=562,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Document representations for text classification are typically based on the classical Bag-Of-Words paradigm. This approach comes with deficiencies that motivate the integration of features on a higher semantic level than single words. In this paper we propose an enhancement of the classical document representation through concepts extracted from background knowledge. Boosting is used for actual classification. Experimental evaluations on two well known text corpora support our approach through consistent improvement of the results.
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
    Type
    a
  9. Kennedy, M.L.: Innovation in information : making a difference in education (2009) 0.05
    0.05169613 = product of:
      0.10339226 = sum of:
        0.05338693 = weight(_text_:von in 117) [ClassicSimilarity], result of:
          0.05338693 = score(doc=117,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.416867 = fieldWeight in 117, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.078125 = fieldNorm(doc=117)
        0.05000533 = product of:
          0.075008 = sum of:
            0.0099718105 = weight(_text_:a in 117) [ClassicSimilarity], result of:
              0.0099718105 = score(doc=117,freq=4.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.18016359 = fieldWeight in 117, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.078125 = fieldNorm(doc=117)
            0.065036185 = weight(_text_:22 in 117) [ClassicSimilarity], result of:
              0.065036185 = score(doc=117,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.38690117 = fieldWeight in 117, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=117)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Date
    22. 8.2009 19:51:28
    Source
    Wissen bewegen - Bibliotheken in der Informationsgesellschaft / 97. Deutscher Bibliothekartag in Mannheim, 2008. Hrsg. von Ulrich Hohoff und Per Knudsen. Bearb. von Stefan Siebert
    Type
    a
  10. Griesbaum, J.: Curriculare Integration und didaktisches Design netzbasierter kooperativer Lernszenarien : Ansätze und Ergebnisse im K3-Projekt (2008) 0.05
    0.051242076 = product of:
      0.10248415 = sum of:
        0.039231222 = weight(_text_:von in 775) [ClassicSimilarity], result of:
          0.039231222 = score(doc=775,freq=6.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.30633342 = fieldWeight in 775, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=775)
        0.06325293 = product of:
          0.094879396 = sum of:
            0.004230681 = weight(_text_:a in 775) [ClassicSimilarity], result of:
              0.004230681 = score(doc=775,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 775, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=775)
            0.09064872 = weight(_text_:z in 775) [ClassicSimilarity], result of:
              0.09064872 = score(doc=775,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.35381722 = fieldWeight in 775, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=775)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    K3 ist ein Forschungsprojekt der Informationswissenschaft Konstanz, welches das Ziel verfolgt distributive und kommunikative Potenziale asynchroner Foren Gewinn bringend in universitären Lehrkontexten zu nutzen. K3 setzt auf dem von Kuhlen vorgeschlagenen Paradigma des netzwerkbasierten Wissensmanagements auf und nutzt eine Vielzahl curricularer und didaktischer Unterstützungselemente. Diese sollen Interaktionsprozesse derart unterstützen, dass sich die Potenziale kooperativen Lernens - z. B. höherer individueller Lernerfolg, Generierung von verteiltem Wissen, höhere Motivation - möglichst umfänglich realisieren. Es werden wesentliche Gestaltungsfaktoren kooperativer computervermittelter Lernumgebungen herausgearbeitet, wie sie sich aus dem aktuellen Stand der Literatur des Computer Supported Cooperative/Collaborative Learning (CSCL) ableiten lassen. Auf dieser Grundlage werden die zentralen curricularen und didaktischen Gestaltungselemente in K3 beschrieben. Evaluationsergebnisse zeigen, dass die in K3-Kursen zum Einsatz kommenden instruktionalen Unterstützungselemente von den Lernenden positiv eingeschätzt werden. Analysen der ablaufenden Lernprozesse in K3-Kursen weisen zudem darauf hin, dass es in hohem Maße gelingt, Wissensexternalisierungsprozesse und konsensbildende Interaktionen zu stimulieren.
    Type
    a
  11. Oehlschläger, S.: IFLA-CDNL Allianz für bibliografische Standards (ICABS) (2004) 0.05
    0.050325535 = product of:
      0.10065107 = sum of:
        0.058482457 = weight(_text_:von in 2190) [ClassicSimilarity], result of:
          0.058482457 = score(doc=2190,freq=30.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.45665494 = fieldWeight in 2190, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.03125 = fieldNorm(doc=2190)
        0.042168617 = product of:
          0.063252926 = sum of:
            0.0028204536 = weight(_text_:a in 2190) [ClassicSimilarity], result of:
              0.0028204536 = score(doc=2190,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.050957955 = fieldWeight in 2190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2190)
            0.060432475 = weight(_text_:z in 2190) [ClassicSimilarity], result of:
              0.060432475 = score(doc=2190,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.23587814 = fieldWeight in 2190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2190)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Im August 2003 wurde eine neue Allianz zwischen der IFLA und den Nationalbibliotheken vereinbart, um die Koordinierungsarbeit fortzusetzen und auszubauen, die zuvor von den Geschäftsstellen der IFLA Core Programs UBCIM und UDT geleistet wurde. Die IFLA Core Activity Universal Bibliographic Control and International Marc (UBCIM) wurde vor 30 Jahren gegründet und endete 2003. Der Zweck von UBCIM war es, Aktivitäten zu koordinieren, die auf die Entwicklung von Systemen und Standards für die bibliografische Kontrolle auf nationaler Ebene und den internationalen Austausch von bibliografischen Standards abzielten, einschließlich der Unterstützung fachlicher Aktivitäten von Sections und Divisions der IFLA (z. B. der Division Bibliographic Control und den Sections Information Technology und National Libraries). Darüber hinaus sorgte UBCIM für die Veröffentlichung von Berichten über Projekte, die im Zusammenhang mit internationalen bibliografischen Standards und Formaten stehen sowie für die Veröffentlichung von Proceedings von themenbezogenen Konferenzen und Seminaren. UBCIM war ursprünglich bei der British Library angesiedelt (1973 - 1989) und danach von 1990 bis Anfang 2003 bei Der Deutschen Bibliothek. Anfang 2003 hat die Biblioteca Nacional de Portugal die Verantwortung sowohl für UNIMARC als auch für ICBC (International Cataloguing and Bibliographic Control, eine Quartalszeitschrift von IFLA, zuvor von UBCIM) übernommen.
    Als weiterer Bestandteil des neuen Programms wurde ein Großteil des Programms der früheren Core Activity Universal Dataflow and Telecommunications (UDT) übernommen. UDT unterstützte die Analyse und die Förderung von Technologien und Standards, sofern sie der Interoperabilität dienen und sich auf die digitale Umgebung im Bereich der vernetzten Suche von Ressourcen, des Information Retrieval, der Digitalisierung und Metadaten beziehen. UDT arbeitete verbandsweit mit den Sections und Programmes der IFLA zusammen, unterstützte aber besonders die fachlichen Aktivitäten der Information Technology Section. Von seinen Anfängen in den späten 80er-Jahren bis zu seiner Schließung war das Programm an der National Library of Canada (NLC) angesiedelt. UDT entwickelte und pflegte später auch das erste Kommunikationstool der IFLA, IFLANET, das viele Jahre an der NLC gehostet wurde. IFLANET wurde zum Institut de ['Information Scientifique et Technique (INIST) in Frankreich transferiert und ist nicht Bestandteil von ICABS.
    Type
    a
  12. Bee, G.: Abschlussworkshop zum Projekt DDC Deutsch (2005) 0.05
    0.047699034 = product of:
      0.09539807 = sum of:
        0.040658277 = weight(_text_:von in 3675) [ClassicSimilarity], result of:
          0.040658277 = score(doc=3675,freq=58.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.31747645 = fieldWeight in 3675, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.015625 = fieldNorm(doc=3675)
        0.054739796 = sum of:
          0.001994362 = weight(_text_:a in 3675) [ClassicSimilarity], result of:
            0.001994362 = score(doc=3675,freq=4.0), product of:
              0.055348642 = queryWeight, product of:
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.04800207 = queryNorm
              0.036032718 = fieldWeight in 3675, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.015625 = fieldNorm(doc=3675)
          0.030216238 = weight(_text_:z in 3675) [ClassicSimilarity], result of:
            0.030216238 = score(doc=3675,freq=2.0), product of:
              0.2562021 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04800207 = queryNorm
              0.11793907 = fieldWeight in 3675, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.015625 = fieldNorm(doc=3675)
          0.022529196 = weight(_text_:22 in 3675) [ClassicSimilarity], result of:
            0.022529196 = score(doc=3675,freq=6.0), product of:
              0.16809508 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04800207 = queryNorm
              0.1340265 = fieldWeight in 3675, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.015625 = fieldNorm(doc=3675)
      0.5 = coord(2/4)
    
    Content
    "Innerhalb der im Rahmen der allgemeinen Globalisierungsdiskussion geforderten stärkeren internationalen Vernetzung des deutschen Bibliothekswesens kommt der Orientierung an der Dewey-Dezimalklassifkation (DDC) seit einigen Jahren eine Schlüsselrolle zu. Die Deutsche Bibliothek, die Fachhochschule Köln und die Universitätsbibliothek Regensburg starteten deshalb im Oktober 2002 ein von der Deutschen Forschungsgemeinschaft (DFG) gefördertes Übersetzungsprojekt, das darauf abzielte, die DDC auf der Basis der derzeitigen englischen StandardEdition 22 als international verbreitetes Klassifikationssystem zu übersetzen und dabei an die spezifischen Bedürfnisse des Bibliothekswesens im deutschsprachigen Raum anzupassen. Zum Abschluss dieses Projekts fand am 20. April 2005 im Vortragssaal der Deutschen Bibliothek Frankfurt am Main ein Workshop statt, bei dem neben einer Bilanz der Übersetzungsarbeit auch die vielfältigen Überlegungen für die künftige Arbeit mit der DDC im Zentrum standen. Zu dieser Veranstaltung, die den Titel » Vorstellung der deutschen DDC 22 und Perspektiven für die DDC-Anwendung in den deutschsprachigen Ländern und international« trug, konnte die Generaldirektorin Der Deutschen Bibliothek, Dr. Elisabeth Niggemann, über 120 Vertreter aus Bibliotheken des deutschen Sprachgebiets begrüßen. In einer kurzen Einführungsrede hob Projektleiterin Magda Heiner-Freiling von der Deutschen Bibliothek Frankfurt am Main die gelungene Zusammenarbeit der verschiedenen Partner hervor. Ein für den Erfolg des Projekts entscheidender Glücksfall sei die enge Zusammenarbeit Der Deutschen Bibliothek mit der Fachhochschule Köln gewesen. Von maßgeblicher Bedeutung war aber auch die Mitwirkung der im Konsortium DDC zusammengeschlossenen Partner, zu denen neben den deutschen Bibliotheken und Verbünden auch die Schweizerische Landesbibliothek, Bern (SLB) und die Österreichische Bibliotheksverbund und Service GmbH gehören.
    Der Startvortrag von Anne Betz, Melanie Jackenkroll und Tina Mengel von der Fachhochschule Köln vermittelte einen sehr anschaulichen Eindruck von der Herkulesaufgabe, der sich das Übersetzerteam zu stellen hatte. Im permanenten gedanklichen Austausch mit dem Online Computer Library Center (OCLC) und der Library of Congress, Washington (LoC) sowie zahlreichen bibliothekarischen Fachleuten aus deutschsprachigen Bibliotheken galt es 4.000 Seiten, 45.000 Klassen und 96.000 Registerbegriffe zu bewältigen. Dabei kam es darauf an, die Fachterminologie korrekt wiederzugeben, die mitunter schwerfällige und stark gewöhnungsbedürftige »DDC-Sprache« in angemessenes Deutsch zu übertragen und bei all dem den Erhalt des Gefüges von Themen und Disziplinen innerhalb des Systems, die »DDC-Mechanik«, zu gewährleisten. In welchem Maße es bei dieser Gratwanderung nicht nur sprachliche, sondern auch kulturelle und weltanschauliche Klippen zu überwinden galt, führte Anne Betz an einer Reihe von Beispielen aus. Bereits scheinbar harmlose Begriffe wie »worker« oder »recreation« und die mit ihnen verbundenen klassifikatorischen Zuordnungen bargen Fallstricke, die besondere Übersetzungsleistungen verlangten. In vielen Fällen wurden Kompromisslösungen gefunden, etwa bei der Frage, ob man englische Körperschaftsbezeichnungen ins Deutsche übersetzen oder die im Deutschen gebräuchlichen Namensformen verwenden sollte. Hier entschied man sich dafür, die englische Bezeichnung beizubehalten und durch den Zusatz der entsprechenden deutschen Bedeutung zu ergänzen. Die deutsche Übersetzung der DDC 22, soviel wurde bereits hier deutlich, hat einen wichtigen ersten Schritt vollzogen, um über eine regelgerechte Übersetzung hinaus den unterschiedlichen kulturellen Gegebenheiten und den spezifischen Suchgewohnheiten deutschsprachiger Benutzer in besonderer Weise entgegenzukommen.
    Anerkennung für die Leistung des deutschen Teams sprach auch aus dem Vortrag von Julianne Beall von der LoC, die als Beauftragte von OCLC und Assistent Editor der DDC die Interessen des amerikanischen Partners an einer möglichst großen Nähe zum amerikanischen Original zu vertreten hatte. Dort zeigte man bei vielen deutschen Vorschlägen Verständnis und Entgegenkommen, sofern das Grundprinzip »The same DDC must be the same in every language« gewahrt wurde. Dass Kroaten und Bosnier hierzulande als getrennte Volksgruppen behandelt werden, wurde ebenso hingenommen wie die Tatsache, dass das deutsche Kegeln vom amerikanischen Bowling zu unterscheiden ist. Außerdem wurde anerkannt, dass die deutsche CDU den konservativen Parteien zuzurechnen ist und nicht dem, was nach amerikanischem Verständnis eine religiöse Partei charakterisiert. Mitunter, so Beall, sei man von deutscher Seite auch auf Fehler der amerikanischen Edition, etwa bei der Zuordnung europäischer Geografika, aufmerksam gemacht worden - Hinweise, die man dankbar zur Kenntnis genommen habe. Im Folgenden stellten Lars Svensson und Renate Polak-Bennemann von der IT-Abteilung der Deutschen Bibliothek Frankfurt am Main ein weiteres wichtiges Resultat des Projekts DDC Deutsch vor. Parallel zur Übersetzungsarbeit wurde ein Webservice entwickelt, der neben einem Klassifikationstool als wichtiges Hilfsmittel für Sacherschließer auch ein in konventionelle Bibliotheks-OPACs integrierbares Rechercheinstrument für Bibliotheksbenutzer enthalten wird. Die einzelnen Tools, die von Der Deutschen Bibliothek vertrieben werden, firmieren alle unter dem durch den Vornamen des DDC-Erfinders Dewey inspirierten Namen Melvil. Während das zentral bei Der Deutschen Bibliothek betriebene Tool MelvilClass zu einer erheblichen Erleichterung des aufwändigen Klassifikationsverfahrens beitragen soll, stellt MelvilSearch ein gleichermaßen zentral (bei Der Deutschen Bibliothek) wie lokal (z. B. in den Verbundzentralen) einsetzbares Recherchetool dar. MelvilSoap soll als Datenschnittstelle die Integration der DDC-Recherche in lokale Bibliothekssysteme ermöglichen.
    Wie es nach dem Vorhandensein von Übersetzung und Webservice mit der DDC Deutsch konkret weitergeht, stand im Mittelpunkt der Ausführungen von Heidrun Alex, der DDC-Projektkoordinatorin an Der Deutschen Bibliothek. Sie erläuterte den Zeitplan für das Erscheinen der Druckausgabe und die Melvil-Lizenzierung und skizzierte die weitere Planung hinsichtlich des Ausbaus und der Pflege der deutschen DDC-Datenbank, die wiederum in enger Zusammenarbeit mit OCLC erfolgen soll. Sie betonte die Wichtigkeit von Nutzerrückmeldungen für eine kontinuierliche Verbesserung des Angebots und wies auf die von Der Deutschen Bibliothek künftig regelmäßig in Frankfurt am Main oder ggf. vor Ort angebotenen Fortbildungsveranstaltungen zur Klassifikation mit der DDC hin. Der Qualitätssicherung bei der DDC-Arbeit dient auch eine von Der Deutschen Bibliothek für Anfang 2006 geplante Reihe von Veranstaltungen, bei denen sich Bibliothekare, die mit der DDC klassifizieren, zu einem fachbezogenen Erfahrungsaustausch zusammenfinden können. Daran anknüpfend erläuterte Magda HeinerFreiling den künftigen Einsatz der DDC Deutsch innerhalb der Deutschen Nationalbibliografie. Ab Bibliografiejahrgang 2006 werden zunächst die - bisher nur partiell durch Beschlagwortung inhaltlich erfassten - Publikationen der Reihen B und H vollständig mit der DDC erschlossen. Ab Bibliografiejahrgang 2007 erhalten dann auch die Publikationen der Reihe A DDC-Notationen; unberücksichtigt bleiben lediglich belletristische Werke, Erbauungsliteratur, Schulbücher sowie die Kinder- und Jugendliteratur. Magda Heiner-Freiling stellte klar, dass der Einsatz der DDC in Der Deutschen Bibliothek keine Abkehr von der verbalen Sacherschließung markiere. Vielmehr werde das Nebeneinander von DDC und der Schlagwortnormdatei (SWD) es ermöglichen, das bibliothekarische Grundprinzip einer Verbindung von klassifikatorischer und verbaler Sacherschließung umfassend zu realisieren.
    Die folgenden Referate dienten allesamt dem Ziel, den sich im bisherigen Verlauf des Workshops gelegentlich einstellenden Eindruck eines lediglich bilateralen - auf den deutsch-amerikanischen Kontakt bezogenen - Aufgabenfelds in einen umfassenderen Kontext einzubetten. Den Anfang machte der Vortrag von Patrice Landry, der als Leiter der Sacherschließung an der SLB bereits seit Ende der 90er-Jahre mit der amerikanischen DDC arbeitet. Landry betonte, dass sich derbisher nur eingeschränkt vollzogene - Einsatz der DDC in der SLB bewährt habe, und hob nachdrücklich die Vorteile einer numerisch orientierten Erschließung in einem auf eine mehrsprachige Gesellschaft ausgerichteten Bibliothekssystem hervor. Mit der DDC Deutsch verbindet Patrice Landry große Erwartungen; seiner Ansicht nach wird sie eine entscheidende Auswirkung auf den Einsatz der DDC in allen deutschsprachigen Bibliotheken haben. Mit Lucy Evans von der British Library, Boston Spa, kam die Vertreterin eines Landes zu Wort, das die bisher umfassendsten Erfahrungen mit der DDC auf europäischem Gebiet aufzuweisen hat. In Großbritannien ist die DDC seit den 20er-Jahren des vergangenen Jahrhunderts das dominante Klassifikationssystem und bestimmt dort auch die Aufstellung in den meisten öffentlichen Bibliotheken. Die British National Bibliography hat seit ihrem ersten Publikationsjahrgang 1950 auf die DDC zurückgegriffen und den Umfang des DDC-Einsatzes beständig ausgeweitet, sodass in naher Zukunft auch graue Literatur und digitale Publikationen mit der DDC erschlossen werden sollen.
    Der Abschluss des Workshops ließ die Ebene der bisher vorwiegend erörterten praktischen Aufgabenstellungen des gegenwärtigen Bibliothekswesens weit hinter sich. Winfried Gödert und Michael Preuss von der Fachhochschule Köln reflektierten gemeinsam die Möglichkeit der Existenz einer universal einsetzbaren, durch alle Menschen in allen Wissensgebieten verwendbaren Klassifikation. Die von ihnen gefundene Lösung besteht in der Erweiterung eines Kernsystems durch eine spezifische Form der Lokalisierung, durch das Andocken der universal gültigen und allgemein verständlichen Klassifikationsmerkmale am jeweils verschiedenen Sinnhorizont des Empfängers. Aus dieser Erkenntnis leiteten Gödert und Preuss eine Reihe von Forderungen an die DDC Deutsch ab, etwa die Er schließung multilingualer Bestände durch ein multilinguales Zugangsvokabular oder den Zugriff auf eine möglichst große Zahl von Dateien, die nur nach einem universalen System erschlossen sind. Interessanterweise waren es gerade diese theoretischen Reflexionen, die Anlass zu lebhafter Diskussion boten und kritische Einwürfe aus dem Publikum hervorriefen, während es zuvor nur wenige Anfragen zu der Übersetzungsarbeit und dem Einsatz des Web-Tools gegeben hatte. Das Projekt DDC Deutsch ist zu Ende - die Arbeit an und mit der DDC Deutsch hat gerade erst begonnen. Auch die Diskussion über den Umfang des konkreten Einsatzes der DDC Deutsch ist noch im Fluss. Die Deutsche Bibliothek setzt hier, wie Magda HeinerFreiling noch einmal betonte, auf einen regen Meinungsaustausch mit den Bibliotheken im deutschsprachigen Raum. So entließ der Workshop die Teilnehmer mit der Erkenntnis, einen großen Schritt vorwärts gekommen zu sein, aber dennoch erst am Anfang einer zukunftsträchtigen Entwicklung zu stehen."
    Type
    a
  13. Evans, R.: Indexing computer books : getting started (2007) 0.05
    0.047642544 = product of:
      0.09528509 = sum of:
        0.03203216 = weight(_text_:von in 745) [ClassicSimilarity], result of:
          0.03203216 = score(doc=745,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.2501202 = fieldWeight in 745, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=745)
        0.06325293 = product of:
          0.094879396 = sum of:
            0.004230681 = weight(_text_:a in 745) [ClassicSimilarity], result of:
              0.004230681 = score(doc=745,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 745, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=745)
            0.09064872 = weight(_text_:z in 745) [ClassicSimilarity], result of:
              0.09064872 = score(doc=745,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.35381722 = fieldWeight in 745, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=745)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Sie wollen Ihr Indexing-Business erweitern? Sie erwägen ein weiteres Fachgebiet, wie z. B. Computer-Bücher? Indexer, die neu im Bereich Computer-Bücher sind, haben wahrscheinlich mehrere Fragen: Was sind Computer-Bücher? Wie unterscheiden sie sich von akademischen Werken? Wo ist der Markt für diesen Bereich? Wer ist die Leserschaft? Wie anspruchsvoll sind sie? Habe ich das nötige technische Fachwissen, um diese Bücher zu verstehen und dafür Register zu erstellen? Gibt es Tipps und Tricks für das Indexieren? Was sind die besten Programme? Wie viel kann man verdienen? Welche Ressourcen sind verfügbar? Dieser Artikel beschreibt den Prozess des Indexierens von Computer-Büchern, der einen Mittelweg zwischen Kosten und Qualität findet, was dem Indexierer erlaubt, mit oft technischem und unvertrautem Material umzugehen und es in einer planmäßigen und logischen Weise zu indexieren.
    Type
    a
  14. Woldering, B.: Auf dem Weg zu einer Europäischen Digitalen Bibliothek (2006) 0.05
    0.046449624 = product of:
      0.09289925 = sum of:
        0.06406432 = weight(_text_:von in 556) [ClassicSimilarity], result of:
          0.06406432 = score(doc=556,freq=16.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.5002404 = fieldWeight in 556, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=556)
        0.028834928 = product of:
          0.04325239 = sum of:
            0.004230681 = weight(_text_:a in 556) [ClassicSimilarity], result of:
              0.004230681 = score(doc=556,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 556, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=556)
            0.039021708 = weight(_text_:22 in 556) [ClassicSimilarity], result of:
              0.039021708 = score(doc=556,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.23214069 = fieldWeight in 556, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=556)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Mehr als 130 gleichzeitig durchsuchbare Kataloge und Sammlungen sowie Links zu rund 80 digitalen Sammlungen von 19 europäischen Nationalbibliotheken, das ist das aktuelle Angebot von The European Library. Darüber hinaus bietet dieses Portal der Konferenz der Europäischen Nationalbibliothekare (Conference of European National Librarians, CENL) umfassende Informationen zu den 45 europäischen Nationalbibliotheken aus 43 Ländern, die in CENL vertreten sind. The European Library ist aus dem gleichnamigen, von der Europäischen Union (EU) teilfinanzierten Projekt hervorgegangen, das im Februar 2004 erfolgreich abgeschlossen und danach in den Echtbetrieb überführt wurde. Unter dem Dach der CENL wird The European Library an der Königlichen Bibliothek in Den Haag von einem Team weiterentwickelt und gepflegt, das aus sieben Personen besteht. Finanziert wird dieser Service von den europäischen Nationalbibliotheken: von den derzeit 19 Vollmitgliedern von The European Library sowie mit einem Teil des CENL-Jahresbeitrags aller Nationalbibliotheken. Mittelfristiges Ziel ist, alle CENL-Bibliotheken als Vollmitglieder in den Service von The European Library einzubinden, das heißt alle Kataloge und Sammlungen aller 45 Bibliotheken integriert suchbar zu machen.
    Source
    Dialog mit Bibliotheken. 18(2006) H.2, S.19-22
    Type
    a
  15. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.05
    0.04611861 = product of:
      0.09223722 = sum of:
        0.08894669 = product of:
          0.26684007 = sum of:
            0.26684007 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.26684007 = score(doc=306,freq=2.0), product of:
                0.4069621 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04800207 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.0032905294 = product of:
          0.009871588 = sum of:
            0.009871588 = weight(_text_:a in 306) [ClassicSimilarity], result of:
              0.009871588 = score(doc=306,freq=8.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.17835285 = fieldWeight in 306, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Although service-oriented architectures go a long way toward providing interoperability in distributed, heterogeneous environments, managing semantic differences in such environments remains a challenge. We give an overview of the issue of semantic interoperability (integration), provide a semantic characterization of services, and discuss the role of ontologies. Then we analyze four basic models of semantic interoperability that differ in respect to their mapping between service descriptions and ontologies and in respect to where the evaluation of the integration logic is performed. We also provide some guidelines for selecting one of the possible interoperability models.
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
    Type
    a
  16. Khurshid, Z.: Cataloguing of audiovisual materials (1995) 0.04
    0.0446337 = product of:
      0.1785348 = sum of:
        0.1785348 = sum of:
          0.005640907 = weight(_text_:a in 8305) [ClassicSimilarity], result of:
            0.005640907 = score(doc=8305,freq=2.0), product of:
              0.055348642 = queryWeight, product of:
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.04800207 = queryNorm
              0.10191591 = fieldWeight in 8305, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.0625 = fieldNorm(doc=8305)
          0.12086495 = weight(_text_:z in 8305) [ClassicSimilarity], result of:
            0.12086495 = score(doc=8305,freq=2.0), product of:
              0.2562021 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04800207 = queryNorm
              0.47175628 = fieldWeight in 8305, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0625 = fieldNorm(doc=8305)
          0.052028947 = weight(_text_:22 in 8305) [ClassicSimilarity], result of:
            0.052028947 = score(doc=8305,freq=2.0), product of:
              0.16809508 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04800207 = queryNorm
              0.30952093 = fieldWeight in 8305, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=8305)
      0.25 = coord(1/4)
    
    Date
    22. 2.1999 13:09:02
    Type
    a
  17. Buckland, M.K.; Liu, Z.: History of information science (1995) 0.04
    0.0446337 = product of:
      0.1785348 = sum of:
        0.1785348 = sum of:
          0.005640907 = weight(_text_:a in 4226) [ClassicSimilarity], result of:
            0.005640907 = score(doc=4226,freq=2.0), product of:
              0.055348642 = queryWeight, product of:
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.04800207 = queryNorm
              0.10191591 = fieldWeight in 4226, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.0625 = fieldNorm(doc=4226)
          0.12086495 = weight(_text_:z in 4226) [ClassicSimilarity], result of:
            0.12086495 = score(doc=4226,freq=2.0), product of:
              0.2562021 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04800207 = queryNorm
              0.47175628 = fieldWeight in 4226, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0625 = fieldNorm(doc=4226)
          0.052028947 = weight(_text_:22 in 4226) [ClassicSimilarity], result of:
            0.052028947 = score(doc=4226,freq=2.0), product of:
              0.16809508 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04800207 = queryNorm
              0.30952093 = fieldWeight in 4226, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=4226)
      0.25 = coord(1/4)
    
    Date
    13. 6.1996 19:22:20
    Type
    a
  18. Khurshid, Z.: DOBIS/LIBIS : an overview of developments through version 3.0 (1997) 0.04
    0.0446337 = product of:
      0.1785348 = sum of:
        0.1785348 = sum of:
          0.005640907 = weight(_text_:a in 845) [ClassicSimilarity], result of:
            0.005640907 = score(doc=845,freq=2.0), product of:
              0.055348642 = queryWeight, product of:
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.04800207 = queryNorm
              0.10191591 = fieldWeight in 845, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.0625 = fieldNorm(doc=845)
          0.12086495 = weight(_text_:z in 845) [ClassicSimilarity], result of:
            0.12086495 = score(doc=845,freq=2.0), product of:
              0.2562021 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04800207 = queryNorm
              0.47175628 = fieldWeight in 845, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0625 = fieldNorm(doc=845)
          0.052028947 = weight(_text_:22 in 845) [ClassicSimilarity], result of:
            0.052028947 = score(doc=845,freq=2.0), product of:
              0.16809508 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04800207 = queryNorm
              0.30952093 = fieldWeight in 845, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=845)
      0.25 = coord(1/4)
    
    Date
    6. 3.1997 16:22:15
    Type
    a
  19. Schroeder, K.: Persistent Identifiers im Kontext der Langzeitarchivierung : EPICUR auf dem 2. Bibliothekskongress in Leipzig (2004) 0.04
    0.0445284 = product of:
      0.0890568 = sum of:
        0.030200208 = weight(_text_:von in 2787) [ClassicSimilarity], result of:
          0.030200208 = score(doc=2787,freq=8.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.23581557 = fieldWeight in 2787, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
        0.058856588 = product of:
          0.08828488 = sum of:
            0.0028204536 = weight(_text_:a in 2787) [ClassicSimilarity], result of:
              0.0028204536 = score(doc=2787,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.050957955 = fieldWeight in 2787, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2787)
            0.085464425 = weight(_text_:z in 2787) [ClassicSimilarity], result of:
              0.085464425 = score(doc=2787,freq=4.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.33358207 = fieldWeight in 2787, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2787)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Mit elektronischem Publizieren werden folgende Eigenschaften verbunden: »schnell, kostengünstig, weltweit«. Aber ist das aus Nutzersicht bzw. aus der Perspektive der Autoren ausreichend, um eine Online-Veröffentlichung dauerhaft zu nutzen und zuverlässig zu zitieren? Ein Mechanismus, mit dem netzbasierte Publikationen eindeutig gekennzeichnet werden und jederzeit auffindbar sind, wird durch flüchtige Uniform Resource Locator (URLs) nicht bereitgestellt. Eine Lösung bieten Persistent Identifiers (Pls), wie z. B. Uniform Resource Names (URN)". Damit die Anwendung eines persistenten Adressierungsschemas wie den URNs langfristig gewährleistet werden kann, muss eine Infrastruktur mit einer institutionellen Unterstützung geschaffen werden. Ein wesentlicher Aspekt in diesem Kontext ist die Langzeitarchivierung der digitalen Objekte. Die Darstellung und Erläuterung der Schnittstellen zwischen Langzeitarchivierung und Pls sowie der damit verbundenen Aktivitäten und Ergebnisse des EPICUR-Projektes war Gegenstand des Vortrages von Kathrin Schroeder auf dem diesjährigen z. Bibliothekskongress in Leipzig im Rahmen des Workshops »Technische Aspekte der Langzeitarchivierung«". Es besteht ein enger Zusammenhang zwischen den Bereichen Pls (standortunabhängige, eindeutige Bezeichner für digitale Objekte) und Langzeitarchivierung (Maßnahmen, die dazu dienen, digitale Objekte für die Nachwelt dauerhaft zu erhalten): Pls werden als stabiler Zugriffsmechanismus für digitale Objekte verwendet, die in einem Depotsystem archiviert werden. Ein Depotsystem ist ein »( ...) Archiv für digitale Objekte, in dem Menschen und Systeme als 'Organisation' mit der Aufgabenstellung zusammenwirken, Informationen zu erhalten und einer definierten Nutzerschaft verfügbar zu machen.« Dazu gehören im erweiterten Sinne auch eine Infrastruktur vor der Eingangsschnittstelle des Depotsystems, die zum Transfer digitaler Objekte von den Produzenten in das Archiv dient, und die Infrastruktur der Endnutzer-Umgebungen hinter der Auslieferungsschnittstelle des Depotsystems, in denen die digitalen Objekte benutzt werden sollen. In diesem Umfeld werden Pls in folgenden Bereichen angewendet: - Metadaten, - Datenaustauschformate, - Automatisierte Lieferungen von Objekten in ein Archivsystem, - Depotsystem und - Nutzung von Pls als stabiler Zugriffsmechanismus auf ein Objekt als wichtigster Aspekt für den Endnutzer (Wissenschaftler und Autoren). Im Folgenden werden zu den einzelnen Bereichen die Ergebnisse des EPICUR-Projektes und die Aktivitäten Der Deutschen Bibliothek diskutiert.
    Type
    a
  20. Kutschekmanesch, S.; Lutes, B.; Moelle, K.; Thiel, U.; Tzeras, K.: Automated multilingual indexing : a synthesis of rule-based and thesaurus-based methods (1998) 0.04
    0.043877795 = product of:
      0.08775559 = sum of:
        0.03775026 = weight(_text_:von in 4157) [ClassicSimilarity], result of:
          0.03775026 = score(doc=4157,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29476947 = fieldWeight in 4157, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.078125 = fieldNorm(doc=4157)
        0.05000533 = product of:
          0.075008 = sum of:
            0.0099718105 = weight(_text_:a in 4157) [ClassicSimilarity], result of:
              0.0099718105 = score(doc=4157,freq=4.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.18016359 = fieldWeight in 4157, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4157)
            0.065036185 = weight(_text_:22 in 4157) [ClassicSimilarity], result of:
              0.065036185 = score(doc=4157,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.38690117 = fieldWeight in 4157, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4157)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Source
    Information und Märkte: 50. Deutscher Dokumentartag 1998, Kongreß der Deutschen Gesellschaft für Dokumentation e.V. (DGD), Rheinische Friedrich-Wilhelms-Universität Bonn, 22.-24. September 1998. Hrsg. von Marlies Ockenfeld u. Gerhard J. Mantwill
    Type
    a

Authors

Types

  • el 476
  • b 64
  • p 2
  • s 1
  • x 1
  • More… Less…

Themes

Classifications