Search (46 results, page 1 of 3)

  • × theme_ss:"Verteilte bibliographische Datenbanken"
  • × language_ss:"d"
  1. Kaizik, A.; Gödert, W.; Milanesi, C.: Erfahrungen und Ergebnisse aus der Evaluierung des EU-Projektes EULER im Rahmen des an der FH Köln angesiedelten Projektes EJECT (Evaluation von Subject Gateways des World Wide Web (2001) 0.06
    0.06355567 = product of:
      0.21790516 = sum of:
        0.018849954 = weight(_text_:und in 5801) [ClassicSimilarity], result of:
          0.018849954 = score(doc=5801,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3871834 = fieldWeight in 5801, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5801)
        0.06344847 = weight(_text_:methodik in 5801) [ClassicSimilarity], result of:
          0.06344847 = score(doc=5801,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.39945894 = fieldWeight in 5801, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5801)
        0.024621718 = weight(_text_:des in 5801) [ClassicSimilarity], result of:
          0.024621718 = score(doc=5801,freq=14.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.40475783 = fieldWeight in 5801, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5801)
        0.018164515 = weight(_text_:der in 5801) [ClassicSimilarity], result of:
          0.018164515 = score(doc=5801,freq=18.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.37019804 = fieldWeight in 5801, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5801)
        0.06344847 = weight(_text_:methodik in 5801) [ClassicSimilarity], result of:
          0.06344847 = score(doc=5801,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.39945894 = fieldWeight in 5801, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5801)
        0.018849954 = weight(_text_:und in 5801) [ClassicSimilarity], result of:
          0.018849954 = score(doc=5801,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3871834 = fieldWeight in 5801, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5801)
        0.010522088 = product of:
          0.021044176 = sum of:
            0.021044176 = weight(_text_:22 in 5801) [ClassicSimilarity], result of:
              0.021044176 = score(doc=5801,freq=4.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.27358043 = fieldWeight in 5801, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5801)
          0.5 = coord(1/2)
      0.29166666 = coord(7/24)
    
    Abstract
    Der Umfang und die Heterogenität des Informationsangebotes erfordert immer differenzierte Methoden und Hilfsmittel für das gezielte und möglichst ballastfreie Auffinden von Informationsquellen im Kontext eines bestimmten Fachgebietes oder einer wissenschaftlichen Disziplin. Um dieses Ziel zu erreichen, wurden in der letzten Zeit eine Reihe sog. Subject Gateways entwickelt. Bislang liegen weder viele Untersuchungen zur Qualität derartiger Hilfsmittel vor noch ist eine differenzierte Methodik für solche Bewertungen entwickelt worden. Das Projekt Evaluation von Subject Gateways des Internet (EJECT) verfolgte daher die Ziele: durch Analyse bereits realisierter Subject Gateways die Verwendungsvielfalt des Begriffes aufzuzeigen und zu einer Präzisierung der Begriffsbildung beizutragen; einen methodischen Weg zur qualitativen Bewertung von Subject Gateways aufzuzeigen; diesen Weg anhand einer Evaluation des Subject Gateways EULER zu testen, das im Rahmen eines EU-Projektes für das Fachgebiet Mathematik entwickelt wurde. Die Resultate der Evaluation werden hier in verkürzter Form vorgestellt und es wird aufgezeigt, inwieweit eine Übertragung auf die Bewertung anderer Gateways möglich ist
    Date
    22. 6.2002 19:42:22
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  2. Neuroth, H.; Lepschy, P.: ¬Das EU-Projekt Renardus (2001) 0.03
    0.029376255 = product of:
      0.11750502 = sum of:
        0.006274925 = product of:
          0.018824775 = sum of:
            0.018824775 = weight(_text_:p in 5589) [ClassicSimilarity], result of:
              0.018824775 = score(doc=5589,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23835106 = fieldWeight in 5589, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5589)
          0.33333334 = coord(1/3)
        0.015994716 = weight(_text_:und in 5589) [ClassicSimilarity], result of:
          0.015994716 = score(doc=5589,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.328536 = fieldWeight in 5589, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5589)
        0.011167361 = weight(_text_:des in 5589) [ClassicSimilarity], result of:
          0.011167361 = score(doc=5589,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 5589, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5589)
        0.016246837 = weight(_text_:der in 5589) [ClassicSimilarity], result of:
          0.016246837 = score(doc=5589,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3311152 = fieldWeight in 5589, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5589)
        0.015994716 = weight(_text_:und in 5589) [ClassicSimilarity], result of:
          0.015994716 = score(doc=5589,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.328536 = fieldWeight in 5589, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5589)
        0.05182647 = sum of:
          0.033969894 = weight(_text_:deutschland in 5589) [ClassicSimilarity], result of:
            0.033969894 = score(doc=5589,freq=2.0), product of:
              0.10609499 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.021966046 = queryNorm
              0.32018375 = fieldWeight in 5589, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.046875 = fieldNorm(doc=5589)
          0.017856576 = weight(_text_:22 in 5589) [ClassicSimilarity], result of:
            0.017856576 = score(doc=5589,freq=2.0), product of:
              0.07692135 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.021966046 = queryNorm
              0.23214069 = fieldWeight in 5589, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=5589)
      0.25 = coord(6/24)
    
    Abstract
    Der vollständige Projektname von Renardus lautet "Academic Subject Gateway Service Europe". Renardus wird von der Europäischen Union im 5. Rahmenprogramm mit dem Schwerpunktthema "Information Society Technologies" im zweiten Thematischen Programm "Benutzerfreundliche Informationsgesellschaft" ('Promoting a User-friendly Information Society') gefördert. Die Projektlaufzeit ist von Januar 2000 bis Juni 2002. Insgesamt zwölf Partner (Principal und Assistant Contractors) aus Finnland, Dänemark, Schweden, Großbritannien, den Niederlanden, Frankreich und Deutschland beteiligen sich an diesem Projekt. Die Europäische Union unterstützt das Projekt mit 1,7 Mio. EURO, die Gesamtkosten belaufen sich inklusive der Eigenbeteiligungen der Partner auf 2,3 Mio. EURO. Das Ziel des Projektes Renardus ist es, über eine Schnittstelle Zugriff auf verteilte Sammlungen von "High Quality" Internet Ressourcen in Europa zu ermöglichen. Diese Schnittstelle wird über den Renardus Broker realisiert, der das "Cross-Searchen" und "Cross-Browsen" über verteilte "Quality-Controlled Subject Gateways" ermöglicht. Ein weiteres Ziel von Renardus ist es, Möglichkeiten von "metadata sharing" zu evaluieren und in kleinen Experimenten zwischen z. B. Subject Gateways und Nationalbibliothek zu testen bzw. zu realisieren
    Date
    22. 6.2002 19:32:15
  3. Dadam, P.: Verteilte Datenbanken und Client/Server-Systeme : Grundlagen, Konzepte und Realisierungsformen (1996) 0.02
    0.019620968 = product of:
      0.09418065 = sum of:
        0.0041832835 = product of:
          0.01254985 = sum of:
            0.01254985 = weight(_text_:p in 3110) [ClassicSimilarity], result of:
              0.01254985 = score(doc=3110,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.15890071 = fieldWeight in 3110, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3110)
          0.33333334 = coord(1/3)
        0.020231893 = weight(_text_:und in 3110) [ClassicSimilarity], result of:
          0.020231893 = score(doc=3110,freq=36.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41556883 = fieldWeight in 3110, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3110)
        0.004843871 = weight(_text_:der in 3110) [ClassicSimilarity], result of:
          0.004843871 = score(doc=3110,freq=2.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.09871948 = fieldWeight in 3110, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3110)
        0.04468971 = weight(_text_:allgemeines in 3110) [ClassicSimilarity], result of:
          0.04468971 = score(doc=3110,freq=4.0), product of:
            0.12532558 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.021966046 = queryNorm
            0.35658893 = fieldWeight in 3110, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=3110)
        0.020231893 = weight(_text_:und in 3110) [ClassicSimilarity], result of:
          0.020231893 = score(doc=3110,freq=36.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41556883 = fieldWeight in 3110, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3110)
      0.20833333 = coord(5/24)
    
    Abstract
    Das Buch wendet sich als ein umfassender Kurs über Realisierungsformen verteilter Informationssysteme und deren Grundlagen an Studierende, Wissenschaftler und Praktiker. Es vermittelt Grundlagenwissen über die in den verschiedenen Teilbereichen auftretenden Problemstellungen und zeigt die technologischen Alternativen sowie ihre Möglichkeiten und Grenzen bzw. Chancen und Risiken auf. Für Studenten eignet sich das Buch zum Selbststudium. Anhand eingestreuter Übungsaufgaben und Musterlösungen kann das Gelernte überprüft werden. Für Wissenschaftler stellt das Buch einen "roten Faden" durch dieses breite Gebiet dar und erleichtert so den Einstieg. Über die Hinweise auf aktuelle, weiterführende Literatur können dann die interessierenden Themen selbst weiterverfolgt werden. Für Praktiker vermittelt das Buch einen Überblick über die wesentlichen Zusammenhänge. Es gibt Hinweise auf die potentiellen Fallstricke bei der Realisierung solcher Systeme und kann somit dazu beitragen, gravierende Fehlentscheidungen zu vermeiden.
    Classification
    ST 271 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme
    ST 270 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme
    ST 273 Informatik / Monographien / Software und -entwicklung / Kommunikationssysteme allgemein (mail-dienste, Dokumentenaustausch, Online-Konferenz)
    ST 200 Informatik / Monographien / Vernetzung, verteilte Systeme / Allgemeines, Netzmanagement
    RVK
    ST 271 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme
    ST 270 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme
    ST 273 Informatik / Monographien / Software und -entwicklung / Kommunikationssysteme allgemein (mail-dienste, Dokumentenaustausch, Online-Konferenz)
    ST 200 Informatik / Monographien / Vernetzung, verteilte Systeme / Allgemeines, Netzmanagement
  4. Meiert, M.: Elektronische Publikationen an Hochschulen : Modellierung des elektronischen Publikationsprozesses am Beispiel der Universität Hildesheim (2006) 0.02
    0.019514743 = product of:
      0.09367077 = sum of:
        0.022619944 = weight(_text_:und in 5974) [ClassicSimilarity], result of:
          0.022619944 = score(doc=5974,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.46462005 = fieldWeight in 5974, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5974)
        0.024970978 = weight(_text_:des in 5974) [ClassicSimilarity], result of:
          0.024970978 = score(doc=5974,freq=10.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.41049933 = fieldWeight in 5974, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5974)
        0.014531613 = weight(_text_:der in 5974) [ClassicSimilarity], result of:
          0.014531613 = score(doc=5974,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.29615843 = fieldWeight in 5974, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5974)
        0.022619944 = weight(_text_:und in 5974) [ClassicSimilarity], result of:
          0.022619944 = score(doc=5974,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.46462005 = fieldWeight in 5974, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5974)
        0.008928288 = product of:
          0.017856576 = sum of:
            0.017856576 = weight(_text_:22 in 5974) [ClassicSimilarity], result of:
              0.017856576 = score(doc=5974,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23214069 = fieldWeight in 5974, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5974)
          0.5 = coord(1/2)
      0.20833333 = coord(5/24)
    
    Abstract
    Das Internet verändert die Rahmenbedingungen des wissenschaftlichen Publikationswesens einschneidend. Wissenschaftliche Dokumente sind zunehmend elektronisch verfügbar und beginnen, die klassischen Wissenschaftsmedien wie Fachbücher und Fachzeitschriften zu verdrängen. Die Implementierung eines elektronischen Publikationsprozesses ist Voraussetzung für die erfolgreiche Verbreitung wissenschaftlicher Dokumente per Internet. Die Umsetzung setzt jedoch die Einhaltung bestimmter Vorgaben und Regularien voraus, sonst drohen Inkompatibilitäten zwischen den Systemen. Im Kontext von Urheberrechtsnovellierung und Open Access-Bewegung erläutert dieser Beitrag technische und rechtliche Rahmenbedingungen von Online-Publikationen und stellt Projekte und Initiativen vor, die sich auf dem Feld des wissenschaftlichen Publikationswesens betätigen. Ausführlich wurden Problembereiche des aktuellen Publikationsprozesses von Abschlussarbeiten im Studiengang Internationales Informationsmanagement an der Universität Hildesheim mit Hilfe von Interviews untersucht. Auf Grundlage der Zustandsanalyse wurde anschließend der elekronische Publikationsprozess modelliert.
    Date
    1. 9.2006 13:22:15
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  5. Klas, C.-P.; Kriewel, S.; Schaefer, A.; Fischer, G.: ¬Das DAFFODIL System : strategische Literaturrecherche in Digitalen Bibliotheken (2006) 0.02
    0.018559536 = product of:
      0.08908577 = sum of:
        0.008366567 = product of:
          0.0250997 = sum of:
            0.0250997 = weight(_text_:p in 5014) [ClassicSimilarity], result of:
              0.0250997 = score(doc=5014,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.31780142 = fieldWeight in 5014, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5014)
          0.33333334 = coord(1/3)
        0.019074813 = weight(_text_:und in 5014) [ClassicSimilarity], result of:
          0.019074813 = score(doc=5014,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39180204 = fieldWeight in 5014, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5014)
        0.025789918 = weight(_text_:des in 5014) [ClassicSimilarity], result of:
          0.025789918 = score(doc=5014,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.42396194 = fieldWeight in 5014, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=5014)
        0.016779663 = weight(_text_:der in 5014) [ClassicSimilarity], result of:
          0.016779663 = score(doc=5014,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34197432 = fieldWeight in 5014, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=5014)
        0.019074813 = weight(_text_:und in 5014) [ClassicSimilarity], result of:
          0.019074813 = score(doc=5014,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39180204 = fieldWeight in 5014, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5014)
      0.20833333 = coord(5/24)
    
    Abstract
    DAFFODIL ist ein System zur integrierten Suche in verteilten, heterogenen Digitalen Bibliotheken mit der Zielsetzung der strategischen Unterstützung des Benutzers. In diesem Artikel wird ein Überblick bezüglich des aktuellen Standes der Funktionalität gegeben und darüber hinaus neue Forschungsrichtungen aufgezeigt.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  6. Global Info : Nachfolgeprojekte (2001) 0.02
    0.017330753 = product of:
      0.08318762 = sum of:
        0.0143061085 = weight(_text_:und in 5805) [ClassicSimilarity], result of:
          0.0143061085 = score(doc=5805,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29385152 = fieldWeight in 5805, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5805)
        0.015793033 = weight(_text_:des in 5805) [ClassicSimilarity], result of:
          0.015793033 = score(doc=5805,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.25962257 = fieldWeight in 5805, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5805)
        0.021797419 = weight(_text_:der in 5805) [ClassicSimilarity], result of:
          0.021797419 = score(doc=5805,freq=18.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.44423765 = fieldWeight in 5805, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5805)
        0.0143061085 = weight(_text_:und in 5805) [ClassicSimilarity], result of:
          0.0143061085 = score(doc=5805,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29385152 = fieldWeight in 5805, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5805)
        0.016984947 = product of:
          0.033969894 = sum of:
            0.033969894 = weight(_text_:deutschland in 5805) [ClassicSimilarity], result of:
              0.033969894 = score(doc=5805,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.32018375 = fieldWeight in 5805, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5805)
          0.5 = coord(1/2)
      0.20833333 = coord(5/24)
    
    Abstract
    Mit dem 31. Dezember 2000 wurde das Förderkonzept "Global Info" des Bundesforschungsministeriums (BMBF) beendet. Hierdurch wird weder die Förderung der Fachinformation beendet, noch wird der Bereich der Digitalen Bibliotheken aufgegeben. Einerseits wird durch die "lnformationsverbünde" die Versorgung mit fachspezifischen elektronischen Angeboten gezielt verbessert werden. Andererseits wird im Bereich der Digitalen Bibliotheken eine "Leitvision" formuliert werden, an der sich künftige Vorhaben ausrichten. Zur Vorbereitung dieser Leitvision wurde am 1.1.2001 ein Planungsprojekt gestartet, das unter dem Titel "Digital Library-Forum" für die Dauer eines Jahres die inhaltliche Ausgestaltung dieser Leitvision moderieren wird. Entsprechende Workshops und Arbeitsgruppen werden in nächster Zeit durchgeführt bzw. eingerichtet. Projekte im Digital Library-Bereich können weiterhin eingereicht werden. Entsprechend dem in Global Info etablierten Verfahren können Projektskizzen, nun aber beim Projektträger Fachinformation (PTF), eingereicht werden. Anträge werden weiterhin durch ein Gutachtergremium, das zweimal im Jahr zusammen kommt, begutachtet. Der Global Info-Server wird im Laufe des Jahres 2001 durch einen vom Projektträger Fachinformation betriebenen Server ersetzt, der darüber hinaus neue und weitreichendere Aufgaben übernimmt. Dieser Server unter der URL <www.di-forum.de> soll in Kooperation mit der DFG und weiteren Förderern betrieben werden und als Forum aller Digital Library-Aktivitäten in Deutschland fungieren
  7. Lügger, J.: Offene Navigation und Suchmaschinen in Verbünden, Konsortien und den Wissenschaften (2004) 0.02
    0.016192658 = product of:
      0.09715594 = sum of:
        0.025233604 = weight(_text_:und in 4980) [ClassicSimilarity], result of:
          0.025233604 = score(doc=4980,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.51830536 = fieldWeight in 4980, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4980)
        0.021057379 = weight(_text_:des in 4980) [ClassicSimilarity], result of:
          0.021057379 = score(doc=4980,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.34616345 = fieldWeight in 4980, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=4980)
        0.025631357 = weight(_text_:der in 4980) [ClassicSimilarity], result of:
          0.025631357 = score(doc=4980,freq=14.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.5223744 = fieldWeight in 4980, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4980)
        0.025233604 = weight(_text_:und in 4980) [ClassicSimilarity], result of:
          0.025233604 = score(doc=4980,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.51830536 = fieldWeight in 4980, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4980)
      0.16666667 = coord(4/24)
    
    Abstract
    Integration der Navigation und Suche in lizenzierten Journalen und gleichzeitig in freien digitalen Dokumenten unter einer einheitlichen konsistenten Nutzeroberflache ist eines der ungelösten F&E-Probleme der Fachinformation. Hierbei müssen Elemente des Invisible Web und des Visible Web unter Berücksichtigung offener Standards nahtlos miteinander verbunden werden. Der Artikel beschreibt Ausgangspunkt und Entwicklungsgeschichte eines kooperativen Vorhabens "Verteilter Zeitschriftenserver", das sich auf dem Wege über eine Generalisierung zum "Verteilten Dokumentenserver" zur Basis der Kooperation von vascoda und AGVerbund mit dem Ziel der Realisierung einer Offenen Digitalen Bibliothek der Wissenschaften entwickelte.
  8. Kuberek, M. (Red.): Kooperativer Bibliotheksverbund Berlin-Brandenburg (KOBV) : Bibliothekarische Inhalte und Zielsetzungen des KOBV (1998) 0.02
    0.015945917 = product of:
      0.0956755 = sum of:
        0.024778908 = weight(_text_:und in 5469) [ClassicSimilarity], result of:
          0.024778908 = score(doc=5469,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.5089658 = fieldWeight in 5469, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5469)
        0.031586066 = weight(_text_:des in 5469) [ClassicSimilarity], result of:
          0.031586066 = score(doc=5469,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.51924515 = fieldWeight in 5469, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=5469)
        0.014531613 = weight(_text_:der in 5469) [ClassicSimilarity], result of:
          0.014531613 = score(doc=5469,freq=2.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.29615843 = fieldWeight in 5469, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=5469)
        0.024778908 = weight(_text_:und in 5469) [ClassicSimilarity], result of:
          0.024778908 = score(doc=5469,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.5089658 = fieldWeight in 5469, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5469)
      0.16666667 = coord(4/24)
    
    Editor
    Arbeitsgruppe 'Bibliothekarische Inhalte und Zielsetzungen des KOBV'
    Source
    Weitblick: Mitteilungsblatt der Bibliotheken in Berlin und Brandenburg. 4(1998) H.2, S.18-34
  9. Schneider, W.: ¬Ein verteiltes Bibliotheks-Informationssystem auf Basis des Z39.50 Protokolls (1999) 0.02
    0.015376476 = product of:
      0.07380708 = sum of:
        0.009537406 = weight(_text_:und in 4773) [ClassicSimilarity], result of:
          0.009537406 = score(doc=4773,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.19590102 = fieldWeight in 4773, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4773)
        0.021057379 = weight(_text_:des in 4773) [ClassicSimilarity], result of:
          0.021057379 = score(doc=4773,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.34616345 = fieldWeight in 4773, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=4773)
        0.02166245 = weight(_text_:der in 4773) [ClassicSimilarity], result of:
          0.02166245 = score(doc=4773,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.44148692 = fieldWeight in 4773, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4773)
        0.0120124435 = product of:
          0.024024887 = sum of:
            0.024024887 = weight(_text_:29 in 4773) [ClassicSimilarity], result of:
              0.024024887 = score(doc=4773,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.31092256 = fieldWeight in 4773, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4773)
          0.5 = coord(1/2)
        0.009537406 = weight(_text_:und in 4773) [ClassicSimilarity], result of:
          0.009537406 = score(doc=4773,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.19590102 = fieldWeight in 4773, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4773)
      0.20833333 = coord(5/24)
    
    Abstract
    Diese Diplomarbeit beschreibt ein verteiltes Bibliothes-Informationssystem für bibliographische Datenbnaken im Internet. Der Name des Systems ist ZACK. Der Benutzer kann mit ZACK in einer oder mehreren bibliographischen Datenbanken nach einem Dokument suchen und die Treffer in die eigene lokale Datenbank übernehmen. Mit der Übernahme der Datensätze aus einer fremden Datenbank wird die Erfassung neuer Dokumente wesentlich erleichtert, da die Eigenkatalogisierung auf ein Minimum beschränkt werden kann. Bei der verteilten Suche mit ZACK wird parallel in mehreren Datenbanken gesucht. Dubletten werden als solche erkannt
    Date
    17. 5.2000 20:29:41
  10. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Ein Halbzeitbericht (2001) 0.01
    0.014439104 = product of:
      0.0693077 = sum of:
        0.015816 = weight(_text_:und in 5900) [ClassicSimilarity], result of:
          0.015816 = score(doc=5900,freq=22.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3248651 = fieldWeight in 5900, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
        0.014889815 = weight(_text_:des in 5900) [ClassicSimilarity], result of:
          0.014889815 = score(doc=5900,freq=8.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.24477452 = fieldWeight in 5900, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
        0.016779663 = weight(_text_:der in 5900) [ClassicSimilarity], result of:
          0.016779663 = score(doc=5900,freq=24.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34197432 = fieldWeight in 5900, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
        0.0060062218 = product of:
          0.0120124435 = sum of:
            0.0120124435 = weight(_text_:29 in 5900) [ClassicSimilarity], result of:
              0.0120124435 = score(doc=5900,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.15546128 = fieldWeight in 5900, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5900)
          0.5 = coord(1/2)
        0.015816 = weight(_text_:und in 5900) [ClassicSimilarity], result of:
          0.015816 = score(doc=5900,freq=22.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3248651 = fieldWeight in 5900, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
      0.20833333 = coord(5/24)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
  11. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Bericht über den middleOfTheRoad Workshop (2001) 0.01
    0.014439104 = product of:
      0.0693077 = sum of:
        0.015816 = weight(_text_:und in 5901) [ClassicSimilarity], result of:
          0.015816 = score(doc=5901,freq=22.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3248651 = fieldWeight in 5901, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
        0.014889815 = weight(_text_:des in 5901) [ClassicSimilarity], result of:
          0.014889815 = score(doc=5901,freq=8.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.24477452 = fieldWeight in 5901, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
        0.016779663 = weight(_text_:der in 5901) [ClassicSimilarity], result of:
          0.016779663 = score(doc=5901,freq=24.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34197432 = fieldWeight in 5901, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
        0.0060062218 = product of:
          0.0120124435 = sum of:
            0.0120124435 = weight(_text_:29 in 5901) [ClassicSimilarity], result of:
              0.0120124435 = score(doc=5901,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.15546128 = fieldWeight in 5901, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5901)
          0.5 = coord(1/2)
        0.015816 = weight(_text_:und in 5901) [ClassicSimilarity], result of:
          0.015816 = score(doc=5901,freq=22.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3248651 = fieldWeight in 5901, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
      0.20833333 = coord(5/24)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
  12. Karl, A.; Mühlschlegel, U.; Ullrich, R.; Deylen, W. von; Farenholtz, B.; Schmolling, R.; Strosetzki, C.; Trapp, M.; Waldeck, B.: cibera: Virtuelle Fachbibliothek Ibero-Amerika / Spanien / Portugal : Teil 2: Die einzelnen Elemente (2006) 0.01
    0.013474333 = product of:
      0.080846 = sum of:
        0.013194968 = weight(_text_:und in 6094) [ClassicSimilarity], result of:
          0.013194968 = score(doc=6094,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27102837 = fieldWeight in 6094, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6094)
        0.031241456 = weight(_text_:des in 6094) [ClassicSimilarity], result of:
          0.031241456 = score(doc=6094,freq=46.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.5135801 = fieldWeight in 6094, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6094)
        0.023214603 = weight(_text_:der in 6094) [ClassicSimilarity], result of:
          0.023214603 = score(doc=6094,freq=60.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.47312024 = fieldWeight in 6094, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6094)
        0.013194968 = weight(_text_:und in 6094) [ClassicSimilarity], result of:
          0.013194968 = score(doc=6094,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27102837 = fieldWeight in 6094, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6094)
      0.16666667 = coord(4/24)
    
    Abstract
    Nachdem in der letzten Ausgabe Entstehung und Aufbau der Virtuellen Fachbibliothek cibera vorgestellt wurden, stehen im Folgenden die einzelnen Angebote des Portals mit ihren Funktionalitäten und technischen Details im Mittelpunkt.
    Content
    "Bibliothekskataloge Die Suche in Bibliothekskatalogen über cibera ermöglicht die simultane Suche in mehreren fachlich relevanten Katalogen über eine einheitliche Suchmaske. Die technische Integration von Bibliothekskatalogen in die Suche erfolgt in der Regel ohne größere Schwierigkeiten, wenn zwei Voraussetzungen erfüllt sind: 1) das Vorhandensein einer Z39.50-Schnittstelle auf Seiten des Katalogbetreibers 2) das Vorhandensein eines von der Metasuchmaschine Wort unterstützten bibliographischen Datenformates (MARC21, MAB, MAB2, UNIMARC). Diese Voraussetzungen waren zunächst nur bei den Katalogen des Ibero-Amerikanischen Instituts (IAI), des Ibero-Amerika Institutes für Wirtschaftsforschung Göttingen sowie bei dem länderrelevanten Ausschnitt des Kataloges der Friedrich-Ebert-Stiftung gegeben. Hier beschränkte sich die Integration in die Suchumgebung zum einen auf das Erstellen von Konkordanzen zwischen geliefertem Datenformat und Präsentationsschicht der Suchmaschine, zum anderen auf die Definition der durchsuchbaren Register der entsprechenden Kataloge. Um eine für den Nutzer klare und verständliche Handhabung zu gewährleisten, konnten nicht alle Suchmöglichkeiten jedes einzelnen Kataloges übernommen werden. Es wurde stattdessen der "kleinste gemeinsame Nenner" definiert, der sowohl die einfache Handhabung der Suche als auch die Flexibilität derselben gewährleistet. Die Kataloge des IAI Berlin, der Friedrich-Ebert-Stiftung und des Ibero-Amerika Institutes für Wirtschaftsforschung Göttingen konnten daher im Zeitraum Juli bis September 2004 vollständig in cibera integriert werden. Technisch aufwändiger stellte sich die Aufbereitung und Integration des Kataloges I des Instituts für Iberoamerika-Kunde Hamburg dar. Aufgrund des Katalogbruches am IIK müssen hier zwei Kataloge integriert werden. Der so genannte Katalog I umfasst die Daten des IIK bis Juli 2002. Hier galt es zunächst, die Daten der CDS-ISIS-Datenbank in ein XML-Zwischenformat zu wandeln, dieses Zwischenformat zu indizieren und mittels geeigneter Software Z39.50-kompatibel zu machen.
    Sowohl die Datenkonvertierung als auch der Aufbau einer Z39.50-Schnittstelle wurden von der Technik des IAI vorgenommen. Der Katalog I des IIK konnte Ende Oktober 2004 erfolgreich in die Suchumgebung integriert werden. Der Katalog II des IIK ist Bestandteil der Datenbank des Fachinformationsverbundes Internationale Beziehungen und Länderkunde (FIV-IBLK). Er enthält die Bücher des IIK ab Mitte 2002 sowie Zeitschriftenaufsätze mit Lateinamerikabezug bereits ab 1985. Die dafür verwendete Domestic-Datenbank wurde beim GBV in eine Pica-Datenbank eingespielt. Diese Migration, die im November 2005 abgeschlossen werden konnte, sowie die vorhandene Z39.50-Schnittstelle und Standard-Datenformate ermöglichen nun die zügige Einbindung in cibera. Sobald die Teilmenge "Lateinamerikabestand" vom GBV definiert ist, kann auch der Katalog II in die Metasuche von cibera integriert werden. Probleme ergeben sich mit der Integration der Kataloge der deutschen Standorte des Instituto Cervantes (Berlin, Bremen, München). Die Voraussetzungen sind geklärt, allerdings wird das vom Instituto Cervantes zurück gelieferte Datenformat IBERMARC von der Metasuchmaschine iPort noch nicht unterstützt. Die Einbindung des Katalogs der Staats- und Universitätsbibliothek (SUB) Hamburg brachte besondere inhaltliche Herausforderungen mit sich, weil er als Katalog einer Universalbibliothek fächerübergreifend ist. Die notwendige Definition eines Fachausschnittes bedeutete Pionierarbeit im Bereich der PICA-Anwender. Der GBV hat Ende 2003 zur Kennzeichnung des SSG-relevanten Ausschnittes im CBS Kategorie 5056 (SSG-Nummer) eingeführt. Bei den älteren Katalogisaten des SSGs musste Kategorie 5056 nachträglich gesetzt werden. Für alle Titelaufnahmen ab Anfang 1998 ist das mit Hilfe eines von der SUB Hamburg entwickelten automatisierten Verfahrens gelungen. In Kürze wird der entsprechende Teilkatalog mit ca. 20.000 Titeln des SSGs Spanien/Portugal für cibera zur Verfügung stehen. Für die älteren Bestände unterstützt die Verbundzentrale des GBV die Schaffung des entsprechenden Fachausschnittes. Weitere Bibliotheken - schwerpunktmäßig solche außerhalb der existierenden Verbundkataloge - sollen als Partner gewonnen werden, um die Katalogsuche zu ergänzen." ...
  13. Rusch, B.: Kooperativer Bibliotheksverbund Berlin-Brandenburg : Erste Erfahrungen im Produktionsbetrieb (2000) 0.01
    0.013407273 = product of:
      0.080443636 = sum of:
        0.023086384 = weight(_text_:und in 5519) [ClassicSimilarity], result of:
          0.023086384 = score(doc=5519,freq=30.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.47420087 = fieldWeight in 5519, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5519)
        0.009306135 = weight(_text_:des in 5519) [ClassicSimilarity], result of:
          0.009306135 = score(doc=5519,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.15298408 = fieldWeight in 5519, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5519)
        0.024964739 = weight(_text_:der in 5519) [ClassicSimilarity], result of:
          0.024964739 = score(doc=5519,freq=34.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.5087885 = fieldWeight in 5519, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5519)
        0.023086384 = weight(_text_:und in 5519) [ClassicSimilarity], result of:
          0.023086384 = score(doc=5519,freq=30.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.47420087 = fieldWeight in 5519, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5519)
      0.16666667 = coord(4/24)
    
    Abstract
    Die Verbundentwicklungen in Berlin und Brandenburg erfolgen seit 1997 als Projekt, das am Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB) angesiedelt ist. Diese außeruniversitäre Forschungseinrichtung betreibt in enger fächerübergreifender Kooperation mit den Hochschulen und wissenschaftlichen Einrichtungen in Berlin Forschung und Entwicklung auf dem Gebiet der Informationstechnik, vorzugsweise in anwendungsorientierter algorithmischer Mathematik. Gemeinsam mit der Softwarefirma ExLibris wird hier auf der Basis des Bibliothekssystems Aleph500 eine bibliothekarische Suchmaschine realisiert. Dabei übernimmt das ZIB die Konzeption und ExLibris die programmtechnische Umsetzung. An dem Projekt Kooperativer Bibliotheksverbund Berlin-Brandenburg (KOBV) sind insgesamt 1-5 bibliothekarische Einrichtungen beteiligt. Neben den großen Universitätsbibliotheken der beiden Länder - der Freien Universität Berlin, der Technischen Universität Berlin, der Humboldt-Universität und der Hochschule der Künste sowie der Europa-Universität Viadrina in Frankfurt (Oder) und der Brandenburgischen Technischen Universität Cottbus - sind das die brandenburgischen Fachhochschulen, die Stadt- und Landesbibliothek in Potsdam und nicht zuletzt die Staatsbibliothek zu Berlin. Außer diesen dezidiert als Projektpartner in einer entsprechenden Vereinbarung genannten Bibliotheken arbeiten weitere bibliothekarische Institutionen als Tester mit
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  14. Woldering, B.: EU-Projekt The European Library (TEL) erfolgreich abgeschlossen (2004) 0.01
    0.012094984 = product of:
      0.0725699 = sum of:
        0.016690461 = weight(_text_:und in 2792) [ClassicSimilarity], result of:
          0.016690461 = score(doc=2792,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34282678 = fieldWeight in 2792, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2792)
        0.018425206 = weight(_text_:des in 2792) [ClassicSimilarity], result of:
          0.018425206 = score(doc=2792,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.302893 = fieldWeight in 2792, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2792)
        0.020763772 = weight(_text_:der in 2792) [ClassicSimilarity], result of:
          0.020763772 = score(doc=2792,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4231716 = fieldWeight in 2792, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2792)
        0.016690461 = weight(_text_:und in 2792) [ClassicSimilarity], result of:
          0.016690461 = score(doc=2792,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34282678 = fieldWeight in 2792, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2792)
      0.16666667 = coord(4/24)
    
    Abstract
    The European Library (TEL) ist ein Gemeinschaftsprojekt von acht europäischen Nationalbibliotheken sowie der zentralen Katalogisierungsinstitution in Italien (ICCU), das unter der Schirmherrschaft der Conference of European national librarians (CENL) initiiert wurde. Mit The European Library wird ein Service entwickelt, der eine integrierte Suche über die Sammlungen und Kataloge mit Verlinkung zu den angeschlossenen Dienstleistungen der beteiligten Nationalbibliotheken bieten wird. Im TEL-Projekt wurde die Machbarkeit dieses Vorhabens untersucht und die Ergebnisse sind vielversprechend: Die Projektpartner haben sich verpflichtet, nach Ende des Projektes im Januar 2004 die Ergebnisse in einen funktionsfähigen Service zu überführen. Die Freischaltung von The European Library ist für Anfang 2005 geplant. Im vorliegenden Text werden die organisatorischen, finanziellen und technischen Ergebnisse des Projektes vorgestellt.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 57(2004) H.3/4, S.8-21
  15. Hodoroaba, L.; Imhof, A.; Kuberek, M.: ¬Das KOBV-Portal, elektronische Ressourcen in Berlin-Brandenburg : Nachweis, parallele Suche und weiterführende Dienste (2004) 0.01
    0.0113528585 = product of:
      0.06811715 = sum of:
        0.018469108 = weight(_text_:und in 2813) [ClassicSimilarity], result of:
          0.018469108 = score(doc=2813,freq=30.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3793607 = fieldWeight in 2813, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2813)
        0.016647318 = weight(_text_:des in 2813) [ClassicSimilarity], result of:
          0.016647318 = score(doc=2813,freq=10.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.27366623 = fieldWeight in 2813, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=2813)
        0.014531613 = weight(_text_:der in 2813) [ClassicSimilarity], result of:
          0.014531613 = score(doc=2813,freq=18.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.29615843 = fieldWeight in 2813, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2813)
        0.018469108 = weight(_text_:und in 2813) [ClassicSimilarity], result of:
          0.018469108 = score(doc=2813,freq=30.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3793607 = fieldWeight in 2813, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2813)
      0.16666667 = coord(4/24)
    
    Abstract
    Das Projekt "KOBV-Informationsportal" In den vergangenen Jahren hat der Kooperative Bibliotheksverbund BerlinBrandenburg (KOBV) mit der KOBV-Suchmaschine eine Internet-Plattform mit einer offenen Architektur geschaffen. Auf dieser technischen Basis erweitert er kontinuierlich sein Dienstleistungsangebot, wobei die Prinzipien des KOBV - insbesondere Offenheit, Heterogenität und Dezentralität auf technischer und organisatorischer Ebene - gewahrt bleiben. Mitte 2001 hat die KOBV-Zentrale gemeinsam mit den regionalen Bibliotheken das zweite große Entwicklungsprojekt "KOBV-Informationsportal" gestartet. Zielsetzung war der Aufbau eines kooperativen regionalen Portals mit Einsatz von Linking-Mechanismen zur "nahtlosen" Navigation in freien und lizenzierten Dokumenten und mit Einsatz von Instrumenten zur dezentralen Authentifizierung und Autorisierung über das Internet. Im Dezember 2003 hat das "KOBV-Portal - Digitale Bibliothek Berlin-Brandenburg" planmäßig in einer ersten Ausbaustufe den Routinebetrieb aufgenommen. Das KOBV-Portal bietet in dieser Stufe den Nachweis über die in den großen Bibliotheken lizenzierten Ressourcen und elektronischen Zeitschriften, zudem die nahtlose Navigation mittels des Reference-LinkingWerkzeuges SFX zu verschiedenen Diensten wie Fernleihe, Subito und freien Volltexten im Internet sowie zu frei zugänglichen elektronischen Zeitschriften. Die mit der verteilten Authentifizierung und Autorisierung verbundene Zielsetzung konnte im Rahmen des Projektes erst zum Teil umgesetzt werden. Realisiert wurde die Remote-Authentifizierung, mit der sich ein Nutzer, der online eine Fernleih-Bestellung aufgeben möchte, über das Internet in seiner Heimatbibliothek authentifizieren kann. Des weiteren ist der Zugriff auf lizenzierte Bestände im Campus einer Hochschule mittels IP-Checking möglich. Als weiteren wesentlichen Bestandteil des KOBV-Portals hat die KOBVZentrale mit den Bibliotheken einen Workflow für ein Metadata-Sharing abgestimmt und für die Adaption und Normalisierung lokaler Metadaten aus lokalen Bibliothekssystemen und -Portalen den KOBV-Metadaten-AustauschParser (KMA-Parser) entwickelt. Darüber hinaus sollen Bibliotheken, deren Metadaten bislang lediglich in unstrukturierter Form vorliegen, in die Lage versetzt werden, strukturierte Metadaten anzulegen, zu liefern und nachzunutzen. Dazu hat die KOBV-Zentrale das mit einer Web-Katalogisierungsschnittstelle ausgestattete "Metadata-Tool" entwickelt, das im Herbst 2004 in Betrieb genommen wird. Die für das Metadata-Sharing entwickelten Komponenten und Module sollen den Bibliotheken die Mehrfacherfassung ersparen und ihnen die Möglichkeit der wechselseitigen Nachnutzung der Metadaten eröffnen.
  16. Strötgen, R.; Kokkelink, S.: Metadatenextraktion aus Internetquellen : Heterogenitätsbehandlung im Projekt CARMEN (2001) 0.01
    0.011103986 = product of:
      0.06662391 = sum of:
        0.02064909 = weight(_text_:und in 5808) [ClassicSimilarity], result of:
          0.02064909 = score(doc=5808,freq=24.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.42413816 = fieldWeight in 5808, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
        0.009306135 = weight(_text_:des in 5808) [ClassicSimilarity], result of:
          0.009306135 = score(doc=5808,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.15298408 = fieldWeight in 5808, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
        0.016019598 = weight(_text_:der in 5808) [ClassicSimilarity], result of:
          0.016019598 = score(doc=5808,freq=14.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.326484 = fieldWeight in 5808, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
        0.02064909 = weight(_text_:und in 5808) [ClassicSimilarity], result of:
          0.02064909 = score(doc=5808,freq=24.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.42413816 = fieldWeight in 5808, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
      0.16666667 = coord(4/24)
    
    Abstract
    Die Sonderfördermaßnahme CARMEN (Content Analysis, Retrieval and Metadata: Effective Networking) zielt im Rahmen des vom BMB+F geförderten Programms GLOBAL INFO darauf ab, in der heutigen dezentralen Informationsweit geeignete Informationssysteme für die verteilten Datenbestände in Bibliotheken, Fachinformationszentren und im Internet zu schaffen. Diese Zusammenführung ist weniger technisch als inhaltlich und konzeptuell problematisch. Heterogenität tritt beispielsweise auf, wenn unterschiedliche Datenbestände zur Inhaltserschließung verschiedene Thesauri oder Klassifikationen benutzen, wenn Metadaten unterschiedlich oder überhaupt nicht erfasst werden oder wenn intellektuell aufgearbeitete Quellen mit in der Regel vollständig unerschlossenen Internetdokumenten zusammentreffen. Im Projekt CARMEN wird dieses Problem mit mehreren Methoden angegangen: Über deduktiv-heuristische Verfahren werden Metadaten automatisch aus Dokumenten generiert, außerdem lassen sich mit statistisch-quantitativen Methoden die unterschiedlichen Verwendungen von Termen in den verschiedenen Beständen aufeinander abbilden, und intellektuell erstellte Crosskonkordanzen schaffen sichere Übergänge von einer Dokumentationssprache in eine andere. Für die Extraktion von Metadaten gemäß Dublin Core (v. a. Autor, Titel, Institution, Abstract, Schlagworte) werden anhand typischer Dokumente (Dissertationen aus Math-Net im PostScript-Format und verschiedenste HTML-Dateien von WWW-Servern deutscher sozialwissenschaftlicher Institutionen) Heuristiken entwickelt. Die jeweilige Wahrscheinlichkeit, dass die so gewonnenen Metadaten korrekt und vertrauenswürdig sind, wird über Gewichte den einzelnen Daten zugeordnet. Die Heuristiken werden iterativ in ein Extraktionswerkzeug implementiert, getestet und verbessert, um die Zuverlässigkeit der Verfahren zu erhöhen. Derzeit werden an der Universität Osnabrück und im InformationsZentrum Sozialwissenschaften Bonn anhand mathematischer und sozialwissenschaftlicher Datenbestände erste Prototypen derartiger Transfermodule erstellt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  17. Woldering, B.: EU-Projekt The European Library (TEL) erfolgreich abgeschlossen (2004) 0.01
    0.010929997 = product of:
      0.06557998 = sum of:
        0.015994716 = weight(_text_:und in 4949) [ClassicSimilarity], result of:
          0.015994716 = score(doc=4949,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.328536 = fieldWeight in 4949, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4949)
        0.015793033 = weight(_text_:des in 4949) [ClassicSimilarity], result of:
          0.015793033 = score(doc=4949,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.25962257 = fieldWeight in 4949, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4949)
        0.017797519 = weight(_text_:der in 4949) [ClassicSimilarity], result of:
          0.017797519 = score(doc=4949,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.36271852 = fieldWeight in 4949, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4949)
        0.015994716 = weight(_text_:und in 4949) [ClassicSimilarity], result of:
          0.015994716 = score(doc=4949,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.328536 = fieldWeight in 4949, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4949)
      0.16666667 = coord(4/24)
    
    Abstract
    The European Library (TEL) ist ein Gemeinschaftsprojekt von acht europäischen Nationalbibliotheken sowie der zentralen Katalogisierungsinstitution in Italien (ICCU), das unter der Schirmherrschaft der Conference of European national librarians (CENL) initiiert wurde. Mit The European Library wird ein Service entwickelt, der eine integrierte Suche über die Sammlungen und Kataloge mit Verlinkung zu den angeschlossenen Dienstleistungen der beteiligten Nationalbibliotheken bieten wird. Im TEL-Projekt wurde die Machbarkeit dieses Vorhabens untersucht und die Ergebnisse sind vielversprechend: Die Projektpartner haben sich verpflichtet, nach Ende des Projektes im Januar 2004 die Ergebnisse in einen funktionsfähigen Service zu überführen. Die Freischaltung von The European Library ist für Dezember 2004 geplant. Im vorliegenden Text werden die organisatorischen, finanziellen und technischen Ergebnisse des Projektes vorgestellt.
    Footnote
    Mit einer Grafik der Funktionalitäten und Metadaten von TEL
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 51(2004) H.1, S.8-16
  18. Becker, H.J.; Neuroth, H.: Crosssearchen und crossbrowsen von "Quality-controlled Subject Gateways" im EU-Projekt Renardus (2002) 0.01
    0.010825703 = product of:
      0.064954214 = sum of:
        0.015994716 = weight(_text_:und in 630) [ClassicSimilarity], result of:
          0.015994716 = score(doc=630,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.328536 = fieldWeight in 630, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=630)
        0.011167361 = weight(_text_:des in 630) [ClassicSimilarity], result of:
          0.011167361 = score(doc=630,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 630, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=630)
        0.021797419 = weight(_text_:der in 630) [ClassicSimilarity], result of:
          0.021797419 = score(doc=630,freq=18.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.44423765 = fieldWeight in 630, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=630)
        0.015994716 = weight(_text_:und in 630) [ClassicSimilarity], result of:
          0.015994716 = score(doc=630,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.328536 = fieldWeight in 630, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=630)
      0.16666667 = coord(4/24)
    
    Abstract
    Das von der Europäischen Union seit Januar 2000 geförderte Projekt Renardus hat das Ziel, einen Service zur Nutzung der in Europa vorhandenen "Quality-controlled Subject Gateways" aufzubauen, d.h. über einen Zugang bzw. eine Schnittstelle crosssearchen und crossbrowsen anzubieten. Für das crossbrowsen wird dabei zum Navigieren die Dewey Decimal Classification (DDC) verwendet. Der Beitrag beschreibt die einzelnen Entwicklungsschritte und stellt detailliert die nötigen Mappingprozesse vor. Dabei handelt es sich einmal um Mappingprozesse von den lokalen Metadatenformaten der einzelnen Subject Gateways zu dem gemeinsamen Kernset an Metadaten in Renardus für die Suche, wobei dieses Kernset auf dem Dublin Core Metadata Set basiert. Zum anderen geht es um die Erstellung von Konkordanzen zwischen den lokalen Klassen der Klassifikationssysteme der Partner und den DDC-Klassen für das Browsen. Der Beitrag beschreibt auch neue zugrunde liegende Definitionen bzw.theoretische Konzepte, die in der Metadatengemeinschaft zurzeit diskutiert werden (z.B. Application Profile, Namespace, Registry). Zum Schluss werden die Funktionalitäten des Renardus-Services (suchen, browsen) näher vorgestellt.
    Footnote
    Die Abbildung enthält eine Tabelle der beteiligten subject gateways
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 49(2002) H.3, S.133-146
  19. Wei, W.: SOAP als Basis für verteilte, heterogene virtuelle OPACs (2002) 0.01
    0.010771858 = product of:
      0.06463114 = sum of:
        0.012895352 = weight(_text_:und in 4097) [ClassicSimilarity], result of:
          0.012895352 = score(doc=4097,freq=26.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2648742 = fieldWeight in 4097, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
        0.01765715 = weight(_text_:des in 4097) [ClassicSimilarity], result of:
          0.01765715 = score(doc=4097,freq=20.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2902669 = fieldWeight in 4097, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
        0.021183284 = weight(_text_:der in 4097) [ClassicSimilarity], result of:
          0.021183284 = score(doc=4097,freq=68.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4317214 = fieldWeight in 4097, product of:
              8.246211 = tf(freq=68.0), with freq of:
                68.0 = termFreq=68.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
        0.012895352 = weight(_text_:und in 4097) [ClassicSimilarity], result of:
          0.012895352 = score(doc=4097,freq=26.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2648742 = fieldWeight in 4097, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
      0.16666667 = coord(4/24)
    
    Abstract
    Eine wichtige Aufgabe der Informationsverarbeitung als fachbezogene Informatik besteht darin, die neue Entwicklung der Informationstechnologie zu verfolgen, sich damit auseinanderzusetzen, inwieweit diese Entwicklung die Forschung sowie die Anwendung in der Geisteswissenschaft unterstützen kann, und die daraus entstandenen Konzepte zu realisieren. Das im Jahre 1999 veröffentlichte Nachrichtenaustauschprotokoll SOAP (Abkürzung für Simple Object Access Protocol) entstand vor dem Hintergrund der schnellen Entwicklung der Vernetzung besonders des Internets. In den letzten Jahren hat SOAP große Aufmerksamkeit auf sich gezogen, weil man mit SOAP einige Beschränkungen der vorhandenen Techniken überwinden kann und damit die Leistungsfähigkeit der Software sowie Anwendung wesentlich verbessern kann. Ziel der Magisterarbeit liegt darin, einerseits theoretisch über die Möglichkeit des Einsetzens von SOAP in der Bibliotheksanwendung zu untersuchen, andererseits das Ergebnis der theoretischen Untersuchung in die Praxis umzusetzen, d.h. das Konzept eines Bibliotheksanwendungssystems mit dem Einsatz von SOAP zusammenzustellen und es zu realisieren. SOAP ist ein Nachrichtenprotokoll, das die Kommunikationen zwischen entfernten Systemen unterstützt. In der Arbeit wird durch eine theoretische Untersuchung gezeigt, dass SOAP sich besonders gut für die in der stark heterogenen Umgebung wie Internet verteilte Anwendung eignet. Eine der häufig von dem Bibliotheksystem über das Internet angebotenen verteilten Anwendungen ist der verteilte OPAC. Ein verteilter OPAC bietet eine verteilte Suche in mehreren Bibliothekssystemen an. Die meisten bisherigen Bibliothekssysteme realisieren die verteilte Suche vorwiegend mit der Unterstützung des Protokolls Z39.50. Durch die theoretische Untersuchung ist es zu sehen, dass mit dem Einsatz von SOAP einerseits der Arbeitsaufwand in der Realisierung bzw. die Verwaltung des Systems verglichen mit dem Z39.50 reduziert, andererseits die Funktionalität des Systems stark erweitert wird, dass eine Zusammenarbeit des Bibliothekssystems mit den Systemen anderer Bereiche leicht realisiert werden kann. Als praktisches Projekt der Magisterarbeit wird ein System der verteilten OPACs mit SOAP als Nachrichtenaustauschprotokoll entwickelt.
    Content
    Überblick über die Kapitel In Kapitel l. Simple Object Acces Protocol (SOAP) wird zuerst der Hintergrund der Entwicklung von SOAP untersucht. Mit einer kurzen Vorstellung der Entwicklung von verteilter Anwendung bis Web Service wird die Situation dargestellt, dass die vorhandenen Standards wie CORBA, DCOM sowie RMI die Ansprüche der stark heterogenen Umgebung wie Internet nicht erfüllen können. Um diesen Mangel der vorhandenen Lösungen zu überwinden, wurde SOAP mit dem Ziel der Unterstützung des plattformenunabhängigen Nachrichtenaustausches entwickelt. Anschließend wird der Begriff Web Service eingeführt, mit dem SOAP stark verbunden ist. Dabei wird über die Möglichkeit des Einsatzes von SOAP in den Bibliothekssystemen diskutiert. Schließlich wird SOAP durch unterschiedliche Aspekte wie SOAP und XML, SOAP Nachricht, Fehler Behandlung usw. untersucht. In Kapitel 3. Die durch Internet erweiterte Bibliothek wird die Beziehung zwischen dem Internet und der Bibliothek aus zwei Sichten, die verteilte Suche und Metadaten, beschrieben. In dem Teil über die verteilte Suche wird vorwiegend das Protokoll Z39.50, womit die bisherigen verteilten Bibliothekssysteme realisiert werden, dargestellt. In dem Teil der Metadaten wird sich zuerst mit der Bedeutung der Metadaten für die Bibliothek sowie für das Internet auseinandergesetzt. Anschließend wird über die existierenden Probleme der Metadaten und die Lösungsmöglichkeiten diskutiert. Schließlich wird eine Untersuchung einiger Metadatenstandards mit Dublin Core als Schwerpunkt durchgeführt, weil Dublin Core zur Zeit der Standard für das Internet und aus diesem Grund auch fir die Internet bezogene Bibliotheksanwendung wichtig ist. In Kapitel 4. Die Entwicklung eines verteilten Bibliothekssystems mit dem SOAP-Einsatz wird die Entwicklung des praktischen Projektes beschrieben. Zuerst wird das Ziel und die Funktionalität des Projektes festgelegt, dass ein verteiltes Bibliothekssystem mit dem Einsatz von SOAP entwickelt wird und das System eine verteilte Suche auf mehreren entfernten Bibliotheksdatenbanken ermöglichen soll. Anschließend wird beschrieben, in welchen Schritten das System entworfen und implementiert wird. Mit dem ersten System kann man nur in einer Datenbank suchen, während man mit dem zweiten System parallel in zwei Datenbanken suchen kann. Dublin Core wird als der Metadatenstandard im gesamten System eingesetzt. Die im System verwendeten Softwarepakete und die Softwarestandardtechnologien werden vorgestellt. Es wird untersucht, wie einzelne technische Komponenten zusammenarbeiten. Schließlich wird die Entwicklung der einzelnen Programmmodule und die Kommunikation zwischen ihnen beschrieben.
  20. Portal "Verteilte Digitale Inkunabelbibliothek" online (2005) 0.01
    0.010714581 = product of:
      0.06428748 = sum of:
        0.014454362 = weight(_text_:und in 4566) [ClassicSimilarity], result of:
          0.014454362 = score(doc=4566,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 4566, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4566)
        0.018425206 = weight(_text_:des in 4566) [ClassicSimilarity], result of:
          0.018425206 = score(doc=4566,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.302893 = fieldWeight in 4566, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4566)
        0.016953548 = weight(_text_:der in 4566) [ClassicSimilarity], result of:
          0.016953548 = score(doc=4566,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34551817 = fieldWeight in 4566, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4566)
        0.014454362 = weight(_text_:und in 4566) [ClassicSimilarity], result of:
          0.014454362 = score(doc=4566,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 4566, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4566)
      0.16666667 = coord(4/24)
    
    Content
    "Das Portal "Verteilte Digitale Inkunabelbibliothek (vdlb)" ist seit Mitte des Jahres online. Es stehen mehr als 550 digitalisierte Inkunabeln zur Verfügung. Mit der gemeinsamen Digitalisierung von mehr als 1.000 der geschätzten 27.000 Inkunabeln wird ein signifikanter Teil erschlossen sein. Im Workshop am 2./3.11.2005 an der Universität Köln wird beraten: - Welches Interesse haben wir an Inkunabeln und warum sollten sie über Internet zur Verfügung gestellt werden? - Wie ist das Angebot des vdlb-Portals methodisch und inhaltlich zu bewerten? - Welche Perspektiven gibt es für eine Gesamtdigitalisierung aller Inkunabelausgaben und für die Konstituierung eines zentralen Portals?"
    Footnote
    Weitere Informationen unter der Adresse: http://inkunabeln.ub.uni-koeln.de/

Types

  • a 35
  • x 7
  • el 3
  • m 2
  • More… Less…