Search (66 results, page 1 of 4)

  • × theme_ss:"Verteilte bibliographische Datenbanken"
  1. Krause, J.: Konkretes zur These, die Standardisierung von der Heterogenität her zu denken (2004) 0.08
    0.078579724 = product of:
      0.24556164 = sum of:
        0.025592007 = weight(_text_:und in 2259) [ClassicSimilarity], result of:
          0.025592007 = score(doc=2259,freq=16.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.41556883 = fieldWeight in 2259, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
        0.020018376 = weight(_text_:dem in 2259) [ClassicSimilarity], result of:
          0.020018376 = score(doc=2259,freq=2.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.21854089 = fieldWeight in 2259, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
        0.027572295 = weight(_text_:der in 2259) [ClassicSimilarity], result of:
          0.027572295 = score(doc=2259,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.44423765 = fieldWeight in 2259, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
        0.025592007 = weight(_text_:und in 2259) [ClassicSimilarity], result of:
          0.025592007 = score(doc=2259,freq=16.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.41556883 = fieldWeight in 2259, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
        0.027572295 = weight(_text_:der in 2259) [ClassicSimilarity], result of:
          0.027572295 = score(doc=2259,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.44423765 = fieldWeight in 2259, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
        0.027572295 = weight(_text_:der in 2259) [ClassicSimilarity], result of:
          0.027572295 = score(doc=2259,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.44423765 = fieldWeight in 2259, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
        0.06407008 = weight(_text_:allgemeinen in 2259) [ClassicSimilarity], result of:
          0.06407008 = score(doc=2259,freq=2.0), product of:
            0.16387373 = queryWeight, product of:
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.027785596 = queryNorm
            0.39097226 = fieldWeight in 2259, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
        0.027572295 = weight(_text_:der in 2259) [ClassicSimilarity], result of:
          0.027572295 = score(doc=2259,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.44423765 = fieldWeight in 2259, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
      0.32 = coord(8/25)
    
    Abstract
    Die Entwicklungsperspektive für den Bereich wissenschaftlicher Information sind innovative, integrierende Fachportale, die in einem Wissenschaftsportal zusammengefasst werden und die allgemeinen, fachübergreifenden Zugänge der Bibliotheken mit spezifischen Fachzugängen verbinden. In dieser Struktur kann der Kunde mit qualitativ hochwertigen Such- und Selektionsinstrumenten auf wissenschaftsrelevante Informationen (Literaturnachweise, Experten und Forschungsreferenzen, Volltexte, Materialien, Daten, Fakten, Linklisten etc.) zugreifen. Sowohl theoriegeleitete Analysen und Bestandsaufnahmen der wissenschaftlichen Informationslandschaft als auch die Ergebnisse der neueren Benutzerumfragen zum Informationsverhalten und zum -bedarf von Wissenschaftlern weisen auf die Wünschbarkeit solch einer Entwicklung hin. Heute ist ein weitgehender Konsens über das anzustrebende Ziel erreicht. Die Herausforderung für die Weiterentwicklung ist somit nicht die Akzeptanz der angestrebten Zielvorstellung, sondern die Frage, wie sie zu erreichen ist. Die im Folgenden diskutierte Entwicklung von bilateralen Transferkomponenten zur Behandlung semantischer Heterogenität zwischen Dokumentensammlungen mit unterschiedlicher Inhaltserschließung zeigt für einen wesentlichen Teil der Frage nach dem »Wie« der Zielerreichung eine tragfähige Lösungsstrategie auf. Sie wird theoretisch und praktisch konkretisiert, der Entwicklungsstand beschrieben und die konkreten Einsatzmöglichkeiten werden aufgezeigt.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 51(2004) H.2, S.76-89
  2. Lügger, J.: Offene Navigation und Suchmaschinen in Verbünden, Konsortien und den Wissenschaften (2004) 0.06
    0.06475633 = product of:
      0.2312726 = sum of:
        0.03191884 = weight(_text_:und in 4980) [ClassicSimilarity], result of:
          0.03191884 = score(doc=4980,freq=14.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.51830536 = fieldWeight in 4980, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4980)
        0.037747014 = weight(_text_:dem in 4980) [ClassicSimilarity], result of:
          0.037747014 = score(doc=4980,freq=4.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.41208467 = fieldWeight in 4980, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0625 = fieldNorm(doc=4980)
        0.032421973 = weight(_text_:der in 4980) [ClassicSimilarity], result of:
          0.032421973 = score(doc=4980,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.5223744 = fieldWeight in 4980, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4980)
        0.03191884 = weight(_text_:und in 4980) [ClassicSimilarity], result of:
          0.03191884 = score(doc=4980,freq=14.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.51830536 = fieldWeight in 4980, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4980)
        0.032421973 = weight(_text_:der in 4980) [ClassicSimilarity], result of:
          0.032421973 = score(doc=4980,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.5223744 = fieldWeight in 4980, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4980)
        0.032421973 = weight(_text_:der in 4980) [ClassicSimilarity], result of:
          0.032421973 = score(doc=4980,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.5223744 = fieldWeight in 4980, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4980)
        0.032421973 = weight(_text_:der in 4980) [ClassicSimilarity], result of:
          0.032421973 = score(doc=4980,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.5223744 = fieldWeight in 4980, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4980)
      0.28 = coord(7/25)
    
    Abstract
    Integration der Navigation und Suche in lizenzierten Journalen und gleichzeitig in freien digitalen Dokumenten unter einer einheitlichen konsistenten Nutzeroberflache ist eines der ungelösten F&E-Probleme der Fachinformation. Hierbei müssen Elemente des Invisible Web und des Visible Web unter Berücksichtigung offener Standards nahtlos miteinander verbunden werden. Der Artikel beschreibt Ausgangspunkt und Entwicklungsgeschichte eines kooperativen Vorhabens "Verteilter Zeitschriftenserver", das sich auf dem Wege über eine Generalisierung zum "Verteilten Dokumentenserver" zur Basis der Kooperation von vascoda und AGVerbund mit dem Ziel der Realisierung einer Offenen Digitalen Bibliothek der Wissenschaften entwickelte.
  3. Neuroth, H.; Lepschy, P.: ¬Das EU-Projekt Renardus (2001) 0.06
    0.06315006 = product of:
      0.17541684 = sum of:
        0.020232258 = weight(_text_:und in 5589) [ClassicSimilarity], result of:
          0.020232258 = score(doc=5589,freq=10.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.328536 = fieldWeight in 5589, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5589)
        0.021435548 = weight(_text_:aus in 5589) [ClassicSimilarity], result of:
          0.021435548 = score(doc=5589,freq=2.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.22614425 = fieldWeight in 5589, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.046875 = fieldNorm(doc=5589)
        0.020018376 = weight(_text_:dem in 5589) [ClassicSimilarity], result of:
          0.020018376 = score(doc=5589,freq=2.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.21854089 = fieldWeight in 5589, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=5589)
        0.020551175 = weight(_text_:der in 5589) [ClassicSimilarity], result of:
          0.020551175 = score(doc=5589,freq=10.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3311152 = fieldWeight in 5589, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5589)
        0.020232258 = weight(_text_:und in 5589) [ClassicSimilarity], result of:
          0.020232258 = score(doc=5589,freq=10.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.328536 = fieldWeight in 5589, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5589)
        0.020551175 = weight(_text_:der in 5589) [ClassicSimilarity], result of:
          0.020551175 = score(doc=5589,freq=10.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3311152 = fieldWeight in 5589, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5589)
        0.020551175 = weight(_text_:der in 5589) [ClassicSimilarity], result of:
          0.020551175 = score(doc=5589,freq=10.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3311152 = fieldWeight in 5589, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5589)
        0.020551175 = weight(_text_:der in 5589) [ClassicSimilarity], result of:
          0.020551175 = score(doc=5589,freq=10.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3311152 = fieldWeight in 5589, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5589)
        0.011293694 = product of:
          0.022587389 = sum of:
            0.022587389 = weight(_text_:22 in 5589) [ClassicSimilarity], result of:
              0.022587389 = score(doc=5589,freq=2.0), product of:
                0.097300425 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027785596 = queryNorm
                0.23214069 = fieldWeight in 5589, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5589)
          0.5 = coord(1/2)
      0.36 = coord(9/25)
    
    Abstract
    Der vollständige Projektname von Renardus lautet "Academic Subject Gateway Service Europe". Renardus wird von der Europäischen Union im 5. Rahmenprogramm mit dem Schwerpunktthema "Information Society Technologies" im zweiten Thematischen Programm "Benutzerfreundliche Informationsgesellschaft" ('Promoting a User-friendly Information Society') gefördert. Die Projektlaufzeit ist von Januar 2000 bis Juni 2002. Insgesamt zwölf Partner (Principal und Assistant Contractors) aus Finnland, Dänemark, Schweden, Großbritannien, den Niederlanden, Frankreich und Deutschland beteiligen sich an diesem Projekt. Die Europäische Union unterstützt das Projekt mit 1,7 Mio. EURO, die Gesamtkosten belaufen sich inklusive der Eigenbeteiligungen der Partner auf 2,3 Mio. EURO. Das Ziel des Projektes Renardus ist es, über eine Schnittstelle Zugriff auf verteilte Sammlungen von "High Quality" Internet Ressourcen in Europa zu ermöglichen. Diese Schnittstelle wird über den Renardus Broker realisiert, der das "Cross-Searchen" und "Cross-Browsen" über verteilte "Quality-Controlled Subject Gateways" ermöglicht. Ein weiteres Ziel von Renardus ist es, Möglichkeiten von "metadata sharing" zu evaluieren und in kleinen Experimenten zwischen z. B. Subject Gateways und Nationalbibliothek zu testen bzw. zu realisieren
    Date
    22. 6.2002 19:32:15
  4. Wei, W.: SOAP als Basis für verteilte, heterogene virtuelle OPACs (2002) 0.06
    0.06157232 = product of:
      0.19241351 = sum of:
        0.016311767 = weight(_text_:und in 4097) [ClassicSimilarity], result of:
          0.016311767 = score(doc=4097,freq=26.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.2648742 = fieldWeight in 4097, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
        0.015157222 = weight(_text_:aus in 4097) [ClassicSimilarity], result of:
          0.015157222 = score(doc=4097,freq=4.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.15990815 = fieldWeight in 4097, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
        0.037450954 = weight(_text_:dem in 4097) [ClassicSimilarity], result of:
          0.037450954 = score(doc=4097,freq=28.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.40885258 = fieldWeight in 4097, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
        0.026795452 = weight(_text_:der in 4097) [ClassicSimilarity], result of:
          0.026795452 = score(doc=4097,freq=68.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4317214 = fieldWeight in 4097, product of:
              8.246211 = tf(freq=68.0), with freq of:
                68.0 = termFreq=68.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
        0.016311767 = weight(_text_:und in 4097) [ClassicSimilarity], result of:
          0.016311767 = score(doc=4097,freq=26.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.2648742 = fieldWeight in 4097, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
        0.026795452 = weight(_text_:der in 4097) [ClassicSimilarity], result of:
          0.026795452 = score(doc=4097,freq=68.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4317214 = fieldWeight in 4097, product of:
              8.246211 = tf(freq=68.0), with freq of:
                68.0 = termFreq=68.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
        0.026795452 = weight(_text_:der in 4097) [ClassicSimilarity], result of:
          0.026795452 = score(doc=4097,freq=68.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4317214 = fieldWeight in 4097, product of:
              8.246211 = tf(freq=68.0), with freq of:
                68.0 = termFreq=68.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
        0.026795452 = weight(_text_:der in 4097) [ClassicSimilarity], result of:
          0.026795452 = score(doc=4097,freq=68.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4317214 = fieldWeight in 4097, product of:
              8.246211 = tf(freq=68.0), with freq of:
                68.0 = termFreq=68.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
      0.32 = coord(8/25)
    
    Abstract
    Eine wichtige Aufgabe der Informationsverarbeitung als fachbezogene Informatik besteht darin, die neue Entwicklung der Informationstechnologie zu verfolgen, sich damit auseinanderzusetzen, inwieweit diese Entwicklung die Forschung sowie die Anwendung in der Geisteswissenschaft unterstützen kann, und die daraus entstandenen Konzepte zu realisieren. Das im Jahre 1999 veröffentlichte Nachrichtenaustauschprotokoll SOAP (Abkürzung für Simple Object Access Protocol) entstand vor dem Hintergrund der schnellen Entwicklung der Vernetzung besonders des Internets. In den letzten Jahren hat SOAP große Aufmerksamkeit auf sich gezogen, weil man mit SOAP einige Beschränkungen der vorhandenen Techniken überwinden kann und damit die Leistungsfähigkeit der Software sowie Anwendung wesentlich verbessern kann. Ziel der Magisterarbeit liegt darin, einerseits theoretisch über die Möglichkeit des Einsetzens von SOAP in der Bibliotheksanwendung zu untersuchen, andererseits das Ergebnis der theoretischen Untersuchung in die Praxis umzusetzen, d.h. das Konzept eines Bibliotheksanwendungssystems mit dem Einsatz von SOAP zusammenzustellen und es zu realisieren. SOAP ist ein Nachrichtenprotokoll, das die Kommunikationen zwischen entfernten Systemen unterstützt. In der Arbeit wird durch eine theoretische Untersuchung gezeigt, dass SOAP sich besonders gut für die in der stark heterogenen Umgebung wie Internet verteilte Anwendung eignet. Eine der häufig von dem Bibliotheksystem über das Internet angebotenen verteilten Anwendungen ist der verteilte OPAC. Ein verteilter OPAC bietet eine verteilte Suche in mehreren Bibliothekssystemen an. Die meisten bisherigen Bibliothekssysteme realisieren die verteilte Suche vorwiegend mit der Unterstützung des Protokolls Z39.50. Durch die theoretische Untersuchung ist es zu sehen, dass mit dem Einsatz von SOAP einerseits der Arbeitsaufwand in der Realisierung bzw. die Verwaltung des Systems verglichen mit dem Z39.50 reduziert, andererseits die Funktionalität des Systems stark erweitert wird, dass eine Zusammenarbeit des Bibliothekssystems mit den Systemen anderer Bereiche leicht realisiert werden kann. Als praktisches Projekt der Magisterarbeit wird ein System der verteilten OPACs mit SOAP als Nachrichtenaustauschprotokoll entwickelt.
    Content
    Überblick über die Kapitel In Kapitel l. Simple Object Acces Protocol (SOAP) wird zuerst der Hintergrund der Entwicklung von SOAP untersucht. Mit einer kurzen Vorstellung der Entwicklung von verteilter Anwendung bis Web Service wird die Situation dargestellt, dass die vorhandenen Standards wie CORBA, DCOM sowie RMI die Ansprüche der stark heterogenen Umgebung wie Internet nicht erfüllen können. Um diesen Mangel der vorhandenen Lösungen zu überwinden, wurde SOAP mit dem Ziel der Unterstützung des plattformenunabhängigen Nachrichtenaustausches entwickelt. Anschließend wird der Begriff Web Service eingeführt, mit dem SOAP stark verbunden ist. Dabei wird über die Möglichkeit des Einsatzes von SOAP in den Bibliothekssystemen diskutiert. Schließlich wird SOAP durch unterschiedliche Aspekte wie SOAP und XML, SOAP Nachricht, Fehler Behandlung usw. untersucht. In Kapitel 3. Die durch Internet erweiterte Bibliothek wird die Beziehung zwischen dem Internet und der Bibliothek aus zwei Sichten, die verteilte Suche und Metadaten, beschrieben. In dem Teil über die verteilte Suche wird vorwiegend das Protokoll Z39.50, womit die bisherigen verteilten Bibliothekssysteme realisiert werden, dargestellt. In dem Teil der Metadaten wird sich zuerst mit der Bedeutung der Metadaten für die Bibliothek sowie für das Internet auseinandergesetzt. Anschließend wird über die existierenden Probleme der Metadaten und die Lösungsmöglichkeiten diskutiert. Schließlich wird eine Untersuchung einiger Metadatenstandards mit Dublin Core als Schwerpunkt durchgeführt, weil Dublin Core zur Zeit der Standard für das Internet und aus diesem Grund auch fir die Internet bezogene Bibliotheksanwendung wichtig ist. In Kapitel 4. Die Entwicklung eines verteilten Bibliothekssystems mit dem SOAP-Einsatz wird die Entwicklung des praktischen Projektes beschrieben. Zuerst wird das Ziel und die Funktionalität des Projektes festgelegt, dass ein verteiltes Bibliothekssystem mit dem Einsatz von SOAP entwickelt wird und das System eine verteilte Suche auf mehreren entfernten Bibliotheksdatenbanken ermöglichen soll. Anschließend wird beschrieben, in welchen Schritten das System entworfen und implementiert wird. Mit dem ersten System kann man nur in einer Datenbank suchen, während man mit dem zweiten System parallel in zwei Datenbanken suchen kann. Dublin Core wird als der Metadatenstandard im gesamten System eingesetzt. Die im System verwendeten Softwarepakete und die Softwarestandardtechnologien werden vorgestellt. Es wird untersucht, wie einzelne technische Komponenten zusammenarbeiten. Schließlich wird die Entwicklung der einzelnen Programmmodule und die Kommunikation zwischen ihnen beschrieben.
  5. Rusch, B.: Kooperativer Bibliotheksverbund Berlin-Brandenburg : Erste Erfahrungen im Produktionsbetrieb (2000) 0.06
    0.058327463 = product of:
      0.20831236 = sum of:
        0.029202748 = weight(_text_:und in 5519) [ClassicSimilarity], result of:
          0.029202748 = score(doc=5519,freq=30.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.47420087 = fieldWeight in 5519, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5519)
        0.023591883 = weight(_text_:dem in 5519) [ClassicSimilarity], result of:
          0.023591883 = score(doc=5519,freq=4.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.25755292 = fieldWeight in 5519, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5519)
        0.031578742 = weight(_text_:der in 5519) [ClassicSimilarity], result of:
          0.031578742 = score(doc=5519,freq=34.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.5087885 = fieldWeight in 5519, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5519)
        0.029202748 = weight(_text_:und in 5519) [ClassicSimilarity], result of:
          0.029202748 = score(doc=5519,freq=30.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.47420087 = fieldWeight in 5519, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5519)
        0.031578742 = weight(_text_:der in 5519) [ClassicSimilarity], result of:
          0.031578742 = score(doc=5519,freq=34.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.5087885 = fieldWeight in 5519, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5519)
        0.031578742 = weight(_text_:der in 5519) [ClassicSimilarity], result of:
          0.031578742 = score(doc=5519,freq=34.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.5087885 = fieldWeight in 5519, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5519)
        0.031578742 = weight(_text_:der in 5519) [ClassicSimilarity], result of:
          0.031578742 = score(doc=5519,freq=34.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.5087885 = fieldWeight in 5519, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5519)
      0.28 = coord(7/25)
    
    Abstract
    Die Verbundentwicklungen in Berlin und Brandenburg erfolgen seit 1997 als Projekt, das am Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB) angesiedelt ist. Diese außeruniversitäre Forschungseinrichtung betreibt in enger fächerübergreifender Kooperation mit den Hochschulen und wissenschaftlichen Einrichtungen in Berlin Forschung und Entwicklung auf dem Gebiet der Informationstechnik, vorzugsweise in anwendungsorientierter algorithmischer Mathematik. Gemeinsam mit der Softwarefirma ExLibris wird hier auf der Basis des Bibliothekssystems Aleph500 eine bibliothekarische Suchmaschine realisiert. Dabei übernimmt das ZIB die Konzeption und ExLibris die programmtechnische Umsetzung. An dem Projekt Kooperativer Bibliotheksverbund Berlin-Brandenburg (KOBV) sind insgesamt 1-5 bibliothekarische Einrichtungen beteiligt. Neben den großen Universitätsbibliotheken der beiden Länder - der Freien Universität Berlin, der Technischen Universität Berlin, der Humboldt-Universität und der Hochschule der Künste sowie der Europa-Universität Viadrina in Frankfurt (Oder) und der Brandenburgischen Technischen Universität Cottbus - sind das die brandenburgischen Fachhochschulen, die Stadt- und Landesbibliothek in Potsdam und nicht zuletzt die Staatsbibliothek zu Berlin. Außer diesen dezidiert als Projektpartner in einer entsprechenden Vereinbarung genannten Bibliotheken arbeiten weitere bibliothekarische Institutionen als Tester mit
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  6. Kaizik, A.; Gödert, W.; Milanesi, C.: Erfahrungen und Ergebnisse aus der Evaluierung des EU-Projektes EULER im Rahmen des an der FH Köln angesiedelten Projektes EJECT (Evaluation von Subject Gateways des World Wide Web (2001) 0.05
    0.054645833 = product of:
      0.17076823 = sum of:
        0.023843944 = weight(_text_:und in 5801) [ClassicSimilarity], result of:
          0.023843944 = score(doc=5801,freq=20.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3871834 = fieldWeight in 5801, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5801)
        0.017862957 = weight(_text_:aus in 5801) [ClassicSimilarity], result of:
          0.017862957 = score(doc=5801,freq=2.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.18845356 = fieldWeight in 5801, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5801)
        0.02297691 = weight(_text_:der in 5801) [ClassicSimilarity], result of:
          0.02297691 = score(doc=5801,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.37019804 = fieldWeight in 5801, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5801)
        0.023843944 = weight(_text_:und in 5801) [ClassicSimilarity], result of:
          0.023843944 = score(doc=5801,freq=20.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3871834 = fieldWeight in 5801, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5801)
        0.02297691 = weight(_text_:der in 5801) [ClassicSimilarity], result of:
          0.02297691 = score(doc=5801,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.37019804 = fieldWeight in 5801, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5801)
        0.02297691 = weight(_text_:der in 5801) [ClassicSimilarity], result of:
          0.02297691 = score(doc=5801,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.37019804 = fieldWeight in 5801, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5801)
        0.02297691 = weight(_text_:der in 5801) [ClassicSimilarity], result of:
          0.02297691 = score(doc=5801,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.37019804 = fieldWeight in 5801, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5801)
        0.013309746 = product of:
          0.026619492 = sum of:
            0.026619492 = weight(_text_:22 in 5801) [ClassicSimilarity], result of:
              0.026619492 = score(doc=5801,freq=4.0), product of:
                0.097300425 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027785596 = queryNorm
                0.27358043 = fieldWeight in 5801, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5801)
          0.5 = coord(1/2)
      0.32 = coord(8/25)
    
    Abstract
    Der Umfang und die Heterogenität des Informationsangebotes erfordert immer differenzierte Methoden und Hilfsmittel für das gezielte und möglichst ballastfreie Auffinden von Informationsquellen im Kontext eines bestimmten Fachgebietes oder einer wissenschaftlichen Disziplin. Um dieses Ziel zu erreichen, wurden in der letzten Zeit eine Reihe sog. Subject Gateways entwickelt. Bislang liegen weder viele Untersuchungen zur Qualität derartiger Hilfsmittel vor noch ist eine differenzierte Methodik für solche Bewertungen entwickelt worden. Das Projekt Evaluation von Subject Gateways des Internet (EJECT) verfolgte daher die Ziele: durch Analyse bereits realisierter Subject Gateways die Verwendungsvielfalt des Begriffes aufzuzeigen und zu einer Präzisierung der Begriffsbildung beizutragen; einen methodischen Weg zur qualitativen Bewertung von Subject Gateways aufzuzeigen; diesen Weg anhand einer Evaluation des Subject Gateways EULER zu testen, das im Rahmen eines EU-Projektes für das Fachgebiet Mathematik entwickelt wurde. Die Resultate der Evaluation werden hier in verkürzter Form vorgestellt und es wird aufgezeigt, inwieweit eine Übertragung auf die Bewertung anderer Gateways möglich ist
    Date
    22. 6.2002 19:42:22
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  7. Woldering, B.: Aufbau einer virtuellen europäischen Nationalbibliothek : Von Gabriel zu The European Library (2004) 0.05
    0.05413402 = product of:
      0.16916882 = sum of:
        0.021749023 = weight(_text_:und in 4950) [ClassicSimilarity], result of:
          0.021749023 = score(doc=4950,freq=26.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3531656 = fieldWeight in 4950, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4950)
        0.014290365 = weight(_text_:aus in 4950) [ClassicSimilarity], result of:
          0.014290365 = score(doc=4950,freq=2.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.15076284 = fieldWeight in 4950, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=4950)
        0.013345584 = weight(_text_:dem in 4950) [ClassicSimilarity], result of:
          0.013345584 = score(doc=4950,freq=2.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.14569393 = fieldWeight in 4950, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.03125 = fieldNorm(doc=4950)
        0.024508705 = weight(_text_:der in 4950) [ClassicSimilarity], result of:
          0.024508705 = score(doc=4950,freq=32.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3948779 = fieldWeight in 4950, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4950)
        0.021749023 = weight(_text_:und in 4950) [ClassicSimilarity], result of:
          0.021749023 = score(doc=4950,freq=26.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3531656 = fieldWeight in 4950, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4950)
        0.024508705 = weight(_text_:der in 4950) [ClassicSimilarity], result of:
          0.024508705 = score(doc=4950,freq=32.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3948779 = fieldWeight in 4950, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4950)
        0.024508705 = weight(_text_:der in 4950) [ClassicSimilarity], result of:
          0.024508705 = score(doc=4950,freq=32.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3948779 = fieldWeight in 4950, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4950)
        0.024508705 = weight(_text_:der in 4950) [ClassicSimilarity], result of:
          0.024508705 = score(doc=4950,freq=32.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3948779 = fieldWeight in 4950, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4950)
      0.32 = coord(8/25)
    
    Abstract
    Im Januar 2004 wurde das EU-Projekt »The European Library (TEL)« erfolgreich beendet: Die Errichtung einer virtuellen europäischen Nationalbibliothek hat sich als machbar erwiesen. Die Arbeit im TEL-Projekt wurde im Februar 2001 aufgenommen und konzentrierte sich auf folgende Schwerpunkte: - Untersuchung der Möglichkeiten, Vereinbarungen mit Verlegern über die europaweite Bereitstellung elektronischer Publikationen über die Nationalbibliotheken zu erzielen, - Herstellen eines Konsenses unter den beteiligten Partnern über das angestrebte gemeinsame Serviceangebot sowie die Erstellung eines für alle akzeptablen Geschäftsmodells für die Entwicklung, das Management und die Finanzierung dieses Serviceangebots, - Erstellung eines abgestimmten, für weitere Entwicklungen offenen Metadaten-Modells für das geplante Serviceangebot, - Entwicklung und Test einer technischen Umgebung, welche den integrierten Zugang zu den Daten der Partner sowohl über Z39.50 als auch über einen zentralen, XML-basierten Index ermöglicht. Die Ergebnisse des TEL-Projektes sind ein Geschäftsmodell, ein Metadatenmodell sowie eine technische Lösung für die Integration von Daten, auf welche über Z39.50 oder über einen zentralen, XML-basierten Index zugegriffen werden kann. Aufgrund dieser Ergebnisse beschlossen die TEL-Partner (die Nationalbibliotheken von Deutschland, Finnland, Großbritannien, Italien, der Niederlande, Portugal, Slowenien und der Schweiz sowie das Istituto Centrale per il Catalogo Unico delle Biblioteche Italia ne e per le Informazioni Bibliografiche ICCU), nach Beendigung der Projektphase TEL als kostenloses Webangebot der europäischen Nationalbibliotheken aufzubauen. Alle Projektpartner erklärten sich bereit, sich an der Umsetzung und Startfinanzierung zu beteiligen. Langfristig ist die Beteiligung aller in der Konferenz der Europäischen Nationalbibliothekare (CENL) vertretenen Nationalbibliotheken geplant. Das TEL-Projekt ist aus der Idee der Weiterentwicklung von Gabriel entstanden, dem Webservice der CENL-Bibliotheken. Im Jahre 1994 beschlossen die Direktorinnen und Direktoren der europäischen Nationalbibliotheken die Einrichtung eines gemeinsamen Online-Forums, um einen schnelleren und einfacheren Austausch über neue Entwicklungen und Aktivitäten in europäischen Bibliotheken zu ermöglichen. Die Idee wurde bald ausgeweitet, sodass nicht nur ein Forum für alle CENL-Mitglieder, sondern auch ein Informationsangebot über CENL, ihre Mitgliedsbibliotheken und deren OnlineDienste als »single point of access« geplant wurde. Die Nationalbibliotheken von Deutschland, Finnland, Frankreich, Großbritannien und den Niederlanden übernahmen die Entwicklung eines prototypischen Webangebots, das sie »Gabriel - Gateway and Bridge to Europe's National Libraries« nannten. Gabriel bietet Informationen auf drei Ebenen: auf der europäischen Ebene über Kooperationsprojekte und internationale Veranstaltungen, auf nationaler Ebene Beschreibungen der Bibliotheken, ihrer Funktionen und ihrer Sammlungen und schließlich auf individueller Ebene die Dienstleistungsangebote der einzelnen Bibliotheken.
  8. Jahns, Y.; Trummer, M.: Sacherschließung - Informationsdienstleistung nach Maß : Kann Heterogenität beherrscht werden? (2004) 0.05
    0.0521932 = product of:
      0.16310374 = sum of:
        0.022570027 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.022570027 = score(doc=2789,freq=112.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.36649725 = fieldWeight in 2789, product of:
              10.583005 = tf(freq=112.0), with freq of:
                112.0 = termFreq=112.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.015977114 = weight(_text_:aus in 2789) [ClassicSimilarity], result of:
          0.015977114 = score(doc=2789,freq=10.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.16855799 = fieldWeight in 2789, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.018873507 = weight(_text_:dem in 2789) [ClassicSimilarity], result of:
          0.018873507 = score(doc=2789,freq=16.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.20604233 = fieldWeight in 2789, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.020778267 = weight(_text_:der in 2789) [ClassicSimilarity], result of:
          0.020778267 = score(doc=2789,freq=92.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.33477405 = fieldWeight in 2789, product of:
              9.591663 = tf(freq=92.0), with freq of:
                92.0 = termFreq=92.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.022570027 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.022570027 = score(doc=2789,freq=112.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.36649725 = fieldWeight in 2789, product of:
              10.583005 = tf(freq=112.0), with freq of:
                112.0 = termFreq=112.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.020778267 = weight(_text_:der in 2789) [ClassicSimilarity], result of:
          0.020778267 = score(doc=2789,freq=92.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.33477405 = fieldWeight in 2789, product of:
              9.591663 = tf(freq=92.0), with freq of:
                92.0 = termFreq=92.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.020778267 = weight(_text_:der in 2789) [ClassicSimilarity], result of:
          0.020778267 = score(doc=2789,freq=92.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.33477405 = fieldWeight in 2789, product of:
              9.591663 = tf(freq=92.0), with freq of:
                92.0 = termFreq=92.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.020778267 = weight(_text_:der in 2789) [ClassicSimilarity], result of:
          0.020778267 = score(doc=2789,freq=92.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.33477405 = fieldWeight in 2789, product of:
              9.591663 = tf(freq=92.0), with freq of:
                92.0 = termFreq=92.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
      0.32 = coord(8/25)
    
    Content
    "... unter diesem Motto hat die Deutsche Bücherei Leipzig am 23. März 2004 auf dem Leipziger Kongress für Bibliothek und Information eine Vortragsreihe initiiert. Vorgestellt wurden Projekte, die sich im Spannungsfeld von Standardisierung und Heterogenität der Sacherschließung bewegen. Die Benutzer unserer Bibliotheken und Informationseinrichtungen stehen heute einer Fülle von Informationen gegenüber, die sie aus zahlreichen Katalogen und Fachdatenbanken abfragen können. Diese Recherche kann schnell zeitraubend werden, wenn der Benutzer mit verschiedenen Suchbegriffen und -logiken arbeiten muss, um zur gewünschten Ressource zu gelangen. Ein Schlagwort A kann in jedem der durchsuchten Systeme eine andere Bedeutung annehmen. Homogenität erreicht man klassisch zunächst durch Normierung und Standardisierung. Für die zwei traditionellen Verfahren der inhaltlichen Erschließung - der klassifikatorischen und der verbalen - haben sich in Deutschland verschiedene Standards durchgesetzt. Klassifikatorische Erschließung wird mit ganz unterschiedlichen Systemen betrieben. Verbreitet sind etwa die Regensburger Verbundklassifikation (RVK) oder die Basisklassifikation (BK). Von Spezial- und Facheinrichtungen werden entsprechende Fachklassifikationen eingesetzt. Weltweit am häufigsten angewandt ist die Dewey Decimal Classification (DDC), die seit 2003 ins Deutsche übertragen wird. Im Bereich der verbalen Sacherschließung haben sich, vor allem bei den wissenschaftlichen Universalbibliotheken, die Regeln für den Schlagwortkatalog (RSWK) durchgesetzt, durch die zugleich die Schlagwortnormdatei (SWD) kooperativ aufgebaut wurde. Daneben erschließen wiederum viele Spezial- und Facheinrichtungen mit selbst entwickelten Fachthesauri.
    Neben die Pflege der Standards tritt als Herausforderung die Vernetzung der Systeme, um heterogene Dokumentenbestände zu verbinden. »Standardisierung muss von der verbleibenden Heterogenität her gedacht werden«." Diese Aufgaben können nur in Kooperation von Bibliotheken und Informationseinrichtungen gelöst werden. Die vorgestellten Projekte zeigen, wie dies gelingen kann. Sie verfolgen alle das Ziel, Informationen über Inhalte schneller und besser für die Nutzer zur Verfügung zu stellen. Fachliche Recherchen über mehrere Informationsanbieter werden durch die Heterogenität überwindende Suchdienste ermöglicht. Die Einführung der DDC im deutschen Sprachraum steht genau im Kern des Spannungsfeldes. Die DDC stellt durch ihren universalen Charakter nicht nur einen übergreifenden Standard her. Ihre Anwendung ist nur nutzbringend, wenn zugleich die Vernetzung mit den in Deutschland bewährten Klassifikationen und Thesauri erfolgt. Ziel des Projektes DDC Deutsch ist nicht nur eine Übersetzung ins Deutsche, die DDC soll auch in Form elektronischer Dienste zur Verfügung gestellt werden. Dr. Lars Svensson, Deutsche Bibliothek Frankfurt am Main, präsentierte anschaulichdie Möglichkeiten einer intelligenten Navigation über die DDC. Für die Dokumentenbestände Der Deutschen Bibliothek, des Gemeinsamen Bibliotheksverbundes (GBV) und der Niedersächsischen Staats- und Universitätsbibliothek Göttingen wurde prototypisch ein Webservice realisiert.
    Dieses DDC-Tool ermöglicht den Zugriff auf lokale, mit DDC-erschlossene Titeldaten. Für einige bereits übersetzte DDC-Klassen kann mithilfe eines Browsers gearbeitet werden. Auch die gezielte verbale Suche nach DDC-Elementen ist möglich. Die Frage nach Aspekten, wie z. B. geografischen, soll durch getrennte Ablage der Notationselemente in den Titeldatensätzen ermöglicht werden. Schließlich lassen sich künftig auch integrierte Suchen über DDC und SWD oder andere Erschließungssysteme denken, um Literatur zu einem Thema zu finden. Das von Lars Svensson vorgestellte Retrieval-Interface bietet eine zentrale Lösung: nicht für jeden lokalen OPAC müssen eigene Suchstrukturen entwickelt werden, um auf DDC-Daten zugreifen zu können. Wie Datenbestände mit verschiedenen Erschließungen unter einer Oberfläche zusammengeführt werden und dabei die DDC als Meta-Ebene genutzt wird, das ist heute schon im Subject Gateway Renardus sichtbar." Der Renardus-Broker ermöglicht das Cross-Browsen und Cross-Searchen über verteilte Internetquellen in Europa. Für die Navigation über die DDC mussten zunächst Crosswalks zwischen den lokalen Klassifikationsklassen und der DDC erstellt werden. Das an der Universitätsbibliothek Regensburg entwickelte Tool CarmenX wurde dazu von der Niedersächsischen Staats- und Universitätsbibliothek Göttingen weiterentwickelt und ermöglicht den Zugriff auf die ver schiedenen Klassifikationssysteme. Über diese Entwicklungen berichtete Dr. Friedrich Geißelmann, Universitäsbibliothek Regensburg. Er leitete das CARMEN-Teilprojekt »Grosskonkordanzen zwischen Thesauri und Klassifikationen«, in dem das Werkzeug CarmenX entstand. In diesem CARMEN-Arbeitspaket erfolgten sowohl grundlegende methodische Untersuchungen zu Crosskonkordanzen als auch prototypische Umsetzungen in den Fachgebieten Mathematik, Physik und Sozialwissenschaften. Ziel war es, bei Recherchen in verteilten Datenbanken mit unterschiedlichen Klassifikationen und Thesauri von einem vertrauten System auszugehen und in weitere wechseln zu können, ohne genaue Kenntnis von den Systemen haben zu müssen. So wurden z. B. im Bereich Crosskonkordanzen zwischen Allgemein- und Fachklassifikationen die RVK und die Mathematical Subject Classification (MSC) und Physics and Astronomy Classification Scheme (PACS) ausgewählt.
    Es wurden immer zwei Klassifikationen aufeinander abgebildet und die jeweiligen Klassen (Notationen) miteinander verknüpft. Friedrich Geißelmann unterstrich die Notwendigkeit weiterer Crosswalks für die integrierte, insbesondere fachübergreifende Suche, wie sie im Internetportal vascoda angeboten wird. Stefan Jakowatz, Informationszentrum Sozialwissenschaften (IZ) Bonn, informierte über die Arbeiten des IZ im Bereich der Heterogenitätsbehandlung. Er stellte die in CARMEN erarbeiteten Crosskonkordanzen im Bereich Thesauri vor. Hier wurden Crosskonkordanzen zwischen der SWD, dem Thesaurus Sozialwissenschaften des IZ und der Schlagwortliste des Deutschen Instituts für Internationale Pädagogische Forschung (DIPF) erstellt. Begriffe aus der Soziologie, Methoden der Sozialforschung, Politikwissenschaft und Bildungsforschung bildeten das Basismaterial. Zusätzlich liegen inzwischen am IZ Verknüpfungen zum Psyndex-Thesaurus und zum Thesaurus der Sociological Abstracts (CSA) vor. Transferkomponenten wurden am IZ Sozialwissenschaften nicht nur durch intellektuell erstellte Crosskonkordanzen, sondern auch mittels quantitativ-statistischer Analysen von Titeldaten geschaffen. Eingesetzt werden diese in der Metasuche der virtuellen Fachbibliothek VibSoz. Dort erfolgt die Suche nach sozialwissenschaftlicher Literatur über die Kernbestände von fünf verschiedenen Bibliotheken und Fachdatenbanken. Die Suchanfragen werden automatisch in die jeweils andere Terminologie übersetzt und führen die Treffer in einer integrierten Liste zusammen. Ähnlich arbeiten die Transfermodule in infoconnex", dem Fachinformationsverbund für Pädagogik, Sozialwissenschaften und Psychologie. Auch hier wird durch die Crosskonkordanzen eine effiziente fachübergreifende Recherche angeboten.
    Katja Heyke, Universitäts- und Stadtbibliothek Köln, und Manfred Faden, Bibliothek des HWWA-Instituts für Wirtschaftsforschung Hamburg, stellten ähnliche Entwicklungen für den Fachbereich Wirtschaftswissenschaften vor. Hier wird eine Crosskonkordanz zwischen dem Standard Thesaurus Wirtschaft (STW) und dem Bereich Wirtschaft der SWD aufgebaut." Diese Datenbank soll den Zugriff auf die mit STW und SWD erschlossenen Bestände ermöglichen. Sie wird dazu weitergegeben an die virtuelle Fachbibliothek EconBiz und an den Gemeinsamen Bibliotheksverbund. Die Crosskonkordanz Wirtschaft bietet aber auch die Chance zur kooperativen Sacherschließung, denn sie eröffnet die Möglichkeit der gegenseitigen Übernahme von Sacherschließungsdaten zwischen den Partnern Die Deutsche Bibliothek, Universitäts- und Stadtbibliothek Köln, HWWA und Bibliothek des Instituts für Weltwirtschaft Kiel. Am Beispiel der Wirtschaftswissenschaften zeigt sich der Gewinn solcher KonkordanzProjekte für Indexierer und Benutzer. Der Austausch über die Erschließungsregeln und die systematische Analyse der Normdaten führen zur Bereinigung von fachlichen Schwachstellen und Inkonsistenzen in den Systemen. Die Thesauri werden insgesamt verbessert und sogar angenähert. Die Vortragsreihe schloss mit einem Projekt, das die Heterogenität der Daten aus dem Blickwinkel der Mehrsprachigkeit betrachtet. Martin Kunz, Deutsche Bibliothek Frankfurt am Main, informierte über das Projekt MACS (Multilingual Access to Subject Headings). MACS bietet einen mehrsprachigen Zugriff auf Bibliothekskataloge. Dazu wurde eine Verbindung zwischen den Schlagwortnormdateien LCSH, RAMEAU und SWD erarbeitet. Äquivalente Vorzugsbezeichnungen der Normdateien werden intellektuell nachgewiesen und als Link abgelegt. Das Projekt beschränkte sich zunächst auf die Bereiche Sport und Theater und widmet sich in einer nächsten Stufe den am häufigsten verwendeten Schlagwörtern. MACS geht davon aus, dass ein Benutzer in der Sprache seiner Wahl (Deutsch, Englisch, Französisch) eine Schlagwortsuche startet, und ermöglicht ihm, seine Suche auf die affilierten Datenbanken im Ausland auszudehnen. Martin Kunz plädierte für einen Integrationsansatz, der auf dem gegenseitigen Respekt vor der Terminologie der kooperierenden Partner beruht. Er sprach sich dafür aus, in solchen Vorhaben den Begriff der Thesaurus föderation anzuwenden, der die Autonomie der Thesauri unterstreicht.
    Wie kann man den Suchenden einen einheitlichen Zugriff auf Inhalte bieten, ganz gleich, in welchem System und mit welcher Methode sie erschlossen sind? Diese Frage hat die Vortragsreihe in unterschiedlichen Ansätzen untersucht. Die bewährten Orientierungssysteme sind für den Zugriff der Benutzer auf verteilte und auch fachübergreifende Bestände nicht mehr ausreichend. Einheitliche und einfache Zugänge zu Informationen in der Onlinewelt erfordern die Integration der vorhandenen Klassifikationen und Thesauri. Solche Transferkomponenten können die verschiedenen Schalen der Inhaltserschließung - verschiedene Erschließungsqualitäten und -niveaus - zusammenführen. Sie helfen Konsistenzbrüche auszugleichen und unsere Erschließungsdaten optimal anzubieten."
  9. Meiert, M.: Elektronische Publikationen an Hochschulen : Modellierung des elektronischen Publikationsprozesses am Beispiel der Universität Hildesheim (2006) 0.05
    0.051860366 = product of:
      0.16206364 = sum of:
        0.028612731 = weight(_text_:und in 5974) [ClassicSimilarity], result of:
          0.028612731 = score(doc=5974,freq=20.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.46462005 = fieldWeight in 5974, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5974)
        0.020018376 = weight(_text_:dem in 5974) [ClassicSimilarity], result of:
          0.020018376 = score(doc=5974,freq=2.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.21854089 = fieldWeight in 5974, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=5974)
        0.018381529 = weight(_text_:der in 5974) [ClassicSimilarity], result of:
          0.018381529 = score(doc=5974,freq=8.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.29615843 = fieldWeight in 5974, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5974)
        0.028612731 = weight(_text_:und in 5974) [ClassicSimilarity], result of:
          0.028612731 = score(doc=5974,freq=20.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.46462005 = fieldWeight in 5974, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5974)
        0.018381529 = weight(_text_:der in 5974) [ClassicSimilarity], result of:
          0.018381529 = score(doc=5974,freq=8.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.29615843 = fieldWeight in 5974, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5974)
        0.018381529 = weight(_text_:der in 5974) [ClassicSimilarity], result of:
          0.018381529 = score(doc=5974,freq=8.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.29615843 = fieldWeight in 5974, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5974)
        0.018381529 = weight(_text_:der in 5974) [ClassicSimilarity], result of:
          0.018381529 = score(doc=5974,freq=8.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.29615843 = fieldWeight in 5974, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5974)
        0.011293694 = product of:
          0.022587389 = sum of:
            0.022587389 = weight(_text_:22 in 5974) [ClassicSimilarity], result of:
              0.022587389 = score(doc=5974,freq=2.0), product of:
                0.097300425 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027785596 = queryNorm
                0.23214069 = fieldWeight in 5974, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5974)
          0.5 = coord(1/2)
      0.32 = coord(8/25)
    
    Abstract
    Das Internet verändert die Rahmenbedingungen des wissenschaftlichen Publikationswesens einschneidend. Wissenschaftliche Dokumente sind zunehmend elektronisch verfügbar und beginnen, die klassischen Wissenschaftsmedien wie Fachbücher und Fachzeitschriften zu verdrängen. Die Implementierung eines elektronischen Publikationsprozesses ist Voraussetzung für die erfolgreiche Verbreitung wissenschaftlicher Dokumente per Internet. Die Umsetzung setzt jedoch die Einhaltung bestimmter Vorgaben und Regularien voraus, sonst drohen Inkompatibilitäten zwischen den Systemen. Im Kontext von Urheberrechtsnovellierung und Open Access-Bewegung erläutert dieser Beitrag technische und rechtliche Rahmenbedingungen von Online-Publikationen und stellt Projekte und Initiativen vor, die sich auf dem Feld des wissenschaftlichen Publikationswesens betätigen. Ausführlich wurden Problembereiche des aktuellen Publikationsprozesses von Abschlussarbeiten im Studiengang Internationales Informationsmanagement an der Universität Hildesheim mit Hilfe von Interviews untersucht. Auf Grundlage der Zustandsanalyse wurde anschließend der elekronische Publikationsprozess modelliert.
    Date
    1. 9.2006 13:22:15
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  10. Global Info : Nachfolgeprojekte (2001) 0.05
    0.05072328 = product of:
      0.18115458 = sum of:
        0.018096281 = weight(_text_:und in 5805) [ClassicSimilarity], result of:
          0.018096281 = score(doc=5805,freq=8.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.29385152 = fieldWeight in 5805, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5805)
        0.03467285 = weight(_text_:dem in 5805) [ClassicSimilarity], result of:
          0.03467285 = score(doc=5805,freq=6.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.37852395 = fieldWeight in 5805, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=5805)
        0.027572295 = weight(_text_:der in 5805) [ClassicSimilarity], result of:
          0.027572295 = score(doc=5805,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.44423765 = fieldWeight in 5805, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5805)
        0.018096281 = weight(_text_:und in 5805) [ClassicSimilarity], result of:
          0.018096281 = score(doc=5805,freq=8.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.29385152 = fieldWeight in 5805, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5805)
        0.027572295 = weight(_text_:der in 5805) [ClassicSimilarity], result of:
          0.027572295 = score(doc=5805,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.44423765 = fieldWeight in 5805, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5805)
        0.027572295 = weight(_text_:der in 5805) [ClassicSimilarity], result of:
          0.027572295 = score(doc=5805,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.44423765 = fieldWeight in 5805, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5805)
        0.027572295 = weight(_text_:der in 5805) [ClassicSimilarity], result of:
          0.027572295 = score(doc=5805,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.44423765 = fieldWeight in 5805, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5805)
      0.28 = coord(7/25)
    
    Abstract
    Mit dem 31. Dezember 2000 wurde das Förderkonzept "Global Info" des Bundesforschungsministeriums (BMBF) beendet. Hierdurch wird weder die Förderung der Fachinformation beendet, noch wird der Bereich der Digitalen Bibliotheken aufgegeben. Einerseits wird durch die "lnformationsverbünde" die Versorgung mit fachspezifischen elektronischen Angeboten gezielt verbessert werden. Andererseits wird im Bereich der Digitalen Bibliotheken eine "Leitvision" formuliert werden, an der sich künftige Vorhaben ausrichten. Zur Vorbereitung dieser Leitvision wurde am 1.1.2001 ein Planungsprojekt gestartet, das unter dem Titel "Digital Library-Forum" für die Dauer eines Jahres die inhaltliche Ausgestaltung dieser Leitvision moderieren wird. Entsprechende Workshops und Arbeitsgruppen werden in nächster Zeit durchgeführt bzw. eingerichtet. Projekte im Digital Library-Bereich können weiterhin eingereicht werden. Entsprechend dem in Global Info etablierten Verfahren können Projektskizzen, nun aber beim Projektträger Fachinformation (PTF), eingereicht werden. Anträge werden weiterhin durch ein Gutachtergremium, das zweimal im Jahr zusammen kommt, begutachtet. Der Global Info-Server wird im Laufe des Jahres 2001 durch einen vom Projektträger Fachinformation betriebenen Server ersetzt, der darüber hinaus neue und weitreichendere Aufgaben übernimmt. Dieser Server unter der URL <www.di-forum.de> soll in Kooperation mit der DFG und weiteren Förderern betrieben werden und als Forum aller Digital Library-Aktivitäten in Deutschland fungieren
  11. Becker, H.J.; Neuroth, H.: Crosssearchen und crossbrowsen von "Quality-controlled Subject Gateways" im EU-Projekt Renardus (2002) 0.05
    0.050137904 = product of:
      0.17906395 = sum of:
        0.020232258 = weight(_text_:und in 630) [ClassicSimilarity], result of:
          0.020232258 = score(doc=630,freq=10.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.328536 = fieldWeight in 630, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=630)
        0.02831026 = weight(_text_:dem in 630) [ClassicSimilarity], result of:
          0.02831026 = score(doc=630,freq=4.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.3090635 = fieldWeight in 630, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=630)
        0.027572295 = weight(_text_:der in 630) [ClassicSimilarity], result of:
          0.027572295 = score(doc=630,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.44423765 = fieldWeight in 630, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=630)
        0.020232258 = weight(_text_:und in 630) [ClassicSimilarity], result of:
          0.020232258 = score(doc=630,freq=10.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.328536 = fieldWeight in 630, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=630)
        0.027572295 = weight(_text_:der in 630) [ClassicSimilarity], result of:
          0.027572295 = score(doc=630,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.44423765 = fieldWeight in 630, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=630)
        0.027572295 = weight(_text_:der in 630) [ClassicSimilarity], result of:
          0.027572295 = score(doc=630,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.44423765 = fieldWeight in 630, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=630)
        0.027572295 = weight(_text_:der in 630) [ClassicSimilarity], result of:
          0.027572295 = score(doc=630,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.44423765 = fieldWeight in 630, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=630)
      0.28 = coord(7/25)
    
    Abstract
    Das von der Europäischen Union seit Januar 2000 geförderte Projekt Renardus hat das Ziel, einen Service zur Nutzung der in Europa vorhandenen "Quality-controlled Subject Gateways" aufzubauen, d.h. über einen Zugang bzw. eine Schnittstelle crosssearchen und crossbrowsen anzubieten. Für das crossbrowsen wird dabei zum Navigieren die Dewey Decimal Classification (DDC) verwendet. Der Beitrag beschreibt die einzelnen Entwicklungsschritte und stellt detailliert die nötigen Mappingprozesse vor. Dabei handelt es sich einmal um Mappingprozesse von den lokalen Metadatenformaten der einzelnen Subject Gateways zu dem gemeinsamen Kernset an Metadaten in Renardus für die Suche, wobei dieses Kernset auf dem Dublin Core Metadata Set basiert. Zum anderen geht es um die Erstellung von Konkordanzen zwischen den lokalen Klassen der Klassifikationssysteme der Partner und den DDC-Klassen für das Browsen. Der Beitrag beschreibt auch neue zugrunde liegende Definitionen bzw.theoretische Konzepte, die in der Metadatengemeinschaft zurzeit diskutiert werden (z.B. Application Profile, Namespace, Registry). Zum Schluss werden die Funktionalitäten des Renardus-Services (suchen, browsen) näher vorgestellt.
    Footnote
    Die Abbildung enthält eine Tabelle der beteiligten subject gateways
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 49(2002) H.3, S.133-146
  12. ¬Die Europäische Digitale Bibliothek wächst weiter (2006) 0.05
    0.049544934 = product of:
      0.15482792 = sum of:
        0.02262035 = weight(_text_:und in 4952) [ClassicSimilarity], result of:
          0.02262035 = score(doc=4952,freq=18.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3673144 = fieldWeight in 4952, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4952)
        0.017862957 = weight(_text_:aus in 4952) [ClassicSimilarity], result of:
          0.017862957 = score(doc=4952,freq=2.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.18845356 = fieldWeight in 4952, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4952)
        0.01668198 = weight(_text_:dem in 4952) [ClassicSimilarity], result of:
          0.01668198 = score(doc=4952,freq=2.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.1821174 = fieldWeight in 4952, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4952)
        0.01876057 = weight(_text_:der in 4952) [ClassicSimilarity], result of:
          0.01876057 = score(doc=4952,freq=12.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.30226544 = fieldWeight in 4952, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4952)
        0.02262035 = weight(_text_:und in 4952) [ClassicSimilarity], result of:
          0.02262035 = score(doc=4952,freq=18.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3673144 = fieldWeight in 4952, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4952)
        0.01876057 = weight(_text_:der in 4952) [ClassicSimilarity], result of:
          0.01876057 = score(doc=4952,freq=12.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.30226544 = fieldWeight in 4952, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4952)
        0.01876057 = weight(_text_:der in 4952) [ClassicSimilarity], result of:
          0.01876057 = score(doc=4952,freq=12.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.30226544 = fieldWeight in 4952, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4952)
        0.01876057 = weight(_text_:der in 4952) [ClassicSimilarity], result of:
          0.01876057 = score(doc=4952,freq=12.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.30226544 = fieldWeight in 4952, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4952)
      0.32 = coord(8/25)
    
    Content
    "Die Nationalbibliotheken von Dänemark, Estland und Lettland haben mit Jahresbeginn den Teilnehmerkreis von »The European Library« (www.europeanlibrary.com) erweitert. Mit der Weiterentwicklung der Portalsoftware ist das Angebot schneller und zuverlässiger geworden. Die unter dem Namen "The Europcan Library," (TEL) im Spätherbst vergangenen Jahres gestartete Europäische Digitale Bibliothek wächst weiter. Bis Ende 2006 werden die Onlinekataloge und mehr als 200 Sammlungen von 2,3 europäischen Nationalbibliotheken über dieses Internetportal recherchierbar sein. Das Angebot wird sich damit innerhalb eines Jahres nahezu verdoppeln. The European library ermöglicht integrierte Suchanfragen über institutionelle und geografische Grenzen hinweg. Das in den umfangreichen Datenbeständen der Bibliotheken repräntierte kuIturelle Erbe Europas wird damit vom Schreibtisch aus zugänglich. Urheberrechtsfreie digitale Dokumente können direkt abgerufen werden. Teilnehmende Bibliotheken passen ihre Kataloge an die Metadaten- und Suchstandards der Europäischen Digitalen Bibliothek an und ermöglichen damit die katalog- und sammlurngsübergreifende Recherche. Für The European Library wurde eine neue Webtechnologie verwendet, mit der Portalfunktionen einfach und preiswert realisiert werden können. Die Software "Portal-in-the-Browser" (www.dlib.org/dlib/february04/vanveen/02vanveen.html) steht Interessenten frei zur Verfügung. Die Entwickler erhoffen eine Anwendung in weiteren kulturellen Bereichen und damit die mögliche Verknüpfung der verschiedenen Sektoren. Für das kommende Frühjahr ist eine Benutzerbefragung zur weiteren Verbesserung von The European library geplant."
  13. Becker, H.-J.; Hengel, C.; Neuroth, H.; Weiß, B.; Wessel, C.: ¬Die Virtuelle Fachbibliothek als Schnittstelle für eine fachübergreifende Suche in den einzelnen Virtuellen Fachbibliotheken : Definition eines Metadaten-Kernsets (VLib Application Profile) (2002) 0.05
    0.046883382 = product of:
      0.16744065 = sum of:
        0.01846944 = weight(_text_:und in 2856) [ClassicSimilarity], result of:
          0.01846944 = score(doc=2856,freq=12.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.29991096 = fieldWeight in 2856, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2856)
        0.028894037 = weight(_text_:dem in 2856) [ClassicSimilarity], result of:
          0.028894037 = score(doc=2856,freq=6.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.3154366 = fieldWeight in 2856, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2856)
        0.025401931 = weight(_text_:der in 2856) [ClassicSimilarity], result of:
          0.025401931 = score(doc=2856,freq=22.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.40926933 = fieldWeight in 2856, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2856)
        0.01846944 = weight(_text_:und in 2856) [ClassicSimilarity], result of:
          0.01846944 = score(doc=2856,freq=12.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.29991096 = fieldWeight in 2856, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2856)
        0.025401931 = weight(_text_:der in 2856) [ClassicSimilarity], result of:
          0.025401931 = score(doc=2856,freq=22.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.40926933 = fieldWeight in 2856, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2856)
        0.025401931 = weight(_text_:der in 2856) [ClassicSimilarity], result of:
          0.025401931 = score(doc=2856,freq=22.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.40926933 = fieldWeight in 2856, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2856)
        0.025401931 = weight(_text_:der in 2856) [ClassicSimilarity], result of:
          0.025401931 = score(doc=2856,freq=22.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.40926933 = fieldWeight in 2856, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2856)
      0.28 = coord(7/25)
    
    Abstract
    Der folgende Beitrag beschäftigt sich nicht mit einer konkreten Virtuellen Fachbibliothek, sondern mit dem übergreifenden Themenkomplex "Metadaten" und der Fragestellung, wie Metadaten für eine fachübergreifende Suche über alle Virtuellen Fachbibliotheken eingesetzt werden können. Im Rahmen des Aufbaus der Virtuellen Fachbibliotheken hat die Projektkoordinierung Unterarbeitsgruppen zur Lösung spezifischer Fragestellungen ins Leben gerufen. Der Arbeitsbereich "Metadaten" ist von dem von der DFG geförderten Projekt META-LIB (Metadaten-Initiative deutscher Bibliotheken) mit den Teilprojekten an Der Deutschen Bibliothek und der SUB Göttingen übernommen worden. META-LIB erhielt die Aufgabe, "Empfehlungen zur Definition eines Metadaten-Core-Sets für die verteilte Suche über die Virtuellen Fachbibliotheken" zu entwickeln. Im folgenden werden die Empfehlungen vorgestellt. Sie basieren auf den Ergebnissen und der Auswertung von Antworteng eines Internet-Fragebogens, in dem die Datenelemente erfragt wurden, die in den einzelnen Virtuellen Fachbibliotheken zur Erschließung verwendet bzw. benötigt werden. Für die Formulierung der Empfehlungen und zur Abstimmung sind zwei MetadatenWorkshops (am 16. Mai 2001 in der SUB Göttingen und am 9./10. August 2001 in der Deutschen Bibliothek Frankfurt am Main) durchgeführt worden, deren Ergebnisse und Diskussionen als Grundlage dienen.
  14. Strötgen, R.; Kokkelink, S.: Metadatenextraktion aus Internetquellen : Heterogenitätsbehandlung im Projekt CARMEN (2001) 0.05
    0.04598551 = product of:
      0.16423395 = sum of:
        0.026119733 = weight(_text_:und in 5808) [ClassicSimilarity], result of:
          0.026119733 = score(doc=5808,freq=24.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.42413816 = fieldWeight in 5808, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
        0.030939551 = weight(_text_:aus in 5808) [ClassicSimilarity], result of:
          0.030939551 = score(doc=5808,freq=6.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.32641116 = fieldWeight in 5808, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
        0.020263731 = weight(_text_:der in 5808) [ClassicSimilarity], result of:
          0.020263731 = score(doc=5808,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.326484 = fieldWeight in 5808, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
        0.026119733 = weight(_text_:und in 5808) [ClassicSimilarity], result of:
          0.026119733 = score(doc=5808,freq=24.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.42413816 = fieldWeight in 5808, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
        0.020263731 = weight(_text_:der in 5808) [ClassicSimilarity], result of:
          0.020263731 = score(doc=5808,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.326484 = fieldWeight in 5808, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
        0.020263731 = weight(_text_:der in 5808) [ClassicSimilarity], result of:
          0.020263731 = score(doc=5808,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.326484 = fieldWeight in 5808, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
        0.020263731 = weight(_text_:der in 5808) [ClassicSimilarity], result of:
          0.020263731 = score(doc=5808,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.326484 = fieldWeight in 5808, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
      0.28 = coord(7/25)
    
    Abstract
    Die Sonderfördermaßnahme CARMEN (Content Analysis, Retrieval and Metadata: Effective Networking) zielt im Rahmen des vom BMB+F geförderten Programms GLOBAL INFO darauf ab, in der heutigen dezentralen Informationsweit geeignete Informationssysteme für die verteilten Datenbestände in Bibliotheken, Fachinformationszentren und im Internet zu schaffen. Diese Zusammenführung ist weniger technisch als inhaltlich und konzeptuell problematisch. Heterogenität tritt beispielsweise auf, wenn unterschiedliche Datenbestände zur Inhaltserschließung verschiedene Thesauri oder Klassifikationen benutzen, wenn Metadaten unterschiedlich oder überhaupt nicht erfasst werden oder wenn intellektuell aufgearbeitete Quellen mit in der Regel vollständig unerschlossenen Internetdokumenten zusammentreffen. Im Projekt CARMEN wird dieses Problem mit mehreren Methoden angegangen: Über deduktiv-heuristische Verfahren werden Metadaten automatisch aus Dokumenten generiert, außerdem lassen sich mit statistisch-quantitativen Methoden die unterschiedlichen Verwendungen von Termen in den verschiedenen Beständen aufeinander abbilden, und intellektuell erstellte Crosskonkordanzen schaffen sichere Übergänge von einer Dokumentationssprache in eine andere. Für die Extraktion von Metadaten gemäß Dublin Core (v. a. Autor, Titel, Institution, Abstract, Schlagworte) werden anhand typischer Dokumente (Dissertationen aus Math-Net im PostScript-Format und verschiedenste HTML-Dateien von WWW-Servern deutscher sozialwissenschaftlicher Institutionen) Heuristiken entwickelt. Die jeweilige Wahrscheinlichkeit, dass die so gewonnenen Metadaten korrekt und vertrauenswürdig sind, wird über Gewichte den einzelnen Daten zugeordnet. Die Heuristiken werden iterativ in ein Extraktionswerkzeug implementiert, getestet und verbessert, um die Zuverlässigkeit der Verfahren zu erhöhen. Derzeit werden an der Universität Osnabrück und im InformationsZentrum Sozialwissenschaften Bonn anhand mathematischer und sozialwissenschaftlicher Datenbestände erste Prototypen derartiger Transfermodule erstellt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  15. Karl, A.; Mühlschlegel, U.; Ullrich, R.; Deylen, W. von; Farenholtz, B.; Schmolling, R.; Strosetzki, C.; Trapp, M.; Waldeck, B.: cibera: Virtuelle Fachbibliothek Ibero-Amerika / Spanien / Portugal : Teil 2: Die einzelnen Elemente (2006) 0.05
    0.045505222 = product of:
      0.16251865 = sum of:
        0.01669076 = weight(_text_:und in 6094) [ClassicSimilarity], result of:
          0.01669076 = score(doc=6094,freq=20.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.27102837 = fieldWeight in 6094, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6094)
        0.011677387 = weight(_text_:dem in 6094) [ClassicSimilarity], result of:
          0.011677387 = score(doc=6094,freq=2.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.12748219 = fieldWeight in 6094, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6094)
        0.029364936 = weight(_text_:der in 6094) [ClassicSimilarity], result of:
          0.029364936 = score(doc=6094,freq=60.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.47312024 = fieldWeight in 6094, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6094)
        0.01669076 = weight(_text_:und in 6094) [ClassicSimilarity], result of:
          0.01669076 = score(doc=6094,freq=20.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.27102837 = fieldWeight in 6094, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6094)
        0.029364936 = weight(_text_:der in 6094) [ClassicSimilarity], result of:
          0.029364936 = score(doc=6094,freq=60.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.47312024 = fieldWeight in 6094, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6094)
        0.029364936 = weight(_text_:der in 6094) [ClassicSimilarity], result of:
          0.029364936 = score(doc=6094,freq=60.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.47312024 = fieldWeight in 6094, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6094)
        0.029364936 = weight(_text_:der in 6094) [ClassicSimilarity], result of:
          0.029364936 = score(doc=6094,freq=60.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.47312024 = fieldWeight in 6094, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6094)
      0.28 = coord(7/25)
    
    Abstract
    Nachdem in der letzten Ausgabe Entstehung und Aufbau der Virtuellen Fachbibliothek cibera vorgestellt wurden, stehen im Folgenden die einzelnen Angebote des Portals mit ihren Funktionalitäten und technischen Details im Mittelpunkt.
    Content
    "Bibliothekskataloge Die Suche in Bibliothekskatalogen über cibera ermöglicht die simultane Suche in mehreren fachlich relevanten Katalogen über eine einheitliche Suchmaske. Die technische Integration von Bibliothekskatalogen in die Suche erfolgt in der Regel ohne größere Schwierigkeiten, wenn zwei Voraussetzungen erfüllt sind: 1) das Vorhandensein einer Z39.50-Schnittstelle auf Seiten des Katalogbetreibers 2) das Vorhandensein eines von der Metasuchmaschine Wort unterstützten bibliographischen Datenformates (MARC21, MAB, MAB2, UNIMARC). Diese Voraussetzungen waren zunächst nur bei den Katalogen des Ibero-Amerikanischen Instituts (IAI), des Ibero-Amerika Institutes für Wirtschaftsforschung Göttingen sowie bei dem länderrelevanten Ausschnitt des Kataloges der Friedrich-Ebert-Stiftung gegeben. Hier beschränkte sich die Integration in die Suchumgebung zum einen auf das Erstellen von Konkordanzen zwischen geliefertem Datenformat und Präsentationsschicht der Suchmaschine, zum anderen auf die Definition der durchsuchbaren Register der entsprechenden Kataloge. Um eine für den Nutzer klare und verständliche Handhabung zu gewährleisten, konnten nicht alle Suchmöglichkeiten jedes einzelnen Kataloges übernommen werden. Es wurde stattdessen der "kleinste gemeinsame Nenner" definiert, der sowohl die einfache Handhabung der Suche als auch die Flexibilität derselben gewährleistet. Die Kataloge des IAI Berlin, der Friedrich-Ebert-Stiftung und des Ibero-Amerika Institutes für Wirtschaftsforschung Göttingen konnten daher im Zeitraum Juli bis September 2004 vollständig in cibera integriert werden. Technisch aufwändiger stellte sich die Aufbereitung und Integration des Kataloges I des Instituts für Iberoamerika-Kunde Hamburg dar. Aufgrund des Katalogbruches am IIK müssen hier zwei Kataloge integriert werden. Der so genannte Katalog I umfasst die Daten des IIK bis Juli 2002. Hier galt es zunächst, die Daten der CDS-ISIS-Datenbank in ein XML-Zwischenformat zu wandeln, dieses Zwischenformat zu indizieren und mittels geeigneter Software Z39.50-kompatibel zu machen.
    Sowohl die Datenkonvertierung als auch der Aufbau einer Z39.50-Schnittstelle wurden von der Technik des IAI vorgenommen. Der Katalog I des IIK konnte Ende Oktober 2004 erfolgreich in die Suchumgebung integriert werden. Der Katalog II des IIK ist Bestandteil der Datenbank des Fachinformationsverbundes Internationale Beziehungen und Länderkunde (FIV-IBLK). Er enthält die Bücher des IIK ab Mitte 2002 sowie Zeitschriftenaufsätze mit Lateinamerikabezug bereits ab 1985. Die dafür verwendete Domestic-Datenbank wurde beim GBV in eine Pica-Datenbank eingespielt. Diese Migration, die im November 2005 abgeschlossen werden konnte, sowie die vorhandene Z39.50-Schnittstelle und Standard-Datenformate ermöglichen nun die zügige Einbindung in cibera. Sobald die Teilmenge "Lateinamerikabestand" vom GBV definiert ist, kann auch der Katalog II in die Metasuche von cibera integriert werden. Probleme ergeben sich mit der Integration der Kataloge der deutschen Standorte des Instituto Cervantes (Berlin, Bremen, München). Die Voraussetzungen sind geklärt, allerdings wird das vom Instituto Cervantes zurück gelieferte Datenformat IBERMARC von der Metasuchmaschine iPort noch nicht unterstützt. Die Einbindung des Katalogs der Staats- und Universitätsbibliothek (SUB) Hamburg brachte besondere inhaltliche Herausforderungen mit sich, weil er als Katalog einer Universalbibliothek fächerübergreifend ist. Die notwendige Definition eines Fachausschnittes bedeutete Pionierarbeit im Bereich der PICA-Anwender. Der GBV hat Ende 2003 zur Kennzeichnung des SSG-relevanten Ausschnittes im CBS Kategorie 5056 (SSG-Nummer) eingeführt. Bei den älteren Katalogisaten des SSGs musste Kategorie 5056 nachträglich gesetzt werden. Für alle Titelaufnahmen ab Anfang 1998 ist das mit Hilfe eines von der SUB Hamburg entwickelten automatisierten Verfahrens gelungen. In Kürze wird der entsprechende Teilkatalog mit ca. 20.000 Titeln des SSGs Spanien/Portugal für cibera zur Verfügung stehen. Für die älteren Bestände unterstützt die Verbundzentrale des GBV die Schaffung des entsprechenden Fachausschnittes. Weitere Bibliotheken - schwerpunktmäßig solche außerhalb der existierenden Verbundkataloge - sollen als Partner gewonnen werden, um die Katalogsuche zu ergänzen." ...
  16. Schneider, W.: ¬Ein verteiltes Bibliotheks-Informationssystem auf Basis des Z39.50 Protokolls (1999) 0.05
    0.045448303 = product of:
      0.16231537 = sum of:
        0.012064188 = weight(_text_:und in 4773) [ClassicSimilarity], result of:
          0.012064188 = score(doc=4773,freq=2.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.19590102 = fieldWeight in 4773, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4773)
        0.02858073 = weight(_text_:aus in 4773) [ClassicSimilarity], result of:
          0.02858073 = score(doc=4773,freq=2.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.30152568 = fieldWeight in 4773, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0625 = fieldNorm(doc=4773)
        0.027401567 = weight(_text_:der in 4773) [ClassicSimilarity], result of:
          0.027401567 = score(doc=4773,freq=10.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.44148692 = fieldWeight in 4773, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4773)
        0.012064188 = weight(_text_:und in 4773) [ClassicSimilarity], result of:
          0.012064188 = score(doc=4773,freq=2.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.19590102 = fieldWeight in 4773, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4773)
        0.027401567 = weight(_text_:der in 4773) [ClassicSimilarity], result of:
          0.027401567 = score(doc=4773,freq=10.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.44148692 = fieldWeight in 4773, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4773)
        0.027401567 = weight(_text_:der in 4773) [ClassicSimilarity], result of:
          0.027401567 = score(doc=4773,freq=10.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.44148692 = fieldWeight in 4773, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4773)
        0.027401567 = weight(_text_:der in 4773) [ClassicSimilarity], result of:
          0.027401567 = score(doc=4773,freq=10.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.44148692 = fieldWeight in 4773, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4773)
      0.28 = coord(7/25)
    
    Abstract
    Diese Diplomarbeit beschreibt ein verteiltes Bibliothes-Informationssystem für bibliographische Datenbnaken im Internet. Der Name des Systems ist ZACK. Der Benutzer kann mit ZACK in einer oder mehreren bibliographischen Datenbanken nach einem Dokument suchen und die Treffer in die eigene lokale Datenbank übernehmen. Mit der Übernahme der Datensätze aus einer fremden Datenbank wird die Erfassung neuer Dokumente wesentlich erleichtert, da die Eigenkatalogisierung auf ein Minimum beschränkt werden kann. Bei der verteilten Suche mit ZACK wird parallel in mehreren Datenbanken gesucht. Dubletten werden als solche erkannt
  17. SRW/U erleichtert verteilte Datenbankrecherchen (2005) 0.04
    0.04479173 = product of:
      0.15997046 = sum of:
        0.042274844 = weight(_text_:allgemeine in 3972) [ClassicSimilarity], result of:
          0.042274844 = score(doc=3972,freq=2.0), product of:
            0.14581874 = queryWeight, product of:
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.027785596 = queryNorm
            0.28991365 = fieldWeight in 3972, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3972)
        0.02132667 = weight(_text_:und in 3972) [ClassicSimilarity], result of:
          0.02132667 = score(doc=3972,freq=16.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.34630734 = fieldWeight in 3972, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3972)
        0.01876057 = weight(_text_:der in 3972) [ClassicSimilarity], result of:
          0.01876057 = score(doc=3972,freq=12.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.30226544 = fieldWeight in 3972, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3972)
        0.02132667 = weight(_text_:und in 3972) [ClassicSimilarity], result of:
          0.02132667 = score(doc=3972,freq=16.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.34630734 = fieldWeight in 3972, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3972)
        0.01876057 = weight(_text_:der in 3972) [ClassicSimilarity], result of:
          0.01876057 = score(doc=3972,freq=12.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.30226544 = fieldWeight in 3972, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3972)
        0.01876057 = weight(_text_:der in 3972) [ClassicSimilarity], result of:
          0.01876057 = score(doc=3972,freq=12.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.30226544 = fieldWeight in 3972, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3972)
        0.01876057 = weight(_text_:der in 3972) [ClassicSimilarity], result of:
          0.01876057 = score(doc=3972,freq=12.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.30226544 = fieldWeight in 3972, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3972)
      0.28 = coord(7/25)
    
    Content
    "Seit zwei Jahrzehnten nutzen vor allem Bibliotheksverbünde das Protokoll Z39.50, um ihren Benutzern im Internet die simultane Abfrage mehrerer Datenbanken zu ermöglichen. Jetzt gibt es einen Nachfolger dieses Protokolls, der eine einfachere Implementierung verspricht. Damit ist auch eine größere Verbreitung für die Suche in verteilten Datenbeständen anderer Institutionen, wie z.B. Archiven und Museen, wahrscheinlich. SRW/U (Search and Retrieve Web Service bzw. Search and Retrieve URL Service, www.loc.90v/z3950/agency/zing/srw) wurde von einer an der Library of Congress angesiedelten Initiative entwickelt und beruht auf etablierten Standards wie URI und XML. Die mit SRW und SRU möglichen Abfragen und Ergebnisse unterscheiden sich nur in der Art der Übertragung, verwenden aber beide dieselben Prozeduren. Davon gibt es nur drei: explain, scan und searchRetrieve. Die beiden Erstgenannten dienen dazu, allgemeine Informationen über den Datenanbieter bzw. die verfügbaren Indexe zubekommen. Das Herzstück ist die search-Retrieve-Anweisung. Damit werden Anfragen direkt an die Datenbank gesendet und die Parameter des Suchergebnisses definiert. Verwendet wird dafür die Retrievalsprache CQL (Common Query Language), die simple Freitextsuchen, aber auch mit Boolschen Operatoren verknüpfte Recherchen ermöglicht. Bei SRU werden die Suchbefehle mittels einfacher HTTP GET -Anfragen übermittelt, die Ergebnisse in XML zurückgeliefert. Zur Strukturierung der Daten dienen z.B. Dublin Core, MARC oder EAD. Welches Format von der jeweiligen Datenbank bereitgestellt wird, kann durch die explain-Anweisung ermittelt gebracht werden."
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.274
  18. Ellis, R.; Hindersmann, J.: Volltext- und Katalogverlinkungen in Online-Datenbanken (2003) 0.04
    0.043535907 = product of:
      0.13604972 = sum of:
        0.015004644 = weight(_text_:und in 1486) [ClassicSimilarity], result of:
          0.015004644 = score(doc=1486,freq=22.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.24364883 = fieldWeight in 1486, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1486)
        0.010717774 = weight(_text_:aus in 1486) [ClassicSimilarity], result of:
          0.010717774 = score(doc=1486,freq=2.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.11307213 = fieldWeight in 1486, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1486)
        0.017336424 = weight(_text_:dem in 1486) [ClassicSimilarity], result of:
          0.017336424 = score(doc=1486,freq=6.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.18926197 = fieldWeight in 1486, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1486)
        0.019496556 = weight(_text_:der in 1486) [ClassicSimilarity], result of:
          0.019496556 = score(doc=1486,freq=36.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.31412345 = fieldWeight in 1486, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1486)
        0.015004644 = weight(_text_:und in 1486) [ClassicSimilarity], result of:
          0.015004644 = score(doc=1486,freq=22.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.24364883 = fieldWeight in 1486, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1486)
        0.019496556 = weight(_text_:der in 1486) [ClassicSimilarity], result of:
          0.019496556 = score(doc=1486,freq=36.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.31412345 = fieldWeight in 1486, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1486)
        0.019496556 = weight(_text_:der in 1486) [ClassicSimilarity], result of:
          0.019496556 = score(doc=1486,freq=36.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.31412345 = fieldWeight in 1486, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1486)
        0.019496556 = weight(_text_:der in 1486) [ClassicSimilarity], result of:
          0.019496556 = score(doc=1486,freq=36.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.31412345 = fieldWeight in 1486, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1486)
      0.32 = coord(8/25)
    
    Abstract
    Die digitale Bibliothek, in der alles mit allem verlinkt ist, und man mit wenigen Klicks zur gewünschten Information gelangt, ist nach wie vor ein Traum vieler Bibliothekare und Benutzer. In der Realität aber existieren heterogene Informationssysteme nebeneinander: Online-Datenbanken, Aggregatordatenbanken, A&I-Datenbanken, Plattformen für E-Journals, OPACs. Zwischen diesen verschiedenen Systemen muss der Nutzer nun hin- und herschalten, um die gewünschte Information zu erhalten. Dass eine Verlinkung der verschiedenen elektronischen Ressourcen der Bibliothek ein Desiderat ist, hat inzwischen auch die Industrie erkannt. Es sind bereits erste Systeme auf dem Markt, die eine Navigation in heterogenen Informationsquellen ermöglichen. Zu nennen ist hier in erster Linie ExLibris SFX. Auch EBSCO hat mit LinkSource eine auf openURL basierte Lösung vorgelegt, um alle verfügbaren Quellen in eine Suchanfrage einzubinden. Diese Systeme sind prinzipiell sehr vielversprechend und von der Bibliothek sehr komfortabel zu managen, bewegen sich aber derzeit in einem preislichen Rahmen, der von den wenigsten Bibliotheken noch zusätzlich zu den ohnehin schon hohen Kosten für elektronische Ressourcen aufgebracht werden kann. An der UB Osnabrück und SuUB Bremen wurden daher Überlegungen angestellt, wie man ohne diese kostenpflichtigen Zusatzdienste die verschiedenen elektronischen Angebote der Bibliothek besser miteinander verknüpfen könnte. Konkret lautete die Fragestellung so: "Wie komme ich nach einer Recherche in einer bibliografischen Online-Datenbank zum Volltext?" Die meisten OnlineDatenbanken sind immer noch rein bibliografische Datenbanken, die allerhöchstens ein Abstract anbieten (A&I-Datenbanken). Erscheint ein Rechercheergebnis dem Benutzer so interessant, dass er gern den Volltext des betreffenden Artikels oder des Buches einsehen möchte, so hat er dazu mehrere Möglichkeiten: Die einfachste Möglichkeit liegt darin, den Volltext in elektronischer Form aufzurufen. Besteht diese Möglichkeit nicht, so muss er im OPAC recherchieren, ob der gesuchte Titel zumindest in gedruckter Version in der Bibliothek vorhanden ist. Ist dies nicht der Fall, so hat er die Möglichkeit, den Titel per Fernleihe oder document delivery zu bestellen. Diese drei Schritte - Aufrufen des Volltextes, Recherche im OPAC, Fernleihbestellung - sollten für den Benutzer dadurch vereinfacht werden, dass ent sprechende Links in die Online-Datenbanken integriert werden. So kann das aufwändige "kopieren und einfügen"- Verfahren entfallen. Die Einrichtung dieser verschiedenen Links brachte administrative, technische und lizenzrechtliche Probleme mit sich. Online-Datenbanken werden von verschiedenen Anbietern auf den Markt gebracht: von international agierenden Firmen bis hin zu kleinen Körperschaften. Es musste bei jedem Anbieter geklärt werden, welche Verlinkungen technisch und lizenzrechtlich möglich sind. Links zum elektronischen Volltext sind für den Nutzer sicherlich die ideale Lösung, denn so kann er vom Büro oder CIP-Pool aus den Artikel lesen bzw. ausdrucken, ohne in die Bibliothek gehen und dort nach der Print-Ausgabe suchen zu müssen. Bei Volltextlinks muss man zwischen zwei Arten von Links unterscheiden: Institutionsunabhängige Links sind zentral für alle Abonnenten der Online-Datenbank eingerichtet und werden immer angezeigt, unabhängig davon, ob die Bibliothek einen lizenzierten Volltextzugriff auf die betreffende elektronische Ressource hat. Institutionsabhängige Links sind nur für die elektronischen Ressourcen eingerichtet, für die die Bibliothek einen lizenzierten Zugang besitzt.
    Im Falle von institutionsunabhängigen Links werden Volltextlinks angezeigt, die allerdings nur dann funktionieren, wenn die Bibliothek auch die entsprechenden Lizenzrechte besitzt. Beim Nutzer führen diese Links schnell zu Frustration, wenn der erhoffte Volltext nicht angezeigt wird, zumal es nicht ersichtlich ist, dass der Zugang zum elektronischen Volltext von der Institution nicht lizenziert worden ist. Dem Nutzer ist dann schwer zu vermitteln, dass diese Links immer auftauchten, es aber nicht immer möglich ist, auf den elektronischen Volltext zuzugreifen. Für die Bibliothek bedeuten institutionsunabhängige Links erhöhten Erklärungsbedarf: Die Nutzer müssen darüber informiert werden, bei welchen E-Journals sie an den Volltext gelangen können. Zusätzlich kompliziert wird diese Angelegenheit noch dadurch, dass Bibliotheken in aller Regel bei verschiedenen Verlagen verschiedene Zugriffsrechte haben: entweder auf gar keine Titel, oder auf die in Print abonnierten Titel oder (durch Konsortialverträge) einen cross access auch auf die Titel, die andere Bibliotheken abonniert haben. Zusätzlich sind auch noch zeitliche Beschränkungen zu bedenken: Elsevier beispielsweise gewährt für ScienceDirect Web-Editions nur Zugriff auf die Hefte der letzten 12 Monate.
  19. Fritz, M.-L.: Zugang zu verteilten bibliografischen Datenbeständen : Konzepte und Realisierungen für heterogene Umgebungen (2003) 0.04
    0.043341585 = product of:
      0.13544245 = sum of:
        0.028612731 = weight(_text_:und in 2504) [ClassicSimilarity], result of:
          0.028612731 = score(doc=2504,freq=20.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.46462005 = fieldWeight in 2504, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2504)
        0.021435548 = weight(_text_:aus in 2504) [ClassicSimilarity], result of:
          0.021435548 = score(doc=2504,freq=2.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.22614425 = fieldWeight in 2504, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.046875 = fieldNorm(doc=2504)
        0.020018376 = weight(_text_:dem in 2504) [ClassicSimilarity], result of:
          0.020018376 = score(doc=2504,freq=2.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.21854089 = fieldWeight in 2504, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=2504)
        0.009190764 = weight(_text_:der in 2504) [ClassicSimilarity], result of:
          0.009190764 = score(doc=2504,freq=2.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.14807922 = fieldWeight in 2504, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2504)
        0.028612731 = weight(_text_:und in 2504) [ClassicSimilarity], result of:
          0.028612731 = score(doc=2504,freq=20.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.46462005 = fieldWeight in 2504, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2504)
        0.009190764 = weight(_text_:der in 2504) [ClassicSimilarity], result of:
          0.009190764 = score(doc=2504,freq=2.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.14807922 = fieldWeight in 2504, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2504)
        0.009190764 = weight(_text_:der in 2504) [ClassicSimilarity], result of:
          0.009190764 = score(doc=2504,freq=2.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.14807922 = fieldWeight in 2504, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2504)
        0.009190764 = weight(_text_:der in 2504) [ClassicSimilarity], result of:
          0.009190764 = score(doc=2504,freq=2.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.14807922 = fieldWeight in 2504, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2504)
      0.32 = coord(8/25)
    
    Abstract
    Das steigende Angebot an Datenbanken und weiteren Systeme im Bereich bibliografischer Informationen führt dazu, dass es für Benutzer sehr mühsam und mit einem enormen Zeitaufwand verbunden ist, in allen einzelnen Systemen zu recherchieren, da diese unterschiedliche Benutzeroberflächen und Recherchemöglichkeiten anbieten. Verteilte bibliografische Informationssysteme ermöglichen einen einheitlichen Einstiegspunkt zu heterogenen Systemen. Sie bündeln verschiedene Angebote. In diesem Text wird ein Überblick über diese verteilten Informationssysteme gegeben. Es wird dargestellt, wie eine Suche in einem solchen System abläuft, welche weiteren Funktionen angeboten werden können. Darüber hinaus wird betrachtet, wie verteilte Informationssysteme aufgebaut und vernetzt sind. Die Darstellungen werden verdeutlicht durch praktische Beispiele aus dem Bibliotheks- und Informationswesen. Insbesondere wird auf den KVK, ZACK, die KOBVSuchmaschine, die Digitale Bibliothek NRW, das DIMDI, vascoda und Renardus eingegangen.
    Content
    Die Abbildung zeigt in einer Tabelle die Unterschiede zwischen einem Retrieval in verteilten Datenbanken und einem Retrieval nach Harvesting in einer Datenbank
    Footnote
    Diplomarbeit, Studiengang Bibliothekswesen, Fakultät für Informations- und Kommunikationswissenschaften der Fachhochschule Köln
    Imprint
    Köln : Fakultät für Informations- und Kommunikationswissenschaften
  20. Helmes, L.; Steidl, N.: Webservices praktisch angewandt : FIZ Karlsruhe entwickelt Automatisierung der Informationsinfrastruktur (2003) 0.04
    0.043305438 = product of:
      0.15466228 = sum of:
        0.02500774 = weight(_text_:und in 1967) [ClassicSimilarity], result of:
          0.02500774 = score(doc=1967,freq=22.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.40608138 = fieldWeight in 1967, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1967)
        0.023591883 = weight(_text_:dem in 1967) [ClassicSimilarity], result of:
          0.023591883 = score(doc=1967,freq=4.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.25755292 = fieldWeight in 1967, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1967)
        0.020263731 = weight(_text_:der in 1967) [ClassicSimilarity], result of:
          0.020263731 = score(doc=1967,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.326484 = fieldWeight in 1967, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1967)
        0.02500774 = weight(_text_:und in 1967) [ClassicSimilarity], result of:
          0.02500774 = score(doc=1967,freq=22.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.40608138 = fieldWeight in 1967, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1967)
        0.020263731 = weight(_text_:der in 1967) [ClassicSimilarity], result of:
          0.020263731 = score(doc=1967,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.326484 = fieldWeight in 1967, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1967)
        0.020263731 = weight(_text_:der in 1967) [ClassicSimilarity], result of:
          0.020263731 = score(doc=1967,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.326484 = fieldWeight in 1967, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1967)
        0.020263731 = weight(_text_:der in 1967) [ClassicSimilarity], result of:
          0.020263731 = score(doc=1967,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.326484 = fieldWeight in 1967, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1967)
      0.28 = coord(7/25)
    
    Abstract
    In diesem Beitrag werden Webservices als Träger für die Vernetzung unterschiedlicher Informationsangebote vorgestellt. Am Beispiel der technischen Realisierung für das Meta-Portal vascoda.de beschreibt er den Einsatz von Webservices im FIZ Karlsruhe. Erklärt werden das Konzept von Webservices, ihre Funktionsweise und die softwaretechnischen Schritte für die nahtlose Zusammenführung der teilnehmenden Webservice-Anbieter und Webservice-Nutzer. Nach Art einer Gebrauchsanweisung wird auf die in diesem Zusammenhang verwendeten Standardprotokolle und Programmiersprachen eingegangen. Webservices werden definiert als verteilte, lose gekoppelte und wiederverwendbare Software-Komponenten, die über XML-basierte Standard-Protokolle miteinander kommunizieren und auf vier wesentlichen Komponenten beruhen: dem Simple ObjectAccess Protocol (SOAP), der Webservice Description Language (WSDL), der Universal Description, Discovery and Integration (UDDI) und Standard-Internetprotkollen (HTTP[S], SMTP u.a.). Verteilte, unterschiedliche Softwaresysteme nahtlos so zusammenzuführen, dass sie sich gegenseitig verstehen und ihre Daten automatisch austauschen können, ist ein altes Ziel der Softwareentwicklung. Mit dem Konzept der Webservices scheint es sich nun verwirklichen zu lassen. Webservices bieten technisch zunächst prinzipiell nichts Neues: die Möglichkeiten, Funktionalitäten entfernter' Programme in lokale Anwendungen einzubauen, findet man seit Jahren in verschiedensten Technologien und Systemen (z.B. Remote Procedure Calls als Bestandteil von Unix, CORBA, COM, usw.). Die große Chance von Webservices liegt darin, dass sie auf akzeptierten und praktizierten Standards aufbauen und ihr relativ einfaches Konzept weithin unterstützt wird.
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.7, S.421-428

Years

Languages

  • d 45
  • e 20
  • f 1
  • More… Less…

Types

  • a 53
  • x 7
  • el 6
  • m 3
  • r 1
  • s 1
  • More… Less…