Search (31 results, page 2 of 2)

  • × language_ss:"d"
  • × theme_ss:"Verteilte bibliographische Datenbanken"
  1. Karl, A.; Mühlschlegel, U.; Ullrich, R.; Deylen, W. von; Farenholtz, B.; Schmolling, R.; Strosetzki, C.; Trapp, M.; Waldeck, B.: cibera: Virtuelle Fachbibliothek Ibero-Amerika / Spanien / Portugal : Teil 2: Die einzelnen Elemente (2006) 0.01
    0.0058538076 = product of:
      0.017561423 = sum of:
        0.017561423 = product of:
          0.035122845 = sum of:
            0.035122845 = weight(_text_:von in 6094) [ClassicSimilarity], result of:
              0.035122845 = score(doc=6094,freq=16.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.29180688 = fieldWeight in 6094, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=6094)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    "Bibliothekskataloge Die Suche in Bibliothekskatalogen über cibera ermöglicht die simultane Suche in mehreren fachlich relevanten Katalogen über eine einheitliche Suchmaske. Die technische Integration von Bibliothekskatalogen in die Suche erfolgt in der Regel ohne größere Schwierigkeiten, wenn zwei Voraussetzungen erfüllt sind: 1) das Vorhandensein einer Z39.50-Schnittstelle auf Seiten des Katalogbetreibers 2) das Vorhandensein eines von der Metasuchmaschine Wort unterstützten bibliographischen Datenformates (MARC21, MAB, MAB2, UNIMARC). Diese Voraussetzungen waren zunächst nur bei den Katalogen des Ibero-Amerikanischen Instituts (IAI), des Ibero-Amerika Institutes für Wirtschaftsforschung Göttingen sowie bei dem länderrelevanten Ausschnitt des Kataloges der Friedrich-Ebert-Stiftung gegeben. Hier beschränkte sich die Integration in die Suchumgebung zum einen auf das Erstellen von Konkordanzen zwischen geliefertem Datenformat und Präsentationsschicht der Suchmaschine, zum anderen auf die Definition der durchsuchbaren Register der entsprechenden Kataloge. Um eine für den Nutzer klare und verständliche Handhabung zu gewährleisten, konnten nicht alle Suchmöglichkeiten jedes einzelnen Kataloges übernommen werden. Es wurde stattdessen der "kleinste gemeinsame Nenner" definiert, der sowohl die einfache Handhabung der Suche als auch die Flexibilität derselben gewährleistet. Die Kataloge des IAI Berlin, der Friedrich-Ebert-Stiftung und des Ibero-Amerika Institutes für Wirtschaftsforschung Göttingen konnten daher im Zeitraum Juli bis September 2004 vollständig in cibera integriert werden. Technisch aufwändiger stellte sich die Aufbereitung und Integration des Kataloges I des Instituts für Iberoamerika-Kunde Hamburg dar. Aufgrund des Katalogbruches am IIK müssen hier zwei Kataloge integriert werden. Der so genannte Katalog I umfasst die Daten des IIK bis Juli 2002. Hier galt es zunächst, die Daten der CDS-ISIS-Datenbank in ein XML-Zwischenformat zu wandeln, dieses Zwischenformat zu indizieren und mittels geeigneter Software Z39.50-kompatibel zu machen.
    Sowohl die Datenkonvertierung als auch der Aufbau einer Z39.50-Schnittstelle wurden von der Technik des IAI vorgenommen. Der Katalog I des IIK konnte Ende Oktober 2004 erfolgreich in die Suchumgebung integriert werden. Der Katalog II des IIK ist Bestandteil der Datenbank des Fachinformationsverbundes Internationale Beziehungen und Länderkunde (FIV-IBLK). Er enthält die Bücher des IIK ab Mitte 2002 sowie Zeitschriftenaufsätze mit Lateinamerikabezug bereits ab 1985. Die dafür verwendete Domestic-Datenbank wurde beim GBV in eine Pica-Datenbank eingespielt. Diese Migration, die im November 2005 abgeschlossen werden konnte, sowie die vorhandene Z39.50-Schnittstelle und Standard-Datenformate ermöglichen nun die zügige Einbindung in cibera. Sobald die Teilmenge "Lateinamerikabestand" vom GBV definiert ist, kann auch der Katalog II in die Metasuche von cibera integriert werden. Probleme ergeben sich mit der Integration der Kataloge der deutschen Standorte des Instituto Cervantes (Berlin, Bremen, München). Die Voraussetzungen sind geklärt, allerdings wird das vom Instituto Cervantes zurück gelieferte Datenformat IBERMARC von der Metasuchmaschine iPort noch nicht unterstützt. Die Einbindung des Katalogs der Staats- und Universitätsbibliothek (SUB) Hamburg brachte besondere inhaltliche Herausforderungen mit sich, weil er als Katalog einer Universalbibliothek fächerübergreifend ist. Die notwendige Definition eines Fachausschnittes bedeutete Pionierarbeit im Bereich der PICA-Anwender. Der GBV hat Ende 2003 zur Kennzeichnung des SSG-relevanten Ausschnittes im CBS Kategorie 5056 (SSG-Nummer) eingeführt. Bei den älteren Katalogisaten des SSGs musste Kategorie 5056 nachträglich gesetzt werden. Für alle Titelaufnahmen ab Anfang 1998 ist das mit Hilfe eines von der SUB Hamburg entwickelten automatisierten Verfahrens gelungen. In Kürze wird der entsprechende Teilkatalog mit ca. 20.000 Titeln des SSGs Spanien/Portugal für cibera zur Verfügung stehen. Für die älteren Bestände unterstützt die Verbundzentrale des GBV die Schaffung des entsprechenden Fachausschnittes. Weitere Bibliotheken - schwerpunktmäßig solche außerhalb der existierenden Verbundkataloge - sollen als Partner gewonnen werden, um die Katalogsuche zu ergänzen." ...
  2. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Ein Halbzeitbericht (2001) 0.01
    0.005288962 = product of:
      0.015866885 = sum of:
        0.015866885 = product of:
          0.03173377 = sum of:
            0.03173377 = weight(_text_:von in 5900) [ClassicSimilarity], result of:
              0.03173377 = score(doc=5900,freq=10.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.26364982 = fieldWeight in 5900, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5900)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
  3. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Bericht über den middleOfTheRoad Workshop (2001) 0.01
    0.005288962 = product of:
      0.015866885 = sum of:
        0.015866885 = product of:
          0.03173377 = sum of:
            0.03173377 = weight(_text_:von in 5901) [ClassicSimilarity], result of:
              0.03173377 = score(doc=5901,freq=10.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.26364982 = fieldWeight in 5901, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5901)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
  4. Hodoroaba, L.; Imhof, A.; Malo, M.: ¬Das Profil des KOBV-Portals (2005) 0.01
    0.005288962 = product of:
      0.015866885 = sum of:
        0.015866885 = product of:
          0.03173377 = sum of:
            0.03173377 = weight(_text_:von in 3210) [ClassicSimilarity], result of:
              0.03173377 = score(doc=3210,freq=10.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.26364982 = fieldWeight in 3210, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3210)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Einleitung In der deutschen und internationalen Bibliothekslandschaft entstehen zahlreiche Informationsportale, die eigene Ziele verfolgen. Sie differieren in der Ausrichtung ihrer Angebote und Dienste, zeigen aber gelegentlich auch Oberschneidungen. Erstrebenswert ist es, solche Überschneidungen gering zu halten und die mit einem Alleinstellungsmerkmal versehenen Dienstleistungen auszubauen. Auf lokaler, regionaler und auch auf nationaler Ebene sind Arbeitsteilung und Kooperation angebracht, weil der Aufbau von Portalen teuer ist. Die unterschiedlichen Portale sollten so miteinander vernetzt werden, dass sich die Dienstleistungen sinnvoll ergänzen. Die KOBV-Zentrale möchte dieses Ziel erreichen und die Dienste des KOBV-Portals nutzbringend mit anderen Informationsportalen in Verbindung bringen. Dazu müssen zuvor die Dienstleistungen, die Zielgruppe, die Kriterien für die Ressourcenauswahl und die Abgrenzung zu anderen Portalen in einem Profil klar definiert werden. Stellt man mehrere dieser deklarierten Profilbeschreibungen nebeneinander, werden schließlich die Grenzen und Verknüpfungspunkte einzelner Portale sichtbar. Das KOBV-Portal ist eine Weiterentwicklung der bewähren KOBV-Suchmaschine, die als virtueller Verbundkatalog der Länder Berlin und Brandenburg aufgebaut worden ist. Im KOBV-Portal wird ein Bestandsnachweis aller lizenzieren Ressourcen in der Region sowie freier, wissenschaftlich relevanter Ressourcen angeboten, die insbesondere für die Angehörigen der Wissenschaftsinstitutionen und die Nutzer der Öffentlichen Bibliotheken in BerlinBrandenburg von Interesse sind. Zu diesem Zweck werden zukünftig mit lokalen, regionalen und nationalen Informationspokalen Metadaten zu Ressourcen ausgetauscht, um die Qualität des Informationswerts der einzelnen Portale auf Basis der Gegenseitigkeit zu erhöhen. Für ein solches Metadata-Sharing und eine gegenseitige Integration von Dienstleistungen werden Kooperationen mit anderen Anbietern von Portalen angestrebt. Dabei bilden die einzelnen Portale jeweils ihr eigenes unverwechselbares Profil aus. Befürchtungen, dass es nach einer Kooperation zu Unschärfen zwischen den einzelnen, wenn auch noch nicht explizit formulierten Portalprofilen kommen wird, soll mit dieser ersten Positionsbestimmung entgegengewirkt werden. Die KOBV-Zentrale versteht das als wichtige Maßnahme zur weiteren Vernetzung von Angeboten über Portale und möchte andere Portalanbieter dazu aufrufen, ihrerseits ein solches Profil aufzustellen.
  5. Becker, H.-J.; Hengel, C.; Neuroth, H.; Weiß, B.; Wessel, C.: ¬Die Virtuelle Fachbibliothek als Schnittstelle für eine fachübergreifende Suche in den einzelnen Virtuellen Fachbibliotheken : Definition eines Metadaten-Kernsets (VLib Application Profile) (2002) 0.01
    0.005121016 = product of:
      0.015363047 = sum of:
        0.015363047 = product of:
          0.030726094 = sum of:
            0.030726094 = weight(_text_:von in 2856) [ClassicSimilarity], result of:
              0.030726094 = score(doc=2856,freq=6.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.25527787 = fieldWeight in 2856, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2856)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Der folgende Beitrag beschäftigt sich nicht mit einer konkreten Virtuellen Fachbibliothek, sondern mit dem übergreifenden Themenkomplex "Metadaten" und der Fragestellung, wie Metadaten für eine fachübergreifende Suche über alle Virtuellen Fachbibliotheken eingesetzt werden können. Im Rahmen des Aufbaus der Virtuellen Fachbibliotheken hat die Projektkoordinierung Unterarbeitsgruppen zur Lösung spezifischer Fragestellungen ins Leben gerufen. Der Arbeitsbereich "Metadaten" ist von dem von der DFG geförderten Projekt META-LIB (Metadaten-Initiative deutscher Bibliotheken) mit den Teilprojekten an Der Deutschen Bibliothek und der SUB Göttingen übernommen worden. META-LIB erhielt die Aufgabe, "Empfehlungen zur Definition eines Metadaten-Core-Sets für die verteilte Suche über die Virtuellen Fachbibliotheken" zu entwickeln. Im folgenden werden die Empfehlungen vorgestellt. Sie basieren auf den Ergebnissen und der Auswertung von Antworteng eines Internet-Fragebogens, in dem die Datenelemente erfragt wurden, die in den einzelnen Virtuellen Fachbibliotheken zur Erschließung verwendet bzw. benötigt werden. Für die Formulierung der Empfehlungen und zur Abstimmung sind zwei MetadatenWorkshops (am 16. Mai 2001 in der SUB Göttingen und am 9./10. August 2001 in der Deutschen Bibliothek Frankfurt am Main) durchgeführt worden, deren Ergebnisse und Diskussionen als Grundlage dienen.
  6. Wei, W.: SOAP als Basis für verteilte, heterogene virtuelle OPACs (2002) 0.01
    0.0050175497 = product of:
      0.015052649 = sum of:
        0.015052649 = product of:
          0.030105298 = sum of:
            0.030105298 = weight(_text_:von in 4097) [ClassicSimilarity], result of:
              0.030105298 = score(doc=4097,freq=16.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.2501202 = fieldWeight in 4097, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4097)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Eine wichtige Aufgabe der Informationsverarbeitung als fachbezogene Informatik besteht darin, die neue Entwicklung der Informationstechnologie zu verfolgen, sich damit auseinanderzusetzen, inwieweit diese Entwicklung die Forschung sowie die Anwendung in der Geisteswissenschaft unterstützen kann, und die daraus entstandenen Konzepte zu realisieren. Das im Jahre 1999 veröffentlichte Nachrichtenaustauschprotokoll SOAP (Abkürzung für Simple Object Access Protocol) entstand vor dem Hintergrund der schnellen Entwicklung der Vernetzung besonders des Internets. In den letzten Jahren hat SOAP große Aufmerksamkeit auf sich gezogen, weil man mit SOAP einige Beschränkungen der vorhandenen Techniken überwinden kann und damit die Leistungsfähigkeit der Software sowie Anwendung wesentlich verbessern kann. Ziel der Magisterarbeit liegt darin, einerseits theoretisch über die Möglichkeit des Einsetzens von SOAP in der Bibliotheksanwendung zu untersuchen, andererseits das Ergebnis der theoretischen Untersuchung in die Praxis umzusetzen, d.h. das Konzept eines Bibliotheksanwendungssystems mit dem Einsatz von SOAP zusammenzustellen und es zu realisieren. SOAP ist ein Nachrichtenprotokoll, das die Kommunikationen zwischen entfernten Systemen unterstützt. In der Arbeit wird durch eine theoretische Untersuchung gezeigt, dass SOAP sich besonders gut für die in der stark heterogenen Umgebung wie Internet verteilte Anwendung eignet. Eine der häufig von dem Bibliotheksystem über das Internet angebotenen verteilten Anwendungen ist der verteilte OPAC. Ein verteilter OPAC bietet eine verteilte Suche in mehreren Bibliothekssystemen an. Die meisten bisherigen Bibliothekssysteme realisieren die verteilte Suche vorwiegend mit der Unterstützung des Protokolls Z39.50. Durch die theoretische Untersuchung ist es zu sehen, dass mit dem Einsatz von SOAP einerseits der Arbeitsaufwand in der Realisierung bzw. die Verwaltung des Systems verglichen mit dem Z39.50 reduziert, andererseits die Funktionalität des Systems stark erweitert wird, dass eine Zusammenarbeit des Bibliothekssystems mit den Systemen anderer Bereiche leicht realisiert werden kann. Als praktisches Projekt der Magisterarbeit wird ein System der verteilten OPACs mit SOAP als Nachrichtenaustauschprotokoll entwickelt.
    Content
    Überblick über die Kapitel In Kapitel l. Simple Object Acces Protocol (SOAP) wird zuerst der Hintergrund der Entwicklung von SOAP untersucht. Mit einer kurzen Vorstellung der Entwicklung von verteilter Anwendung bis Web Service wird die Situation dargestellt, dass die vorhandenen Standards wie CORBA, DCOM sowie RMI die Ansprüche der stark heterogenen Umgebung wie Internet nicht erfüllen können. Um diesen Mangel der vorhandenen Lösungen zu überwinden, wurde SOAP mit dem Ziel der Unterstützung des plattformenunabhängigen Nachrichtenaustausches entwickelt. Anschließend wird der Begriff Web Service eingeführt, mit dem SOAP stark verbunden ist. Dabei wird über die Möglichkeit des Einsatzes von SOAP in den Bibliothekssystemen diskutiert. Schließlich wird SOAP durch unterschiedliche Aspekte wie SOAP und XML, SOAP Nachricht, Fehler Behandlung usw. untersucht. In Kapitel 3. Die durch Internet erweiterte Bibliothek wird die Beziehung zwischen dem Internet und der Bibliothek aus zwei Sichten, die verteilte Suche und Metadaten, beschrieben. In dem Teil über die verteilte Suche wird vorwiegend das Protokoll Z39.50, womit die bisherigen verteilten Bibliothekssysteme realisiert werden, dargestellt. In dem Teil der Metadaten wird sich zuerst mit der Bedeutung der Metadaten für die Bibliothek sowie für das Internet auseinandergesetzt. Anschließend wird über die existierenden Probleme der Metadaten und die Lösungsmöglichkeiten diskutiert. Schließlich wird eine Untersuchung einiger Metadatenstandards mit Dublin Core als Schwerpunkt durchgeführt, weil Dublin Core zur Zeit der Standard für das Internet und aus diesem Grund auch fir die Internet bezogene Bibliotheksanwendung wichtig ist. In Kapitel 4. Die Entwicklung eines verteilten Bibliothekssystems mit dem SOAP-Einsatz wird die Entwicklung des praktischen Projektes beschrieben. Zuerst wird das Ziel und die Funktionalität des Projektes festgelegt, dass ein verteiltes Bibliothekssystem mit dem Einsatz von SOAP entwickelt wird und das System eine verteilte Suche auf mehreren entfernten Bibliotheksdatenbanken ermöglichen soll. Anschließend wird beschrieben, in welchen Schritten das System entworfen und implementiert wird. Mit dem ersten System kann man nur in einer Datenbank suchen, während man mit dem zweiten System parallel in zwei Datenbanken suchen kann. Dublin Core wird als der Metadatenstandard im gesamten System eingesetzt. Die im System verwendeten Softwarepakete und die Softwarestandardtechnologien werden vorgestellt. Es wird untersucht, wie einzelne technische Komponenten zusammenarbeiten. Schließlich wird die Entwicklung der einzelnen Programmmodule und die Kommunikation zwischen ihnen beschrieben.
  7. Lügger, J.: Offene Navigation und Suchmaschinen in Verbünden, Konsortien und den Wissenschaften (2004) 0.00
    0.004730591 = product of:
      0.014191773 = sum of:
        0.014191773 = product of:
          0.028383546 = sum of:
            0.028383546 = weight(_text_:von in 4980) [ClassicSimilarity], result of:
              0.028383546 = score(doc=4980,freq=2.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.23581557 = fieldWeight in 4980, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4980)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Integration der Navigation und Suche in lizenzierten Journalen und gleichzeitig in freien digitalen Dokumenten unter einer einheitlichen konsistenten Nutzeroberflache ist eines der ungelösten F&E-Probleme der Fachinformation. Hierbei müssen Elemente des Invisible Web und des Visible Web unter Berücksichtigung offener Standards nahtlos miteinander verbunden werden. Der Artikel beschreibt Ausgangspunkt und Entwicklungsgeschichte eines kooperativen Vorhabens "Verteilter Zeitschriftenserver", das sich auf dem Wege über eine Generalisierung zum "Verteilten Dokumentenserver" zur Basis der Kooperation von vascoda und AGVerbund mit dem Ziel der Realisierung einer Offenen Digitalen Bibliothek der Wissenschaften entwickelte.
  8. Ellis, R.; Hindersmann, J.: Volltext- und Katalogverlinkungen in Online-Datenbanken (2003) 0.00
    0.004693488 = product of:
      0.014080464 = sum of:
        0.014080464 = product of:
          0.028160928 = sum of:
            0.028160928 = weight(_text_:von in 1486) [ClassicSimilarity], result of:
              0.028160928 = score(doc=1486,freq=14.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.23396602 = fieldWeight in 1486, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1486)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die digitale Bibliothek, in der alles mit allem verlinkt ist, und man mit wenigen Klicks zur gewünschten Information gelangt, ist nach wie vor ein Traum vieler Bibliothekare und Benutzer. In der Realität aber existieren heterogene Informationssysteme nebeneinander: Online-Datenbanken, Aggregatordatenbanken, A&I-Datenbanken, Plattformen für E-Journals, OPACs. Zwischen diesen verschiedenen Systemen muss der Nutzer nun hin- und herschalten, um die gewünschte Information zu erhalten. Dass eine Verlinkung der verschiedenen elektronischen Ressourcen der Bibliothek ein Desiderat ist, hat inzwischen auch die Industrie erkannt. Es sind bereits erste Systeme auf dem Markt, die eine Navigation in heterogenen Informationsquellen ermöglichen. Zu nennen ist hier in erster Linie ExLibris SFX. Auch EBSCO hat mit LinkSource eine auf openURL basierte Lösung vorgelegt, um alle verfügbaren Quellen in eine Suchanfrage einzubinden. Diese Systeme sind prinzipiell sehr vielversprechend und von der Bibliothek sehr komfortabel zu managen, bewegen sich aber derzeit in einem preislichen Rahmen, der von den wenigsten Bibliotheken noch zusätzlich zu den ohnehin schon hohen Kosten für elektronische Ressourcen aufgebracht werden kann. An der UB Osnabrück und SuUB Bremen wurden daher Überlegungen angestellt, wie man ohne diese kostenpflichtigen Zusatzdienste die verschiedenen elektronischen Angebote der Bibliothek besser miteinander verknüpfen könnte. Konkret lautete die Fragestellung so: "Wie komme ich nach einer Recherche in einer bibliografischen Online-Datenbank zum Volltext?" Die meisten OnlineDatenbanken sind immer noch rein bibliografische Datenbanken, die allerhöchstens ein Abstract anbieten (A&I-Datenbanken). Erscheint ein Rechercheergebnis dem Benutzer so interessant, dass er gern den Volltext des betreffenden Artikels oder des Buches einsehen möchte, so hat er dazu mehrere Möglichkeiten: Die einfachste Möglichkeit liegt darin, den Volltext in elektronischer Form aufzurufen. Besteht diese Möglichkeit nicht, so muss er im OPAC recherchieren, ob der gesuchte Titel zumindest in gedruckter Version in der Bibliothek vorhanden ist. Ist dies nicht der Fall, so hat er die Möglichkeit, den Titel per Fernleihe oder document delivery zu bestellen. Diese drei Schritte - Aufrufen des Volltextes, Recherche im OPAC, Fernleihbestellung - sollten für den Benutzer dadurch vereinfacht werden, dass ent sprechende Links in die Online-Datenbanken integriert werden. So kann das aufwändige "kopieren und einfügen"- Verfahren entfallen. Die Einrichtung dieser verschiedenen Links brachte administrative, technische und lizenzrechtliche Probleme mit sich. Online-Datenbanken werden von verschiedenen Anbietern auf den Markt gebracht: von international agierenden Firmen bis hin zu kleinen Körperschaften. Es musste bei jedem Anbieter geklärt werden, welche Verlinkungen technisch und lizenzrechtlich möglich sind. Links zum elektronischen Volltext sind für den Nutzer sicherlich die ideale Lösung, denn so kann er vom Büro oder CIP-Pool aus den Artikel lesen bzw. ausdrucken, ohne in die Bibliothek gehen und dort nach der Print-Ausgabe suchen zu müssen. Bei Volltextlinks muss man zwischen zwei Arten von Links unterscheiden: Institutionsunabhängige Links sind zentral für alle Abonnenten der Online-Datenbank eingerichtet und werden immer angezeigt, unabhängig davon, ob die Bibliothek einen lizenzierten Volltextzugriff auf die betreffende elektronische Ressource hat. Institutionsabhängige Links sind nur für die elektronischen Ressourcen eingerichtet, für die die Bibliothek einen lizenzierten Zugang besitzt.
    Im Falle von institutionsunabhängigen Links werden Volltextlinks angezeigt, die allerdings nur dann funktionieren, wenn die Bibliothek auch die entsprechenden Lizenzrechte besitzt. Beim Nutzer führen diese Links schnell zu Frustration, wenn der erhoffte Volltext nicht angezeigt wird, zumal es nicht ersichtlich ist, dass der Zugang zum elektronischen Volltext von der Institution nicht lizenziert worden ist. Dem Nutzer ist dann schwer zu vermitteln, dass diese Links immer auftauchten, es aber nicht immer möglich ist, auf den elektronischen Volltext zuzugreifen. Für die Bibliothek bedeuten institutionsunabhängige Links erhöhten Erklärungsbedarf: Die Nutzer müssen darüber informiert werden, bei welchen E-Journals sie an den Volltext gelangen können. Zusätzlich kompliziert wird diese Angelegenheit noch dadurch, dass Bibliotheken in aller Regel bei verschiedenen Verlagen verschiedene Zugriffsrechte haben: entweder auf gar keine Titel, oder auf die in Print abonnierten Titel oder (durch Konsortialverträge) einen cross access auch auf die Titel, die andere Bibliotheken abonniert haben. Zusätzlich sind auch noch zeitliche Beschränkungen zu bedenken: Elsevier beispielsweise gewährt für ScienceDirect Web-Editions nur Zugriff auf die Hefte der letzten 12 Monate.
  9. SRW/U erleichtert verteilte Datenbankrecherchen (2005) 0.00
    0.0041812914 = product of:
      0.012543874 = sum of:
        0.012543874 = product of:
          0.025087748 = sum of:
            0.025087748 = weight(_text_:von in 3972) [ClassicSimilarity], result of:
              0.025087748 = score(doc=3972,freq=4.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.2084335 = fieldWeight in 3972, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3972)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    "Seit zwei Jahrzehnten nutzen vor allem Bibliotheksverbünde das Protokoll Z39.50, um ihren Benutzern im Internet die simultane Abfrage mehrerer Datenbanken zu ermöglichen. Jetzt gibt es einen Nachfolger dieses Protokolls, der eine einfachere Implementierung verspricht. Damit ist auch eine größere Verbreitung für die Suche in verteilten Datenbeständen anderer Institutionen, wie z.B. Archiven und Museen, wahrscheinlich. SRW/U (Search and Retrieve Web Service bzw. Search and Retrieve URL Service, www.loc.90v/z3950/agency/zing/srw) wurde von einer an der Library of Congress angesiedelten Initiative entwickelt und beruht auf etablierten Standards wie URI und XML. Die mit SRW und SRU möglichen Abfragen und Ergebnisse unterscheiden sich nur in der Art der Übertragung, verwenden aber beide dieselben Prozeduren. Davon gibt es nur drei: explain, scan und searchRetrieve. Die beiden Erstgenannten dienen dazu, allgemeine Informationen über den Datenanbieter bzw. die verfügbaren Indexe zubekommen. Das Herzstück ist die search-Retrieve-Anweisung. Damit werden Anfragen direkt an die Datenbank gesendet und die Parameter des Suchergebnisses definiert. Verwendet wird dafür die Retrievalsprache CQL (Common Query Language), die simple Freitextsuchen, aber auch mit Boolschen Operatoren verknüpfte Recherchen ermöglicht. Bei SRU werden die Suchbefehle mittels einfacher HTTP GET -Anfragen übermittelt, die Ergebnisse in XML zurückgeliefert. Zur Strukturierung der Daten dienen z.B. Dublin Core, MARC oder EAD. Welches Format von der jeweiligen Datenbank bereitgestellt wird, kann durch die explain-Anweisung ermittelt gebracht werden."
  10. Portal "Verteilte Digitale Inkunabelbibliothek" online (2005) 0.00
    0.0041392674 = product of:
      0.012417802 = sum of:
        0.012417802 = product of:
          0.024835603 = sum of:
            0.024835603 = weight(_text_:von in 4566) [ClassicSimilarity], result of:
              0.024835603 = score(doc=4566,freq=2.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.20633863 = fieldWeight in 4566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4566)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    "Das Portal "Verteilte Digitale Inkunabelbibliothek (vdlb)" ist seit Mitte des Jahres online. Es stehen mehr als 550 digitalisierte Inkunabeln zur Verfügung. Mit der gemeinsamen Digitalisierung von mehr als 1.000 der geschätzten 27.000 Inkunabeln wird ein signifikanter Teil erschlossen sein. Im Workshop am 2./3.11.2005 an der Universität Köln wird beraten: - Welches Interesse haben wir an Inkunabeln und warum sollten sie über Internet zur Verfügung gestellt werden? - Wie ist das Angebot des vdlb-Portals methodisch und inhaltlich zu bewerten? - Welche Perspektiven gibt es für eine Gesamtdigitalisierung aller Inkunabelausgaben und für die Konstituierung eines zentralen Portals?"
  11. Hodoroaba, L.; Imhof, A.; Kuberek, M.: ¬Das KOBV-Portal, elektronische Ressourcen in Berlin-Brandenburg : Nachweis, parallele Suche und weiterführende Dienste (2004) 0.00
    0.0033450332 = product of:
      0.010035099 = sum of:
        0.010035099 = product of:
          0.020070199 = sum of:
            0.020070199 = weight(_text_:von in 2813) [ClassicSimilarity], result of:
              0.020070199 = score(doc=2813,freq=4.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.1667468 = fieldWeight in 2813, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2813)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Das Projekt "KOBV-Informationsportal" In den vergangenen Jahren hat der Kooperative Bibliotheksverbund BerlinBrandenburg (KOBV) mit der KOBV-Suchmaschine eine Internet-Plattform mit einer offenen Architektur geschaffen. Auf dieser technischen Basis erweitert er kontinuierlich sein Dienstleistungsangebot, wobei die Prinzipien des KOBV - insbesondere Offenheit, Heterogenität und Dezentralität auf technischer und organisatorischer Ebene - gewahrt bleiben. Mitte 2001 hat die KOBV-Zentrale gemeinsam mit den regionalen Bibliotheken das zweite große Entwicklungsprojekt "KOBV-Informationsportal" gestartet. Zielsetzung war der Aufbau eines kooperativen regionalen Portals mit Einsatz von Linking-Mechanismen zur "nahtlosen" Navigation in freien und lizenzierten Dokumenten und mit Einsatz von Instrumenten zur dezentralen Authentifizierung und Autorisierung über das Internet. Im Dezember 2003 hat das "KOBV-Portal - Digitale Bibliothek Berlin-Brandenburg" planmäßig in einer ersten Ausbaustufe den Routinebetrieb aufgenommen. Das KOBV-Portal bietet in dieser Stufe den Nachweis über die in den großen Bibliotheken lizenzierten Ressourcen und elektronischen Zeitschriften, zudem die nahtlose Navigation mittels des Reference-LinkingWerkzeuges SFX zu verschiedenen Diensten wie Fernleihe, Subito und freien Volltexten im Internet sowie zu frei zugänglichen elektronischen Zeitschriften. Die mit der verteilten Authentifizierung und Autorisierung verbundene Zielsetzung konnte im Rahmen des Projektes erst zum Teil umgesetzt werden. Realisiert wurde die Remote-Authentifizierung, mit der sich ein Nutzer, der online eine Fernleih-Bestellung aufgeben möchte, über das Internet in seiner Heimatbibliothek authentifizieren kann. Des weiteren ist der Zugriff auf lizenzierte Bestände im Campus einer Hochschule mittels IP-Checking möglich. Als weiteren wesentlichen Bestandteil des KOBV-Portals hat die KOBVZentrale mit den Bibliotheken einen Workflow für ein Metadata-Sharing abgestimmt und für die Adaption und Normalisierung lokaler Metadaten aus lokalen Bibliothekssystemen und -Portalen den KOBV-Metadaten-AustauschParser (KMA-Parser) entwickelt. Darüber hinaus sollen Bibliotheken, deren Metadaten bislang lediglich in unstrukturierter Form vorliegen, in die Lage versetzt werden, strukturierte Metadaten anzulegen, zu liefern und nachzunutzen. Dazu hat die KOBV-Zentrale das mit einer Web-Katalogisierungsschnittstelle ausgestattete "Metadata-Tool" entwickelt, das im Herbst 2004 in Betrieb genommen wird. Die für das Metadata-Sharing entwickelten Komponenten und Module sollen den Bibliotheken die Mehrfacherfassung ersparen und ihnen die Möglichkeit der wechselseitigen Nachnutzung der Metadaten eröffnen.