Search (21 results, page 1 of 2)

  • × language_ss:"d"
  • × theme_ss:"Verteilte bibliographische Datenbanken"
  • × type_ss:"a"
  1. Becker, H.-J.; Hengel, C.; Neuroth, H.; Weiß, B.; Wessel, C.: ¬Die Virtuelle Fachbibliothek als Schnittstelle für eine fachübergreifende Suche in den einzelnen Virtuellen Fachbibliotheken : Definition eines Metadaten-Kernsets (VLib Application Profile) (2002) 0.03
    0.025606593 = product of:
      0.07681978 = sum of:
        0.050636325 = weight(_text_:bibliothek in 2856) [ClassicSimilarity], result of:
          0.050636325 = score(doc=2856,freq=4.0), product of:
            0.1578712 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.038453303 = queryNorm
            0.32074454 = fieldWeight in 2856, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2856)
        0.026183454 = weight(_text_:internet in 2856) [ClassicSimilarity], result of:
          0.026183454 = score(doc=2856,freq=4.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.23064373 = fieldWeight in 2856, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2856)
      0.33333334 = coord(2/6)
    
    Abstract
    Der folgende Beitrag beschäftigt sich nicht mit einer konkreten Virtuellen Fachbibliothek, sondern mit dem übergreifenden Themenkomplex "Metadaten" und der Fragestellung, wie Metadaten für eine fachübergreifende Suche über alle Virtuellen Fachbibliotheken eingesetzt werden können. Im Rahmen des Aufbaus der Virtuellen Fachbibliotheken hat die Projektkoordinierung Unterarbeitsgruppen zur Lösung spezifischer Fragestellungen ins Leben gerufen. Der Arbeitsbereich "Metadaten" ist von dem von der DFG geförderten Projekt META-LIB (Metadaten-Initiative deutscher Bibliotheken) mit den Teilprojekten an Der Deutschen Bibliothek und der SUB Göttingen übernommen worden. META-LIB erhielt die Aufgabe, "Empfehlungen zur Definition eines Metadaten-Core-Sets für die verteilte Suche über die Virtuellen Fachbibliotheken" zu entwickeln. Im folgenden werden die Empfehlungen vorgestellt. Sie basieren auf den Ergebnissen und der Auswertung von Antworteng eines Internet-Fragebogens, in dem die Datenelemente erfragt wurden, die in den einzelnen Virtuellen Fachbibliotheken zur Erschließung verwendet bzw. benötigt werden. Für die Formulierung der Empfehlungen und zur Abstimmung sind zwei MetadatenWorkshops (am 16. Mai 2001 in der SUB Göttingen und am 9./10. August 2001 in der Deutschen Bibliothek Frankfurt am Main) durchgeführt worden, deren Ergebnisse und Diskussionen als Grundlage dienen.
    Theme
    Internet
  2. Neuroth, H.: Suche in verteilten "Quality-controlled Subject Gateways" : Entwicklung eines Metadatenprofils (2002) 0.02
    0.022624448 = product of:
      0.067873344 = sum of:
        0.035805292 = weight(_text_:bibliothek in 2522) [ClassicSimilarity], result of:
          0.035805292 = score(doc=2522,freq=2.0), product of:
            0.1578712 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.038453303 = queryNorm
            0.22680065 = fieldWeight in 2522, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2522)
        0.03206805 = weight(_text_:internet in 2522) [ClassicSimilarity], result of:
          0.03206805 = score(doc=2522,freq=6.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.28247973 = fieldWeight in 2522, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2522)
      0.33333334 = coord(2/6)
    
    Abstract
    Die seit ca. 1996 rasche Entwicklung des Internet bzw. des World Wide Web (WWW) hat die Praxis der Veröffentlichung, Verbreitung und Nutzung wissenschaftlicher Informationen grundlegend verändert. Um diese Informationen suchbar und retrievalfähig zu gestalten, ist in den letzten Jahren international viel diskutiert worden. Ein vielversprechender Ansatz, diesen neuen Herausforderungen zu begegnen, liegt in der Entwicklung von Metadatenprofilen. Da durch das Internet verschiedene Datenbestände, die von unterschiedlichen Bereichen wie Museen, Bibliotheken, Archiven etc. vorgehalten werden, unter einer Oberfläche durchsucht werden können, können Metadaten auch in diesem Bereich dazu beitragen, ein einheitliches Konzept zur Beschreibung und zum Retrieval von Online-Ressourcen zu entwickeln. Um die verteilt liegenden Dokumente unter einer Oberfläche für eine qualitativ hochwertige Recherche ("Cross-Search`) anbieten zu können, ist die Verständigung auf ein Core-Set an Metadaten und daran anschließend verschiedene Mappingprozesse ("Cross-walk`) von den lokalen Metadatenformaten zu dem Format des Core-Set an Metadaten notwendig. Ziel des Artikels' ist es, die einzelnen Schritte, die für die Entwicklung eines Metadatenprofils für die gemeinsame Suche über verteilte Metadatensammlungen notwendig sind, aufzuzeigen.
    Source
    Bibliothek: Forschung und Praxis. 26(2002) H.3, S.275-296
    Theme
    Internet
  3. Hodoroaba, L.; Imhof, A.; Kuberek, M.: ¬Das KOBV-Portal, elektronische Ressourcen in Berlin-Brandenburg : Nachweis, parallele Suche und weiterführende Dienste (2004) 0.02
    0.019422477 = product of:
      0.05826743 = sum of:
        0.028644232 = weight(_text_:bibliothek in 2813) [ClassicSimilarity], result of:
          0.028644232 = score(doc=2813,freq=2.0), product of:
            0.1578712 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.038453303 = queryNorm
            0.18144052 = fieldWeight in 2813, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03125 = fieldNorm(doc=2813)
        0.029623196 = weight(_text_:internet in 2813) [ClassicSimilarity], result of:
          0.029623196 = score(doc=2813,freq=8.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.2609436 = fieldWeight in 2813, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=2813)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Projekt "KOBV-Informationsportal" In den vergangenen Jahren hat der Kooperative Bibliotheksverbund BerlinBrandenburg (KOBV) mit der KOBV-Suchmaschine eine Internet-Plattform mit einer offenen Architektur geschaffen. Auf dieser technischen Basis erweitert er kontinuierlich sein Dienstleistungsangebot, wobei die Prinzipien des KOBV - insbesondere Offenheit, Heterogenität und Dezentralität auf technischer und organisatorischer Ebene - gewahrt bleiben. Mitte 2001 hat die KOBV-Zentrale gemeinsam mit den regionalen Bibliotheken das zweite große Entwicklungsprojekt "KOBV-Informationsportal" gestartet. Zielsetzung war der Aufbau eines kooperativen regionalen Portals mit Einsatz von Linking-Mechanismen zur "nahtlosen" Navigation in freien und lizenzierten Dokumenten und mit Einsatz von Instrumenten zur dezentralen Authentifizierung und Autorisierung über das Internet. Im Dezember 2003 hat das "KOBV-Portal - Digitale Bibliothek Berlin-Brandenburg" planmäßig in einer ersten Ausbaustufe den Routinebetrieb aufgenommen. Das KOBV-Portal bietet in dieser Stufe den Nachweis über die in den großen Bibliotheken lizenzierten Ressourcen und elektronischen Zeitschriften, zudem die nahtlose Navigation mittels des Reference-LinkingWerkzeuges SFX zu verschiedenen Diensten wie Fernleihe, Subito und freien Volltexten im Internet sowie zu frei zugänglichen elektronischen Zeitschriften. Die mit der verteilten Authentifizierung und Autorisierung verbundene Zielsetzung konnte im Rahmen des Projektes erst zum Teil umgesetzt werden. Realisiert wurde die Remote-Authentifizierung, mit der sich ein Nutzer, der online eine Fernleih-Bestellung aufgeben möchte, über das Internet in seiner Heimatbibliothek authentifizieren kann. Des weiteren ist der Zugriff auf lizenzierte Bestände im Campus einer Hochschule mittels IP-Checking möglich. Als weiteren wesentlichen Bestandteil des KOBV-Portals hat die KOBVZentrale mit den Bibliotheken einen Workflow für ein Metadata-Sharing abgestimmt und für die Adaption und Normalisierung lokaler Metadaten aus lokalen Bibliothekssystemen und -Portalen den KOBV-Metadaten-AustauschParser (KMA-Parser) entwickelt. Darüber hinaus sollen Bibliotheken, deren Metadaten bislang lediglich in unstrukturierter Form vorliegen, in die Lage versetzt werden, strukturierte Metadaten anzulegen, zu liefern und nachzunutzen. Dazu hat die KOBV-Zentrale das mit einer Web-Katalogisierungsschnittstelle ausgestattete "Metadata-Tool" entwickelt, das im Herbst 2004 in Betrieb genommen wird. Die für das Metadata-Sharing entwickelten Komponenten und Module sollen den Bibliotheken die Mehrfacherfassung ersparen und ihnen die Möglichkeit der wechselseitigen Nachnutzung der Metadaten eröffnen.
  4. Mönnich, M.; Dierolf, U.: 20 Jahre Karlsruher virtueller Katalog (KVK) (2016) 0.02
    0.01863756 = product of:
      0.05591268 = sum of:
        0.041893527 = weight(_text_:internet in 3190) [ClassicSimilarity], result of:
          0.041893527 = score(doc=3190,freq=4.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.36902997 = fieldWeight in 3190, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=3190)
        0.014019156 = product of:
          0.042057466 = sum of:
            0.042057466 = weight(_text_:29 in 3190) [ClassicSimilarity], result of:
              0.042057466 = score(doc=3190,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.31092256 = fieldWeight in 3190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3190)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Vor 20 Jahren, genau gesagt am 26. Juli 1996, erblickte die Literatursuchmaschine "KVK" das Licht der Internet-Welt. Seit damals wurden mehrere Milliarden Suchanfragen von Karlsruhe aus an andere Web-Kataloge von Bibliotheken und Verbünden geschickt, Trefferlisten ausgewertet und den Nutzern in einheitlicher Form präsentiert. Dieser Beitrag erklärt, warum der KVK entwickelt wurde und warum es diesen "Internet-Dino" auch heute noch gibt und beschreibt den aktuellen Stand.
    Date
    24.10.2016 19:29:10
  5. Meiert, M.: Elektronische Publikationen an Hochschulen : Modellierung des elektronischen Publikationsprozesses am Beispiel der Universität Hildesheim (2006) 0.01
    0.013946643 = product of:
      0.041839927 = sum of:
        0.031420145 = weight(_text_:internet in 5974) [ClassicSimilarity], result of:
          0.031420145 = score(doc=5974,freq=4.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.27677247 = fieldWeight in 5974, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=5974)
        0.010419784 = product of:
          0.03125935 = sum of:
            0.03125935 = weight(_text_:22 in 5974) [ClassicSimilarity], result of:
              0.03125935 = score(doc=5974,freq=2.0), product of:
                0.13465692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038453303 = queryNorm
                0.23214069 = fieldWeight in 5974, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5974)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Internet verändert die Rahmenbedingungen des wissenschaftlichen Publikationswesens einschneidend. Wissenschaftliche Dokumente sind zunehmend elektronisch verfügbar und beginnen, die klassischen Wissenschaftsmedien wie Fachbücher und Fachzeitschriften zu verdrängen. Die Implementierung eines elektronischen Publikationsprozesses ist Voraussetzung für die erfolgreiche Verbreitung wissenschaftlicher Dokumente per Internet. Die Umsetzung setzt jedoch die Einhaltung bestimmter Vorgaben und Regularien voraus, sonst drohen Inkompatibilitäten zwischen den Systemen. Im Kontext von Urheberrechtsnovellierung und Open Access-Bewegung erläutert dieser Beitrag technische und rechtliche Rahmenbedingungen von Online-Publikationen und stellt Projekte und Initiativen vor, die sich auf dem Feld des wissenschaftlichen Publikationswesens betätigen. Ausführlich wurden Problembereiche des aktuellen Publikationsprozesses von Abschlussarbeiten im Studiengang Internationales Informationsmanagement an der Universität Hildesheim mit Hilfe von Interviews untersucht. Auf Grundlage der Zustandsanalyse wurde anschließend der elekronische Publikationsprozess modelliert.
    Date
    1. 9.2006 13:22:15
  6. Ellis, R.; Hindersmann, J.: Volltext- und Katalogverlinkungen in Online-Datenbanken (2003) 0.01
    0.011322627 = product of:
      0.06793576 = sum of:
        0.06793576 = weight(_text_:bibliothek in 1486) [ClassicSimilarity], result of:
          0.06793576 = score(doc=1486,freq=20.0), product of:
            0.1578712 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.038453303 = queryNorm
            0.43032396 = fieldWeight in 1486, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1486)
      0.16666667 = coord(1/6)
    
    Abstract
    Die digitale Bibliothek, in der alles mit allem verlinkt ist, und man mit wenigen Klicks zur gewünschten Information gelangt, ist nach wie vor ein Traum vieler Bibliothekare und Benutzer. In der Realität aber existieren heterogene Informationssysteme nebeneinander: Online-Datenbanken, Aggregatordatenbanken, A&I-Datenbanken, Plattformen für E-Journals, OPACs. Zwischen diesen verschiedenen Systemen muss der Nutzer nun hin- und herschalten, um die gewünschte Information zu erhalten. Dass eine Verlinkung der verschiedenen elektronischen Ressourcen der Bibliothek ein Desiderat ist, hat inzwischen auch die Industrie erkannt. Es sind bereits erste Systeme auf dem Markt, die eine Navigation in heterogenen Informationsquellen ermöglichen. Zu nennen ist hier in erster Linie ExLibris SFX. Auch EBSCO hat mit LinkSource eine auf openURL basierte Lösung vorgelegt, um alle verfügbaren Quellen in eine Suchanfrage einzubinden. Diese Systeme sind prinzipiell sehr vielversprechend und von der Bibliothek sehr komfortabel zu managen, bewegen sich aber derzeit in einem preislichen Rahmen, der von den wenigsten Bibliotheken noch zusätzlich zu den ohnehin schon hohen Kosten für elektronische Ressourcen aufgebracht werden kann. An der UB Osnabrück und SuUB Bremen wurden daher Überlegungen angestellt, wie man ohne diese kostenpflichtigen Zusatzdienste die verschiedenen elektronischen Angebote der Bibliothek besser miteinander verknüpfen könnte. Konkret lautete die Fragestellung so: "Wie komme ich nach einer Recherche in einer bibliografischen Online-Datenbank zum Volltext?" Die meisten OnlineDatenbanken sind immer noch rein bibliografische Datenbanken, die allerhöchstens ein Abstract anbieten (A&I-Datenbanken). Erscheint ein Rechercheergebnis dem Benutzer so interessant, dass er gern den Volltext des betreffenden Artikels oder des Buches einsehen möchte, so hat er dazu mehrere Möglichkeiten: Die einfachste Möglichkeit liegt darin, den Volltext in elektronischer Form aufzurufen. Besteht diese Möglichkeit nicht, so muss er im OPAC recherchieren, ob der gesuchte Titel zumindest in gedruckter Version in der Bibliothek vorhanden ist. Ist dies nicht der Fall, so hat er die Möglichkeit, den Titel per Fernleihe oder document delivery zu bestellen. Diese drei Schritte - Aufrufen des Volltextes, Recherche im OPAC, Fernleihbestellung - sollten für den Benutzer dadurch vereinfacht werden, dass ent sprechende Links in die Online-Datenbanken integriert werden. So kann das aufwändige "kopieren und einfügen"- Verfahren entfallen. Die Einrichtung dieser verschiedenen Links brachte administrative, technische und lizenzrechtliche Probleme mit sich. Online-Datenbanken werden von verschiedenen Anbietern auf den Markt gebracht: von international agierenden Firmen bis hin zu kleinen Körperschaften. Es musste bei jedem Anbieter geklärt werden, welche Verlinkungen technisch und lizenzrechtlich möglich sind. Links zum elektronischen Volltext sind für den Nutzer sicherlich die ideale Lösung, denn so kann er vom Büro oder CIP-Pool aus den Artikel lesen bzw. ausdrucken, ohne in die Bibliothek gehen und dort nach der Print-Ausgabe suchen zu müssen. Bei Volltextlinks muss man zwischen zwei Arten von Links unterscheiden: Institutionsunabhängige Links sind zentral für alle Abonnenten der Online-Datenbank eingerichtet und werden immer angezeigt, unabhängig davon, ob die Bibliothek einen lizenzierten Volltextzugriff auf die betreffende elektronische Ressource hat. Institutionsabhängige Links sind nur für die elektronischen Ressourcen eingerichtet, für die die Bibliothek einen lizenzierten Zugang besitzt.
    Im Falle von institutionsunabhängigen Links werden Volltextlinks angezeigt, die allerdings nur dann funktionieren, wenn die Bibliothek auch die entsprechenden Lizenzrechte besitzt. Beim Nutzer führen diese Links schnell zu Frustration, wenn der erhoffte Volltext nicht angezeigt wird, zumal es nicht ersichtlich ist, dass der Zugang zum elektronischen Volltext von der Institution nicht lizenziert worden ist. Dem Nutzer ist dann schwer zu vermitteln, dass diese Links immer auftauchten, es aber nicht immer möglich ist, auf den elektronischen Volltext zuzugreifen. Für die Bibliothek bedeuten institutionsunabhängige Links erhöhten Erklärungsbedarf: Die Nutzer müssen darüber informiert werden, bei welchen E-Journals sie an den Volltext gelangen können. Zusätzlich kompliziert wird diese Angelegenheit noch dadurch, dass Bibliotheken in aller Regel bei verschiedenen Verlagen verschiedene Zugriffsrechte haben: entweder auf gar keine Titel, oder auf die in Print abonnierten Titel oder (durch Konsortialverträge) einen cross access auch auf die Titel, die andere Bibliotheken abonniert haben. Zusätzlich sind auch noch zeitliche Beschränkungen zu bedenken: Elsevier beispielsweise gewährt für ScienceDirect Web-Editions nur Zugriff auf die Hefte der letzten 12 Monate.
  7. Neuroth, H.; Lepschy, P.: ¬Das EU-Projekt Renardus (2001) 0.01
    0.01087906 = product of:
      0.03263718 = sum of:
        0.022217397 = weight(_text_:internet in 5589) [ClassicSimilarity], result of:
          0.022217397 = score(doc=5589,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.1957077 = fieldWeight in 5589, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=5589)
        0.010419784 = product of:
          0.03125935 = sum of:
            0.03125935 = weight(_text_:22 in 5589) [ClassicSimilarity], result of:
              0.03125935 = score(doc=5589,freq=2.0), product of:
                0.13465692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038453303 = queryNorm
                0.23214069 = fieldWeight in 5589, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5589)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Der vollständige Projektname von Renardus lautet "Academic Subject Gateway Service Europe". Renardus wird von der Europäischen Union im 5. Rahmenprogramm mit dem Schwerpunktthema "Information Society Technologies" im zweiten Thematischen Programm "Benutzerfreundliche Informationsgesellschaft" ('Promoting a User-friendly Information Society') gefördert. Die Projektlaufzeit ist von Januar 2000 bis Juni 2002. Insgesamt zwölf Partner (Principal und Assistant Contractors) aus Finnland, Dänemark, Schweden, Großbritannien, den Niederlanden, Frankreich und Deutschland beteiligen sich an diesem Projekt. Die Europäische Union unterstützt das Projekt mit 1,7 Mio. EURO, die Gesamtkosten belaufen sich inklusive der Eigenbeteiligungen der Partner auf 2,3 Mio. EURO. Das Ziel des Projektes Renardus ist es, über eine Schnittstelle Zugriff auf verteilte Sammlungen von "High Quality" Internet Ressourcen in Europa zu ermöglichen. Diese Schnittstelle wird über den Renardus Broker realisiert, der das "Cross-Searchen" und "Cross-Browsen" über verteilte "Quality-Controlled Subject Gateways" ermöglicht. Ein weiteres Ziel von Renardus ist es, Möglichkeiten von "metadata sharing" zu evaluieren und in kleinen Experimenten zwischen z. B. Subject Gateways und Nationalbibliothek zu testen bzw. zu realisieren
    Date
    22. 6.2002 19:32:15
  8. Kaizik, A.; Gödert, W.; Milanesi, C.: Erfahrungen und Ergebnisse aus der Evaluierung des EU-Projektes EULER im Rahmen des an der FH Köln angesiedelten Projektes EJECT (Evaluation von Subject Gateways des World Wide Web (2001) 0.01
    0.0102647785 = product of:
      0.030794334 = sum of:
        0.018514499 = weight(_text_:internet in 5801) [ClassicSimilarity], result of:
          0.018514499 = score(doc=5801,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.16308975 = fieldWeight in 5801, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5801)
        0.012279834 = product of:
          0.0368395 = sum of:
            0.0368395 = weight(_text_:22 in 5801) [ClassicSimilarity], result of:
              0.0368395 = score(doc=5801,freq=4.0), product of:
                0.13465692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038453303 = queryNorm
                0.27358043 = fieldWeight in 5801, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5801)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Der Umfang und die Heterogenität des Informationsangebotes erfordert immer differenzierte Methoden und Hilfsmittel für das gezielte und möglichst ballastfreie Auffinden von Informationsquellen im Kontext eines bestimmten Fachgebietes oder einer wissenschaftlichen Disziplin. Um dieses Ziel zu erreichen, wurden in der letzten Zeit eine Reihe sog. Subject Gateways entwickelt. Bislang liegen weder viele Untersuchungen zur Qualität derartiger Hilfsmittel vor noch ist eine differenzierte Methodik für solche Bewertungen entwickelt worden. Das Projekt Evaluation von Subject Gateways des Internet (EJECT) verfolgte daher die Ziele: durch Analyse bereits realisierter Subject Gateways die Verwendungsvielfalt des Begriffes aufzuzeigen und zu einer Präzisierung der Begriffsbildung beizutragen; einen methodischen Weg zur qualitativen Bewertung von Subject Gateways aufzuzeigen; diesen Weg anhand einer Evaluation des Subject Gateways EULER zu testen, das im Rahmen eines EU-Projektes für das Fachgebiet Mathematik entwickelt wurde. Die Resultate der Evaluation werden hier in verkürzter Form vorgestellt und es wird aufgezeigt, inwieweit eine Übertragung auf die Bewertung anderer Gateways möglich ist
    Date
    22. 6.2002 19:42:22
  9. Lügger, J.: Offene Navigation und Suchmaschinen in Verbünden, Konsortien und den Wissenschaften (2004) 0.01
    0.009548077 = product of:
      0.057288464 = sum of:
        0.057288464 = weight(_text_:bibliothek in 4980) [ClassicSimilarity], result of:
          0.057288464 = score(doc=4980,freq=2.0), product of:
            0.1578712 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.038453303 = queryNorm
            0.36288103 = fieldWeight in 4980, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0625 = fieldNorm(doc=4980)
      0.16666667 = coord(1/6)
    
    Abstract
    Integration der Navigation und Suche in lizenzierten Journalen und gleichzeitig in freien digitalen Dokumenten unter einer einheitlichen konsistenten Nutzeroberflache ist eines der ungelösten F&E-Probleme der Fachinformation. Hierbei müssen Elemente des Invisible Web und des Visible Web unter Berücksichtigung offener Standards nahtlos miteinander verbunden werden. Der Artikel beschreibt Ausgangspunkt und Entwicklungsgeschichte eines kooperativen Vorhabens "Verteilter Zeitschriftenserver", das sich auf dem Wege über eine Generalisierung zum "Verteilten Dokumentenserver" zur Basis der Kooperation von vascoda und AGVerbund mit dem Ziel der Realisierung einer Offenen Digitalen Bibliothek der Wissenschaften entwickelte.
  10. Kuberek, M.: ¬Der KOBV - eine regionale Service-Einrichtung für Nutzer und Bibliotheken (2002) 0.01
    0.008640099 = product of:
      0.051840592 = sum of:
        0.051840592 = weight(_text_:internet in 4098) [ClassicSimilarity], result of:
          0.051840592 = score(doc=4098,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.45665127 = fieldWeight in 4098, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.109375 = fieldNorm(doc=4098)
      0.16666667 = coord(1/6)
    
    Theme
    Internet
  11. Grötschel, M.; Kuberek, M.; Lohrum, S.; Lügger, J.; Rusch, B.: ¬Der Kooperative Bibliotheksverbund Berlin-Brandenburg (1999) 0.01
    0.008640099 = product of:
      0.051840592 = sum of:
        0.051840592 = weight(_text_:internet in 5903) [ClassicSimilarity], result of:
          0.051840592 = score(doc=5903,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.45665127 = fieldWeight in 5903, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.109375 = fieldNorm(doc=5903)
      0.16666667 = coord(1/6)
    
    Theme
    Internet
  12. Lügger, J.: Über Suchmaschinen, Verbünde und die Integration von Informationsangeboten : Teil 1: KOBV-Suchmaschine und Math-Net (2000) 0.01
    0.007405799 = product of:
      0.044434793 = sum of:
        0.044434793 = weight(_text_:internet in 1218) [ClassicSimilarity], result of:
          0.044434793 = score(doc=1218,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.3914154 = fieldWeight in 1218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.09375 = fieldNorm(doc=1218)
      0.16666667 = coord(1/6)
    
    Theme
    Internet
  13. Imhof, A.; Malo, M.: Aufbau einer verteilten Fachredaktion für freie Internet-Ressourcen im KOBV-Portal (2005) 0.01
    0.007405799 = product of:
      0.044434793 = sum of:
        0.044434793 = weight(_text_:internet in 3405) [ClassicSimilarity], result of:
          0.044434793 = score(doc=3405,freq=8.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.3914154 = fieldWeight in 3405, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=3405)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Kooperative Bibliotheksverbund Berlin-Brandenburg (KOBV) betreibt mit dem KOBV-Portal (http://digibib.kobv.de) seit Weihnachten 2003 ein fächerübergreifendes Informationsportal im Internet. Das Portal basiert auf der MetaLib-Software der Firma Exlibris, die gemeinsam mit dem KOBV entwickelt wurde. Das KOBV-Portal strebt den Nachweis sämtlicher konventioneller und elektronischer Bibliotheksbestände der Bibliotheken in der Region BerlinBrandenburg an. Darüber hinaus sollen im KOBV-Portal fachwissenschaftlich relevante, frei über das Internet zugängliche Ressourcen nachgewiesen werden. Personalisierte Dienste ermöglichen den Nutzerinnen die Speicherung von Suchanfragen, Suchergebnissen, e-Zeitschriftenlisten sowie das Anlegen von Ressourcenlisten, die - bei Anmeldung im KOBV-Portal - auf dem Server gespeichert werden und somit für weitere Sitzungen im KOBV-Portal erneut zur Verfügung stehen. Darüber hinaus existieren mehrere Exportfunktionen, die eine Weiterverwendung der Recherche-Ergebnisse in eigenen wissenschaftlichen Arbeiten ermöglichen (Ausgabe von Literaturlisten in Endnote, Ausdruck von Ergebnislisten bzw. Zuschicken von Ergebnislisten als E-Mail).
    Theme
    Internet
  14. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Ein Halbzeitbericht (2001) 0.01
    0.0072737252 = product of:
      0.021821175 = sum of:
        0.014811598 = weight(_text_:internet in 5900) [ClassicSimilarity], result of:
          0.014811598 = score(doc=5900,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.1304718 = fieldWeight in 5900, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
        0.007009578 = product of:
          0.021028733 = sum of:
            0.021028733 = weight(_text_:29 in 5900) [ClassicSimilarity], result of:
              0.021028733 = score(doc=5900,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.15546128 = fieldWeight in 5900, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5900)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
    Theme
    Internet
  15. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Bericht über den middleOfTheRoad Workshop (2001) 0.01
    0.0072737252 = product of:
      0.021821175 = sum of:
        0.014811598 = weight(_text_:internet in 5901) [ClassicSimilarity], result of:
          0.014811598 = score(doc=5901,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.1304718 = fieldWeight in 5901, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
        0.007009578 = product of:
          0.021028733 = sum of:
            0.021028733 = weight(_text_:29 in 5901) [ClassicSimilarity], result of:
              0.021028733 = score(doc=5901,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.15546128 = fieldWeight in 5901, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5901)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
    Theme
    Internet
  16. Strötgen, R.; Kokkelink, S.: Metadatenextraktion aus Internetquellen : Heterogenitätsbehandlung im Projekt CARMEN (2001) 0.00
    0.0043639094 = product of:
      0.026183454 = sum of:
        0.026183454 = weight(_text_:internet in 5808) [ClassicSimilarity], result of:
          0.026183454 = score(doc=5808,freq=4.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.23064373 = fieldWeight in 5808, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Sonderfördermaßnahme CARMEN (Content Analysis, Retrieval and Metadata: Effective Networking) zielt im Rahmen des vom BMB+F geförderten Programms GLOBAL INFO darauf ab, in der heutigen dezentralen Informationsweit geeignete Informationssysteme für die verteilten Datenbestände in Bibliotheken, Fachinformationszentren und im Internet zu schaffen. Diese Zusammenführung ist weniger technisch als inhaltlich und konzeptuell problematisch. Heterogenität tritt beispielsweise auf, wenn unterschiedliche Datenbestände zur Inhaltserschließung verschiedene Thesauri oder Klassifikationen benutzen, wenn Metadaten unterschiedlich oder überhaupt nicht erfasst werden oder wenn intellektuell aufgearbeitete Quellen mit in der Regel vollständig unerschlossenen Internetdokumenten zusammentreffen. Im Projekt CARMEN wird dieses Problem mit mehreren Methoden angegangen: Über deduktiv-heuristische Verfahren werden Metadaten automatisch aus Dokumenten generiert, außerdem lassen sich mit statistisch-quantitativen Methoden die unterschiedlichen Verwendungen von Termen in den verschiedenen Beständen aufeinander abbilden, und intellektuell erstellte Crosskonkordanzen schaffen sichere Übergänge von einer Dokumentationssprache in eine andere. Für die Extraktion von Metadaten gemäß Dublin Core (v. a. Autor, Titel, Institution, Abstract, Schlagworte) werden anhand typischer Dokumente (Dissertationen aus Math-Net im PostScript-Format und verschiedenste HTML-Dateien von WWW-Servern deutscher sozialwissenschaftlicher Institutionen) Heuristiken entwickelt. Die jeweilige Wahrscheinlichkeit, dass die so gewonnenen Metadaten korrekt und vertrauenswürdig sind, wird über Gewichte den einzelnen Daten zugeordnet. Die Heuristiken werden iterativ in ein Extraktionswerkzeug implementiert, getestet und verbessert, um die Zuverlässigkeit der Verfahren zu erhöhen. Derzeit werden an der Universität Osnabrück und im InformationsZentrum Sozialwissenschaften Bonn anhand mathematischer und sozialwissenschaftlicher Datenbestände erste Prototypen derartiger Transfermodule erstellt
    Theme
    Internet
  17. Portal "Verteilte Digitale Inkunabelbibliothek" online (2005) 0.00
    0.0043200497 = product of:
      0.025920296 = sum of:
        0.025920296 = weight(_text_:internet in 4566) [ClassicSimilarity], result of:
          0.025920296 = score(doc=4566,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.22832564 = fieldWeight in 4566, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4566)
      0.16666667 = coord(1/6)
    
    Content
    "Das Portal "Verteilte Digitale Inkunabelbibliothek (vdlb)" ist seit Mitte des Jahres online. Es stehen mehr als 550 digitalisierte Inkunabeln zur Verfügung. Mit der gemeinsamen Digitalisierung von mehr als 1.000 der geschätzten 27.000 Inkunabeln wird ein signifikanter Teil erschlossen sein. Im Workshop am 2./3.11.2005 an der Universität Köln wird beraten: - Welches Interesse haben wir an Inkunabeln und warum sollten sie über Internet zur Verfügung gestellt werden? - Wie ist das Angebot des vdlb-Portals methodisch und inhaltlich zu bewerten? - Welche Perspektiven gibt es für eine Gesamtdigitalisierung aller Inkunabelausgaben und für die Konstituierung eines zentralen Portals?"
  18. Polleres, A.; Lausen, H.; Lara, R.: Semantische Beschreibung von Web Services (2006) 0.00
    0.0043200497 = product of:
      0.025920296 = sum of:
        0.025920296 = weight(_text_:internet in 5813) [ClassicSimilarity], result of:
          0.025920296 = score(doc=5813,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.22832564 = fieldWeight in 5813, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5813)
      0.16666667 = coord(1/6)
    
    Theme
    Internet
  19. Quast, A.; Pfurr, N.: GEO-LEO setzt Open-Access-Prinzipien für die geowissenschaftliche Fachgemeinschaft um (2006) 0.00
    0.0043200497 = product of:
      0.025920296 = sum of:
        0.025920296 = weight(_text_:internet in 6095) [ClassicSimilarity], result of:
          0.025920296 = score(doc=6095,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.22832564 = fieldWeight in 6095, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6095)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Virtuelle Fachbibliothek GEO-LEO ermöglicht seit diesem September Wissenschaftlern die gleichzeitige Recherche in über 50 Dokumentenservern im In- und Ausland'. Damit setzt GEO-LEO die Open-Access-Prinzipien für Geo- und Montanwissenschaftler vollständig um. Bereits seit Anfang des Jahres bietet die Virtuelle Fachbibliothek mit ihrer Publikationsplattform GEO-LEOe-docs Wissenschaftlern die Möglichkeit ihre Arbeitsergebnisse und Publikationen direkt im Internet zugänglich zu machen. Als sogenannter Data-Provider stellt GEO-LEO die Metadaten der aufgenommenen Dokumente anschließend über die standardisierte OAI-PMH-Schnittstelle zur Verfügung, um die weltweite Zugänglichkeit der Dokumente wesentlich zu verbessern.
  20. Kuberek, M.: KOBV: institutionalisiert (2001) 0.00
    0.0040889205 = product of:
      0.024533523 = sum of:
        0.024533523 = product of:
          0.07360057 = sum of:
            0.07360057 = weight(_text_:29 in 6511) [ClassicSimilarity], result of:
              0.07360057 = score(doc=6511,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.5441145 = fieldWeight in 6511, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6511)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 9.2001 11:33:57