Search (5 results, page 1 of 1)

  • × theme_ss:"Internet"
  • × theme_ss:"Verteilte bibliographische Datenbanken"
  • × type_ss:"a"
  1. Imhof, A.; Malo, M.: Aufbau einer verteilten Fachredaktion für freie Internet-Ressourcen im KOBV-Portal (2005) 0.00
    0.002028117 = product of:
      0.016224936 = sum of:
        0.016224936 = product of:
          0.06489974 = sum of:
            0.06489974 = weight(_text_:recherche in 3405) [ClassicSimilarity], result of:
              0.06489974 = score(doc=3405,freq=2.0), product of:
                0.18062086 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.033323385 = queryNorm
                0.35931477 = fieldWeight in 3405, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3405)
          0.25 = coord(1/4)
      0.125 = coord(1/8)
    
    Abstract
    Der Kooperative Bibliotheksverbund Berlin-Brandenburg (KOBV) betreibt mit dem KOBV-Portal (http://digibib.kobv.de) seit Weihnachten 2003 ein fächerübergreifendes Informationsportal im Internet. Das Portal basiert auf der MetaLib-Software der Firma Exlibris, die gemeinsam mit dem KOBV entwickelt wurde. Das KOBV-Portal strebt den Nachweis sämtlicher konventioneller und elektronischer Bibliotheksbestände der Bibliotheken in der Region BerlinBrandenburg an. Darüber hinaus sollen im KOBV-Portal fachwissenschaftlich relevante, frei über das Internet zugängliche Ressourcen nachgewiesen werden. Personalisierte Dienste ermöglichen den Nutzerinnen die Speicherung von Suchanfragen, Suchergebnissen, e-Zeitschriftenlisten sowie das Anlegen von Ressourcenlisten, die - bei Anmeldung im KOBV-Portal - auf dem Server gespeichert werden und somit für weitere Sitzungen im KOBV-Portal erneut zur Verfügung stehen. Darüber hinaus existieren mehrere Exportfunktionen, die eine Weiterverwendung der Recherche-Ergebnisse in eigenen wissenschaftlichen Arbeiten ermöglichen (Ausgabe von Literaturlisten in Endnote, Ausdruck von Ergebnislisten bzw. Zuschicken von Ergebnislisten als E-Mail).
  2. Neuroth, H.: Suche in verteilten "Quality-controlled Subject Gateways" : Entwicklung eines Metadatenprofils (2002) 0.00
    0.0016900975 = product of:
      0.01352078 = sum of:
        0.01352078 = product of:
          0.05408312 = sum of:
            0.05408312 = weight(_text_:recherche in 2522) [ClassicSimilarity], result of:
              0.05408312 = score(doc=2522,freq=2.0), product of:
                0.18062086 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.033323385 = queryNorm
                0.29942897 = fieldWeight in 2522, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2522)
          0.25 = coord(1/4)
      0.125 = coord(1/8)
    
    Abstract
    Die seit ca. 1996 rasche Entwicklung des Internet bzw. des World Wide Web (WWW) hat die Praxis der Veröffentlichung, Verbreitung und Nutzung wissenschaftlicher Informationen grundlegend verändert. Um diese Informationen suchbar und retrievalfähig zu gestalten, ist in den letzten Jahren international viel diskutiert worden. Ein vielversprechender Ansatz, diesen neuen Herausforderungen zu begegnen, liegt in der Entwicklung von Metadatenprofilen. Da durch das Internet verschiedene Datenbestände, die von unterschiedlichen Bereichen wie Museen, Bibliotheken, Archiven etc. vorgehalten werden, unter einer Oberfläche durchsucht werden können, können Metadaten auch in diesem Bereich dazu beitragen, ein einheitliches Konzept zur Beschreibung und zum Retrieval von Online-Ressourcen zu entwickeln. Um die verteilt liegenden Dokumente unter einer Oberfläche für eine qualitativ hochwertige Recherche ("Cross-Search`) anbieten zu können, ist die Verständigung auf ein Core-Set an Metadaten und daran anschließend verschiedene Mappingprozesse ("Cross-walk`) von den lokalen Metadatenformaten zu dem Format des Core-Set an Metadaten notwendig. Ziel des Artikels' ist es, die einzelnen Schritte, die für die Entwicklung eines Metadatenprofils für die gemeinsame Suche über verteilte Metadatensammlungen notwendig sind, aufzuzeigen.
  3. Stark, T.: ¬The Net and Z39.50 : toward a virtual union catalog (1997) 0.00
    0.0013287871 = product of:
      0.010630297 = sum of:
        0.010630297 = product of:
          0.031890888 = sum of:
            0.031890888 = weight(_text_:29 in 3194) [ClassicSimilarity], result of:
              0.031890888 = score(doc=3194,freq=2.0), product of:
                0.11722125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.033323385 = queryNorm
                0.27205724 = fieldWeight in 3194, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3194)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Source
    Computers in libraries. 17(1997) no.10, S.27-29
  4. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Ein Halbzeitbericht (2001) 0.00
    7.5930695E-4 = product of:
      0.0060744556 = sum of:
        0.0060744556 = product of:
          0.018223366 = sum of:
            0.018223366 = weight(_text_:29 in 5900) [ClassicSimilarity], result of:
              0.018223366 = score(doc=5900,freq=2.0), product of:
                0.11722125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.033323385 = queryNorm
                0.15546128 = fieldWeight in 5900, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5900)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
  5. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Bericht über den middleOfTheRoad Workshop (2001) 0.00
    7.5930695E-4 = product of:
      0.0060744556 = sum of:
        0.0060744556 = product of:
          0.018223366 = sum of:
            0.018223366 = weight(_text_:29 in 5901) [ClassicSimilarity], result of:
              0.018223366 = score(doc=5901,freq=2.0), product of:
                0.11722125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.033323385 = queryNorm
                0.15546128 = fieldWeight in 5901, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5901)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt