Search (51 results, page 1 of 3)

  • × theme_ss:"Verteilte bibliographische Datenbanken"
  1. Groenbaek, K.; Trigg, R.H.: From Web to workplace : designing open hypermedia systems (1999) 0.02
    0.017037213 = product of:
      0.05963024 = sum of:
        0.040475324 = weight(_text_:internet in 6096) [ClassicSimilarity], result of:
          0.040475324 = score(doc=6096,freq=2.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.3914154 = fieldWeight in 6096, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.09375 = fieldNorm(doc=6096)
        0.019154917 = product of:
          0.057464752 = sum of:
            0.057464752 = weight(_text_:29 in 6096) [ClassicSimilarity], result of:
              0.057464752 = score(doc=6096,freq=2.0), product of:
                0.123213425 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.035026826 = queryNorm
                0.46638384 = fieldWeight in 6096, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6096)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Date
    21. 4.2001 12:58:29
    Theme
    Internet
  2. Schneider, W.: ¬Ein verteiltes Bibliotheks-Informationssystem auf Basis des Z39.50 Protokolls (1999) 0.01
    0.014551556 = product of:
      0.050930444 = sum of:
        0.0381605 = weight(_text_:internet in 4773) [ClassicSimilarity], result of:
          0.0381605 = score(doc=4773,freq=4.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.36902997 = fieldWeight in 4773, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=4773)
        0.012769945 = product of:
          0.038309835 = sum of:
            0.038309835 = weight(_text_:29 in 4773) [ClassicSimilarity], result of:
              0.038309835 = score(doc=4773,freq=2.0), product of:
                0.123213425 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.035026826 = queryNorm
                0.31092256 = fieldWeight in 4773, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4773)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Abstract
    Diese Diplomarbeit beschreibt ein verteiltes Bibliothes-Informationssystem für bibliographische Datenbnaken im Internet. Der Name des Systems ist ZACK. Der Benutzer kann mit ZACK in einer oder mehreren bibliographischen Datenbanken nach einem Dokument suchen und die Treffer in die eigene lokale Datenbank übernehmen. Mit der Übernahme der Datensätze aus einer fremden Datenbank wird die Erfassung neuer Dokumente wesentlich erleichtert, da die Eigenkatalogisierung auf ein Minimum beschränkt werden kann. Bei der verteilten Suche mit ZACK wird parallel in mehreren Datenbanken gesucht. Dubletten werden als solche erkannt
    Date
    17. 5.2000 20:29:41
    Theme
    Internet
  3. Mönnich, M.; Dierolf, U.: 20 Jahre Karlsruher virtueller Katalog (KVK) (2016) 0.01
    0.014551556 = product of:
      0.050930444 = sum of:
        0.0381605 = weight(_text_:internet in 3190) [ClassicSimilarity], result of:
          0.0381605 = score(doc=3190,freq=4.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.36902997 = fieldWeight in 3190, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=3190)
        0.012769945 = product of:
          0.038309835 = sum of:
            0.038309835 = weight(_text_:29 in 3190) [ClassicSimilarity], result of:
              0.038309835 = score(doc=3190,freq=2.0), product of:
                0.123213425 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.035026826 = queryNorm
                0.31092256 = fieldWeight in 3190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3190)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Abstract
    Vor 20 Jahren, genau gesagt am 26. Juli 1996, erblickte die Literatursuchmaschine "KVK" das Licht der Internet-Welt. Seit damals wurden mehrere Milliarden Suchanfragen von Karlsruhe aus an andere Web-Kataloge von Bibliotheken und Verbünden geschickt, Trefferlisten ausgewertet und den Nutzern in einheitlicher Form präsentiert. Dieser Beitrag erklärt, warum der KVK entwickelt wurde und warum es diesen "Internet-Dino" auch heute noch gibt und beschreibt den aktuellen Stand.
    Date
    24.10.2016 19:29:10
  4. Meiert, M.: Elektronische Publikationen an Hochschulen : Modellierung des elektronischen Publikationsprozesses am Beispiel der Universität Hildesheim (2006) 0.01
    0.0108890515 = product of:
      0.03811168 = sum of:
        0.028620375 = weight(_text_:internet in 5974) [ClassicSimilarity], result of:
          0.028620375 = score(doc=5974,freq=4.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.27677247 = fieldWeight in 5974, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=5974)
        0.009491303 = product of:
          0.028473908 = sum of:
            0.028473908 = weight(_text_:22 in 5974) [ClassicSimilarity], result of:
              0.028473908 = score(doc=5974,freq=2.0), product of:
                0.12265798 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035026826 = queryNorm
                0.23214069 = fieldWeight in 5974, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5974)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Abstract
    Das Internet verändert die Rahmenbedingungen des wissenschaftlichen Publikationswesens einschneidend. Wissenschaftliche Dokumente sind zunehmend elektronisch verfügbar und beginnen, die klassischen Wissenschaftsmedien wie Fachbücher und Fachzeitschriften zu verdrängen. Die Implementierung eines elektronischen Publikationsprozesses ist Voraussetzung für die erfolgreiche Verbreitung wissenschaftlicher Dokumente per Internet. Die Umsetzung setzt jedoch die Einhaltung bestimmter Vorgaben und Regularien voraus, sonst drohen Inkompatibilitäten zwischen den Systemen. Im Kontext von Urheberrechtsnovellierung und Open Access-Bewegung erläutert dieser Beitrag technische und rechtliche Rahmenbedingungen von Online-Publikationen und stellt Projekte und Initiativen vor, die sich auf dem Feld des wissenschaftlichen Publikationswesens betätigen. Ausführlich wurden Problembereiche des aktuellen Publikationsprozesses von Abschlussarbeiten im Studiengang Internationales Informationsmanagement an der Universität Hildesheim mit Hilfe von Interviews untersucht. Auf Grundlage der Zustandsanalyse wurde anschließend der elekronische Publikationsprozess modelliert.
    Date
    1. 9.2006 13:22:15
  5. Stark, T.: ¬The Net and Z39.50 : toward a virtual union catalog (1997) 0.01
    0.009938373 = product of:
      0.034784306 = sum of:
        0.023610605 = weight(_text_:internet in 3194) [ClassicSimilarity], result of:
          0.023610605 = score(doc=3194,freq=2.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.22832564 = fieldWeight in 3194, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3194)
        0.011173702 = product of:
          0.033521105 = sum of:
            0.033521105 = weight(_text_:29 in 3194) [ClassicSimilarity], result of:
              0.033521105 = score(doc=3194,freq=2.0), product of:
                0.123213425 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.035026826 = queryNorm
                0.27205724 = fieldWeight in 3194, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3194)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Source
    Computers in libraries. 17(1997) no.10, S.27-29
    Theme
    Internet
  6. Neuroth, H.; Lepschy, P.: ¬Das EU-Projekt Renardus (2001) 0.01
    0.00849399 = product of:
      0.029728964 = sum of:
        0.020237662 = weight(_text_:internet in 5589) [ClassicSimilarity], result of:
          0.020237662 = score(doc=5589,freq=2.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.1957077 = fieldWeight in 5589, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=5589)
        0.009491303 = product of:
          0.028473908 = sum of:
            0.028473908 = weight(_text_:22 in 5589) [ClassicSimilarity], result of:
              0.028473908 = score(doc=5589,freq=2.0), product of:
                0.12265798 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035026826 = queryNorm
                0.23214069 = fieldWeight in 5589, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5589)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Abstract
    Der vollständige Projektname von Renardus lautet "Academic Subject Gateway Service Europe". Renardus wird von der Europäischen Union im 5. Rahmenprogramm mit dem Schwerpunktthema "Information Society Technologies" im zweiten Thematischen Programm "Benutzerfreundliche Informationsgesellschaft" ('Promoting a User-friendly Information Society') gefördert. Die Projektlaufzeit ist von Januar 2000 bis Juni 2002. Insgesamt zwölf Partner (Principal und Assistant Contractors) aus Finnland, Dänemark, Schweden, Großbritannien, den Niederlanden, Frankreich und Deutschland beteiligen sich an diesem Projekt. Die Europäische Union unterstützt das Projekt mit 1,7 Mio. EURO, die Gesamtkosten belaufen sich inklusive der Eigenbeteiligungen der Partner auf 2,3 Mio. EURO. Das Ziel des Projektes Renardus ist es, über eine Schnittstelle Zugriff auf verteilte Sammlungen von "High Quality" Internet Ressourcen in Europa zu ermöglichen. Diese Schnittstelle wird über den Renardus Broker realisiert, der das "Cross-Searchen" und "Cross-Browsen" über verteilte "Quality-Controlled Subject Gateways" ermöglicht. Ein weiteres Ziel von Renardus ist es, Möglichkeiten von "metadata sharing" zu evaluieren und in kleinen Experimenten zwischen z. B. Subject Gateways und Nationalbibliothek zu testen bzw. zu realisieren
    Date
    22. 6.2002 19:32:15
  7. Nicholson, D.; Steele, M.: CATRIONA : a distributed, locally-oriented, Z39.50 OPAC-based approach to cataloguing the Internet (1996) 0.01
    0.00849399 = product of:
      0.029728964 = sum of:
        0.020237662 = weight(_text_:internet in 603) [ClassicSimilarity], result of:
          0.020237662 = score(doc=603,freq=2.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.1957077 = fieldWeight in 603, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=603)
        0.009491303 = product of:
          0.028473908 = sum of:
            0.028473908 = weight(_text_:22 in 603) [ClassicSimilarity], result of:
              0.028473908 = score(doc=603,freq=2.0), product of:
                0.12265798 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035026826 = queryNorm
                0.23214069 = fieldWeight in 603, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=603)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Source
    Cataloging and classification quarterly. 22(1996) nos.3/4, S.127-141
  8. Kaizik, A.; Gödert, W.; Milanesi, C.: Erfahrungen und Ergebnisse aus der Evaluierung des EU-Projektes EULER im Rahmen des an der FH Köln angesiedelten Projektes EJECT (Evaluation von Subject Gateways des World Wide Web (2001) 0.01
    0.008014379 = product of:
      0.028050326 = sum of:
        0.016864719 = weight(_text_:internet in 5801) [ClassicSimilarity], result of:
          0.016864719 = score(doc=5801,freq=2.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.16308975 = fieldWeight in 5801, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5801)
        0.011185608 = product of:
          0.033556823 = sum of:
            0.033556823 = weight(_text_:22 in 5801) [ClassicSimilarity], result of:
              0.033556823 = score(doc=5801,freq=4.0), product of:
                0.12265798 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035026826 = queryNorm
                0.27358043 = fieldWeight in 5801, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5801)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Abstract
    Der Umfang und die Heterogenität des Informationsangebotes erfordert immer differenzierte Methoden und Hilfsmittel für das gezielte und möglichst ballastfreie Auffinden von Informationsquellen im Kontext eines bestimmten Fachgebietes oder einer wissenschaftlichen Disziplin. Um dieses Ziel zu erreichen, wurden in der letzten Zeit eine Reihe sog. Subject Gateways entwickelt. Bislang liegen weder viele Untersuchungen zur Qualität derartiger Hilfsmittel vor noch ist eine differenzierte Methodik für solche Bewertungen entwickelt worden. Das Projekt Evaluation von Subject Gateways des Internet (EJECT) verfolgte daher die Ziele: durch Analyse bereits realisierter Subject Gateways die Verwendungsvielfalt des Begriffes aufzuzeigen und zu einer Präzisierung der Begriffsbildung beizutragen; einen methodischen Weg zur qualitativen Bewertung von Subject Gateways aufzuzeigen; diesen Weg anhand einer Evaluation des Subject Gateways EULER zu testen, das im Rahmen eines EU-Projektes für das Fachgebiet Mathematik entwickelt wurde. Die Resultate der Evaluation werden hier in verkürzter Form vorgestellt und es wird aufgezeigt, inwieweit eine Übertragung auf die Bewertung anderer Gateways möglich ist
    Date
    22. 6.2002 19:42:22
  9. Dempsey, L.; Russell, R.; Kirriemur, J.W.: Towards distributed library systems : Z39.50 in a European context (1996) 0.01
    0.007264291 = product of:
      0.050850034 = sum of:
        0.050850034 = product of:
          0.07627505 = sum of:
            0.038309835 = weight(_text_:29 in 127) [ClassicSimilarity], result of:
              0.038309835 = score(doc=127,freq=2.0), product of:
                0.123213425 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.035026826 = queryNorm
                0.31092256 = fieldWeight in 127, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=127)
            0.037965212 = weight(_text_:22 in 127) [ClassicSimilarity], result of:
              0.037965212 = score(doc=127,freq=2.0), product of:
                0.12265798 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.035026826 = queryNorm
                0.30952093 = fieldWeight in 127, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=127)
          0.6666667 = coord(2/3)
      0.14285715 = coord(1/7)
    
    Date
    3. 3.1999 17:29:59
    Source
    Program. 30(1996) no.1, S.1-22
  10. Kuberek, M.: ¬Der KOBV - eine regionale Service-Einrichtung für Nutzer und Bibliotheken (2002) 0.01
    0.0067458875 = product of:
      0.04722121 = sum of:
        0.04722121 = weight(_text_:internet in 4098) [ClassicSimilarity], result of:
          0.04722121 = score(doc=4098,freq=2.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.45665127 = fieldWeight in 4098, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.109375 = fieldNorm(doc=4098)
      0.14285715 = coord(1/7)
    
    Theme
    Internet
  11. CARMEN : Content Analysis, Retrieval und Metadata: Effective Networking (1999) 0.01
    0.0067458875 = product of:
      0.04722121 = sum of:
        0.04722121 = weight(_text_:internet in 5748) [ClassicSimilarity], result of:
          0.04722121 = score(doc=5748,freq=2.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.45665127 = fieldWeight in 5748, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.109375 = fieldNorm(doc=5748)
      0.14285715 = coord(1/7)
    
    Theme
    Internet
  12. Grötschel, M.; Kuberek, M.; Lohrum, S.; Lügger, J.; Rusch, B.: ¬Der Kooperative Bibliotheksverbund Berlin-Brandenburg (1999) 0.01
    0.0067458875 = product of:
      0.04722121 = sum of:
        0.04722121 = weight(_text_:internet in 5903) [ClassicSimilarity], result of:
          0.04722121 = score(doc=5903,freq=2.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.45665127 = fieldWeight in 5903, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.109375 = fieldNorm(doc=5903)
      0.14285715 = coord(1/7)
    
    Theme
    Internet
  13. Lügger, J.: Über Suchmaschinen, Verbünde und die Integration von Informationsangeboten : Teil 1: KOBV-Suchmaschine und Math-Net (2000) 0.01
    0.0057821893 = product of:
      0.040475324 = sum of:
        0.040475324 = weight(_text_:internet in 1218) [ClassicSimilarity], result of:
          0.040475324 = score(doc=1218,freq=2.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.3914154 = fieldWeight in 1218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.09375 = fieldNorm(doc=1218)
      0.14285715 = coord(1/7)
    
    Theme
    Internet
  14. Imhof, A.; Malo, M.: Aufbau einer verteilten Fachredaktion für freie Internet-Ressourcen im KOBV-Portal (2005) 0.01
    0.0057821893 = product of:
      0.040475324 = sum of:
        0.040475324 = weight(_text_:internet in 3405) [ClassicSimilarity], result of:
          0.040475324 = score(doc=3405,freq=8.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.3914154 = fieldWeight in 3405, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=3405)
      0.14285715 = coord(1/7)
    
    Abstract
    Der Kooperative Bibliotheksverbund Berlin-Brandenburg (KOBV) betreibt mit dem KOBV-Portal (http://digibib.kobv.de) seit Weihnachten 2003 ein fächerübergreifendes Informationsportal im Internet. Das Portal basiert auf der MetaLib-Software der Firma Exlibris, die gemeinsam mit dem KOBV entwickelt wurde. Das KOBV-Portal strebt den Nachweis sämtlicher konventioneller und elektronischer Bibliotheksbestände der Bibliotheken in der Region BerlinBrandenburg an. Darüber hinaus sollen im KOBV-Portal fachwissenschaftlich relevante, frei über das Internet zugängliche Ressourcen nachgewiesen werden. Personalisierte Dienste ermöglichen den Nutzerinnen die Speicherung von Suchanfragen, Suchergebnissen, e-Zeitschriftenlisten sowie das Anlegen von Ressourcenlisten, die - bei Anmeldung im KOBV-Portal - auf dem Server gespeichert werden und somit für weitere Sitzungen im KOBV-Portal erneut zur Verfügung stehen. Darüber hinaus existieren mehrere Exportfunktionen, die eine Weiterverwendung der Recherche-Ergebnisse in eigenen wissenschaftlichen Arbeiten ermöglichen (Ausgabe von Literaturlisten in Endnote, Ausdruck von Ergebnislisten bzw. Zuschicken von Ergebnislisten als E-Mail).
    Theme
    Internet
  15. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Ein Halbzeitbericht (2001) 0.01
    0.0056790705 = product of:
      0.019876746 = sum of:
        0.013491774 = weight(_text_:internet in 5900) [ClassicSimilarity], result of:
          0.013491774 = score(doc=5900,freq=2.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.1304718 = fieldWeight in 5900, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
        0.0063849725 = product of:
          0.019154917 = sum of:
            0.019154917 = weight(_text_:29 in 5900) [ClassicSimilarity], result of:
              0.019154917 = score(doc=5900,freq=2.0), product of:
                0.123213425 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.035026826 = queryNorm
                0.15546128 = fieldWeight in 5900, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5900)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
    Theme
    Internet
  16. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Bericht über den middleOfTheRoad Workshop (2001) 0.01
    0.0056790705 = product of:
      0.019876746 = sum of:
        0.013491774 = weight(_text_:internet in 5901) [ClassicSimilarity], result of:
          0.013491774 = score(doc=5901,freq=2.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.1304718 = fieldWeight in 5901, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
        0.0063849725 = product of:
          0.019154917 = sum of:
            0.019154917 = weight(_text_:29 in 5901) [ClassicSimilarity], result of:
              0.019154917 = score(doc=5901,freq=2.0), product of:
                0.123213425 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.035026826 = queryNorm
                0.15546128 = fieldWeight in 5901, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5901)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
    Theme
    Internet
  17. Roszkowski, M.; Lukas, C.: ¬A distributed architecture for resource discovery using metadata (1998) 0.01
    0.0054515 = product of:
      0.0381605 = sum of:
        0.0381605 = weight(_text_:internet in 1256) [ClassicSimilarity], result of:
          0.0381605 = score(doc=1256,freq=16.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.36902997 = fieldWeight in 1256, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=1256)
      0.14285715 = coord(1/7)
    
    Abstract
    This article describes an approach for linking geographically distributed collections of metadata so that they are searchable as a single collection. We describe the infrastructure, which uses standard Internet protocols such as the Lightweight Directory Access Protocol (LDAP) and the Common Indexing Protocol (CIP), to distribute queries, return results, and exchange index information. We discuss the advantages of using linked collections of authoritative metadata as an alternative to using a keyword indexing search-engine for resource discovery. We examine other architectures that use metadata for resource discovery, such as Dienst/NCSTRL, the AHDS HTTP/Z39.50 Gateway, and the ROADS initiative. Finally, we discuss research issues and future directions of the project. The Internet Scout Project, which is funded by the National Science Foundation and is located in the Computer Sciences Department at the University of Wisconsin-Madison, is charged with assisting the higher education community in resource discovery on the Internet. To that end, the Scout Report and subsequent subject-specific Scout Reports were developed to guide the U.S. higher education community to research-quality resources. The Scout Report Signpost utilizes the content from the Scout Reports as the basis of a metadata collection. Signpost consists of more than 2000 cataloged Internet sites using established standards such as Library of Congress subject headings and abbreviated call letters, and emerging standards such as the Dublin Core (DC). This searchable and browseable collection is free and freely accessible, as are all of the Internet Scout Project's services.
    As well developed as both the Scout Reports and Signpost are, they cannot capture the wealth of high-quality content that is available on the Internet. An obvious next step toward increasing the usefulness of our own collection and its value to our customer base is to partner with other high-quality content providers who have developed similar collections and to develop a single, virtual collection. Project Isaac (working title) is the Internet Scout Project's latest resource discovery effort. Project Isaac involves the development of a research testbed that allows experimentation with protocols and algorithms for creating, maintaining, indexing and searching distributed collections of metadata. Project Isaac's infrastructure uses standard Internet protocols, such as the Lightweight Directory Access Protocol (LDAP) and the Common Indexing Protocol (CIP) to distribute queries, return results, and exchange index or centroid information. The overall goal is to support a single-search interface to geographically distributed and independently maintained metadata collections.
  18. Neuroth, H.: Suche in verteilten "Quality-controlled Subject Gateways" : Entwicklung eines Metadatenprofils (2002) 0.00
    0.0041729356 = product of:
      0.029210549 = sum of:
        0.029210549 = weight(_text_:internet in 2522) [ClassicSimilarity], result of:
          0.029210549 = score(doc=2522,freq=6.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.28247973 = fieldWeight in 2522, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2522)
      0.14285715 = coord(1/7)
    
    Abstract
    Die seit ca. 1996 rasche Entwicklung des Internet bzw. des World Wide Web (WWW) hat die Praxis der Veröffentlichung, Verbreitung und Nutzung wissenschaftlicher Informationen grundlegend verändert. Um diese Informationen suchbar und retrievalfähig zu gestalten, ist in den letzten Jahren international viel diskutiert worden. Ein vielversprechender Ansatz, diesen neuen Herausforderungen zu begegnen, liegt in der Entwicklung von Metadatenprofilen. Da durch das Internet verschiedene Datenbestände, die von unterschiedlichen Bereichen wie Museen, Bibliotheken, Archiven etc. vorgehalten werden, unter einer Oberfläche durchsucht werden können, können Metadaten auch in diesem Bereich dazu beitragen, ein einheitliches Konzept zur Beschreibung und zum Retrieval von Online-Ressourcen zu entwickeln. Um die verteilt liegenden Dokumente unter einer Oberfläche für eine qualitativ hochwertige Recherche ("Cross-Search`) anbieten zu können, ist die Verständigung auf ein Core-Set an Metadaten und daran anschließend verschiedene Mappingprozesse ("Cross-walk`) von den lokalen Metadatenformaten zu dem Format des Core-Set an Metadaten notwendig. Ziel des Artikels' ist es, die einzelnen Schritte, die für die Entwicklung eines Metadatenprofils für die gemeinsame Suche über verteilte Metadatensammlungen notwendig sind, aufzuzeigen.
    Theme
    Internet
  19. Wei, W.: SOAP als Basis für verteilte, heterogene virtuelle OPACs (2002) 0.00
    0.0040886253 = product of:
      0.028620375 = sum of:
        0.028620375 = weight(_text_:internet in 4097) [ClassicSimilarity], result of:
          0.028620375 = score(doc=4097,freq=16.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.27677247 = fieldWeight in 4097, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
      0.14285715 = coord(1/7)
    
    Abstract
    Eine wichtige Aufgabe der Informationsverarbeitung als fachbezogene Informatik besteht darin, die neue Entwicklung der Informationstechnologie zu verfolgen, sich damit auseinanderzusetzen, inwieweit diese Entwicklung die Forschung sowie die Anwendung in der Geisteswissenschaft unterstützen kann, und die daraus entstandenen Konzepte zu realisieren. Das im Jahre 1999 veröffentlichte Nachrichtenaustauschprotokoll SOAP (Abkürzung für Simple Object Access Protocol) entstand vor dem Hintergrund der schnellen Entwicklung der Vernetzung besonders des Internets. In den letzten Jahren hat SOAP große Aufmerksamkeit auf sich gezogen, weil man mit SOAP einige Beschränkungen der vorhandenen Techniken überwinden kann und damit die Leistungsfähigkeit der Software sowie Anwendung wesentlich verbessern kann. Ziel der Magisterarbeit liegt darin, einerseits theoretisch über die Möglichkeit des Einsetzens von SOAP in der Bibliotheksanwendung zu untersuchen, andererseits das Ergebnis der theoretischen Untersuchung in die Praxis umzusetzen, d.h. das Konzept eines Bibliotheksanwendungssystems mit dem Einsatz von SOAP zusammenzustellen und es zu realisieren. SOAP ist ein Nachrichtenprotokoll, das die Kommunikationen zwischen entfernten Systemen unterstützt. In der Arbeit wird durch eine theoretische Untersuchung gezeigt, dass SOAP sich besonders gut für die in der stark heterogenen Umgebung wie Internet verteilte Anwendung eignet. Eine der häufig von dem Bibliotheksystem über das Internet angebotenen verteilten Anwendungen ist der verteilte OPAC. Ein verteilter OPAC bietet eine verteilte Suche in mehreren Bibliothekssystemen an. Die meisten bisherigen Bibliothekssysteme realisieren die verteilte Suche vorwiegend mit der Unterstützung des Protokolls Z39.50. Durch die theoretische Untersuchung ist es zu sehen, dass mit dem Einsatz von SOAP einerseits der Arbeitsaufwand in der Realisierung bzw. die Verwaltung des Systems verglichen mit dem Z39.50 reduziert, andererseits die Funktionalität des Systems stark erweitert wird, dass eine Zusammenarbeit des Bibliothekssystems mit den Systemen anderer Bereiche leicht realisiert werden kann. Als praktisches Projekt der Magisterarbeit wird ein System der verteilten OPACs mit SOAP als Nachrichtenaustauschprotokoll entwickelt.
    Content
    Überblick über die Kapitel In Kapitel l. Simple Object Acces Protocol (SOAP) wird zuerst der Hintergrund der Entwicklung von SOAP untersucht. Mit einer kurzen Vorstellung der Entwicklung von verteilter Anwendung bis Web Service wird die Situation dargestellt, dass die vorhandenen Standards wie CORBA, DCOM sowie RMI die Ansprüche der stark heterogenen Umgebung wie Internet nicht erfüllen können. Um diesen Mangel der vorhandenen Lösungen zu überwinden, wurde SOAP mit dem Ziel der Unterstützung des plattformenunabhängigen Nachrichtenaustausches entwickelt. Anschließend wird der Begriff Web Service eingeführt, mit dem SOAP stark verbunden ist. Dabei wird über die Möglichkeit des Einsatzes von SOAP in den Bibliothekssystemen diskutiert. Schließlich wird SOAP durch unterschiedliche Aspekte wie SOAP und XML, SOAP Nachricht, Fehler Behandlung usw. untersucht. In Kapitel 3. Die durch Internet erweiterte Bibliothek wird die Beziehung zwischen dem Internet und der Bibliothek aus zwei Sichten, die verteilte Suche und Metadaten, beschrieben. In dem Teil über die verteilte Suche wird vorwiegend das Protokoll Z39.50, womit die bisherigen verteilten Bibliothekssysteme realisiert werden, dargestellt. In dem Teil der Metadaten wird sich zuerst mit der Bedeutung der Metadaten für die Bibliothek sowie für das Internet auseinandergesetzt. Anschließend wird über die existierenden Probleme der Metadaten und die Lösungsmöglichkeiten diskutiert. Schließlich wird eine Untersuchung einiger Metadatenstandards mit Dublin Core als Schwerpunkt durchgeführt, weil Dublin Core zur Zeit der Standard für das Internet und aus diesem Grund auch fir die Internet bezogene Bibliotheksanwendung wichtig ist. In Kapitel 4. Die Entwicklung eines verteilten Bibliothekssystems mit dem SOAP-Einsatz wird die Entwicklung des praktischen Projektes beschrieben. Zuerst wird das Ziel und die Funktionalität des Projektes festgelegt, dass ein verteiltes Bibliothekssystem mit dem Einsatz von SOAP entwickelt wird und das System eine verteilte Suche auf mehreren entfernten Bibliotheksdatenbanken ermöglichen soll. Anschließend wird beschrieben, in welchen Schritten das System entworfen und implementiert wird. Mit dem ersten System kann man nur in einer Datenbank suchen, während man mit dem zweiten System parallel in zwei Datenbanken suchen kann. Dublin Core wird als der Metadatenstandard im gesamten System eingesetzt. Die im System verwendeten Softwarepakete und die Softwarestandardtechnologien werden vorgestellt. Es wird untersucht, wie einzelne technische Komponenten zusammenarbeiten. Schließlich wird die Entwicklung der einzelnen Programmmodule und die Kommunikation zwischen ihnen beschrieben.
  20. Hakala, J.: Z39.50-1995: information retrieval protocol : an introduction to the standard and it's usage (1996) 0.00
    0.0038547928 = product of:
      0.026983548 = sum of:
        0.026983548 = weight(_text_:internet in 3340) [ClassicSimilarity], result of:
          0.026983548 = score(doc=3340,freq=2.0), product of:
            0.10340759 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.035026826 = queryNorm
            0.2609436 = fieldWeight in 3340, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=3340)
      0.14285715 = coord(1/7)
    
    Abstract
    This article describes the Internet information retrieval protocol, Z39.50, and it's usage. The services of Z39.50 are depicted, as are some important terms related to the standard. A description of the OPAC Network in Europe (ONE), an important Z39.50 implementation project is included

Languages

  • e 26
  • d 23
  • f 1
  • More… Less…

Types

  • a 43
  • el 4
  • m 3
  • x 3
  • s 1
  • More… Less…

Classifications