Search (58 results, page 1 of 3)

  • × theme_ss:"Verteilte bibliographische Datenbanken"
  1. Dadam, P.: Verteilte Datenbanken und Client/Server-Systeme : Grundlagen, Konzepte und Realisierungsformen (1996) 0.02
    0.0160945 = product of:
      0.08851975 = sum of:
        0.060933832 = weight(_text_:allgemeines in 3110) [ClassicSimilarity], result of:
          0.060933832 = score(doc=3110,freq=4.0), product of:
            0.17087977 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.029950412 = queryNorm
            0.35658893 = fieldWeight in 3110, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=3110)
        0.027585918 = weight(_text_:und in 3110) [ClassicSimilarity], result of:
          0.027585918 = score(doc=3110,freq=36.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.41556883 = fieldWeight in 3110, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3110)
      0.18181819 = coord(2/11)
    
    Abstract
    Das Buch wendet sich als ein umfassender Kurs über Realisierungsformen verteilter Informationssysteme und deren Grundlagen an Studierende, Wissenschaftler und Praktiker. Es vermittelt Grundlagenwissen über die in den verschiedenen Teilbereichen auftretenden Problemstellungen und zeigt die technologischen Alternativen sowie ihre Möglichkeiten und Grenzen bzw. Chancen und Risiken auf. Für Studenten eignet sich das Buch zum Selbststudium. Anhand eingestreuter Übungsaufgaben und Musterlösungen kann das Gelernte überprüft werden. Für Wissenschaftler stellt das Buch einen "roten Faden" durch dieses breite Gebiet dar und erleichtert so den Einstieg. Über die Hinweise auf aktuelle, weiterführende Literatur können dann die interessierenden Themen selbst weiterverfolgt werden. Für Praktiker vermittelt das Buch einen Überblick über die wesentlichen Zusammenhänge. Es gibt Hinweise auf die potentiellen Fallstricke bei der Realisierung solcher Systeme und kann somit dazu beitragen, gravierende Fehlentscheidungen zu vermeiden.
    Classification
    ST 271 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme
    ST 270 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme
    ST 273 Informatik / Monographien / Software und -entwicklung / Kommunikationssysteme allgemein (mail-dienste, Dokumentenaustausch, Online-Konferenz)
    ST 200 Informatik / Monographien / Vernetzung, verteilte Systeme / Allgemeines, Netzmanagement
    RVK
    ST 271 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme
    ST 270 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme
    ST 273 Informatik / Monographien / Software und -entwicklung / Kommunikationssysteme allgemein (mail-dienste, Dokumentenaustausch, Online-Konferenz)
    ST 200 Informatik / Monographien / Vernetzung, verteilte Systeme / Allgemeines, Netzmanagement
  2. Milanesi, C.: Möglichkeiten der Kooperation im Rahmen von Subject Gateways : das Euler-Projekt im Vergleich mit weiteren europäischen Projekten (2001) 0.01
    0.007973345 = product of:
      0.043853395 = sum of:
        0.019506188 = weight(_text_:und in 4865) [ClassicSimilarity], result of:
          0.019506188 = score(doc=4865,freq=2.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.29385152 = fieldWeight in 4865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4865)
        0.024347205 = product of:
          0.04869441 = sum of:
            0.04869441 = weight(_text_:22 in 4865) [ClassicSimilarity], result of:
              0.04869441 = score(doc=4865,freq=2.0), product of:
                0.10488124 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029950412 = queryNorm
                0.46428138 = fieldWeight in 4865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4865)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Date
    22. 6.2002 19:41:59
    Imprint
    Köln : Fachhochschule, Fachbereich Bibliotheks- und Informationswesen
  3. Meiert, M.: Elektronische Publikationen an Hochschulen : Modellierung des elektronischen Publikationsprozesses am Beispiel der Universität Hildesheim (2006) 0.01
    0.007821018 = product of:
      0.043015596 = sum of:
        0.030841993 = weight(_text_:und in 5974) [ClassicSimilarity], result of:
          0.030841993 = score(doc=5974,freq=20.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.46462005 = fieldWeight in 5974, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5974)
        0.012173602 = product of:
          0.024347205 = sum of:
            0.024347205 = weight(_text_:22 in 5974) [ClassicSimilarity], result of:
              0.024347205 = score(doc=5974,freq=2.0), product of:
                0.10488124 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029950412 = queryNorm
                0.23214069 = fieldWeight in 5974, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5974)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Abstract
    Das Internet verändert die Rahmenbedingungen des wissenschaftlichen Publikationswesens einschneidend. Wissenschaftliche Dokumente sind zunehmend elektronisch verfügbar und beginnen, die klassischen Wissenschaftsmedien wie Fachbücher und Fachzeitschriften zu verdrängen. Die Implementierung eines elektronischen Publikationsprozesses ist Voraussetzung für die erfolgreiche Verbreitung wissenschaftlicher Dokumente per Internet. Die Umsetzung setzt jedoch die Einhaltung bestimmter Vorgaben und Regularien voraus, sonst drohen Inkompatibilitäten zwischen den Systemen. Im Kontext von Urheberrechtsnovellierung und Open Access-Bewegung erläutert dieser Beitrag technische und rechtliche Rahmenbedingungen von Online-Publikationen und stellt Projekte und Initiativen vor, die sich auf dem Feld des wissenschaftlichen Publikationswesens betätigen. Ausführlich wurden Problembereiche des aktuellen Publikationsprozesses von Abschlussarbeiten im Studiengang Internationales Informationsmanagement an der Universität Hildesheim mit Hilfe von Interviews untersucht. Auf Grundlage der Zustandsanalyse wurde anschließend der elekronische Publikationsprozess modelliert.
    Date
    1. 9.2006 13:22:15
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  4. Kaizik, A.; Gödert, W.; Milanesi, C.: Erfahrungen und Ergebnisse aus der Evaluierung des EU-Projektes EULER im Rahmen des an der FH Köln angesiedelten Projektes EJECT (Evaluation von Subject Gateways des World Wide Web (2001) 0.01
    0.007281526 = product of:
      0.04004839 = sum of:
        0.02570166 = weight(_text_:und in 5801) [ClassicSimilarity], result of:
          0.02570166 = score(doc=5801,freq=20.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.3871834 = fieldWeight in 5801, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5801)
        0.014346728 = product of:
          0.028693456 = sum of:
            0.028693456 = weight(_text_:22 in 5801) [ClassicSimilarity], result of:
              0.028693456 = score(doc=5801,freq=4.0), product of:
                0.10488124 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029950412 = queryNorm
                0.27358043 = fieldWeight in 5801, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5801)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Abstract
    Der Umfang und die Heterogenität des Informationsangebotes erfordert immer differenzierte Methoden und Hilfsmittel für das gezielte und möglichst ballastfreie Auffinden von Informationsquellen im Kontext eines bestimmten Fachgebietes oder einer wissenschaftlichen Disziplin. Um dieses Ziel zu erreichen, wurden in der letzten Zeit eine Reihe sog. Subject Gateways entwickelt. Bislang liegen weder viele Untersuchungen zur Qualität derartiger Hilfsmittel vor noch ist eine differenzierte Methodik für solche Bewertungen entwickelt worden. Das Projekt Evaluation von Subject Gateways des Internet (EJECT) verfolgte daher die Ziele: durch Analyse bereits realisierter Subject Gateways die Verwendungsvielfalt des Begriffes aufzuzeigen und zu einer Präzisierung der Begriffsbildung beizutragen; einen methodischen Weg zur qualitativen Bewertung von Subject Gateways aufzuzeigen; diesen Weg anhand einer Evaluation des Subject Gateways EULER zu testen, das im Rahmen eines EU-Projektes für das Fachgebiet Mathematik entwickelt wurde. Die Resultate der Evaluation werden hier in verkürzter Form vorgestellt und es wird aufgezeigt, inwieweit eine Übertragung auf die Bewertung anderer Gateways möglich ist
    Date
    22. 6.2002 19:42:22
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  5. Neuroth, H.; Lepschy, P.: ¬Das EU-Projekt Renardus (2001) 0.01
    0.0061785798 = product of:
      0.033982188 = sum of:
        0.021808583 = weight(_text_:und in 5589) [ClassicSimilarity], result of:
          0.021808583 = score(doc=5589,freq=10.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.328536 = fieldWeight in 5589, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5589)
        0.012173602 = product of:
          0.024347205 = sum of:
            0.024347205 = weight(_text_:22 in 5589) [ClassicSimilarity], result of:
              0.024347205 = score(doc=5589,freq=2.0), product of:
                0.10488124 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029950412 = queryNorm
                0.23214069 = fieldWeight in 5589, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5589)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Abstract
    Der vollständige Projektname von Renardus lautet "Academic Subject Gateway Service Europe". Renardus wird von der Europäischen Union im 5. Rahmenprogramm mit dem Schwerpunktthema "Information Society Technologies" im zweiten Thematischen Programm "Benutzerfreundliche Informationsgesellschaft" ('Promoting a User-friendly Information Society') gefördert. Die Projektlaufzeit ist von Januar 2000 bis Juni 2002. Insgesamt zwölf Partner (Principal und Assistant Contractors) aus Finnland, Dänemark, Schweden, Großbritannien, den Niederlanden, Frankreich und Deutschland beteiligen sich an diesem Projekt. Die Europäische Union unterstützt das Projekt mit 1,7 Mio. EURO, die Gesamtkosten belaufen sich inklusive der Eigenbeteiligungen der Partner auf 2,3 Mio. EURO. Das Ziel des Projektes Renardus ist es, über eine Schnittstelle Zugriff auf verteilte Sammlungen von "High Quality" Internet Ressourcen in Europa zu ermöglichen. Diese Schnittstelle wird über den Renardus Broker realisiert, der das "Cross-Searchen" und "Cross-Browsen" über verteilte "Quality-Controlled Subject Gateways" ermöglicht. Ein weiteres Ziel von Renardus ist es, Möglichkeiten von "metadata sharing" zu evaluieren und in kleinen Experimenten zwischen z. B. Subject Gateways und Nationalbibliothek zu testen bzw. zu realisieren
    Date
    22. 6.2002 19:32:15
  6. Dupuis, P.; Lapointe, J.: Developpement d'un outil documentaire à Hydro-Quebec : le Thesaurus HQ (1997) 0.01
    0.005315563 = product of:
      0.029235596 = sum of:
        0.013004126 = weight(_text_:und in 3173) [ClassicSimilarity], result of:
          0.013004126 = score(doc=3173,freq=2.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.19590102 = fieldWeight in 3173, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3173)
        0.01623147 = product of:
          0.03246294 = sum of:
            0.03246294 = weight(_text_:22 in 3173) [ClassicSimilarity], result of:
              0.03246294 = score(doc=3173,freq=2.0), product of:
                0.10488124 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029950412 = queryNorm
                0.30952093 = fieldWeight in 3173, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3173)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Source
    Argus. 26(1997) no.3, S.16-22
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  7. Lügger, J.: Offene Navigation und Suchmaschinen in Verbünden, Konsortien und den Wissenschaften (2004) 0.00
    0.0031277894 = product of:
      0.034405682 = sum of:
        0.034405682 = weight(_text_:und in 4980) [ClassicSimilarity], result of:
          0.034405682 = score(doc=4980,freq=14.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.51830536 = fieldWeight in 4980, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4980)
      0.09090909 = coord(1/11)
    
    Abstract
    Integration der Navigation und Suche in lizenzierten Journalen und gleichzeitig in freien digitalen Dokumenten unter einer einheitlichen konsistenten Nutzeroberflache ist eines der ungelösten F&E-Probleme der Fachinformation. Hierbei müssen Elemente des Invisible Web und des Visible Web unter Berücksichtigung offener Standards nahtlos miteinander verbunden werden. Der Artikel beschreibt Ausgangspunkt und Entwicklungsgeschichte eines kooperativen Vorhabens "Verteilter Zeitschriftenserver", das sich auf dem Wege über eine Generalisierung zum "Verteilten Dokumentenserver" zur Basis der Kooperation von vascoda und AGVerbund mit dem Ziel der Realisierung einer Offenen Digitalen Bibliothek der Wissenschaften entwickelte.
  8. Kuberek, M. (Red.): Kooperativer Bibliotheksverbund Berlin-Brandenburg (KOBV) : Bibliothekarische Inhalte und Zielsetzungen des KOBV (1998) 0.00
    0.0030714285 = product of:
      0.033785712 = sum of:
        0.033785712 = weight(_text_:und in 5469) [ClassicSimilarity], result of:
          0.033785712 = score(doc=5469,freq=6.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.5089658 = fieldWeight in 5469, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5469)
      0.09090909 = coord(1/11)
    
    Editor
    Arbeitsgruppe 'Bibliothekarische Inhalte und Zielsetzungen des KOBV'
    Source
    Weitblick: Mitteilungsblatt der Bibliotheken in Berlin und Brandenburg. 4(1998) H.2, S.18-34
  9. Rusch, B.: Kooperativer Bibliotheksverbund Berlin-Brandenburg : Erste Erfahrungen im Produktionsbetrieb (2000) 0.00
    0.0028616344 = product of:
      0.031477977 = sum of:
        0.031477977 = weight(_text_:und in 5519) [ClassicSimilarity], result of:
          0.031477977 = score(doc=5519,freq=30.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.47420087 = fieldWeight in 5519, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5519)
      0.09090909 = coord(1/11)
    
    Abstract
    Die Verbundentwicklungen in Berlin und Brandenburg erfolgen seit 1997 als Projekt, das am Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB) angesiedelt ist. Diese außeruniversitäre Forschungseinrichtung betreibt in enger fächerübergreifender Kooperation mit den Hochschulen und wissenschaftlichen Einrichtungen in Berlin Forschung und Entwicklung auf dem Gebiet der Informationstechnik, vorzugsweise in anwendungsorientierter algorithmischer Mathematik. Gemeinsam mit der Softwarefirma ExLibris wird hier auf der Basis des Bibliothekssystems Aleph500 eine bibliothekarische Suchmaschine realisiert. Dabei übernimmt das ZIB die Konzeption und ExLibris die programmtechnische Umsetzung. An dem Projekt Kooperativer Bibliotheksverbund Berlin-Brandenburg (KOBV) sind insgesamt 1-5 bibliothekarische Einrichtungen beteiligt. Neben den großen Universitätsbibliotheken der beiden Länder - der Freien Universität Berlin, der Technischen Universität Berlin, der Humboldt-Universität und der Hochschule der Künste sowie der Europa-Universität Viadrina in Frankfurt (Oder) und der Brandenburgischen Technischen Universität Cottbus - sind das die brandenburgischen Fachhochschulen, die Stadt- und Landesbibliothek in Potsdam und nicht zuletzt die Staatsbibliothek zu Berlin. Außer diesen dezidiert als Projektpartner in einer entsprechenden Vereinbarung genannten Bibliotheken arbeiten weitere bibliothekarische Institutionen als Tester mit
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  10. Fritz, M.-L.: Zugang zu verteilten bibliografischen Datenbeständen : Konzepte und Realisierungen für heterogene Umgebungen (2003) 0.00
    0.0028038176 = product of:
      0.030841993 = sum of:
        0.030841993 = weight(_text_:und in 2504) [ClassicSimilarity], result of:
          0.030841993 = score(doc=2504,freq=20.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.46462005 = fieldWeight in 2504, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2504)
      0.09090909 = coord(1/11)
    
    Abstract
    Das steigende Angebot an Datenbanken und weiteren Systeme im Bereich bibliografischer Informationen führt dazu, dass es für Benutzer sehr mühsam und mit einem enormen Zeitaufwand verbunden ist, in allen einzelnen Systemen zu recherchieren, da diese unterschiedliche Benutzeroberflächen und Recherchemöglichkeiten anbieten. Verteilte bibliografische Informationssysteme ermöglichen einen einheitlichen Einstiegspunkt zu heterogenen Systemen. Sie bündeln verschiedene Angebote. In diesem Text wird ein Überblick über diese verteilten Informationssysteme gegeben. Es wird dargestellt, wie eine Suche in einem solchen System abläuft, welche weiteren Funktionen angeboten werden können. Darüber hinaus wird betrachtet, wie verteilte Informationssysteme aufgebaut und vernetzt sind. Die Darstellungen werden verdeutlicht durch praktische Beispiele aus dem Bibliotheks- und Informationswesen. Insbesondere wird auf den KVK, ZACK, die KOBVSuchmaschine, die Digitale Bibliothek NRW, das DIMDI, vascoda und Renardus eingegangen.
    Content
    Die Abbildung zeigt in einer Tabelle die Unterschiede zwischen einem Retrieval in verteilten Datenbanken und einem Retrieval nach Harvesting in einer Datenbank
    Footnote
    Diplomarbeit, Studiengang Bibliothekswesen, Fakultät für Informations- und Kommunikationswissenschaften der Fachhochschule Köln
    Imprint
    Köln : Fakultät für Informations- und Kommunikationswissenschaften
  11. Fritz, M.-L.: Zugang zu verteilten bibliografischen Datenbeständen : Konzepte und Realisierungen für heterogene Umgebungen (2004) 0.00
    0.002659935 = product of:
      0.029259285 = sum of:
        0.029259285 = weight(_text_:und in 4941) [ClassicSimilarity], result of:
          0.029259285 = score(doc=4941,freq=18.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.4407773 = fieldWeight in 4941, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4941)
      0.09090909 = coord(1/11)
    
    Abstract
    Das steigende Angebot an Datenbanken und weiteren Systeme im Bereich bibliografischer Informationen führt dazu, dass es für Benutzer sehr mühsam und mit einem enormen Zeitaufwand verbunden ist, in allen einzelnen Systemen zu recherchieren, da diese unterschiedliche Benutzeroberflächen und Recherchemöglichkeiten anbieten. Verteilte bibliografische Informationssysteme ermöglichen einen einheitlichen Einstiegspunkt zu heterogenen Systemen. Sie bündeln verschiedene Angebote. In diesem Text wird ein Überblick über diese verteilten Informationssysteme gegeben. Es wird dargestellt, wie eine Suche in einem solchen System abläuft, welche weiteren Funktionen angeboten werden können. Darüber hinaus wird betrachtet, wie verteilte Informationssysteme aufgebaut und vernetzt sind. Die Darstellungen werden verdeutlicht durch praktische Beispiele aus dem Bibliotheks- und Informationswesen. Insbesondere wird auf den KVK, ZACK, die KOBVSuchmaschine, die Digitale Bibliothek NRW, das DIMDI, vascoda und Renardus eingegangen.
    Imprint
    Köln : FH, Fakultät für Informations- und Kommunikationswissenschaften
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.41
  12. Strötgen, R.; Kokkelink, S.: Metadatenextraktion aus Internetquellen : Heterogenitätsbehandlung im Projekt CARMEN (2001) 0.00
    0.0025595236 = product of:
      0.028154759 = sum of:
        0.028154759 = weight(_text_:und in 5808) [ClassicSimilarity], result of:
          0.028154759 = score(doc=5808,freq=24.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.42413816 = fieldWeight in 5808, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
      0.09090909 = coord(1/11)
    
    Abstract
    Die Sonderfördermaßnahme CARMEN (Content Analysis, Retrieval and Metadata: Effective Networking) zielt im Rahmen des vom BMB+F geförderten Programms GLOBAL INFO darauf ab, in der heutigen dezentralen Informationsweit geeignete Informationssysteme für die verteilten Datenbestände in Bibliotheken, Fachinformationszentren und im Internet zu schaffen. Diese Zusammenführung ist weniger technisch als inhaltlich und konzeptuell problematisch. Heterogenität tritt beispielsweise auf, wenn unterschiedliche Datenbestände zur Inhaltserschließung verschiedene Thesauri oder Klassifikationen benutzen, wenn Metadaten unterschiedlich oder überhaupt nicht erfasst werden oder wenn intellektuell aufgearbeitete Quellen mit in der Regel vollständig unerschlossenen Internetdokumenten zusammentreffen. Im Projekt CARMEN wird dieses Problem mit mehreren Methoden angegangen: Über deduktiv-heuristische Verfahren werden Metadaten automatisch aus Dokumenten generiert, außerdem lassen sich mit statistisch-quantitativen Methoden die unterschiedlichen Verwendungen von Termen in den verschiedenen Beständen aufeinander abbilden, und intellektuell erstellte Crosskonkordanzen schaffen sichere Übergänge von einer Dokumentationssprache in eine andere. Für die Extraktion von Metadaten gemäß Dublin Core (v. a. Autor, Titel, Institution, Abstract, Schlagworte) werden anhand typischer Dokumente (Dissertationen aus Math-Net im PostScript-Format und verschiedenste HTML-Dateien von WWW-Servern deutscher sozialwissenschaftlicher Institutionen) Heuristiken entwickelt. Die jeweilige Wahrscheinlichkeit, dass die so gewonnenen Metadaten korrekt und vertrauenswürdig sind, wird über Gewichte den einzelnen Daten zugeordnet. Die Heuristiken werden iterativ in ein Extraktionswerkzeug implementiert, getestet und verbessert, um die Zuverlässigkeit der Verfahren zu erhöhen. Derzeit werden an der Universität Osnabrück und im InformationsZentrum Sozialwissenschaften Bonn anhand mathematischer und sozialwissenschaftlicher Datenbestände erste Prototypen derartiger Transfermodule erstellt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  13. Lügger, J.: Über Suchmaschinen, Verbünde und die Integration von Informationsangeboten : Teil 1: KOBV-Suchmaschine und Math-Net (2000) 0.00
    0.0025078107 = product of:
      0.027585918 = sum of:
        0.027585918 = weight(_text_:und in 1218) [ClassicSimilarity], result of:
          0.027585918 = score(doc=1218,freq=4.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.41556883 = fieldWeight in 1218, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1218)
      0.09090909 = coord(1/11)
    
  14. Krause, J.: Konkretes zur These, die Standardisierung von der Heterogenität her zu denken (2004) 0.00
    0.0025078107 = product of:
      0.027585918 = sum of:
        0.027585918 = weight(_text_:und in 2259) [ClassicSimilarity], result of:
          0.027585918 = score(doc=2259,freq=16.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.41556883 = fieldWeight in 2259, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
      0.09090909 = coord(1/11)
    
    Abstract
    Die Entwicklungsperspektive für den Bereich wissenschaftlicher Information sind innovative, integrierende Fachportale, die in einem Wissenschaftsportal zusammengefasst werden und die allgemeinen, fachübergreifenden Zugänge der Bibliotheken mit spezifischen Fachzugängen verbinden. In dieser Struktur kann der Kunde mit qualitativ hochwertigen Such- und Selektionsinstrumenten auf wissenschaftsrelevante Informationen (Literaturnachweise, Experten und Forschungsreferenzen, Volltexte, Materialien, Daten, Fakten, Linklisten etc.) zugreifen. Sowohl theoriegeleitete Analysen und Bestandsaufnahmen der wissenschaftlichen Informationslandschaft als auch die Ergebnisse der neueren Benutzerumfragen zum Informationsverhalten und zum -bedarf von Wissenschaftlern weisen auf die Wünschbarkeit solch einer Entwicklung hin. Heute ist ein weitgehender Konsens über das anzustrebende Ziel erreicht. Die Herausforderung für die Weiterentwicklung ist somit nicht die Akzeptanz der angestrebten Zielvorstellung, sondern die Frage, wie sie zu erreichen ist. Die im Folgenden diskutierte Entwicklung von bilateralen Transferkomponenten zur Behandlung semantischer Heterogenität zwischen Dokumentensammlungen mit unterschiedlicher Inhaltserschließung zeigt für einen wesentlichen Teil der Frage nach dem »Wie« der Zielerreichung eine tragfähige Lösungsstrategie auf. Sie wird theoretisch und praktisch konkretisiert, der Entwicklungsstand beschrieben und die konkreten Einsatzmöglichkeiten werden aufgezeigt.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 51(2004) H.2, S.76-89
  15. Gröschel, P.: Prometheus: das verteilte digitale Bildarchiv für Forschung und Lehre : Die Zusammenführung von Ressourcen aus heterogenen Informationssystemen (2004) 0.00
    0.0025078107 = product of:
      0.027585918 = sum of:
        0.027585918 = weight(_text_:und in 4528) [ClassicSimilarity], result of:
          0.027585918 = score(doc=4528,freq=4.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.41556883 = fieldWeight in 4528, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4528)
      0.09090909 = coord(1/11)
    
    Imprint
    Potsdam : Fachhochschule, Institut für Information und Dokumentation
  16. Helmes, L.; Steidl, N.: Webservices praktisch angewandt : FIZ Karlsruhe entwickelt Automatisierung der Informationsinfrastruktur (2003) 0.00
    0.0024505574 = product of:
      0.02695613 = sum of:
        0.02695613 = weight(_text_:und in 1967) [ClassicSimilarity], result of:
          0.02695613 = score(doc=1967,freq=22.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.40608138 = fieldWeight in 1967, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1967)
      0.09090909 = coord(1/11)
    
    Abstract
    In diesem Beitrag werden Webservices als Träger für die Vernetzung unterschiedlicher Informationsangebote vorgestellt. Am Beispiel der technischen Realisierung für das Meta-Portal vascoda.de beschreibt er den Einsatz von Webservices im FIZ Karlsruhe. Erklärt werden das Konzept von Webservices, ihre Funktionsweise und die softwaretechnischen Schritte für die nahtlose Zusammenführung der teilnehmenden Webservice-Anbieter und Webservice-Nutzer. Nach Art einer Gebrauchsanweisung wird auf die in diesem Zusammenhang verwendeten Standardprotokolle und Programmiersprachen eingegangen. Webservices werden definiert als verteilte, lose gekoppelte und wiederverwendbare Software-Komponenten, die über XML-basierte Standard-Protokolle miteinander kommunizieren und auf vier wesentlichen Komponenten beruhen: dem Simple ObjectAccess Protocol (SOAP), der Webservice Description Language (WSDL), der Universal Description, Discovery and Integration (UDDI) und Standard-Internetprotkollen (HTTP[S], SMTP u.a.). Verteilte, unterschiedliche Softwaresysteme nahtlos so zusammenzuführen, dass sie sich gegenseitig verstehen und ihre Daten automatisch austauschen können, ist ein altes Ziel der Softwareentwicklung. Mit dem Konzept der Webservices scheint es sich nun verwirklichen zu lassen. Webservices bieten technisch zunächst prinzipiell nichts Neues: die Möglichkeiten, Funktionalitäten entfernter' Programme in lokale Anwendungen einzubauen, findet man seit Jahren in verschiedensten Technologien und Systemen (z.B. Remote Procedure Calls als Bestandteil von Unix, CORBA, COM, usw.). Die große Chance von Webservices liegt darin, dass sie auf akzeptierten und praktizierten Standards aufbauen und ihr relativ einfaches Konzept weithin unterstützt wird.
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.7, S.421-428
  17. Klas, C.-P.; Kriewel, S.; Schaefer, A.; Fischer, G.: ¬Das DAFFODIL System : strategische Literaturrecherche in Digitalen Bibliotheken (2006) 0.00
    0.0023643866 = product of:
      0.026008252 = sum of:
        0.026008252 = weight(_text_:und in 5014) [ClassicSimilarity], result of:
          0.026008252 = score(doc=5014,freq=8.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.39180204 = fieldWeight in 5014, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5014)
      0.09090909 = coord(1/11)
    
    Abstract
    DAFFODIL ist ein System zur integrierten Suche in verteilten, heterogenen Digitalen Bibliotheken mit der Zielsetzung der strategischen Unterstützung des Benutzers. In diesem Artikel wird ein Überblick bezüglich des aktuellen Standes der Funktionalität gegeben und darüber hinaus neue Forschungsrichtungen aufgezeigt.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  18. Mönnich, M.; Dierolf, U.: 20 Jahre Karlsruher virtueller Katalog (KVK) (2016) 0.00
    0.0023643866 = product of:
      0.026008252 = sum of:
        0.026008252 = weight(_text_:und in 3190) [ClassicSimilarity], result of:
          0.026008252 = score(doc=3190,freq=8.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.39180204 = fieldWeight in 3190, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3190)
      0.09090909 = coord(1/11)
    
    Abstract
    Vor 20 Jahren, genau gesagt am 26. Juli 1996, erblickte die Literatursuchmaschine "KVK" das Licht der Internet-Welt. Seit damals wurden mehrere Milliarden Suchanfragen von Karlsruhe aus an andere Web-Kataloge von Bibliotheken und Verbünden geschickt, Trefferlisten ausgewertet und den Nutzern in einheitlicher Form präsentiert. Dieser Beitrag erklärt, warum der KVK entwickelt wurde und warum es diesen "Internet-Dino" auch heute noch gibt und beschreibt den aktuellen Stand.
  19. Hodoroaba, L.; Imhof, A.; Kuberek, M.: ¬Das KOBV-Portal, elektronische Ressourcen in Berlin-Brandenburg : Nachweis, parallele Suche und weiterführende Dienste (2004) 0.00
    0.0022893075 = product of:
      0.025182383 = sum of:
        0.025182383 = weight(_text_:und in 2813) [ClassicSimilarity], result of:
          0.025182383 = score(doc=2813,freq=30.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.3793607 = fieldWeight in 2813, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2813)
      0.09090909 = coord(1/11)
    
    Abstract
    Das Projekt "KOBV-Informationsportal" In den vergangenen Jahren hat der Kooperative Bibliotheksverbund BerlinBrandenburg (KOBV) mit der KOBV-Suchmaschine eine Internet-Plattform mit einer offenen Architektur geschaffen. Auf dieser technischen Basis erweitert er kontinuierlich sein Dienstleistungsangebot, wobei die Prinzipien des KOBV - insbesondere Offenheit, Heterogenität und Dezentralität auf technischer und organisatorischer Ebene - gewahrt bleiben. Mitte 2001 hat die KOBV-Zentrale gemeinsam mit den regionalen Bibliotheken das zweite große Entwicklungsprojekt "KOBV-Informationsportal" gestartet. Zielsetzung war der Aufbau eines kooperativen regionalen Portals mit Einsatz von Linking-Mechanismen zur "nahtlosen" Navigation in freien und lizenzierten Dokumenten und mit Einsatz von Instrumenten zur dezentralen Authentifizierung und Autorisierung über das Internet. Im Dezember 2003 hat das "KOBV-Portal - Digitale Bibliothek Berlin-Brandenburg" planmäßig in einer ersten Ausbaustufe den Routinebetrieb aufgenommen. Das KOBV-Portal bietet in dieser Stufe den Nachweis über die in den großen Bibliotheken lizenzierten Ressourcen und elektronischen Zeitschriften, zudem die nahtlose Navigation mittels des Reference-LinkingWerkzeuges SFX zu verschiedenen Diensten wie Fernleihe, Subito und freien Volltexten im Internet sowie zu frei zugänglichen elektronischen Zeitschriften. Die mit der verteilten Authentifizierung und Autorisierung verbundene Zielsetzung konnte im Rahmen des Projektes erst zum Teil umgesetzt werden. Realisiert wurde die Remote-Authentifizierung, mit der sich ein Nutzer, der online eine Fernleih-Bestellung aufgeben möchte, über das Internet in seiner Heimatbibliothek authentifizieren kann. Des weiteren ist der Zugriff auf lizenzierte Bestände im Campus einer Hochschule mittels IP-Checking möglich. Als weiteren wesentlichen Bestandteil des KOBV-Portals hat die KOBVZentrale mit den Bibliotheken einen Workflow für ein Metadata-Sharing abgestimmt und für die Adaption und Normalisierung lokaler Metadaten aus lokalen Bibliothekssystemen und -Portalen den KOBV-Metadaten-AustauschParser (KMA-Parser) entwickelt. Darüber hinaus sollen Bibliotheken, deren Metadaten bislang lediglich in unstrukturierter Form vorliegen, in die Lage versetzt werden, strukturierte Metadaten anzulegen, zu liefern und nachzunutzen. Dazu hat die KOBV-Zentrale das mit einer Web-Katalogisierungsschnittstelle ausgestattete "Metadata-Tool" entwickelt, das im Herbst 2004 in Betrieb genommen wird. Die für das Metadata-Sharing entwickelten Komponenten und Module sollen den Bibliotheken die Mehrfacherfassung ersparen und ihnen die Möglichkeit der wechselseitigen Nachnutzung der Metadaten eröffnen.
  20. ¬Die Europäische Digitale Bibliothek wächst weiter (2006) 0.00
    0.0022166122 = product of:
      0.024382735 = sum of:
        0.024382735 = weight(_text_:und in 4952) [ClassicSimilarity], result of:
          0.024382735 = score(doc=4952,freq=18.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.3673144 = fieldWeight in 4952, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4952)
      0.09090909 = coord(1/11)
    
    Content
    "Die Nationalbibliotheken von Dänemark, Estland und Lettland haben mit Jahresbeginn den Teilnehmerkreis von »The European Library« (www.europeanlibrary.com) erweitert. Mit der Weiterentwicklung der Portalsoftware ist das Angebot schneller und zuverlässiger geworden. Die unter dem Namen "The Europcan Library," (TEL) im Spätherbst vergangenen Jahres gestartete Europäische Digitale Bibliothek wächst weiter. Bis Ende 2006 werden die Onlinekataloge und mehr als 200 Sammlungen von 2,3 europäischen Nationalbibliotheken über dieses Internetportal recherchierbar sein. Das Angebot wird sich damit innerhalb eines Jahres nahezu verdoppeln. The European library ermöglicht integrierte Suchanfragen über institutionelle und geografische Grenzen hinweg. Das in den umfangreichen Datenbeständen der Bibliotheken repräntierte kuIturelle Erbe Europas wird damit vom Schreibtisch aus zugänglich. Urheberrechtsfreie digitale Dokumente können direkt abgerufen werden. Teilnehmende Bibliotheken passen ihre Kataloge an die Metadaten- und Suchstandards der Europäischen Digitalen Bibliothek an und ermöglichen damit die katalog- und sammlurngsübergreifende Recherche. Für The European Library wurde eine neue Webtechnologie verwendet, mit der Portalfunktionen einfach und preiswert realisiert werden können. Die Software "Portal-in-the-Browser" (www.dlib.org/dlib/february04/vanveen/02vanveen.html) steht Interessenten frei zur Verfügung. Die Entwickler erhoffen eine Anwendung in weiteren kulturellen Bereichen und damit die mögliche Verknüpfung der verschiedenen Sektoren. Für das kommende Frühjahr ist eine Benutzerbefragung zur weiteren Verbesserung von The European library geplant."

Years

Languages

  • d 43
  • e 14
  • f 1
  • More… Less…

Types

  • a 47
  • x 7
  • m 3
  • el 2
  • s 1
  • More… Less…