Search (86 results, page 1 of 5)

  • × theme_ss:"Verteilte bibliographische Datenbanken"
  1. Jahns, Y.; Trummer, M.: Sacherschließung - Informationsdienstleistung nach Maß : Kann Heterogenität beherrscht werden? (2004) 0.02
    0.022754736 = product of:
      0.06826421 = sum of:
        0.030480672 = weight(_text_:bibliothek in 2789) [ClassicSimilarity], result of:
          0.030480672 = score(doc=2789,freq=14.0), product of:
            0.1269905 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03093157 = queryNorm
            0.24002326 = fieldWeight in 2789, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.0021063364 = weight(_text_:information in 2789) [ClassicSimilarity], result of:
          0.0021063364 = score(doc=2789,freq=2.0), product of:
            0.054299686 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03093157 = queryNorm
            0.03879095 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.0062540784 = weight(_text_:retrieval in 2789) [ClassicSimilarity], result of:
          0.0062540784 = score(doc=2789,freq=2.0), product of:
            0.09356537 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03093157 = queryNorm
            0.06684181 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.029423123 = weight(_text_:kongress in 2789) [ClassicSimilarity], result of:
          0.029423123 = score(doc=2789,freq=2.0), product of:
            0.20294477 = queryWeight, product of:
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.03093157 = queryNorm
            0.14498094 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
      0.33333334 = coord(4/12)
    
    Content
    "... unter diesem Motto hat die Deutsche Bücherei Leipzig am 23. März 2004 auf dem Leipziger Kongress für Bibliothek und Information eine Vortragsreihe initiiert. Vorgestellt wurden Projekte, die sich im Spannungsfeld von Standardisierung und Heterogenität der Sacherschließung bewegen. Die Benutzer unserer Bibliotheken und Informationseinrichtungen stehen heute einer Fülle von Informationen gegenüber, die sie aus zahlreichen Katalogen und Fachdatenbanken abfragen können. Diese Recherche kann schnell zeitraubend werden, wenn der Benutzer mit verschiedenen Suchbegriffen und -logiken arbeiten muss, um zur gewünschten Ressource zu gelangen. Ein Schlagwort A kann in jedem der durchsuchten Systeme eine andere Bedeutung annehmen. Homogenität erreicht man klassisch zunächst durch Normierung und Standardisierung. Für die zwei traditionellen Verfahren der inhaltlichen Erschließung - der klassifikatorischen und der verbalen - haben sich in Deutschland verschiedene Standards durchgesetzt. Klassifikatorische Erschließung wird mit ganz unterschiedlichen Systemen betrieben. Verbreitet sind etwa die Regensburger Verbundklassifikation (RVK) oder die Basisklassifikation (BK). Von Spezial- und Facheinrichtungen werden entsprechende Fachklassifikationen eingesetzt. Weltweit am häufigsten angewandt ist die Dewey Decimal Classification (DDC), die seit 2003 ins Deutsche übertragen wird. Im Bereich der verbalen Sacherschließung haben sich, vor allem bei den wissenschaftlichen Universalbibliotheken, die Regeln für den Schlagwortkatalog (RSWK) durchgesetzt, durch die zugleich die Schlagwortnormdatei (SWD) kooperativ aufgebaut wurde. Daneben erschließen wiederum viele Spezial- und Facheinrichtungen mit selbst entwickelten Fachthesauri.
    Neben die Pflege der Standards tritt als Herausforderung die Vernetzung der Systeme, um heterogene Dokumentenbestände zu verbinden. »Standardisierung muss von der verbleibenden Heterogenität her gedacht werden«." Diese Aufgaben können nur in Kooperation von Bibliotheken und Informationseinrichtungen gelöst werden. Die vorgestellten Projekte zeigen, wie dies gelingen kann. Sie verfolgen alle das Ziel, Informationen über Inhalte schneller und besser für die Nutzer zur Verfügung zu stellen. Fachliche Recherchen über mehrere Informationsanbieter werden durch die Heterogenität überwindende Suchdienste ermöglicht. Die Einführung der DDC im deutschen Sprachraum steht genau im Kern des Spannungsfeldes. Die DDC stellt durch ihren universalen Charakter nicht nur einen übergreifenden Standard her. Ihre Anwendung ist nur nutzbringend, wenn zugleich die Vernetzung mit den in Deutschland bewährten Klassifikationen und Thesauri erfolgt. Ziel des Projektes DDC Deutsch ist nicht nur eine Übersetzung ins Deutsche, die DDC soll auch in Form elektronischer Dienste zur Verfügung gestellt werden. Dr. Lars Svensson, Deutsche Bibliothek Frankfurt am Main, präsentierte anschaulichdie Möglichkeiten einer intelligenten Navigation über die DDC. Für die Dokumentenbestände Der Deutschen Bibliothek, des Gemeinsamen Bibliotheksverbundes (GBV) und der Niedersächsischen Staats- und Universitätsbibliothek Göttingen wurde prototypisch ein Webservice realisiert.
    Dieses DDC-Tool ermöglicht den Zugriff auf lokale, mit DDC-erschlossene Titeldaten. Für einige bereits übersetzte DDC-Klassen kann mithilfe eines Browsers gearbeitet werden. Auch die gezielte verbale Suche nach DDC-Elementen ist möglich. Die Frage nach Aspekten, wie z. B. geografischen, soll durch getrennte Ablage der Notationselemente in den Titeldatensätzen ermöglicht werden. Schließlich lassen sich künftig auch integrierte Suchen über DDC und SWD oder andere Erschließungssysteme denken, um Literatur zu einem Thema zu finden. Das von Lars Svensson vorgestellte Retrieval-Interface bietet eine zentrale Lösung: nicht für jeden lokalen OPAC müssen eigene Suchstrukturen entwickelt werden, um auf DDC-Daten zugreifen zu können. Wie Datenbestände mit verschiedenen Erschließungen unter einer Oberfläche zusammengeführt werden und dabei die DDC als Meta-Ebene genutzt wird, das ist heute schon im Subject Gateway Renardus sichtbar." Der Renardus-Broker ermöglicht das Cross-Browsen und Cross-Searchen über verteilte Internetquellen in Europa. Für die Navigation über die DDC mussten zunächst Crosswalks zwischen den lokalen Klassifikationsklassen und der DDC erstellt werden. Das an der Universitätsbibliothek Regensburg entwickelte Tool CarmenX wurde dazu von der Niedersächsischen Staats- und Universitätsbibliothek Göttingen weiterentwickelt und ermöglicht den Zugriff auf die ver schiedenen Klassifikationssysteme. Über diese Entwicklungen berichtete Dr. Friedrich Geißelmann, Universitäsbibliothek Regensburg. Er leitete das CARMEN-Teilprojekt »Grosskonkordanzen zwischen Thesauri und Klassifikationen«, in dem das Werkzeug CarmenX entstand. In diesem CARMEN-Arbeitspaket erfolgten sowohl grundlegende methodische Untersuchungen zu Crosskonkordanzen als auch prototypische Umsetzungen in den Fachgebieten Mathematik, Physik und Sozialwissenschaften. Ziel war es, bei Recherchen in verteilten Datenbanken mit unterschiedlichen Klassifikationen und Thesauri von einem vertrauten System auszugehen und in weitere wechseln zu können, ohne genaue Kenntnis von den Systemen haben zu müssen. So wurden z. B. im Bereich Crosskonkordanzen zwischen Allgemein- und Fachklassifikationen die RVK und die Mathematical Subject Classification (MSC) und Physics and Astronomy Classification Scheme (PACS) ausgewählt.
    Katja Heyke, Universitäts- und Stadtbibliothek Köln, und Manfred Faden, Bibliothek des HWWA-Instituts für Wirtschaftsforschung Hamburg, stellten ähnliche Entwicklungen für den Fachbereich Wirtschaftswissenschaften vor. Hier wird eine Crosskonkordanz zwischen dem Standard Thesaurus Wirtschaft (STW) und dem Bereich Wirtschaft der SWD aufgebaut." Diese Datenbank soll den Zugriff auf die mit STW und SWD erschlossenen Bestände ermöglichen. Sie wird dazu weitergegeben an die virtuelle Fachbibliothek EconBiz und an den Gemeinsamen Bibliotheksverbund. Die Crosskonkordanz Wirtschaft bietet aber auch die Chance zur kooperativen Sacherschließung, denn sie eröffnet die Möglichkeit der gegenseitigen Übernahme von Sacherschließungsdaten zwischen den Partnern Die Deutsche Bibliothek, Universitäts- und Stadtbibliothek Köln, HWWA und Bibliothek des Instituts für Weltwirtschaft Kiel. Am Beispiel der Wirtschaftswissenschaften zeigt sich der Gewinn solcher KonkordanzProjekte für Indexierer und Benutzer. Der Austausch über die Erschließungsregeln und die systematische Analyse der Normdaten führen zur Bereinigung von fachlichen Schwachstellen und Inkonsistenzen in den Systemen. Die Thesauri werden insgesamt verbessert und sogar angenähert. Die Vortragsreihe schloss mit einem Projekt, das die Heterogenität der Daten aus dem Blickwinkel der Mehrsprachigkeit betrachtet. Martin Kunz, Deutsche Bibliothek Frankfurt am Main, informierte über das Projekt MACS (Multilingual Access to Subject Headings). MACS bietet einen mehrsprachigen Zugriff auf Bibliothekskataloge. Dazu wurde eine Verbindung zwischen den Schlagwortnormdateien LCSH, RAMEAU und SWD erarbeitet. Äquivalente Vorzugsbezeichnungen der Normdateien werden intellektuell nachgewiesen und als Link abgelegt. Das Projekt beschränkte sich zunächst auf die Bereiche Sport und Theater und widmet sich in einer nächsten Stufe den am häufigsten verwendeten Schlagwörtern. MACS geht davon aus, dass ein Benutzer in der Sprache seiner Wahl (Deutsch, Englisch, Französisch) eine Schlagwortsuche startet, und ermöglicht ihm, seine Suche auf die affilierten Datenbanken im Ausland auszudehnen. Martin Kunz plädierte für einen Integrationsansatz, der auf dem gegenseitigen Respekt vor der Terminologie der kooperierenden Partner beruht. Er sprach sich dafür aus, in solchen Vorhaben den Begriff der Thesaurus föderation anzuwenden, der die Autonomie der Thesauri unterstreicht.
  2. Rusch, B.: Kooperativer Bibliotheksverbund Berlin-Brandenburg : Erste Erfahrungen im Produktionsbetrieb (2000) 0.02
    0.018215382 = product of:
      0.10929229 = sum of:
        0.005265841 = weight(_text_:information in 5519) [ClassicSimilarity], result of:
          0.005265841 = score(doc=5519,freq=2.0), product of:
            0.054299686 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03093157 = queryNorm
            0.09697737 = fieldWeight in 5519, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5519)
        0.10402645 = weight(_text_:kongress in 5519) [ClassicSimilarity], result of:
          0.10402645 = score(doc=5519,freq=4.0), product of:
            0.20294477 = queryWeight, product of:
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.03093157 = queryNorm
            0.51258504 = fieldWeight in 5519, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5519)
      0.16666667 = coord(2/12)
    
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  3. Dempsey, L.; Russell, R.; Kirriemur, J.W.: Towards distributed library systems : Z39.50 in a European context (1996) 0.01
    0.012026755 = product of:
      0.04810702 = sum of:
        0.011915238 = weight(_text_:information in 127) [ClassicSimilarity], result of:
          0.011915238 = score(doc=127,freq=4.0), product of:
            0.054299686 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03093157 = queryNorm
            0.21943474 = fieldWeight in 127, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=127)
        0.025016313 = weight(_text_:retrieval in 127) [ClassicSimilarity], result of:
          0.025016313 = score(doc=127,freq=2.0), product of:
            0.09356537 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03093157 = queryNorm
            0.26736724 = fieldWeight in 127, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=127)
        0.011175469 = product of:
          0.033526406 = sum of:
            0.033526406 = weight(_text_:22 in 127) [ClassicSimilarity], result of:
              0.033526406 = score(doc=127,freq=2.0), product of:
                0.108317085 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03093157 = queryNorm
                0.30952093 = fieldWeight in 127, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=127)
          0.33333334 = coord(1/3)
      0.25 = coord(3/12)
    
    Abstract
    Z39.50 is an information retrieval protocol. It has generated much interest but is so far little deployed in UK systems and services. Gives a functional overview of the protocol itself and the standards background, describes some European initiatives which make use of it, and outlines various issues to do with its future use and acceptance. Z39.50 is a crucial building block of future distributed information systems but it needs to be considered alongside other protocols and services to provide useful applications
    Source
    Program. 30(1996) no.1, S.1-22
  4. Callan, J.: Distributed information retrieval (2000) 0.01
    0.011945939 = product of:
      0.07167563 = sum of:
        0.018058073 = weight(_text_:information in 31) [ClassicSimilarity], result of:
          0.018058073 = score(doc=31,freq=12.0), product of:
            0.054299686 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03093157 = queryNorm
            0.3325631 = fieldWeight in 31, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=31)
        0.053617552 = weight(_text_:retrieval in 31) [ClassicSimilarity], result of:
          0.053617552 = score(doc=31,freq=12.0), product of:
            0.09356537 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03093157 = queryNorm
            0.5730491 = fieldWeight in 31, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=31)
      0.16666667 = coord(2/12)
    
    Abstract
    A multi-database model of distributed information retrieval is presented, in which people are assumed to have access to many searchable text databases. In such an environment, full-text information retrieval consists of discovering database contents, ranking databases by their expected ability to satisfy the query, searching a small number of databases, and merging results returned by different databases. This paper presents algorithms for each task. It also discusses how to reorganize conventional test collections into multi-database testbeds, and evaluation methodologies for multi-database experiments. A broad and diverse group of experimental results is presented to demonstrate that the algorithms are effective, efficient, robust, and scalable
    Series
    The Kluwer international series on information retrieval; 7
    Source
    Advances in information retrieval: Recent research from the Center for Intelligent Information Retrieval. Ed.: W.B. Croft
  5. López Vargas, M.A.: "Ilmenauer Verteiltes Information REtrieval System" (IVIRES) : eine neue Architektur zur Informationsfilterung in einem verteilten Information Retrieval System (2002) 0.01
    0.011823412 = product of:
      0.07094047 = sum of:
        0.017872857 = weight(_text_:information in 4041) [ClassicSimilarity], result of:
          0.017872857 = score(doc=4041,freq=4.0), product of:
            0.054299686 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03093157 = queryNorm
            0.3291521 = fieldWeight in 4041, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.09375 = fieldNorm(doc=4041)
        0.053067617 = weight(_text_:retrieval in 4041) [ClassicSimilarity], result of:
          0.053067617 = score(doc=4041,freq=4.0), product of:
            0.09356537 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03093157 = queryNorm
            0.5671716 = fieldWeight in 4041, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.09375 = fieldNorm(doc=4041)
      0.16666667 = coord(2/12)
    
  6. Croft, W.B.: Combining approaches to information retrieval (2000) 0.01
    0.011424328 = product of:
      0.06854597 = sum of:
        0.015478347 = weight(_text_:information in 6862) [ClassicSimilarity], result of:
          0.015478347 = score(doc=6862,freq=12.0), product of:
            0.054299686 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03093157 = queryNorm
            0.2850541 = fieldWeight in 6862, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=6862)
        0.053067617 = weight(_text_:retrieval in 6862) [ClassicSimilarity], result of:
          0.053067617 = score(doc=6862,freq=16.0), product of:
            0.09356537 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03093157 = queryNorm
            0.5671716 = fieldWeight in 6862, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=6862)
      0.16666667 = coord(2/12)
    
    Abstract
    The combination of different text representations and search strategies has become a standard technique for improving the effectiveness of information retrieval. Combination, for example, has been studied extensively in the TREC evaluations and is the basis of the "meta-search" engines used on the Web. This paper examines the development of this technique, including both experimental results and the retrieval models that have been proposed as formal frameworks for combination. We show that combining approaches for information retrieval can be modeled as combining the outputs of multiple classifiers based on one or more representations, and that this simple model can provide explanations for many of the experimental results. We also show that this view of combination is very similar to the inference net model, and that a new approach to retrieval based on language models supports combination and can be integrated with the inference net model
    Series
    The Kluwer international series on information retrieval; 7
    Source
    Advances in information retrieval: Recent research from the Center for Intelligent Information Retrieval. Ed.: W.B. Croft
  7. Xu, J.; Croft, W.B.: Topic-based language models for distributed retrieval (2000) 0.01
    0.011205259 = product of:
      0.06723155 = sum of:
        0.010944845 = weight(_text_:information in 38) [ClassicSimilarity], result of:
          0.010944845 = score(doc=38,freq=6.0), product of:
            0.054299686 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03093157 = queryNorm
            0.20156369 = fieldWeight in 38, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=38)
        0.056286704 = weight(_text_:retrieval in 38) [ClassicSimilarity], result of:
          0.056286704 = score(doc=38,freq=18.0), product of:
            0.09356537 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03093157 = queryNorm
            0.60157627 = fieldWeight in 38, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=38)
      0.16666667 = coord(2/12)
    
    Abstract
    Effective retrieval in a distributed environment is an important but difficult problem. Lack of effectiveness appears to have two major causes. First, existing collection selection algorithms do not work well on heterogeneous collections. Second, relevant documents are scattered over many collections and searching a few collections misses many relevant documents. We propose a topic-oriented approach to distributed retrieval. With this approach, we structure the document set of a distributed retrieval environment around a set of topics. Retrieval for a query involves first selecting the right topics for the query and then dispatching the search process to collections that contain such topics. The content of a topic is characterized by a language model. In environments where the labeling of documents by topics is unavailable, document clustering is employed for topic identification. Based on these ideas, three methods are proposed to suit different environments. We show that all three methods improve effectiveness of distributed retrieval
    Series
    The Kluwer international series on information retrieval; 7
    Source
    Advances in information retrieval: Recent research from the Center for Intelligent Information Retrieval. Ed.: W.B. Croft
  8. Crestani, F.; Wu, S.: Testing the cluster hypothesis in distributed information retrieval (2006) 0.01
    0.011125021 = product of:
      0.066750124 = sum of:
        0.014894047 = weight(_text_:information in 984) [ClassicSimilarity], result of:
          0.014894047 = score(doc=984,freq=16.0), product of:
            0.054299686 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03093157 = queryNorm
            0.27429342 = fieldWeight in 984, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=984)
        0.05185608 = weight(_text_:retrieval in 984) [ClassicSimilarity], result of:
          0.05185608 = score(doc=984,freq=22.0), product of:
            0.09356537 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03093157 = queryNorm
            0.554223 = fieldWeight in 984, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=984)
      0.16666667 = coord(2/12)
    
    Abstract
    How to merge and organise query results retrieved from different resources is one of the key issues in distributed information retrieval. Some previous research and experiments suggest that cluster-based document browsing is more effective than a single merged list. Cluster-based retrieval results presentation is based on the cluster hypothesis, which states that documents that cluster together have a similar relevance to a given query. However, while this hypothesis has been demonstrated to hold in classical information retrieval environments, it has never been fully tested in heterogeneous distributed information retrieval environments. Heterogeneous document representations, the presence of document duplicates, and disparate qualities of retrieval results, are major features of an heterogeneous distributed information retrieval environment that might disrupt the effectiveness of the cluster hypothesis. In this paper we report on an experimental investigation into the validity and effectiveness of the cluster hypothesis in highly heterogeneous distributed information retrieval environments. The results show that although clustering is affected by different retrieval results representations and quality, the cluster hypothesis still holds and that generating hierarchical clusters in highly heterogeneous distributed information retrieval environments is still a very effective way of presenting retrieval results to users.
    Source
    Information processing and management. 42(2006) no.5, S.1137-1150
  9. Fuhr, N.: Towards data abstraction in networked information retrieval systems (1999) 0.01
    0.010771703 = product of:
      0.06463022 = sum of:
        0.020851666 = weight(_text_:information in 4517) [ClassicSimilarity], result of:
          0.020851666 = score(doc=4517,freq=4.0), product of:
            0.054299686 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03093157 = queryNorm
            0.3840108 = fieldWeight in 4517, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.109375 = fieldNorm(doc=4517)
        0.04377855 = weight(_text_:retrieval in 4517) [ClassicSimilarity], result of:
          0.04377855 = score(doc=4517,freq=2.0), product of:
            0.09356537 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03093157 = queryNorm
            0.46789268 = fieldWeight in 4517, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.109375 = fieldNorm(doc=4517)
      0.16666667 = coord(2/12)
    
    Source
    Information processing and management. 35(1999) no.2, S.101-119
  10. Johnson, E.H.: Objects for distributed heterogeneous information retrieval (2000) 0.01
    0.010498699 = product of:
      0.041994795 = sum of:
        0.012898623 = weight(_text_:information in 6959) [ClassicSimilarity], result of:
          0.012898623 = score(doc=6959,freq=12.0), product of:
            0.054299686 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03093157 = queryNorm
            0.23754507 = fieldWeight in 6959, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6959)
        0.022111505 = weight(_text_:retrieval in 6959) [ClassicSimilarity], result of:
          0.022111505 = score(doc=6959,freq=4.0), product of:
            0.09356537 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03093157 = queryNorm
            0.23632148 = fieldWeight in 6959, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6959)
        0.006984668 = product of:
          0.020954004 = sum of:
            0.020954004 = weight(_text_:22 in 6959) [ClassicSimilarity], result of:
              0.020954004 = score(doc=6959,freq=2.0), product of:
                0.108317085 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03093157 = queryNorm
                0.19345059 = fieldWeight in 6959, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=6959)
          0.33333334 = coord(1/3)
      0.25 = coord(3/12)
    
    Abstract
    The success of the World Wide Web Shows that we can access, search, and retrieve information from globally distributed databases. lf a database, such as a library catalog, has some sort of Web-based front end, we can type its URL into a Web browser and use its HTML-based forms to search for items in that database. Depending an how well the query conforms to the database content, how the search engine interprets the query, and how the server formats the results into HTML, we might actually find something usable. While the first two issues depend an ourselves and the server, an the Web the latter falls to the mercy of HTML, which we all know as a great destroyer of information because it codes for display but not for content description. When looking at an HTML-formatted display, we must depend an our own interpretation to recognize such entities as author names, titles, and subject identifiers. The Web browser can do nothing but display the information. lf we want some other view of the result, such as sorting the records by date (provided it offers such an option to begin with), the server must do it. This makes poor use of the computing power we have at the desktop (or even laptop), which, unless it involves retrieving more records, could easily do the result Set manipulation that we currently send back to the server. Despite having personal computers wich immense computational power, as far as information retrieval goes, we still essentially use them as dumb terminals.
    Date
    22. 9.1997 19:16:05
    Imprint
    Urbana-Champaign, IL : Illinois University at Urbana-Champaign, Graduate School of Library and Information Science
  11. Fritz, M.-L.: Zugang zu verteilten bibliografischen Datenbeständen : Konzepte und Realisierungen für heterogene Umgebungen (2003) 0.01
    0.010182607 = product of:
      0.06109564 = sum of:
        0.03456183 = weight(_text_:bibliothek in 2504) [ClassicSimilarity], result of:
          0.03456183 = score(doc=2504,freq=2.0), product of:
            0.1269905 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03093157 = queryNorm
            0.27216077 = fieldWeight in 2504, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.046875 = fieldNorm(doc=2504)
        0.026533809 = weight(_text_:retrieval in 2504) [ClassicSimilarity], result of:
          0.026533809 = score(doc=2504,freq=4.0), product of:
            0.09356537 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03093157 = queryNorm
            0.2835858 = fieldWeight in 2504, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=2504)
      0.16666667 = coord(2/12)
    
    Abstract
    Das steigende Angebot an Datenbanken und weiteren Systeme im Bereich bibliografischer Informationen führt dazu, dass es für Benutzer sehr mühsam und mit einem enormen Zeitaufwand verbunden ist, in allen einzelnen Systemen zu recherchieren, da diese unterschiedliche Benutzeroberflächen und Recherchemöglichkeiten anbieten. Verteilte bibliografische Informationssysteme ermöglichen einen einheitlichen Einstiegspunkt zu heterogenen Systemen. Sie bündeln verschiedene Angebote. In diesem Text wird ein Überblick über diese verteilten Informationssysteme gegeben. Es wird dargestellt, wie eine Suche in einem solchen System abläuft, welche weiteren Funktionen angeboten werden können. Darüber hinaus wird betrachtet, wie verteilte Informationssysteme aufgebaut und vernetzt sind. Die Darstellungen werden verdeutlicht durch praktische Beispiele aus dem Bibliotheks- und Informationswesen. Insbesondere wird auf den KVK, ZACK, die KOBVSuchmaschine, die Digitale Bibliothek NRW, das DIMDI, vascoda und Renardus eingegangen.
    Content
    Die Abbildung zeigt in einer Tabelle die Unterschiede zwischen einem Retrieval in verteilten Datenbanken und einem Retrieval nach Harvesting in einer Datenbank
  12. Ellis, R.; Hindersmann, J.: Volltext- und Katalogverlinkungen in Online-Datenbanken (2003) 0.01
    0.009852545 = product of:
      0.05911527 = sum of:
        0.054647055 = weight(_text_:bibliothek in 1486) [ClassicSimilarity], result of:
          0.054647055 = score(doc=1486,freq=20.0), product of:
            0.1269905 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03093157 = queryNorm
            0.43032396 = fieldWeight in 1486, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1486)
        0.004468214 = weight(_text_:information in 1486) [ClassicSimilarity], result of:
          0.004468214 = score(doc=1486,freq=4.0), product of:
            0.054299686 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03093157 = queryNorm
            0.08228803 = fieldWeight in 1486, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1486)
      0.16666667 = coord(2/12)
    
    Abstract
    Die digitale Bibliothek, in der alles mit allem verlinkt ist, und man mit wenigen Klicks zur gewünschten Information gelangt, ist nach wie vor ein Traum vieler Bibliothekare und Benutzer. In der Realität aber existieren heterogene Informationssysteme nebeneinander: Online-Datenbanken, Aggregatordatenbanken, A&I-Datenbanken, Plattformen für E-Journals, OPACs. Zwischen diesen verschiedenen Systemen muss der Nutzer nun hin- und herschalten, um die gewünschte Information zu erhalten. Dass eine Verlinkung der verschiedenen elektronischen Ressourcen der Bibliothek ein Desiderat ist, hat inzwischen auch die Industrie erkannt. Es sind bereits erste Systeme auf dem Markt, die eine Navigation in heterogenen Informationsquellen ermöglichen. Zu nennen ist hier in erster Linie ExLibris SFX. Auch EBSCO hat mit LinkSource eine auf openURL basierte Lösung vorgelegt, um alle verfügbaren Quellen in eine Suchanfrage einzubinden. Diese Systeme sind prinzipiell sehr vielversprechend und von der Bibliothek sehr komfortabel zu managen, bewegen sich aber derzeit in einem preislichen Rahmen, der von den wenigsten Bibliotheken noch zusätzlich zu den ohnehin schon hohen Kosten für elektronische Ressourcen aufgebracht werden kann. An der UB Osnabrück und SuUB Bremen wurden daher Überlegungen angestellt, wie man ohne diese kostenpflichtigen Zusatzdienste die verschiedenen elektronischen Angebote der Bibliothek besser miteinander verknüpfen könnte. Konkret lautete die Fragestellung so: "Wie komme ich nach einer Recherche in einer bibliografischen Online-Datenbank zum Volltext?" Die meisten OnlineDatenbanken sind immer noch rein bibliografische Datenbanken, die allerhöchstens ein Abstract anbieten (A&I-Datenbanken). Erscheint ein Rechercheergebnis dem Benutzer so interessant, dass er gern den Volltext des betreffenden Artikels oder des Buches einsehen möchte, so hat er dazu mehrere Möglichkeiten: Die einfachste Möglichkeit liegt darin, den Volltext in elektronischer Form aufzurufen. Besteht diese Möglichkeit nicht, so muss er im OPAC recherchieren, ob der gesuchte Titel zumindest in gedruckter Version in der Bibliothek vorhanden ist. Ist dies nicht der Fall, so hat er die Möglichkeit, den Titel per Fernleihe oder document delivery zu bestellen. Diese drei Schritte - Aufrufen des Volltextes, Recherche im OPAC, Fernleihbestellung - sollten für den Benutzer dadurch vereinfacht werden, dass ent sprechende Links in die Online-Datenbanken integriert werden. So kann das aufwändige "kopieren und einfügen"- Verfahren entfallen. Die Einrichtung dieser verschiedenen Links brachte administrative, technische und lizenzrechtliche Probleme mit sich. Online-Datenbanken werden von verschiedenen Anbietern auf den Markt gebracht: von international agierenden Firmen bis hin zu kleinen Körperschaften. Es musste bei jedem Anbieter geklärt werden, welche Verlinkungen technisch und lizenzrechtlich möglich sind. Links zum elektronischen Volltext sind für den Nutzer sicherlich die ideale Lösung, denn so kann er vom Büro oder CIP-Pool aus den Artikel lesen bzw. ausdrucken, ohne in die Bibliothek gehen und dort nach der Print-Ausgabe suchen zu müssen. Bei Volltextlinks muss man zwischen zwei Arten von Links unterscheiden: Institutionsunabhängige Links sind zentral für alle Abonnenten der Online-Datenbank eingerichtet und werden immer angezeigt, unabhängig davon, ob die Bibliothek einen lizenzierten Volltextzugriff auf die betreffende elektronische Ressource hat. Institutionsabhängige Links sind nur für die elektronischen Ressourcen eingerichtet, für die die Bibliothek einen lizenzierten Zugang besitzt.
    Im Falle von institutionsunabhängigen Links werden Volltextlinks angezeigt, die allerdings nur dann funktionieren, wenn die Bibliothek auch die entsprechenden Lizenzrechte besitzt. Beim Nutzer führen diese Links schnell zu Frustration, wenn der erhoffte Volltext nicht angezeigt wird, zumal es nicht ersichtlich ist, dass der Zugang zum elektronischen Volltext von der Institution nicht lizenziert worden ist. Dem Nutzer ist dann schwer zu vermitteln, dass diese Links immer auftauchten, es aber nicht immer möglich ist, auf den elektronischen Volltext zuzugreifen. Für die Bibliothek bedeuten institutionsunabhängige Links erhöhten Erklärungsbedarf: Die Nutzer müssen darüber informiert werden, bei welchen E-Journals sie an den Volltext gelangen können. Zusätzlich kompliziert wird diese Angelegenheit noch dadurch, dass Bibliotheken in aller Regel bei verschiedenen Verlagen verschiedene Zugriffsrechte haben: entweder auf gar keine Titel, oder auf die in Print abonnierten Titel oder (durch Konsortialverträge) einen cross access auch auf die Titel, die andere Bibliotheken abonniert haben. Zusätzlich sind auch noch zeitliche Beschränkungen zu bedenken: Elsevier beispielsweise gewährt für ScienceDirect Web-Editions nur Zugriff auf die Hefte der letzten 12 Monate.
  13. ¬Die Europäische Digitale Bibliothek wächst weiter (2006) 0.01
    0.009555455 = product of:
      0.05733273 = sum of:
        0.04988571 = weight(_text_:bibliothek in 4952) [ClassicSimilarity], result of:
          0.04988571 = score(doc=4952,freq=6.0), product of:
            0.1269905 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03093157 = queryNorm
            0.39283025 = fieldWeight in 4952, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4952)
        0.0074470234 = weight(_text_:information in 4952) [ClassicSimilarity], result of:
          0.0074470234 = score(doc=4952,freq=4.0), product of:
            0.054299686 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03093157 = queryNorm
            0.13714671 = fieldWeight in 4952, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4952)
      0.16666667 = coord(2/12)
    
    Content
    "Die Nationalbibliotheken von Dänemark, Estland und Lettland haben mit Jahresbeginn den Teilnehmerkreis von »The European Library« (www.europeanlibrary.com) erweitert. Mit der Weiterentwicklung der Portalsoftware ist das Angebot schneller und zuverlässiger geworden. Die unter dem Namen "The Europcan Library," (TEL) im Spätherbst vergangenen Jahres gestartete Europäische Digitale Bibliothek wächst weiter. Bis Ende 2006 werden die Onlinekataloge und mehr als 200 Sammlungen von 2,3 europäischen Nationalbibliotheken über dieses Internetportal recherchierbar sein. Das Angebot wird sich damit innerhalb eines Jahres nahezu verdoppeln. The European library ermöglicht integrierte Suchanfragen über institutionelle und geografische Grenzen hinweg. Das in den umfangreichen Datenbeständen der Bibliotheken repräntierte kuIturelle Erbe Europas wird damit vom Schreibtisch aus zugänglich. Urheberrechtsfreie digitale Dokumente können direkt abgerufen werden. Teilnehmende Bibliotheken passen ihre Kataloge an die Metadaten- und Suchstandards der Europäischen Digitalen Bibliothek an und ermöglichen damit die katalog- und sammlurngsübergreifende Recherche. Für The European Library wurde eine neue Webtechnologie verwendet, mit der Portalfunktionen einfach und preiswert realisiert werden können. Die Software "Portal-in-the-Browser" (www.dlib.org/dlib/february04/vanveen/02vanveen.html) steht Interessenten frei zur Verfügung. Die Entwickler erhoffen eine Anwendung in weiteren kulturellen Bereichen und damit die mögliche Verknüpfung der verschiedenen Sektoren. Für das kommende Frühjahr ist eine Benutzerbefragung zur weiteren Verbesserung von The European library geplant."
    Series
    Information digital
    Theme
    Information Gateway
  14. Avrahami, T.T.; Yau, L.; Si, L.; Callan, J.P.: ¬The FedLemur project : Federated search in the real world (2006) 0.01
    0.009020067 = product of:
      0.036080267 = sum of:
        0.008936428 = weight(_text_:information in 5271) [ClassicSimilarity], result of:
          0.008936428 = score(doc=5271,freq=4.0), product of:
            0.054299686 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03093157 = queryNorm
            0.16457605 = fieldWeight in 5271, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=5271)
        0.018762236 = weight(_text_:retrieval in 5271) [ClassicSimilarity], result of:
          0.018762236 = score(doc=5271,freq=2.0), product of:
            0.09356537 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03093157 = queryNorm
            0.20052543 = fieldWeight in 5271, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=5271)
        0.008381601 = product of:
          0.025144802 = sum of:
            0.025144802 = weight(_text_:22 in 5271) [ClassicSimilarity], result of:
              0.025144802 = score(doc=5271,freq=2.0), product of:
                0.108317085 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03093157 = queryNorm
                0.23214069 = fieldWeight in 5271, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5271)
          0.33333334 = coord(1/3)
      0.25 = coord(3/12)
    
    Abstract
    Federated search and distributed information retrieval systems provide a single user interface for searching multiple full-text search engines. They have been an active area of research for more than a decade, but in spite of their success as a research topic, they are still rare in operational environments. This article discusses a prototype federated search system developed for the U.S. government's FedStats Web portal, and the issues addressed in adapting research solutions to this operational environment. A series of experiments explore how well prior research results, parameter settings, and heuristics apply in the FedStats environment. The article concludes with a set of lessons learned from this technology transfer effort, including observations about search engine quality in the real world.
    Date
    22. 7.2006 16:02:07
    Source
    Journal of the American Society for Information Science and Technology. 57(2006) no.3, S.347-358
  15. Meiert, M.: Elektronische Publikationen an Hochschulen : Modellierung des elektronischen Publikationsprozesses am Beispiel der Universität Hildesheim (2006) 0.01
    0.009020067 = product of:
      0.036080267 = sum of:
        0.008936428 = weight(_text_:information in 5974) [ClassicSimilarity], result of:
          0.008936428 = score(doc=5974,freq=4.0), product of:
            0.054299686 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03093157 = queryNorm
            0.16457605 = fieldWeight in 5974, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=5974)
        0.018762236 = weight(_text_:retrieval in 5974) [ClassicSimilarity], result of:
          0.018762236 = score(doc=5974,freq=2.0), product of:
            0.09356537 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03093157 = queryNorm
            0.20052543 = fieldWeight in 5974, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=5974)
        0.008381601 = product of:
          0.025144802 = sum of:
            0.025144802 = weight(_text_:22 in 5974) [ClassicSimilarity], result of:
              0.025144802 = score(doc=5974,freq=2.0), product of:
                0.108317085 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03093157 = queryNorm
                0.23214069 = fieldWeight in 5974, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5974)
          0.33333334 = coord(1/3)
      0.25 = coord(3/12)
    
    Date
    1. 9.2006 13:22:15
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
    Theme
    Information Gateway
  16. Nicholson, D.; Steele, M.: CATRIONA : a distributed, locally-oriented, Z39.50 OPAC-based approach to cataloguing the Internet (1996) 0.01
    0.008365711 = product of:
      0.033462845 = sum of:
        0.0063190092 = weight(_text_:information in 603) [ClassicSimilarity], result of:
          0.0063190092 = score(doc=603,freq=2.0), product of:
            0.054299686 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03093157 = queryNorm
            0.116372846 = fieldWeight in 603, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=603)
        0.018762236 = weight(_text_:retrieval in 603) [ClassicSimilarity], result of:
          0.018762236 = score(doc=603,freq=2.0), product of:
            0.09356537 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03093157 = queryNorm
            0.20052543 = fieldWeight in 603, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=603)
        0.008381601 = product of:
          0.025144802 = sum of:
            0.025144802 = weight(_text_:22 in 603) [ClassicSimilarity], result of:
              0.025144802 = score(doc=603,freq=2.0), product of:
                0.108317085 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03093157 = queryNorm
                0.23214069 = fieldWeight in 603, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=603)
          0.33333334 = coord(1/3)
      0.25 = coord(3/12)
    
    Abstract
    The aims of CATRIONA were: (1) to investigate the requirements for developing procedures and applications for cataloguing and retrieval of networked resources, and (2) to explore the feasibility of a collaborative project to develop such applications and procedures and integrate them with existing library systems. The project established that a distributed catalogue of networked resources integrated with standard Z39.50 library system OPAC interfaces with information on hard-copy resources is already a practical proposition at a basic level. At least one Z39.50 OPAC client can search remote Z39.50 OPACs, retrieve USMARC records with URLs in 856$u, load a viewer like Netscape, and use it to retrieve and display the remotely held electronic resource on the local workstation. A follow-up project on related issues is being finalised.
    Source
    Cataloging and classification quarterly. 22(1996) nos.3/4, S.127-141
  17. Friedrich, M.; Schimkat, R.-D.; Küchlin, W.: Information retrieval in distributed environments based on context-aware, proactive documents (2002) 0.01
    0.0079068 = product of:
      0.047440797 = sum of:
        0.016484689 = weight(_text_:information in 3608) [ClassicSimilarity], result of:
          0.016484689 = score(doc=3608,freq=10.0), product of:
            0.054299686 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03093157 = queryNorm
            0.3035872 = fieldWeight in 3608, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3608)
        0.030956108 = weight(_text_:retrieval in 3608) [ClassicSimilarity], result of:
          0.030956108 = score(doc=3608,freq=4.0), product of:
            0.09356537 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03093157 = queryNorm
            0.33085006 = fieldWeight in 3608, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3608)
      0.16666667 = coord(2/12)
    
    Abstract
    In this position paper we propose a document-centric middleware component called Living Documents to support context-aware information retrieval in distributed communities. A Living Document acts as a micro server for a document which contains computational services, a semi-structured knowledge repository to uniformly store and access context-related information, and finally the document's digital content. Our initial prototype of Living Documents is based an the concept of mobile agents and implemented in Java and XML.
    Source
    Gaining insight from research information (CRIS2002): Proceedings of the 6th International Conference an Current Research Information Systems, University of Kassel, August 29 - 31, 2002. Eds: W. Adamczak u. A. Nase
  18. Hakala, J.: Z39.50-1995: information retrieval protocol : an introduction to the standard and it's usage (1996) 0.01
    0.007882275 = product of:
      0.047293648 = sum of:
        0.011915238 = weight(_text_:information in 3340) [ClassicSimilarity], result of:
          0.011915238 = score(doc=3340,freq=4.0), product of:
            0.054299686 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03093157 = queryNorm
            0.21943474 = fieldWeight in 3340, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=3340)
        0.03537841 = weight(_text_:retrieval in 3340) [ClassicSimilarity], result of:
          0.03537841 = score(doc=3340,freq=4.0), product of:
            0.09356537 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03093157 = queryNorm
            0.37811437 = fieldWeight in 3340, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=3340)
      0.16666667 = coord(2/12)
    
    Abstract
    This article describes the Internet information retrieval protocol, Z39.50, and it's usage. The services of Z39.50 are depicted, as are some important terms related to the standard. A description of the OPAC Network in Europe (ONE), an important Z39.50 implementation project is included
  19. Neuroth, H.: Suche in verteilten "Quality-controlled Subject Gateways" : Entwicklung eines Metadatenprofils (2002) 0.01
    0.0074061207 = product of:
      0.044436723 = sum of:
        0.028801527 = weight(_text_:bibliothek in 2522) [ClassicSimilarity], result of:
          0.028801527 = score(doc=2522,freq=2.0), product of:
            0.1269905 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03093157 = queryNorm
            0.22680065 = fieldWeight in 2522, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2522)
        0.015635196 = weight(_text_:retrieval in 2522) [ClassicSimilarity], result of:
          0.015635196 = score(doc=2522,freq=2.0), product of:
            0.09356537 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03093157 = queryNorm
            0.16710453 = fieldWeight in 2522, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2522)
      0.16666667 = coord(2/12)
    
    Abstract
    Die seit ca. 1996 rasche Entwicklung des Internet bzw. des World Wide Web (WWW) hat die Praxis der Veröffentlichung, Verbreitung und Nutzung wissenschaftlicher Informationen grundlegend verändert. Um diese Informationen suchbar und retrievalfähig zu gestalten, ist in den letzten Jahren international viel diskutiert worden. Ein vielversprechender Ansatz, diesen neuen Herausforderungen zu begegnen, liegt in der Entwicklung von Metadatenprofilen. Da durch das Internet verschiedene Datenbestände, die von unterschiedlichen Bereichen wie Museen, Bibliotheken, Archiven etc. vorgehalten werden, unter einer Oberfläche durchsucht werden können, können Metadaten auch in diesem Bereich dazu beitragen, ein einheitliches Konzept zur Beschreibung und zum Retrieval von Online-Ressourcen zu entwickeln. Um die verteilt liegenden Dokumente unter einer Oberfläche für eine qualitativ hochwertige Recherche ("Cross-Search`) anbieten zu können, ist die Verständigung auf ein Core-Set an Metadaten und daran anschließend verschiedene Mappingprozesse ("Cross-walk`) von den lokalen Metadatenformaten zu dem Format des Core-Set an Metadaten notwendig. Ziel des Artikels' ist es, die einzelnen Schritte, die für die Entwicklung eines Metadatenprofils für die gemeinsame Suche über verteilte Metadatensammlungen notwendig sind, aufzuzeigen.
    Source
    Bibliothek: Forschung und Praxis. 26(2002) H.3, S.275-296
  20. Fang, L.: ¬A developing search service : heterogeneous resources integration and retrieval system (2004) 0.01
    0.0071741953 = product of:
      0.04304517 = sum of:
        0.011774777 = weight(_text_:information in 1193) [ClassicSimilarity], result of:
          0.011774777 = score(doc=1193,freq=10.0), product of:
            0.054299686 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03093157 = queryNorm
            0.21684799 = fieldWeight in 1193, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1193)
        0.031270392 = weight(_text_:retrieval in 1193) [ClassicSimilarity], result of:
          0.031270392 = score(doc=1193,freq=8.0), product of:
            0.09356537 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03093157 = queryNorm
            0.33420905 = fieldWeight in 1193, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1193)
      0.16666667 = coord(2/12)
    
    Abstract
    This article describes two approaches for searching heterogeneous resources, which are explained as they are used in two corresponding existing systems-RIRS (Resource Integration Retrieval System) and HRUSP (Heterogeneous Resource Union Search Platform). On analyzing the existing systems, a possible framework-the MUSP (Multimetadata-Based Union Search Platform) is presented. Libraries now face a dilemma. On one hand, libraries subscribe to many types of database retrieval systems that are produced by various providers. The libraries build their data and information systems independently. This results in highly heterogeneous and distributed systems at the technical level (e.g., different operating systems and user interfaces) and at the conceptual level (e.g., the same objects are named using different terms). On the other hand, end users want to access all these heterogeneous data via a union interface, without having to know the structure of each information system or the different retrieval methods used by the systems. Libraries must achieve a harmony between information providers and users. In order to bridge the gap between the service providers and the users, it would seem that all source databases would need to be rebuilt according to a uniform data structure and query language, but this seems impossible. Fortunately, however, libraries and information and technology providers are now making an effort to find a middle course that meets the requirements of both data providers and users. They are doing this through resource integration.
    Theme
    Information Gateway

Languages

  • e 52
  • d 32
  • f 1
  • More… Less…

Types

  • a 74
  • el 11
  • x 6
  • m 3
  • r 1
  • s 1
  • More… Less…

Classifications