Search (72 results, page 1 of 4)

  • × theme_ss:"Verteilte bibliographische Datenbanken"
  1. Neuroth, H.: Suche in verteilten "Quality-controlled Subject Gateways" : Entwicklung eines Metadatenprofils (2002) 0.04
    0.037168235 = product of:
      0.08672588 = sum of:
        0.019307088 = weight(_text_:retrieval in 2522) [ClassicSimilarity], result of:
          0.019307088 = score(doc=2522,freq=2.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.16710453 = fieldWeight in 2522, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2522)
        0.035565503 = weight(_text_:bibliothek in 2522) [ClassicSimilarity], result of:
          0.035565503 = score(doc=2522,freq=2.0), product of:
            0.15681393 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03819578 = queryNorm
            0.22680065 = fieldWeight in 2522, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2522)
        0.031853292 = weight(_text_:internet in 2522) [ClassicSimilarity], result of:
          0.031853292 = score(doc=2522,freq=6.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.28247973 = fieldWeight in 2522, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2522)
      0.42857143 = coord(3/7)
    
    Abstract
    Die seit ca. 1996 rasche Entwicklung des Internet bzw. des World Wide Web (WWW) hat die Praxis der Veröffentlichung, Verbreitung und Nutzung wissenschaftlicher Informationen grundlegend verändert. Um diese Informationen suchbar und retrievalfähig zu gestalten, ist in den letzten Jahren international viel diskutiert worden. Ein vielversprechender Ansatz, diesen neuen Herausforderungen zu begegnen, liegt in der Entwicklung von Metadatenprofilen. Da durch das Internet verschiedene Datenbestände, die von unterschiedlichen Bereichen wie Museen, Bibliotheken, Archiven etc. vorgehalten werden, unter einer Oberfläche durchsucht werden können, können Metadaten auch in diesem Bereich dazu beitragen, ein einheitliches Konzept zur Beschreibung und zum Retrieval von Online-Ressourcen zu entwickeln. Um die verteilt liegenden Dokumente unter einer Oberfläche für eine qualitativ hochwertige Recherche ("Cross-Search`) anbieten zu können, ist die Verständigung auf ein Core-Set an Metadaten und daran anschließend verschiedene Mappingprozesse ("Cross-walk`) von den lokalen Metadatenformaten zu dem Format des Core-Set an Metadaten notwendig. Ziel des Artikels' ist es, die einzelnen Schritte, die für die Entwicklung eines Metadatenprofils für die gemeinsame Suche über verteilte Metadatensammlungen notwendig sind, aufzuzeigen.
    Source
    Bibliothek: Forschung und Praxis. 26(2002) H.3, S.275-296
    Theme
    Internet
  2. CARMEN : Content Analysis, Retrieval und Metadata: Effective Networking (1999) 0.03
    0.030158078 = product of:
      0.10555327 = sum of:
        0.05405985 = weight(_text_:retrieval in 5748) [ClassicSimilarity], result of:
          0.05405985 = score(doc=5748,freq=2.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.46789268 = fieldWeight in 5748, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.109375 = fieldNorm(doc=5748)
        0.051493417 = weight(_text_:internet in 5748) [ClassicSimilarity], result of:
          0.051493417 = score(doc=5748,freq=2.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.45665127 = fieldWeight in 5748, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.109375 = fieldNorm(doc=5748)
      0.2857143 = coord(2/7)
    
    Theme
    Internet
  3. Stark, T.: ¬The Net and Z39.50 : toward a virtual union catalog (1997) 0.03
    0.027840534 = product of:
      0.06496125 = sum of:
        0.027029924 = weight(_text_:retrieval in 3194) [ClassicSimilarity], result of:
          0.027029924 = score(doc=3194,freq=2.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.23394634 = fieldWeight in 3194, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3194)
        0.025746709 = weight(_text_:internet in 3194) [ClassicSimilarity], result of:
          0.025746709 = score(doc=3194,freq=2.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.22832564 = fieldWeight in 3194, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3194)
        0.0121846115 = product of:
          0.036553834 = sum of:
            0.036553834 = weight(_text_:29 in 3194) [ClassicSimilarity], result of:
              0.036553834 = score(doc=3194,freq=2.0), product of:
                0.13436082 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03819578 = queryNorm
                0.27205724 = fieldWeight in 3194, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3194)
          0.33333334 = coord(1/3)
      0.42857143 = coord(3/7)
    
    Abstract
    The State Library of Iowa, USA, received a Higher Education Act title II grant from the US Dept. of Education in 1994 to create a demonstration project of new library information technologies. Describes 2 interlinked components of the project: Web-based union catalogue development and statewide deployment of the ANSI/NISO Z39.50 standard for database search and retrieval. Z39.50 was chosen because of its ability to searching multiple remote databases in a single session and its common interface across a variety of implementations. Use of a distributed Z39.50 search makes the need for maintaining large union catalogues unnecessary
    Source
    Computers in libraries. 17(1997) no.10, S.27-29
    Theme
    Internet
  4. Meiert, M.: Elektronische Publikationen an Hochschulen : Modellierung des elektronischen Publikationsprozesses am Beispiel der Universität Hildesheim (2006) 0.03
    0.02774067 = product of:
      0.06472823 = sum of:
        0.023168506 = weight(_text_:retrieval in 5974) [ClassicSimilarity], result of:
          0.023168506 = score(doc=5974,freq=2.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.20052543 = fieldWeight in 5974, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=5974)
        0.031209724 = weight(_text_:internet in 5974) [ClassicSimilarity], result of:
          0.031209724 = score(doc=5974,freq=4.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.27677247 = fieldWeight in 5974, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=5974)
        0.010350002 = product of:
          0.031050006 = sum of:
            0.031050006 = weight(_text_:22 in 5974) [ClassicSimilarity], result of:
              0.031050006 = score(doc=5974,freq=2.0), product of:
                0.13375512 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03819578 = queryNorm
                0.23214069 = fieldWeight in 5974, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5974)
          0.33333334 = coord(1/3)
      0.42857143 = coord(3/7)
    
    Abstract
    Das Internet verändert die Rahmenbedingungen des wissenschaftlichen Publikationswesens einschneidend. Wissenschaftliche Dokumente sind zunehmend elektronisch verfügbar und beginnen, die klassischen Wissenschaftsmedien wie Fachbücher und Fachzeitschriften zu verdrängen. Die Implementierung eines elektronischen Publikationsprozesses ist Voraussetzung für die erfolgreiche Verbreitung wissenschaftlicher Dokumente per Internet. Die Umsetzung setzt jedoch die Einhaltung bestimmter Vorgaben und Regularien voraus, sonst drohen Inkompatibilitäten zwischen den Systemen. Im Kontext von Urheberrechtsnovellierung und Open Access-Bewegung erläutert dieser Beitrag technische und rechtliche Rahmenbedingungen von Online-Publikationen und stellt Projekte und Initiativen vor, die sich auf dem Feld des wissenschaftlichen Publikationswesens betätigen. Ausführlich wurden Problembereiche des aktuellen Publikationsprozesses von Abschlussarbeiten im Studiengang Internationales Informationsmanagement an der Universität Hildesheim mit Hilfe von Interviews untersucht. Auf Grundlage der Zustandsanalyse wurde anschließend der elekronische Publikationsprozess modelliert.
    Date
    1. 9.2006 13:22:15
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  5. Dempsey, L.; Russell, R.; Kirriemur, J.W.: Towards distributed library systems : Z39.50 in a European context (1996) 0.02
    0.024669115 = product of:
      0.086341895 = sum of:
        0.030891342 = weight(_text_:retrieval in 127) [ClassicSimilarity], result of:
          0.030891342 = score(doc=127,freq=2.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.26736724 = fieldWeight in 127, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=127)
        0.05545055 = product of:
          0.08317582 = sum of:
            0.04177581 = weight(_text_:29 in 127) [ClassicSimilarity], result of:
              0.04177581 = score(doc=127,freq=2.0), product of:
                0.13436082 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03819578 = queryNorm
                0.31092256 = fieldWeight in 127, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=127)
            0.041400008 = weight(_text_:22 in 127) [ClassicSimilarity], result of:
              0.041400008 = score(doc=127,freq=2.0), product of:
                0.13375512 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03819578 = queryNorm
                0.30952093 = fieldWeight in 127, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=127)
          0.6666667 = coord(2/3)
      0.2857143 = coord(2/7)
    
    Abstract
    Z39.50 is an information retrieval protocol. It has generated much interest but is so far little deployed in UK systems and services. Gives a functional overview of the protocol itself and the standards background, describes some European initiatives which make use of it, and outlines various issues to do with its future use and acceptance. Z39.50 is a crucial building block of future distributed information systems but it needs to be considered alongside other protocols and services to provide useful applications
    Date
    3. 3.1999 17:29:59
    Source
    Program. 30(1996) no.1, S.1-22
  6. Nicholson, D.; Steele, M.: CATRIONA : a distributed, locally-oriented, Z39.50 OPAC-based approach to cataloguing the Internet (1996) 0.02
    0.023823049 = product of:
      0.055587113 = sum of:
        0.023168506 = weight(_text_:retrieval in 603) [ClassicSimilarity], result of:
          0.023168506 = score(doc=603,freq=2.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.20052543 = fieldWeight in 603, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=603)
        0.022068607 = weight(_text_:internet in 603) [ClassicSimilarity], result of:
          0.022068607 = score(doc=603,freq=2.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.1957077 = fieldWeight in 603, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=603)
        0.010350002 = product of:
          0.031050006 = sum of:
            0.031050006 = weight(_text_:22 in 603) [ClassicSimilarity], result of:
              0.031050006 = score(doc=603,freq=2.0), product of:
                0.13375512 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03819578 = queryNorm
                0.23214069 = fieldWeight in 603, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=603)
          0.33333334 = coord(1/3)
      0.42857143 = coord(3/7)
    
    Abstract
    The aims of CATRIONA were: (1) to investigate the requirements for developing procedures and applications for cataloguing and retrieval of networked resources, and (2) to explore the feasibility of a collaborative project to develop such applications and procedures and integrate them with existing library systems. The project established that a distributed catalogue of networked resources integrated with standard Z39.50 library system OPAC interfaces with information on hard-copy resources is already a practical proposition at a basic level. At least one Z39.50 OPAC client can search remote Z39.50 OPACs, retrieve USMARC records with URLs in 856$u, load a viewer like Netscape, and use it to retrieve and display the remotely held electronic resource on the local workstation. A follow-up project on related issues is being finalised.
    Source
    Cataloging and classification quarterly. 22(1996) nos.3/4, S.127-141
  7. Becker, H.-J.; Hengel, C.; Neuroth, H.; Weiß, B.; Wessel, C.: ¬Die Virtuelle Fachbibliothek als Schnittstelle für eine fachübergreifende Suche in den einzelnen Virtuellen Fachbibliotheken : Definition eines Metadaten-Kernsets (VLib Application Profile) (2002) 0.02
    0.021801522 = product of:
      0.07630532 = sum of:
        0.050297216 = weight(_text_:bibliothek in 2856) [ClassicSimilarity], result of:
          0.050297216 = score(doc=2856,freq=4.0), product of:
            0.15681393 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03819578 = queryNorm
            0.32074454 = fieldWeight in 2856, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2856)
        0.026008105 = weight(_text_:internet in 2856) [ClassicSimilarity], result of:
          0.026008105 = score(doc=2856,freq=4.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.23064373 = fieldWeight in 2856, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2856)
      0.2857143 = coord(2/7)
    
    Abstract
    Der folgende Beitrag beschäftigt sich nicht mit einer konkreten Virtuellen Fachbibliothek, sondern mit dem übergreifenden Themenkomplex "Metadaten" und der Fragestellung, wie Metadaten für eine fachübergreifende Suche über alle Virtuellen Fachbibliotheken eingesetzt werden können. Im Rahmen des Aufbaus der Virtuellen Fachbibliotheken hat die Projektkoordinierung Unterarbeitsgruppen zur Lösung spezifischer Fragestellungen ins Leben gerufen. Der Arbeitsbereich "Metadaten" ist von dem von der DFG geförderten Projekt META-LIB (Metadaten-Initiative deutscher Bibliotheken) mit den Teilprojekten an Der Deutschen Bibliothek und der SUB Göttingen übernommen worden. META-LIB erhielt die Aufgabe, "Empfehlungen zur Definition eines Metadaten-Core-Sets für die verteilte Suche über die Virtuellen Fachbibliotheken" zu entwickeln. Im folgenden werden die Empfehlungen vorgestellt. Sie basieren auf den Ergebnissen und der Auswertung von Antworteng eines Internet-Fragebogens, in dem die Datenelemente erfragt wurden, die in den einzelnen Virtuellen Fachbibliotheken zur Erschließung verwendet bzw. benötigt werden. Für die Formulierung der Empfehlungen und zur Abstimmung sind zwei MetadatenWorkshops (am 16. Mai 2001 in der SUB Göttingen und am 9./10. August 2001 in der Deutschen Bibliothek Frankfurt am Main) durchgeführt worden, deren Ergebnisse und Diskussionen als Grundlage dienen.
    Theme
    Internet
  8. Fritz, M.-L.: Zugang zu verteilten bibliografischen Datenbeständen : Konzepte und Realisierungen für heterogene Umgebungen (2003) 0.02
    0.021555377 = product of:
      0.07544382 = sum of:
        0.032765217 = weight(_text_:retrieval in 2504) [ClassicSimilarity], result of:
          0.032765217 = score(doc=2504,freq=4.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.2835858 = fieldWeight in 2504, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=2504)
        0.042678602 = weight(_text_:bibliothek in 2504) [ClassicSimilarity], result of:
          0.042678602 = score(doc=2504,freq=2.0), product of:
            0.15681393 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03819578 = queryNorm
            0.27216077 = fieldWeight in 2504, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.046875 = fieldNorm(doc=2504)
      0.2857143 = coord(2/7)
    
    Abstract
    Das steigende Angebot an Datenbanken und weiteren Systeme im Bereich bibliografischer Informationen führt dazu, dass es für Benutzer sehr mühsam und mit einem enormen Zeitaufwand verbunden ist, in allen einzelnen Systemen zu recherchieren, da diese unterschiedliche Benutzeroberflächen und Recherchemöglichkeiten anbieten. Verteilte bibliografische Informationssysteme ermöglichen einen einheitlichen Einstiegspunkt zu heterogenen Systemen. Sie bündeln verschiedene Angebote. In diesem Text wird ein Überblick über diese verteilten Informationssysteme gegeben. Es wird dargestellt, wie eine Suche in einem solchen System abläuft, welche weiteren Funktionen angeboten werden können. Darüber hinaus wird betrachtet, wie verteilte Informationssysteme aufgebaut und vernetzt sind. Die Darstellungen werden verdeutlicht durch praktische Beispiele aus dem Bibliotheks- und Informationswesen. Insbesondere wird auf den KVK, ZACK, die KOBVSuchmaschine, die Digitale Bibliothek NRW, das DIMDI, vascoda und Renardus eingegangen.
    Content
    Die Abbildung zeigt in einer Tabelle die Unterschiede zwischen einem Retrieval in verteilten Datenbanken und einem Retrieval nach Harvesting in einer Datenbank
  9. Hakala, J.: Z39.50-1995: information retrieval protocol : an introduction to the standard and it's usage (1996) 0.02
    0.020889077 = product of:
      0.073111765 = sum of:
        0.043686952 = weight(_text_:retrieval in 3340) [ClassicSimilarity], result of:
          0.043686952 = score(doc=3340,freq=4.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.37811437 = fieldWeight in 3340, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=3340)
        0.02942481 = weight(_text_:internet in 3340) [ClassicSimilarity], result of:
          0.02942481 = score(doc=3340,freq=2.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.2609436 = fieldWeight in 3340, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=3340)
      0.2857143 = coord(2/7)
    
    Abstract
    This article describes the Internet information retrieval protocol, Z39.50, and it's usage. The services of Z39.50 are depicted, as are some important terms related to the standard. A description of the OPAC Network in Europe (ONE), an important Z39.50 implementation project is included
  10. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Ein Halbzeitbericht (2001) 0.02
    0.02075474 = product of:
      0.048427727 = sum of:
        0.026752688 = weight(_text_:retrieval in 5900) [ClassicSimilarity], result of:
          0.026752688 = score(doc=5900,freq=6.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.23154683 = fieldWeight in 5900, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
        0.014712405 = weight(_text_:internet in 5900) [ClassicSimilarity], result of:
          0.014712405 = score(doc=5900,freq=2.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.1304718 = fieldWeight in 5900, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
        0.0069626356 = product of:
          0.020887906 = sum of:
            0.020887906 = weight(_text_:29 in 5900) [ClassicSimilarity], result of:
              0.020887906 = score(doc=5900,freq=2.0), product of:
                0.13436082 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03819578 = queryNorm
                0.15546128 = fieldWeight in 5900, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5900)
          0.33333334 = coord(1/3)
      0.42857143 = coord(3/7)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
    Theme
    Internet
  11. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Bericht über den middleOfTheRoad Workshop (2001) 0.02
    0.02075474 = product of:
      0.048427727 = sum of:
        0.026752688 = weight(_text_:retrieval in 5901) [ClassicSimilarity], result of:
          0.026752688 = score(doc=5901,freq=6.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.23154683 = fieldWeight in 5901, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
        0.014712405 = weight(_text_:internet in 5901) [ClassicSimilarity], result of:
          0.014712405 = score(doc=5901,freq=2.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.1304718 = fieldWeight in 5901, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
        0.0069626356 = product of:
          0.020887906 = sum of:
            0.020887906 = weight(_text_:29 in 5901) [ClassicSimilarity], result of:
              0.020887906 = score(doc=5901,freq=2.0), product of:
                0.13436082 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03819578 = queryNorm
                0.15546128 = fieldWeight in 5901, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5901)
          0.33333334 = coord(1/3)
      0.42857143 = coord(3/7)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
    Theme
    Internet
  12. Kunz, M.: Subject retrieval in distributed resources : a short review of recent developments (2003) 0.02
    0.020732546 = product of:
      0.07256391 = sum of:
        0.046817202 = weight(_text_:retrieval in 1624) [ClassicSimilarity], result of:
          0.046817202 = score(doc=1624,freq=6.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.40520695 = fieldWeight in 1624, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1624)
        0.025746709 = weight(_text_:internet in 1624) [ClassicSimilarity], result of:
          0.025746709 = score(doc=1624,freq=2.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.22832564 = fieldWeight in 1624, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1624)
      0.2857143 = coord(2/7)
    
    Abstract
    Subject-based retrieval in distributed resources is a current problem in online searches for bibliographic references. Building portals to similar resources is only the ferst step, the subsequent navigation via different search interfaces presents certain difficulties. To make retrieval easier it is necessary to adapt these different resources. Potential approaches (standardisation as opposed to "cross-walks") and methods (automated as opposed to intellectual effort) will be discussed. This includes a Brief appraisal of the future of work with multilingual terminology: - The "classical" approach (Multilingual Thesauri), - The "Internet" approach (linking) Recent developments in mono- and multilingual environments will be presented (MACS, CARMEN, Economics Crosswalk).
  13. Wei, W.: SOAP als Basis für verteilte, heterogene virtuelle OPACs (2002) 0.02
    0.019477282 = product of:
      0.06817048 = sum of:
        0.036960755 = weight(_text_:bibliothek in 4097) [ClassicSimilarity], result of:
          0.036960755 = score(doc=4097,freq=6.0), product of:
            0.15681393 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03819578 = queryNorm
            0.23569816 = fieldWeight in 4097, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
        0.031209724 = weight(_text_:internet in 4097) [ClassicSimilarity], result of:
          0.031209724 = score(doc=4097,freq=16.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.27677247 = fieldWeight in 4097, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
      0.2857143 = coord(2/7)
    
    Abstract
    Eine wichtige Aufgabe der Informationsverarbeitung als fachbezogene Informatik besteht darin, die neue Entwicklung der Informationstechnologie zu verfolgen, sich damit auseinanderzusetzen, inwieweit diese Entwicklung die Forschung sowie die Anwendung in der Geisteswissenschaft unterstützen kann, und die daraus entstandenen Konzepte zu realisieren. Das im Jahre 1999 veröffentlichte Nachrichtenaustauschprotokoll SOAP (Abkürzung für Simple Object Access Protocol) entstand vor dem Hintergrund der schnellen Entwicklung der Vernetzung besonders des Internets. In den letzten Jahren hat SOAP große Aufmerksamkeit auf sich gezogen, weil man mit SOAP einige Beschränkungen der vorhandenen Techniken überwinden kann und damit die Leistungsfähigkeit der Software sowie Anwendung wesentlich verbessern kann. Ziel der Magisterarbeit liegt darin, einerseits theoretisch über die Möglichkeit des Einsetzens von SOAP in der Bibliotheksanwendung zu untersuchen, andererseits das Ergebnis der theoretischen Untersuchung in die Praxis umzusetzen, d.h. das Konzept eines Bibliotheksanwendungssystems mit dem Einsatz von SOAP zusammenzustellen und es zu realisieren. SOAP ist ein Nachrichtenprotokoll, das die Kommunikationen zwischen entfernten Systemen unterstützt. In der Arbeit wird durch eine theoretische Untersuchung gezeigt, dass SOAP sich besonders gut für die in der stark heterogenen Umgebung wie Internet verteilte Anwendung eignet. Eine der häufig von dem Bibliotheksystem über das Internet angebotenen verteilten Anwendungen ist der verteilte OPAC. Ein verteilter OPAC bietet eine verteilte Suche in mehreren Bibliothekssystemen an. Die meisten bisherigen Bibliothekssysteme realisieren die verteilte Suche vorwiegend mit der Unterstützung des Protokolls Z39.50. Durch die theoretische Untersuchung ist es zu sehen, dass mit dem Einsatz von SOAP einerseits der Arbeitsaufwand in der Realisierung bzw. die Verwaltung des Systems verglichen mit dem Z39.50 reduziert, andererseits die Funktionalität des Systems stark erweitert wird, dass eine Zusammenarbeit des Bibliothekssystems mit den Systemen anderer Bereiche leicht realisiert werden kann. Als praktisches Projekt der Magisterarbeit wird ein System der verteilten OPACs mit SOAP als Nachrichtenaustauschprotokoll entwickelt.
    Content
    Überblick über die Kapitel In Kapitel l. Simple Object Acces Protocol (SOAP) wird zuerst der Hintergrund der Entwicklung von SOAP untersucht. Mit einer kurzen Vorstellung der Entwicklung von verteilter Anwendung bis Web Service wird die Situation dargestellt, dass die vorhandenen Standards wie CORBA, DCOM sowie RMI die Ansprüche der stark heterogenen Umgebung wie Internet nicht erfüllen können. Um diesen Mangel der vorhandenen Lösungen zu überwinden, wurde SOAP mit dem Ziel der Unterstützung des plattformenunabhängigen Nachrichtenaustausches entwickelt. Anschließend wird der Begriff Web Service eingeführt, mit dem SOAP stark verbunden ist. Dabei wird über die Möglichkeit des Einsatzes von SOAP in den Bibliothekssystemen diskutiert. Schließlich wird SOAP durch unterschiedliche Aspekte wie SOAP und XML, SOAP Nachricht, Fehler Behandlung usw. untersucht. In Kapitel 3. Die durch Internet erweiterte Bibliothek wird die Beziehung zwischen dem Internet und der Bibliothek aus zwei Sichten, die verteilte Suche und Metadaten, beschrieben. In dem Teil über die verteilte Suche wird vorwiegend das Protokoll Z39.50, womit die bisherigen verteilten Bibliothekssysteme realisiert werden, dargestellt. In dem Teil der Metadaten wird sich zuerst mit der Bedeutung der Metadaten für die Bibliothek sowie für das Internet auseinandergesetzt. Anschließend wird über die existierenden Probleme der Metadaten und die Lösungsmöglichkeiten diskutiert. Schließlich wird eine Untersuchung einiger Metadatenstandards mit Dublin Core als Schwerpunkt durchgeführt, weil Dublin Core zur Zeit der Standard für das Internet und aus diesem Grund auch fir die Internet bezogene Bibliotheksanwendung wichtig ist. In Kapitel 4. Die Entwicklung eines verteilten Bibliothekssystems mit dem SOAP-Einsatz wird die Entwicklung des praktischen Projektes beschrieben. Zuerst wird das Ziel und die Funktionalität des Projektes festgelegt, dass ein verteiltes Bibliothekssystem mit dem Einsatz von SOAP entwickelt wird und das System eine verteilte Suche auf mehreren entfernten Bibliotheksdatenbanken ermöglichen soll. Anschließend wird beschrieben, in welchen Schritten das System entworfen und implementiert wird. Mit dem ersten System kann man nur in einer Datenbank suchen, während man mit dem zweiten System parallel in zwei Datenbanken suchen kann. Dublin Core wird als der Metadatenstandard im gesamten System eingesetzt. Die im System verwendeten Softwarepakete und die Softwarestandardtechnologien werden vorgestellt. Es wird untersucht, wie einzelne technische Komponenten zusammenarbeiten. Schließlich wird die Entwicklung der einzelnen Programmmodule und die Kommunikation zwischen ihnen beschrieben.
  14. Groenbaek, K.; Trigg, R.H.: From Web to workplace : designing open hypermedia systems (1999) 0.02
    0.018578608 = product of:
      0.06502512 = sum of:
        0.044137213 = weight(_text_:internet in 6096) [ClassicSimilarity], result of:
          0.044137213 = score(doc=6096,freq=2.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.3914154 = fieldWeight in 6096, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.09375 = fieldNorm(doc=6096)
        0.020887908 = product of:
          0.06266372 = sum of:
            0.06266372 = weight(_text_:29 in 6096) [ClassicSimilarity], result of:
              0.06266372 = score(doc=6096,freq=2.0), product of:
                0.13436082 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03819578 = queryNorm
                0.46638384 = fieldWeight in 6096, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6096)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Date
    21. 4.2001 12:58:29
    Theme
    Internet
  15. Hodoroaba, L.; Imhof, A.; Kuberek, M.: ¬Das KOBV-Portal, elektronische Ressourcen in Berlin-Brandenburg : Nachweis, parallele Suche und weiterführende Dienste (2004) 0.02
    0.016536348 = product of:
      0.057877213 = sum of:
        0.028452402 = weight(_text_:bibliothek in 2813) [ClassicSimilarity], result of:
          0.028452402 = score(doc=2813,freq=2.0), product of:
            0.15681393 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03819578 = queryNorm
            0.18144052 = fieldWeight in 2813, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03125 = fieldNorm(doc=2813)
        0.02942481 = weight(_text_:internet in 2813) [ClassicSimilarity], result of:
          0.02942481 = score(doc=2813,freq=8.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.2609436 = fieldWeight in 2813, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=2813)
      0.2857143 = coord(2/7)
    
    Abstract
    Das Projekt "KOBV-Informationsportal" In den vergangenen Jahren hat der Kooperative Bibliotheksverbund BerlinBrandenburg (KOBV) mit der KOBV-Suchmaschine eine Internet-Plattform mit einer offenen Architektur geschaffen. Auf dieser technischen Basis erweitert er kontinuierlich sein Dienstleistungsangebot, wobei die Prinzipien des KOBV - insbesondere Offenheit, Heterogenität und Dezentralität auf technischer und organisatorischer Ebene - gewahrt bleiben. Mitte 2001 hat die KOBV-Zentrale gemeinsam mit den regionalen Bibliotheken das zweite große Entwicklungsprojekt "KOBV-Informationsportal" gestartet. Zielsetzung war der Aufbau eines kooperativen regionalen Portals mit Einsatz von Linking-Mechanismen zur "nahtlosen" Navigation in freien und lizenzierten Dokumenten und mit Einsatz von Instrumenten zur dezentralen Authentifizierung und Autorisierung über das Internet. Im Dezember 2003 hat das "KOBV-Portal - Digitale Bibliothek Berlin-Brandenburg" planmäßig in einer ersten Ausbaustufe den Routinebetrieb aufgenommen. Das KOBV-Portal bietet in dieser Stufe den Nachweis über die in den großen Bibliotheken lizenzierten Ressourcen und elektronischen Zeitschriften, zudem die nahtlose Navigation mittels des Reference-LinkingWerkzeuges SFX zu verschiedenen Diensten wie Fernleihe, Subito und freien Volltexten im Internet sowie zu frei zugänglichen elektronischen Zeitschriften. Die mit der verteilten Authentifizierung und Autorisierung verbundene Zielsetzung konnte im Rahmen des Projektes erst zum Teil umgesetzt werden. Realisiert wurde die Remote-Authentifizierung, mit der sich ein Nutzer, der online eine Fernleih-Bestellung aufgeben möchte, über das Internet in seiner Heimatbibliothek authentifizieren kann. Des weiteren ist der Zugriff auf lizenzierte Bestände im Campus einer Hochschule mittels IP-Checking möglich. Als weiteren wesentlichen Bestandteil des KOBV-Portals hat die KOBVZentrale mit den Bibliotheken einen Workflow für ein Metadata-Sharing abgestimmt und für die Adaption und Normalisierung lokaler Metadaten aus lokalen Bibliothekssystemen und -Portalen den KOBV-Metadaten-AustauschParser (KMA-Parser) entwickelt. Darüber hinaus sollen Bibliotheken, deren Metadaten bislang lediglich in unstrukturierter Form vorliegen, in die Lage versetzt werden, strukturierte Metadaten anzulegen, zu liefern und nachzunutzen. Dazu hat die KOBV-Zentrale das mit einer Web-Katalogisierungsschnittstelle ausgestattete "Metadata-Tool" entwickelt, das im Herbst 2004 in Betrieb genommen wird. Die für das Metadata-Sharing entwickelten Komponenten und Module sollen den Bibliotheken die Mehrfacherfassung ersparen und ihnen die Möglichkeit der wechselseitigen Nachnutzung der Metadaten eröffnen.
  16. Schneider, W.: ¬Ein verteiltes Bibliotheks-Informationssystem auf Basis des Z39.50 Protokolls (1999) 0.02
    0.015868068 = product of:
      0.055538237 = sum of:
        0.041612964 = weight(_text_:internet in 4773) [ClassicSimilarity], result of:
          0.041612964 = score(doc=4773,freq=4.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.36902997 = fieldWeight in 4773, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=4773)
        0.013925271 = product of:
          0.04177581 = sum of:
            0.04177581 = weight(_text_:29 in 4773) [ClassicSimilarity], result of:
              0.04177581 = score(doc=4773,freq=2.0), product of:
                0.13436082 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03819578 = queryNorm
                0.31092256 = fieldWeight in 4773, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4773)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Abstract
    Diese Diplomarbeit beschreibt ein verteiltes Bibliothes-Informationssystem für bibliographische Datenbnaken im Internet. Der Name des Systems ist ZACK. Der Benutzer kann mit ZACK in einer oder mehreren bibliographischen Datenbanken nach einem Dokument suchen und die Treffer in die eigene lokale Datenbank übernehmen. Mit der Übernahme der Datensätze aus einer fremden Datenbank wird die Erfassung neuer Dokumente wesentlich erleichtert, da die Eigenkatalogisierung auf ein Minimum beschränkt werden kann. Bei der verteilten Suche mit ZACK wird parallel in mehreren Datenbanken gesucht. Dubletten werden als solche erkannt
    Date
    17. 5.2000 20:29:41
    Theme
    Internet
  17. Mönnich, M.; Dierolf, U.: 20 Jahre Karlsruher virtueller Katalog (KVK) (2016) 0.02
    0.015868068 = product of:
      0.055538237 = sum of:
        0.041612964 = weight(_text_:internet in 3190) [ClassicSimilarity], result of:
          0.041612964 = score(doc=3190,freq=4.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.36902997 = fieldWeight in 3190, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=3190)
        0.013925271 = product of:
          0.04177581 = sum of:
            0.04177581 = weight(_text_:29 in 3190) [ClassicSimilarity], result of:
              0.04177581 = score(doc=3190,freq=2.0), product of:
                0.13436082 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03819578 = queryNorm
                0.31092256 = fieldWeight in 3190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3190)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Abstract
    Vor 20 Jahren, genau gesagt am 26. Juli 1996, erblickte die Literatursuchmaschine "KVK" das Licht der Internet-Welt. Seit damals wurden mehrere Milliarden Suchanfragen von Karlsruhe aus an andere Web-Kataloge von Bibliotheken und Verbünden geschickt, Trefferlisten ausgewertet und den Nutzern in einheitlicher Form präsentiert. Dieser Beitrag erklärt, warum der KVK entwickelt wurde und warum es diesen "Internet-Dino" auch heute noch gibt und beschreibt den aktuellen Stand.
    Date
    24.10.2016 19:29:10
  18. Nicholson, D.; Wake, S.: HILT: subject retrieval in a distributed environment (2003) 0.02
    0.015666807 = product of:
      0.054833822 = sum of:
        0.032765217 = weight(_text_:retrieval in 3810) [ClassicSimilarity], result of:
          0.032765217 = score(doc=3810,freq=4.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.2835858 = fieldWeight in 3810, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=3810)
        0.022068607 = weight(_text_:internet in 3810) [ClassicSimilarity], result of:
          0.022068607 = score(doc=3810,freq=2.0), product of:
            0.11276311 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03819578 = queryNorm
            0.1957077 = fieldWeight in 3810, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=3810)
      0.2857143 = coord(2/7)
    
    Abstract
    The HILT High Level Thesaurus Project aims to study and report an the problern of cross-searching and browsing by subject across a range of communities, services, and service or resource types in the UK given the wide range of subject schemes and associated practices in place in the communities in question (Libraries, Museums, Archives, and Internet Services) and taking the international context into consideration. The paper reports an progess to date, focusing particularly an the inter-community consensus reached at a recent Stakeholder Workshop.
    Source
    Subject retrieval in a networked environment: Proceedings of the IFLA Satellite Meeting held in Dublin, OH, 14-16 August 2001 and sponsored by the IFLA Classification and Indexing Section, the IFLA Information Technology Section and OCLC. Ed.: I.C. McIlwaine
  19. Friedrich, M.; Schimkat, R.-D.; Küchlin, W.: Information retrieval in distributed environments based on context-aware, proactive documents (2002) 0.01
    0.014403056 = product of:
      0.050410695 = sum of:
        0.038226083 = weight(_text_:retrieval in 3608) [ClassicSimilarity], result of:
          0.038226083 = score(doc=3608,freq=4.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.33085006 = fieldWeight in 3608, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3608)
        0.0121846115 = product of:
          0.036553834 = sum of:
            0.036553834 = weight(_text_:29 in 3608) [ClassicSimilarity], result of:
              0.036553834 = score(doc=3608,freq=2.0), product of:
                0.13436082 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03819578 = queryNorm
                0.27205724 = fieldWeight in 3608, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3608)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Abstract
    In this position paper we propose a document-centric middleware component called Living Documents to support context-aware information retrieval in distributed communities. A Living Document acts as a micro server for a document which contains computational services, a semi-structured knowledge repository to uniformly store and access context-related information, and finally the document's digital content. Our initial prototype of Living Documents is based an the concept of mobile agents and implemented in Java and XML.
    Source
    Gaining insight from research information (CRIS2002): Proceedings of the 6th International Conference an Current Research Information Systems, University of Kassel, August 29 - 31, 2002. Eds: W. Adamczak u. A. Nase
  20. Jahns, Y.; Trummer, M.: Sacherschließung - Informationsdienstleistung nach Maß : Kann Heterogenität beherrscht werden? (2004) 0.01
    0.012960522 = product of:
      0.045361828 = sum of:
        0.0077228355 = weight(_text_:retrieval in 2789) [ClassicSimilarity], result of:
          0.0077228355 = score(doc=2789,freq=2.0), product of:
            0.11553899 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03819578 = queryNorm
            0.06684181 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.037638992 = weight(_text_:bibliothek in 2789) [ClassicSimilarity], result of:
          0.037638992 = score(doc=2789,freq=14.0), product of:
            0.15681393 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03819578 = queryNorm
            0.24002326 = fieldWeight in 2789, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
      0.2857143 = coord(2/7)
    
    Content
    "... unter diesem Motto hat die Deutsche Bücherei Leipzig am 23. März 2004 auf dem Leipziger Kongress für Bibliothek und Information eine Vortragsreihe initiiert. Vorgestellt wurden Projekte, die sich im Spannungsfeld von Standardisierung und Heterogenität der Sacherschließung bewegen. Die Benutzer unserer Bibliotheken und Informationseinrichtungen stehen heute einer Fülle von Informationen gegenüber, die sie aus zahlreichen Katalogen und Fachdatenbanken abfragen können. Diese Recherche kann schnell zeitraubend werden, wenn der Benutzer mit verschiedenen Suchbegriffen und -logiken arbeiten muss, um zur gewünschten Ressource zu gelangen. Ein Schlagwort A kann in jedem der durchsuchten Systeme eine andere Bedeutung annehmen. Homogenität erreicht man klassisch zunächst durch Normierung und Standardisierung. Für die zwei traditionellen Verfahren der inhaltlichen Erschließung - der klassifikatorischen und der verbalen - haben sich in Deutschland verschiedene Standards durchgesetzt. Klassifikatorische Erschließung wird mit ganz unterschiedlichen Systemen betrieben. Verbreitet sind etwa die Regensburger Verbundklassifikation (RVK) oder die Basisklassifikation (BK). Von Spezial- und Facheinrichtungen werden entsprechende Fachklassifikationen eingesetzt. Weltweit am häufigsten angewandt ist die Dewey Decimal Classification (DDC), die seit 2003 ins Deutsche übertragen wird. Im Bereich der verbalen Sacherschließung haben sich, vor allem bei den wissenschaftlichen Universalbibliotheken, die Regeln für den Schlagwortkatalog (RSWK) durchgesetzt, durch die zugleich die Schlagwortnormdatei (SWD) kooperativ aufgebaut wurde. Daneben erschließen wiederum viele Spezial- und Facheinrichtungen mit selbst entwickelten Fachthesauri.
    Neben die Pflege der Standards tritt als Herausforderung die Vernetzung der Systeme, um heterogene Dokumentenbestände zu verbinden. »Standardisierung muss von der verbleibenden Heterogenität her gedacht werden«." Diese Aufgaben können nur in Kooperation von Bibliotheken und Informationseinrichtungen gelöst werden. Die vorgestellten Projekte zeigen, wie dies gelingen kann. Sie verfolgen alle das Ziel, Informationen über Inhalte schneller und besser für die Nutzer zur Verfügung zu stellen. Fachliche Recherchen über mehrere Informationsanbieter werden durch die Heterogenität überwindende Suchdienste ermöglicht. Die Einführung der DDC im deutschen Sprachraum steht genau im Kern des Spannungsfeldes. Die DDC stellt durch ihren universalen Charakter nicht nur einen übergreifenden Standard her. Ihre Anwendung ist nur nutzbringend, wenn zugleich die Vernetzung mit den in Deutschland bewährten Klassifikationen und Thesauri erfolgt. Ziel des Projektes DDC Deutsch ist nicht nur eine Übersetzung ins Deutsche, die DDC soll auch in Form elektronischer Dienste zur Verfügung gestellt werden. Dr. Lars Svensson, Deutsche Bibliothek Frankfurt am Main, präsentierte anschaulichdie Möglichkeiten einer intelligenten Navigation über die DDC. Für die Dokumentenbestände Der Deutschen Bibliothek, des Gemeinsamen Bibliotheksverbundes (GBV) und der Niedersächsischen Staats- und Universitätsbibliothek Göttingen wurde prototypisch ein Webservice realisiert.
    Dieses DDC-Tool ermöglicht den Zugriff auf lokale, mit DDC-erschlossene Titeldaten. Für einige bereits übersetzte DDC-Klassen kann mithilfe eines Browsers gearbeitet werden. Auch die gezielte verbale Suche nach DDC-Elementen ist möglich. Die Frage nach Aspekten, wie z. B. geografischen, soll durch getrennte Ablage der Notationselemente in den Titeldatensätzen ermöglicht werden. Schließlich lassen sich künftig auch integrierte Suchen über DDC und SWD oder andere Erschließungssysteme denken, um Literatur zu einem Thema zu finden. Das von Lars Svensson vorgestellte Retrieval-Interface bietet eine zentrale Lösung: nicht für jeden lokalen OPAC müssen eigene Suchstrukturen entwickelt werden, um auf DDC-Daten zugreifen zu können. Wie Datenbestände mit verschiedenen Erschließungen unter einer Oberfläche zusammengeführt werden und dabei die DDC als Meta-Ebene genutzt wird, das ist heute schon im Subject Gateway Renardus sichtbar." Der Renardus-Broker ermöglicht das Cross-Browsen und Cross-Searchen über verteilte Internetquellen in Europa. Für die Navigation über die DDC mussten zunächst Crosswalks zwischen den lokalen Klassifikationsklassen und der DDC erstellt werden. Das an der Universitätsbibliothek Regensburg entwickelte Tool CarmenX wurde dazu von der Niedersächsischen Staats- und Universitätsbibliothek Göttingen weiterentwickelt und ermöglicht den Zugriff auf die ver schiedenen Klassifikationssysteme. Über diese Entwicklungen berichtete Dr. Friedrich Geißelmann, Universitäsbibliothek Regensburg. Er leitete das CARMEN-Teilprojekt »Grosskonkordanzen zwischen Thesauri und Klassifikationen«, in dem das Werkzeug CarmenX entstand. In diesem CARMEN-Arbeitspaket erfolgten sowohl grundlegende methodische Untersuchungen zu Crosskonkordanzen als auch prototypische Umsetzungen in den Fachgebieten Mathematik, Physik und Sozialwissenschaften. Ziel war es, bei Recherchen in verteilten Datenbanken mit unterschiedlichen Klassifikationen und Thesauri von einem vertrauten System auszugehen und in weitere wechseln zu können, ohne genaue Kenntnis von den Systemen haben zu müssen. So wurden z. B. im Bereich Crosskonkordanzen zwischen Allgemein- und Fachklassifikationen die RVK und die Mathematical Subject Classification (MSC) und Physics and Astronomy Classification Scheme (PACS) ausgewählt.
    Katja Heyke, Universitäts- und Stadtbibliothek Köln, und Manfred Faden, Bibliothek des HWWA-Instituts für Wirtschaftsforschung Hamburg, stellten ähnliche Entwicklungen für den Fachbereich Wirtschaftswissenschaften vor. Hier wird eine Crosskonkordanz zwischen dem Standard Thesaurus Wirtschaft (STW) und dem Bereich Wirtschaft der SWD aufgebaut." Diese Datenbank soll den Zugriff auf die mit STW und SWD erschlossenen Bestände ermöglichen. Sie wird dazu weitergegeben an die virtuelle Fachbibliothek EconBiz und an den Gemeinsamen Bibliotheksverbund. Die Crosskonkordanz Wirtschaft bietet aber auch die Chance zur kooperativen Sacherschließung, denn sie eröffnet die Möglichkeit der gegenseitigen Übernahme von Sacherschließungsdaten zwischen den Partnern Die Deutsche Bibliothek, Universitäts- und Stadtbibliothek Köln, HWWA und Bibliothek des Instituts für Weltwirtschaft Kiel. Am Beispiel der Wirtschaftswissenschaften zeigt sich der Gewinn solcher KonkordanzProjekte für Indexierer und Benutzer. Der Austausch über die Erschließungsregeln und die systematische Analyse der Normdaten führen zur Bereinigung von fachlichen Schwachstellen und Inkonsistenzen in den Systemen. Die Thesauri werden insgesamt verbessert und sogar angenähert. Die Vortragsreihe schloss mit einem Projekt, das die Heterogenität der Daten aus dem Blickwinkel der Mehrsprachigkeit betrachtet. Martin Kunz, Deutsche Bibliothek Frankfurt am Main, informierte über das Projekt MACS (Multilingual Access to Subject Headings). MACS bietet einen mehrsprachigen Zugriff auf Bibliothekskataloge. Dazu wurde eine Verbindung zwischen den Schlagwortnormdateien LCSH, RAMEAU und SWD erarbeitet. Äquivalente Vorzugsbezeichnungen der Normdateien werden intellektuell nachgewiesen und als Link abgelegt. Das Projekt beschränkte sich zunächst auf die Bereiche Sport und Theater und widmet sich in einer nächsten Stufe den am häufigsten verwendeten Schlagwörtern. MACS geht davon aus, dass ein Benutzer in der Sprache seiner Wahl (Deutsch, Englisch, Französisch) eine Schlagwortsuche startet, und ermöglicht ihm, seine Suche auf die affilierten Datenbanken im Ausland auszudehnen. Martin Kunz plädierte für einen Integrationsansatz, der auf dem gegenseitigen Respekt vor der Terminologie der kooperierenden Partner beruht. Er sprach sich dafür aus, in solchen Vorhaben den Begriff der Thesaurus föderation anzuwenden, der die Autonomie der Thesauri unterstreicht.

Languages

  • e 39
  • d 31
  • f 1
  • More… Less…

Types

  • a 59
  • el 7
  • x 6
  • m 4
  • r 1
  • s 1
  • More… Less…

Classifications