Search (31 results, page 1 of 2)

  • × type_ss:"x"
  • × year_i:[2000 TO 2010}
  1. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.13
    0.13253272 = product of:
      0.19879907 = sum of:
        0.04969977 = product of:
          0.1490993 = sum of:
            0.1490993 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.1490993 = score(doc=701,freq=2.0), product of:
                0.3979391 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046937786 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.1490993 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.1490993 = score(doc=701,freq=2.0), product of:
            0.3979391 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046937786 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.6666667 = coord(2/3)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  2. Milanesi, C.: Möglichkeiten der Kooperation im Rahmen von Subject Gateways : das Euler-Projekt im Vergleich mit weiteren europäischen Projekten (2001) 0.08
    0.07572861 = product of:
      0.22718582 = sum of:
        0.22718582 = sum of:
          0.15087277 = weight(_text_:datenbanken in 4865) [ClassicSimilarity], result of:
            0.15087277 = score(doc=4865,freq=2.0), product of:
              0.23111258 = queryWeight, product of:
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.046937786 = queryNorm
              0.6528107 = fieldWeight in 4865, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.09375 = fieldNorm(doc=4865)
          0.076313056 = weight(_text_:22 in 4865) [ClassicSimilarity], result of:
            0.076313056 = score(doc=4865,freq=2.0), product of:
              0.16436812 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046937786 = queryNorm
              0.46428138 = fieldWeight in 4865, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.09375 = fieldNorm(doc=4865)
      0.33333334 = coord(1/3)
    
    Date
    22. 6.2002 19:41:59
    Theme
    Verteilte bibliographische Datenbanken
  3. Schmidt, S.: Vergleich exemplarischer XML-Datenbanken in Konzeption, Anwendung und verfügbaren Schnittstellen in Abgrenzung zu relationalen, objektorientierten und XML fähigen Datenbanken (2004) 0.04
    0.038808376 = product of:
      0.11642512 = sum of:
        0.11642512 = product of:
          0.23285024 = sum of:
            0.23285024 = weight(_text_:datenbanken in 3704) [ClassicSimilarity], result of:
              0.23285024 = score(doc=3704,freq=14.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                1.0075186 = fieldWeight in 3704, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3704)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Unabhängigkeit von Plattformen und Fähigkeit, Daten verlustfrei über das Internet auszutauschen, verhalfen der eXtensible Markup Language (XML) zum Durchbruch mit der daraus resultierenden Forderung nach und Entwicklung von nativen XML-Datenbanken. Behandelt wird, in wie weit an native XML-Datenbanken bereits ein Standard gelegt werden kann und für welche Einsatzgebiete sie geeignet sind. Dies geschieht über die Definition von Datenbanken und Anfragesprachen allgemein, unter der Betrachtung von XML-fähigen Datenbanken und mittels Vergleich von Xindice, eXist, Tamino und Natix als exemplarischen XML-Datenbanken in Konzept, verfügbaren Features und Handhabbarkeit.
  4. Düring, M.: ¬Die Dewey Decimal Classification : Entstehung, Aufbau und Ausblick auf eine Nutzung in deutschen Bibliotheken (2003) 0.03
    0.03155359 = product of:
      0.09466077 = sum of:
        0.09466077 = sum of:
          0.062863655 = weight(_text_:datenbanken in 2460) [ClassicSimilarity], result of:
            0.062863655 = score(doc=2460,freq=2.0), product of:
              0.23111258 = queryWeight, product of:
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.046937786 = queryNorm
              0.27200446 = fieldWeight in 2460, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2460)
          0.03179711 = weight(_text_:22 in 2460) [ClassicSimilarity], result of:
            0.03179711 = score(doc=2460,freq=2.0), product of:
              0.16436812 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046937786 = queryNorm
              0.19345059 = fieldWeight in 2460, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2460)
      0.33333334 = coord(1/3)
    
    Abstract
    Die ständig steigende Zahl an publizierter Information in immer neuen Formen verlangt besonders von Informations- und Dokumentationseinrichtungen immer präzisere Lösungen zur Erschließung dieser Informationen und ihrer benutzerfreundlichen Aufbereitung. Besonders im derzeitigen Zeitalter der Datenbanken und Online-Kataloge ist die Kombination von verbaler und klassifikatorischer Sacherschließung gefordert, ohne dabei die Verbindung zu den älteren, vielerorts noch (zumindest zusätzlich) in Verwendung befindlichen, Zettelkatalogen zu verlieren. Weltweit ist eine Vielzahl an verschiedenen Klassifikationen im Einsatz. Die Wahl der für eine Einrichtung passenden Klassifikation ist abhängig von ihrer thematischen und informationellen Ausrichtung, der Größe und Art der Bestände und nicht zuletzt von technischen und personellen Voraussetzungen. Auf Seiten der zu wählenden Klassifikation sind die Einfachheit der Handhabung für den Bibliothekar, die Verständlichkeit für den Benutzer, die Erweiterungsfähigkeit der Klassifikation durch das Aufkommen neuer Wissensgebiete und die Einbindung in informationelle Netze mit anderen Einrichtungen von entscheidender Bedeutung. In dieser Arbeit soll die Dewey Dezimalklassifikation (DDC) hinsichtlich dieser Punkte näher beleuchtet werden. Sie ist die weltweit am häufigsten benutzte Klassifikation. Etwa 200.000 Bibliotheken in 135 Ländern erschließen ihre Bestände mit diesem System. Sie liegt derzeit bereits in der 22. ungekürzten Auflage vor und wurde bisher in 30 Sprachen übersetzt. Eine deutsche Komplettübersetzung wird im Jahre 2005 erscheinen. Trotz teils heftig geführter Standardisierungsdebatten und Plänen für die Übernahme von amerikanischen Formalerschließungsregeln herrscht in Bezug auf die Sacherschließung unter deutschen Bibliotheken wenig Einigkeit. Die DDC ist in Deutschland und anderen europäischen Ländern kaum verbreitet, sieht von Großbritannien und von der Verwendung in Bibliografien ab. Diese Arbeit geht demzufolge auf die historischen Gründe dieser Entwicklung ein und wagt einen kurzen Ausblick in die Zukunft der Dezimalklassifikation.
  5. Ebrecht, K.: ¬Die Datenbanken PRESSE und BUCH im Archivdatenbank-System ARCHIMEDES des WDR (2002) 0.03
    0.025145462 = product of:
      0.07543638 = sum of:
        0.07543638 = product of:
          0.15087277 = sum of:
            0.15087277 = weight(_text_:datenbanken in 1600) [ClassicSimilarity], result of:
              0.15087277 = score(doc=1600,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.6528107 = fieldWeight in 1600, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1600)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
  6. López Vargas, M.A.: "Ilmenauer Verteiltes Information REtrieval System" (IVIRES) : eine neue Architektur zur Informationsfilterung in einem verteilten Information Retrieval System (2002) 0.03
    0.025145462 = product of:
      0.07543638 = sum of:
        0.07543638 = product of:
          0.15087277 = sum of:
            0.15087277 = weight(_text_:datenbanken in 4041) [ClassicSimilarity], result of:
              0.15087277 = score(doc=4041,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.6528107 = fieldWeight in 4041, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4041)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Theme
    Verteilte bibliographische Datenbanken
  7. Gröschel, P.: Prometheus: das verteilte digitale Bildarchiv für Forschung und Lehre : Die Zusammenführung von Ressourcen aus heterogenen Informationssystemen (2004) 0.03
    0.025145462 = product of:
      0.07543638 = sum of:
        0.07543638 = product of:
          0.15087277 = sum of:
            0.15087277 = weight(_text_:datenbanken in 4528) [ClassicSimilarity], result of:
              0.15087277 = score(doc=4528,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.6528107 = fieldWeight in 4528, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4528)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Theme
    Verteilte bibliographische Datenbanken
  8. Fritz, M.-L.: Zugang zu verteilten bibliografischen Datenbeständen : Konzepte und Realisierungen für heterogene Umgebungen (2003) 0.02
    0.02177661 = product of:
      0.06532983 = sum of:
        0.06532983 = product of:
          0.13065965 = sum of:
            0.13065965 = weight(_text_:datenbanken in 2504) [ClassicSimilarity], result of:
              0.13065965 = score(doc=2504,freq=6.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.56535065 = fieldWeight in 2504, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2504)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Das steigende Angebot an Datenbanken und weiteren Systeme im Bereich bibliografischer Informationen führt dazu, dass es für Benutzer sehr mühsam und mit einem enormen Zeitaufwand verbunden ist, in allen einzelnen Systemen zu recherchieren, da diese unterschiedliche Benutzeroberflächen und Recherchemöglichkeiten anbieten. Verteilte bibliografische Informationssysteme ermöglichen einen einheitlichen Einstiegspunkt zu heterogenen Systemen. Sie bündeln verschiedene Angebote. In diesem Text wird ein Überblick über diese verteilten Informationssysteme gegeben. Es wird dargestellt, wie eine Suche in einem solchen System abläuft, welche weiteren Funktionen angeboten werden können. Darüber hinaus wird betrachtet, wie verteilte Informationssysteme aufgebaut und vernetzt sind. Die Darstellungen werden verdeutlicht durch praktische Beispiele aus dem Bibliotheks- und Informationswesen. Insbesondere wird auf den KVK, ZACK, die KOBVSuchmaschine, die Digitale Bibliothek NRW, das DIMDI, vascoda und Renardus eingegangen.
    Content
    Die Abbildung zeigt in einer Tabelle die Unterschiede zwischen einem Retrieval in verteilten Datenbanken und einem Retrieval nach Harvesting in einer Datenbank
    Theme
    Verteilte bibliographische Datenbanken
  9. Liebwald, D.: Evaluierung juristischer Datenbanken (2003) 0.02
    0.017964786 = product of:
      0.053894356 = sum of:
        0.053894356 = product of:
          0.10778871 = sum of:
            0.10778871 = weight(_text_:datenbanken in 2490) [ClassicSimilarity], result of:
              0.10778871 = score(doc=2490,freq=12.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.4663905 = fieldWeight in 2490, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2490)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Footnote
    Rez. in Mitt. VÖB 57(2004) H.2, S.71-73 (J. Pauser):"Bei der hier zu besprechenden Arbeit handelt es sich um die Ende 2003 erfolgte Drucklegung einer juristischen Dissertation an der Universität Wien. Die Autorin zielt darauf ab, "Grundlagen, Entstehung, verschiedene Ansätze und Entwicklungstendenzen desjuristischen Information Retrieval aufzuzeigen [...], um schließlich die Qualität der wichtigsten österreichischen Rechtsdatenbanken anhand der gewonnenen Erkenntnisse messen zu können". Das gewählte Thema ist spannend und wohl für jeden Informationswissenschaftler und praktischen Juristen von Relevanz. Elektronische Datenbanken mit Rechtsinformation, seien sie nun online oder offline, revolutionieren seit geraumer Zeit die juristische Arbeit nicht nur in Österreich. Das Recherchieren mittels dieser neuen "Werkzeuge" gehört bereits standardmäßig zur Grundausbildung eines jedes Juristen. Die Kenntnis der umfassenden Möglichkeiten dieser neuen juristischen Informationsquellen beeinflusst massiv die Qualität und vor allem Schnelligkeit des juristischen Arbeitens. Vor diesem Hintergrund ist es immens wichtig, dass die juristischen Datenbanken den Bedürfnissen der Nutzer möglichst zweckmäßig entgegenkommen. Doris Liebwald definiert im ersten Teil ihrer Arbeit den Begriff "Information Retrieval" als "Repräsentation, Speicherung und Organisation von Informationen und der Zugriff auf Informationen" und versucht anschließend Bewertungskriterien für Rechtsdatenbanken aufzustellen. Hinsichtlich der Daten (Gesetze, Gerichtsentscheidungen, juristische Literatur) fordert sie "Vollständigkeit", "Aktualität" und "Authentizität"; in technischer Sicht ergeben sich "Inhaltserschließung", "Suchfunktionen/-möglichkeiten", sowie die "Benutzerfreundlichkeit der Systemoberfläche" etwa durch einfache Bedienbarkeit, Verständlichkeit, Anreicherung durch Hilfefunktionen usw. als Bewertungskriterien, Schließlich sind aus praktisch-ökonomischer Sicht noch "Kosten" und der "Support" aufgenommen.
    Der Hauptteil der Studie umfasst nun fragebogenartig strukturierte Angaben zu insgesamt 18 österreichischen Rechtsinformationsdatenbanken und zwar: Das große - aber wohl nicht zu verhindern gewesene - Manko dieses Abschnittes ist nun, dass er den Stand von Frühjahr/Sommer 2002 wiedergibt und damit zum größten Teil nicht mehr aktuell ist, denn auf dem Rechtsinformationsmarkt ergaben sich in Ietzter Zeit eine Vielzahl an Änderungen durch Verlags- und Produktverschränkungen, technische Neuerungen und Neugestaltung vieler online-Datenbanken. Der Dokumentationsteil hat damit heute fast nur mehr rechtshistorischen Wert. Beispiele: Die "Arbeitsrecht CD-Rom" wurde bereits vom Markt genommen. - "jusline-pro" dürfte auch nicht mehr existieren, zumindest erscheint im Netz an dem angegebenen URL nun schon seit geraumer Zeit ein Hin weis darauf, dass das System "momentan" (sic) nicht zur Verfügung steht. - "Orac Online" und "ARD Online" wurden mittlerweile verändert und zusammengeführt. - Der Parlamentsserver (http://www.parlinkom.gv.at) hat einen umfassenden grafischen Relaunch hinter sich gebracht, der sich leider nicht zum Vorteil des Nutzers auswirkt. Zugegeben, das alte Design wirkte billig, veraltet und unschön, aber man fand schnell und zügig die "Stenographischen Protokolle" und die "Materialien". Das neue Design fällt trotzdem weit hinter die praktikablen Standards anderer europäischer Parlamente zurück. Leider wurde hier eine Chance vertan. Die Angesprochenen rechtsrelevanten Inhalte sind zwar weiterhin und in großer Menge vorhanden, doch erfordert die Suche nun ein gewisses Maß an archivarischem Fleiß. Viele Nutzer, die sich zuvor sehr leicht getan haben, hatten nach der Umstellung der Website massive Probleme. Vielleicht hätte man hier sinnvollerweise die Publikums-Website mit den allgemeinen Daten zum Parlamentvon der Datenbank-Website mit den gesetzgebungsrelevanten Daten trennen und letztere benutzerfreundlicher aufbereiten sollen. - Die RDB hat nun ein neues Content-Portal eröffnet, das mit dem alten, hier dargestellten, kaum mehr etwas gemeinsam hat. - Im RIS werden seit Anfang 2004 die Bundesgesetzblätter authentisch kundgemacht. - Die Steuerdatenbank ist nunmehr mit der SWK-Online vereinigt. Das mag hier als Hinweis genügen. Ein kurzes zehnseitiges "Ergebnis" beschließt die Studie. Hierwurde die Chance vertan, die dargestellten Datenbanken umfassender zu vergleichen und Unterschiede, Vorteile, Nutzungsmöglichkeiten, Praxisvor- und -nach teile usw. etwa mittels eines standardisierten Tests herauszuarbeiten. Die Arbeit wird ihren Wert vor allem darin entfalten, Datenbankanbieter zu einer Verbesserung ihrer Datenbanken anzuregen. Der Hinweis, dass "die dem User zur Verfügung gestellten Hilfefunktionen und Informationen als untauglich oder unzureichend zu bewerten sind" (S. 191), sollten sich wirklich alle Datenbankanbieter auf diesem Gebiet zu Herzen nehmen."
  10. Fritz, M.-L.: Zugang zu verteilten bibliografischen Datenbeständen : Konzepte und Realisierungen für heterogene Umgebungen (2004) 0.02
    0.017780527 = product of:
      0.05334158 = sum of:
        0.05334158 = product of:
          0.10668316 = sum of:
            0.10668316 = weight(_text_:datenbanken in 4941) [ClassicSimilarity], result of:
              0.10668316 = score(doc=4941,freq=4.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.46160686 = fieldWeight in 4941, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4941)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Das steigende Angebot an Datenbanken und weiteren Systeme im Bereich bibliografischer Informationen führt dazu, dass es für Benutzer sehr mühsam und mit einem enormen Zeitaufwand verbunden ist, in allen einzelnen Systemen zu recherchieren, da diese unterschiedliche Benutzeroberflächen und Recherchemöglichkeiten anbieten. Verteilte bibliografische Informationssysteme ermöglichen einen einheitlichen Einstiegspunkt zu heterogenen Systemen. Sie bündeln verschiedene Angebote. In diesem Text wird ein Überblick über diese verteilten Informationssysteme gegeben. Es wird dargestellt, wie eine Suche in einem solchen System abläuft, welche weiteren Funktionen angeboten werden können. Darüber hinaus wird betrachtet, wie verteilte Informationssysteme aufgebaut und vernetzt sind. Die Darstellungen werden verdeutlicht durch praktische Beispiele aus dem Bibliotheks- und Informationswesen. Insbesondere wird auf den KVK, ZACK, die KOBVSuchmaschine, die Digitale Bibliothek NRW, das DIMDI, vascoda und Renardus eingegangen.
    Theme
    Verteilte bibliographische Datenbanken
  11. Sperling, R.: Anlage von Literaturreferenzen für Onlineressourcen auf einer virtuellen Lernplattform (2004) 0.01
    0.014838651 = product of:
      0.044515952 = sum of:
        0.044515952 = product of:
          0.089031905 = sum of:
            0.089031905 = weight(_text_:22 in 4635) [ClassicSimilarity], result of:
              0.089031905 = score(doc=4635,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.5416616 = fieldWeight in 4635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4635)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    26.11.2005 18:39:22
  12. Hartmann, S.: Inhaltliche Erschließung einer Call-Center-Datenbank : Konzeptentwicklung für die Kundentelefon-Wissensdatenbank der Deutschen Post AG (KT-WEB 2.0) (2005) 0.01
    0.014668185 = product of:
      0.044004556 = sum of:
        0.044004556 = product of:
          0.08800911 = sum of:
            0.08800911 = weight(_text_:datenbanken in 3053) [ClassicSimilarity], result of:
              0.08800911 = score(doc=3053,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.38080624 = fieldWeight in 3053, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3053)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Qualität der Auskünfte in einem Call-Center des Typus Informationshotline wird gewährleistet durch die zentrale Bereitstellung von Informationen zu Produkten und Dienstleistungen eines Unternehmens. Dies kann in Form von Datenbanken, wie die in dieser Arbeit analysierten Kundentelefon-Wissensdatenbank der Deutschen Post AG (KT-WEB), realisiert werden. Damit die Call-Center-Mitarbeiter präzise, schnell und zuverlässig auf die im Kundengespräch relevanten Informationen zugreifen können, müssen die Informationen inhaltlich entsprechend erschlossen sein. Für KT-WEB wird dazu ein Konzept zur Optimierung der inhaltlichen Erschließung und Suche entwickelt, das über die bisher eingesetzten Erschließungsmethoden, Systematik und Volltexterschließung, hinaus geht: eine Erschließung mit facettierten Schlagwörtern.
  13. Frommeyer, J.: Zeitbegriffe und Zeitcodierungen in allgemeinbibliographischen Datenbanken : eine Analyse von RSWK, LCSH und RAMEAU sowie Entwicklung eines theoretischen Modells für ein Zeitretrieval (2003) 0.01
    0.012831989 = product of:
      0.038495965 = sum of:
        0.038495965 = product of:
          0.07699193 = sum of:
            0.07699193 = weight(_text_:datenbanken in 2203) [ClassicSimilarity], result of:
              0.07699193 = score(doc=2203,freq=12.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.33313605 = fieldWeight in 2203, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2203)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Footnote
    Rez. in: ZfBB 50(2003) H.5, S.295-297 (E. Scheven):"In ihrem Buch »Zeitbegriffe und Zeitcodierungen in allgemeinbibliographischen Datenbanken« entwickelt die Autorin ein theoretisches Modell für ein Zeitretrieval in allgemeinbibliografischen Datenbanken. Dafür untersucht sie die Verwendung von Zeitbegriffen (Epochenbezeichnungen, historiografischen Begriffen) und Zeitcodierungen (Jahreszahlen, Datumsangaben) bei der Indexierung von Dokumenten in allgemeinbibliografischen Datenbanken und deren Retrievalmöglichkeiten. Durch Globalisierung und Internet ist der Zugang zu den Katalogen unterschiedlichster lnstitutionen weit überdie Landesgrenzen hinaus möglich geworden. Dadurch ist der Zwang zur Standardisierung der bibliothekarischen Regeln weltweit verschärft, um Daten-Interoperabilität zu gewährleisten. Hauptziel der Sacherschließung muss immer die optimale Befriedigung der Benutzerbedürfnisse sein. - Kompetente Einführung - Nach einer kurzen geschichtlichen Darstellung der Zeitrechnung an sich und der bibliothekarischen Regelentwicklung wendet sich die Autorin den wichtigsten Sacherschließungswerkzeugen der westlichen WeIt zu, zum einen den beiden internationalen Universalklassifikationen, DDC und UDK, und zum anderen den drei Schlagwortsystemen LCSH, Rameau und SWD,wobei sieden Schwerpunkt auf die verbalen Sacherschließungssysteme legt. LCSH, Rameau und SWD mit RSWK werden kompetent und ausführlich in 164 von 316 Seiten mit ihrer Entwicklungsgeschichte und ihren Unterschieden dargestellt. Jutta Frommeyer ist hier eine gute vergleichende Einführung in die großen verbalen Sacherschließungssysteme gelungen und zwar nicht nur für Anfänger, sondern auch für praxis-erfahrene Sacherschließer. Die Darstellung von Zeitaspekten nach LCSH kann nach sechs verschiedenen Varianten erfolgen. Es gibt keine allgemeinen subdivisions für Zeitangaben. Rameau stimmt in seiner Struktur mit den LCSH überein, weicht aber bei der Indexierung bezüglich der subdivisions von den LCSH ab. Rameau hat eine allgemein zu verwendende Liste (subdivision) mit ca. 40 Unterteilungen für den Zeitaspekt. Nach RSWK wird der Zeitaspekt durch so genannte Zeitschlagwörter wiedergegeben, die wie auch bestimmte Formalschlagwörter durch Jahreszahlen erweitert werden können. Der im Dokument behandelte Zeitabschnitt wird für die Beschlagwortung herangezogen. Vorgegebene Zeituntergliederungen für bestimmte Themenbereiche wie bei LCSH und Rameau gibt es bei RSWK nicht. Zwischen den Schlagwortsystemen gibt es unterschiedliche Indexierungsregeln, wann ein Zeitschlagwort benutzt werden soll oder nicht.
    - Retrievalmöglichkeiten - Ein Test der Retrievalmöglichkeiten von Zeitangaben in den Online-Katalogen der LoC, BnF und DDB zeigte, dass für ein optimales Suchergebnis viele Recherche-Schritte und Regelwerkskenntnisse notwendig sind, eine aus Nutzersicht unbefriedigende Bilanz. Zum Beispiel muss für Suchanfragen nach Jahreszahlen der Zeitraum genauso angegeben werden, wie es bei der Indexierung geschah, oder eine Suche mit Epochenbegriffen und zeitimmanenten Schlagwörtern erfordert die genaue Kenntnis der Ansetzungsregeln für solche Deskriptoren. Die angebotenen Schlagwortketten sind eine Suchhilfe, erlauben aber keine Sortierung nach der Zeitenabfolge. Der größte Mangel ist, dass alle Zeitcodierungen nur als Zeichen, nicht als Zahlen, erkennbar sind, sodass bei der Suche nur ein Zeichenabgleich erfolgt und keine Sortierung nach Zahlen möglich ist. Jutta Frommeyer stellt die Retrievalmöglichkeiten der drei genannten Bibliothekskataloge verschiedenen anderen Datenbanken gegenüber, die eine Suche nach Zeitangaben anbieten. Die Suchmöglichkeiten bei den Allgemeinenzyklopädien (»Encyclopedia Britannica«, »Brockhaus-Enzyklopädie«, »Encarta«) sind vielfältig und elaboriert. Zeitimmanente Begriffe sind chronologisch angeordnet und auch grafisch durch Zeitschienen dargestellt, von denen aus auf ein Jahr oder einen Zeitbegriff gesprungen werden kann. Die Datenbank »Historical abstracts« bietet den Zeitraum, der in einem Dokument behandelt wird, über eine spezielle Codierung an. Die »Jahresberichte für deutsche Geschichte« bieten für das Zeitretrieval eine Tabelle mit 14 verschiedenen Möglichkeiten; die weitere Differenzierung der Suchanfrage erfolgt hier durch andere Sacherschließungselemente wie eine ausgefeilte Klassifikation und eine Schlagwortliste. - Modell zum optimalen Zeitretrieval - Aufgrund ihrer Untersuchungen entwickelt die Autorin ein theoretisches Modell für ein optimales Zeitretrieval in allgemeinbibliografischen Datenbanken mit den drei Elementen Zeitcode, Chronikcode und Chroniknormdatei. Damit die Zeitcodierungen als Zahlen und nicht als Zeichen erkennbar sind, müssen sie in einem besonderen numerischen Feld (Zeitcode) abgelegt werden; mit der Möglichkeit, nach Zeiträumen zu suchen (Größer-, Kleiner- und Gleichoperatoren). Die Zeitspannen von Zeitbegriffen werden als Chronikcode in der gleichen Datenstruktur wie der Zeitcode bei den Normdatensätzen ergänzt. Für bestimmte Zeitbegriffe ist eine Normierung notwendig (z. B. Mittelalter). Bei kulturkreisabhängigen Zeitbegriffen kann die zeitliche Codierung verschieden aussehen. Die Chroniknormdatei soll die chronologische Relation der zeitimmanenten Begriffe darstellen und bei umfassenden Zeitspannen große Trefferzahlen vermeiden. Da zeitimmanente Begriffe über alle Sachgebiete streuen, muss für das Retrieval eine sachliche Einschränkung gegeben sein. Jutta Frommeyer schlägt dafür eine international angewandte Klassifikation vor. Die Autorin stellt ein Retrievalmodell dar, um das Zusammenwirken von Zeitcode,Chronikcode und Chroniknormdatei zu demonstrieren. Dabei hat sie sich an der heutigen Menü-Oberfläche für OPACs orientiert und ein neues Suchfeld »Zeitabschnitt« mit verschiedenen Unterteilungen eingeführt. Ihre Beispiele sind nachvollziehbar und verdeutlichen ihren Vorschlag. Die Umsetzung eines solchen Modells hat Auswirkungen auf die vorhandenen Datenstrukturen; auch wird eine Annäherung der Regeln für die Schlagwortvergabe nach RSWK, Rameau und LCSH notwendig sein, wenn so eine Suche international angeboten werden soll.
  14. Haller, S.H.M.: Mappingverfahren zur Wissensorganisation (2002) 0.01
    0.010599038 = product of:
      0.03179711 = sum of:
        0.03179711 = product of:
          0.06359422 = sum of:
            0.06359422 = weight(_text_:22 in 3406) [ClassicSimilarity], result of:
              0.06359422 = score(doc=3406,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.38690117 = fieldWeight in 3406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3406)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    30. 5.2010 16:22:35
  15. Lebrecht, H.: Methoden und Probleme der Bilderschließung am Beispiel des verteilten digitalen Bildarchivs Prometheus (2003) 0.01
    0.0104772765 = product of:
      0.031431828 = sum of:
        0.031431828 = product of:
          0.062863655 = sum of:
            0.062863655 = weight(_text_:datenbanken in 2508) [ClassicSimilarity], result of:
              0.062863655 = score(doc=2508,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.27200446 = fieldWeight in 2508, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2508)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.
  16. Lebrecht, H.: Methoden und Probleme der Bilderschließung (2003) 0.01
    0.0104772765 = product of:
      0.031431828 = sum of:
        0.031431828 = product of:
          0.062863655 = sum of:
            0.062863655 = weight(_text_:datenbanken in 2871) [ClassicSimilarity], result of:
              0.062863655 = score(doc=2871,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.27200446 = fieldWeight in 2871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2871)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.
  17. Klasing, M.: Crosskonkordanzen als Möglichkeit zur Heterogenitätsbehandlung : dargestellt am Projekt CrissCross (2008) 0.01
    0.0104772765 = product of:
      0.031431828 = sum of:
        0.031431828 = product of:
          0.062863655 = sum of:
            0.062863655 = weight(_text_:datenbanken in 2460) [ClassicSimilarity], result of:
              0.062863655 = score(doc=2460,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.27200446 = fieldWeight in 2460, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2460)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    In Zeiten, in denen der schnelle und einfache Zugriff auf strukturierte und umfangreiche Datenbestände zunehmend an Bedeutung gewinnt, stellt die Heterogenität eben dieser Bestände ein großes Problem dar. Die meisten Bibliothekskataloge, Datenbanken usw. sind inhaltlich durch unterschiedliche Instrumente erschlossen, was für den Benutzer eine gewisse Einarbeitungszeit in jedes Erschließungsinstrument sowie die Notwendigkeit zur wiederholten und neu formulierten Suche in den unterschiedlich erschlossenen Datenbeständen bedeutet. Als Möglichkeit zur Behandlung der Heterogenitätsproblematik kommen beispielsweise Crosskonkordanzen in Betracht, durch welche semantisch übereinstimmende Schlagwörter, Deskriptoren bzw. Notationen verschiedener Erschließungsinstrumente intellektuell miteinander verbunden werden, so dass mit identischer Suchfrage mehrere unterschiedlich erschlossene Datenbestände durchsucht werden können. In der vorliegenden Arbeit soll die Problematik heterogener Datenbestände sowie die Behandlungsmöglichkeit durch Crosskonkordanzen beschrieben werden. Die konkretisierende Darstellung erfolgt anhand des Projektes CrissCross, einem gemeinschaftlichen Projekt der Deutschen Nationalbibliothek und der Fachhochschule Köln, in dem Crosskonkordanzen zwischen den Erschließungsinstrumenten SWD, DDC sowie LCSH und RAMEAU erstellt werden. Besonderheiten des Projektes CrissCross sind neben der Multilingualität und der Verbindung von verbalen und klassifikatorischen Erschließungsinstrumenten auch eine intellektuelle Gewichtung der Beziehungsstärke zweier verknüpfter Terme, die so genannte Determiniertheit. Neben den integrierten Erschließungsinstrumenten wird auch die konkrete Vorgehensweise ihrer Verbindung erläutert. Des Weiteren werden die Problemfelder des Projektes und im Besonderen denkbare Einsatzmöglichkeiten der Projektergebnisse vorgestellt, die wesentlich zur Lösung der Heterogenitätsproblematik und somit zu einer Verbesserung des Retrievals für den Benutzer beitragen können.
  18. Carlin, S.A.: Schlagwortvergabe durch Nutzende (Tagging) als Hilfsmittel zur Suche im Web : Ansatz, Modelle, Realisierungen (2006) 0.01
    0.0104772765 = product of:
      0.031431828 = sum of:
        0.031431828 = product of:
          0.062863655 = sum of:
            0.062863655 = weight(_text_:datenbanken in 2476) [ClassicSimilarity], result of:
              0.062863655 = score(doc=2476,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.27200446 = fieldWeight in 2476, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2476)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Nach dem zu Beginn der Ära des World Wide Web von Hand gepflegte Linklisten und -Verzeichnisse und an Freunde und Kollegen per E-Mail verschickte Links genügten, um die Informationen zu finden, nach denen man suchte, waren schon bald Volltextsuchmaschinen und halbautomatisch betriebene Kataloge notwendig, um den mehr und mehr anschwellenden Informationsfluten des Web Herr zu werden. Heute bereits sind diese Dämme gebrochen und viele Millionen Websites halten Billionen an Einzelseiten mit Informationen vor, von Datenbanken und anderweitig versteckten Informationen ganz zu schweigen. Mit Volltextsuchmaschinen erreicht man bei dieser Masse keine befriedigenden Ergebnisse mehr. Entweder man erzeugt lange Suchterme mit vielen Ausschließungen und ebenso vielen nicht-exklusiven ODER-Verknüpfungen um verschiedene Schreibweisen für den gleichen Term abzudecken oder man wählt von vornherein die Daten-Quelle, an die man seine Fragen stellt, genau aus. Doch oft bleiben nur klassische Web-Suchmaschinen übrig, zumal wenn der Fragende kein Informationsspezialist mit Kenntnissen von Spezialdatenbanken ist, sondern, von dieser Warte aus gesehenen, ein Laie. Und nicht nur im Web selbst, auch in unternehmensinternen Intranets steht man vor diesem Problem. Tausende von indizierten Dokumente mögen ein Eckdatum sein, nach dem sich der Erfolg der Einführung eines Intranets bemessen lässt, aber eine Aussage über die Nützlichkeit ist damit nicht getroffen. Und die bleibt meist hinter den Erwartungen zurück, vor allem bei denen Mitarbeitern, die tatsächlich mit dem Intranet arbeiten müssen. Entscheidend ist für die Informationsauffindung in Inter- und Intranet eine einfach zu nutzende und leicht anpassbare Möglichkeit, neue interessante Inhalte zu entdecken. Mit Tags steht eine mögliche Lösung bereit.
  19. Heel, F.: Abbildungen zwischen der Dewey-Dezimalklassifikation (DDC), der Regensburger Verbundklassifikation (RVK) und der Schlagwortnormdatei (SWD) für die Recherche in heterogen erschlossenen Datenbeständen : Möglichkeiten und Problembereiche (2007) 0.01
    0.0104772765 = product of:
      0.031431828 = sum of:
        0.031431828 = product of:
          0.062863655 = sum of:
            0.062863655 = weight(_text_:datenbanken in 4434) [ClassicSimilarity], result of:
              0.062863655 = score(doc=4434,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.27200446 = fieldWeight in 4434, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4434)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Eine einheitliche Sacherschließung in Deutschland wird durch die Vielzahl an vorhandenen und verwendeten Erschließungssystemen, Universal-, Fachklassifikationen und Fachthesauri erschwert. Den Benutzern von Bibliothekskatalogen oder Datenbanken fällt es daher schwer, themenspezifische Recherchen in heterogen erschlossenen Datenbeständen durchzuführen. In diesem Fall müssen die Nutzer derzeit nämlich den Umgang mit mehreren Erschließungsinstrumenten erlernen und verschiedene Suchanfragen anwenden, um das gewünschte Rechercheergebnis datenbankübergreifend zu erreichen. Um dem Benutzer einen einheitlichen Zugang zu heterogen erschlossenen Datenbeständen zu gewährleisten und gleichzeitig auch den Arbeitsaufwand für die Bibliothekare zu reduzieren, ist die Erstellung eines so genannten "Integrierten Retrievals" sinnvoll. Durch die Verknüpfung der unterschiedlichen Sacherschließungssysteme mit Hilfe von Konkordanzen wird es dem Nutzer ermöglicht, mit einem ihm vertrauten Vokabular eine sachliche Recherche in unterschiedlich erschlossenen Datenbeständen durchzuführen, ohne die spezifischen Besonderheiten der verschiedenen Erschließungsinstrumente kennen zu müssen. In dieser Arbeit sind exemplarisch drei Abbildungen für den Fachbereich der Bibliotheks- und Informationswissenschaften zwischen den für Deutschland wichtigsten Sacherschließungssystemen Dewey-Dezimalklassifikation (DDC), Regensburger Verbundklassifikation (RVK) und Schlagwortnormdatei (SWD) erstellt worden. Die Ergebnisse dieser Arbeit sollen einen ersten Überblick über spezifische Problemfelder und Möglichkeiten der hier erstellten Konkordanzen DDC - RVK, SWD - DDC und SWD - RVK liefern, um damit die Erstellung eines zukünftigen Recherchetools (und gegebenenfalls einer Klassifizierungshilfe) voranzutreiben. Die erstellten Konkordanzen liegen der Arbeit als Anhang bei.
  20. Hoffmann, R.: Mailinglisten für den bibliothekarischen Informationsdienst am Beispiel von RABE (2000) 0.01
    0.008993581 = product of:
      0.026980743 = sum of:
        0.026980743 = product of:
          0.053961486 = sum of:
            0.053961486 = weight(_text_:22 in 4441) [ClassicSimilarity], result of:
              0.053961486 = score(doc=4441,freq=4.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.32829654 = fieldWeight in 4441, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4441)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 2.2000 10:25:05
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.22