Search (99 results, page 1 of 5)

  • × theme_ss:"Klassifikationssysteme im Online-Retrieval"
  1. Bambey, D.: Thesauri und Klassifikationen im Netz : Neue Herausforderungen für klassische Werkzeuge (2000) 0.23
    0.22778773 = product of:
      0.2733453 = sum of:
        0.058759216 = weight(_text_:und in 5505) [ClassicSimilarity], result of:
          0.058759216 = score(doc=5505,freq=42.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.561082 = fieldWeight in 5505, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5505)
        0.061184157 = weight(_text_:anwendung in 5505) [ClassicSimilarity], result of:
          0.061184157 = score(doc=5505,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 5505, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5505)
        0.040036436 = weight(_text_:des in 5505) [ClassicSimilarity], result of:
          0.040036436 = score(doc=5505,freq=8.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.30596817 = fieldWeight in 5505, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5505)
        0.08549531 = weight(_text_:prinzips in 5505) [ClassicSimilarity], result of:
          0.08549531 = score(doc=5505,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.31615835 = fieldWeight in 5505, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5505)
        0.027870173 = product of:
          0.055740345 = sum of:
            0.055740345 = weight(_text_:thesaurus in 5505) [ClassicSimilarity], result of:
              0.055740345 = score(doc=5505,freq=2.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.2552809 = fieldWeight in 5505, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5505)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Die verstärkte Diskussion über qualitativ bessere Such- und Erschließungsmethoden im Internet führt auch dazu, dass Thesauri und Klassifikation bei Fachanbietern und im wissenschaftlich-bibliothekarischen Bereich verstärkt wieder Thema und auch Gegenstand von Projekten geworden sind. Solche Konjunkturschwankungen sind ein bekanntes Phänomen, denn schon immer haben fachlich-methodische Instrumente in Zeiten technologischer Schübe schlechte Konjunktur. Wenn die technologischen Machbarkeiten dann kritisch überdacht werden müssen und die Probleme der Qualitätssicherung ins Auge fallen, rückt das Problem der Vermittlung technologischer Verfahren mit sach- und inhaltsbezogenen Anforderungen unweigerlich wieder stärker in den Mittelpunkt des Interesses'. Meine Ausführungen richten sich vor allem auf aktuelle Probleme der Produktion und Wiedergewinnung von Informationen oder präziser: von Fachinformationen, Fragen der Qualitätssicherung und die Rolle, die Klassifikationen und Thesauri in diesem Zusammenhang spielen oder spielen könnten. Insbesondere der Aspekt der Nutzerakzeptanz wird hier stärker thematisiert. Der Punkt nettere Ansätze wird etwas eingehender am Beispiel der Vernetzung verschiedener Thesauri und Klassifikationen mittels sogenannter Cross-Konkordanzen erläutert. Im Folgenden beziehe ich mich vor allem auf die Sozialwissenschaften und insbesondere die Erziehungswissenschaft. Dies ist der fachliche Background des Fachinformationssystem Bildung, und des Deutschen Bildungsservers in deren Kontext ich mit den hier angesprochenen Problemen befasst bin
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  2. Francu, V.: Building a multilingual thesaurus based on UDC (1996) 0.21
    0.20648976 = product of:
      0.24778771 = sum of:
        0.012822312 = weight(_text_:und in 7410) [ClassicSimilarity], result of:
          0.012822312 = score(doc=7410,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.12243814 = fieldWeight in 7410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=7410)
        0.061184157 = weight(_text_:anwendung in 7410) [ClassicSimilarity], result of:
          0.061184157 = score(doc=7410,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 7410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=7410)
        0.020018218 = weight(_text_:des in 7410) [ClassicSimilarity], result of:
          0.020018218 = score(doc=7410,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.15298408 = fieldWeight in 7410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=7410)
        0.08549531 = weight(_text_:prinzips in 7410) [ClassicSimilarity], result of:
          0.08549531 = score(doc=7410,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.31615835 = fieldWeight in 7410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0390625 = fieldNorm(doc=7410)
        0.06826771 = product of:
          0.13653542 = sum of:
            0.13653542 = weight(_text_:thesaurus in 7410) [ClassicSimilarity], result of:
              0.13653542 = score(doc=7410,freq=12.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.62530804 = fieldWeight in 7410, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=7410)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Once the library has been through a process of transition from traditional library procedures to automated ones, natural language searching became a necessity for both indexers and searchers. Therefore, aside from the precoordinated classified catalogue we started to build a dictionary of terms in order to make postcoordinate search possible in keeping with the UDC notations assigned to each bibliographic record. After a while we came to the conclusion that the dictionary needed a control of its terms so that synonymous concepts and semantic ambuguities be avoided. The project presented in this paper shows how reality imposed the improvement of the quality of indexing and hence of the searching possibilities. Is also shows the reasons why we consider a multilingual thesaurus based on UDC an ideal indexing and searching device. The experiment applied on class 8 of UDC illustrates the way the UDC tables can be quite successfully used in building a thesaurus due to their qulities and how their limitations can be overcome by a thesaurus. An appendix to the paper contains a sample of the multilingual thesaurus given in both alphabetical and systematic layouts
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  3. Hermes, H.-J.; Bischoff, M.: ¬Die Dezimaklassifikation (DK) in Datenbanken (1989) 0.10
    0.099335864 = product of:
      0.19867173 = sum of:
        0.036266975 = weight(_text_:und in 937) [ClassicSimilarity], result of:
          0.036266975 = score(doc=937,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.34630734 = fieldWeight in 937, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=937)
        0.12236831 = weight(_text_:anwendung in 937) [ClassicSimilarity], result of:
          0.12236831 = score(doc=937,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.5349128 = fieldWeight in 937, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.078125 = fieldNorm(doc=937)
        0.040036436 = weight(_text_:des in 937) [ClassicSimilarity], result of:
          0.040036436 = score(doc=937,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.30596817 = fieldWeight in 937, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=937)
      0.5 = coord(3/6)
    
    Abstract
    Untersucht wird die unterschiedliche Anwendung der UDK in Datenbanken. Die vollendete Nutzung aller Vorteile besteht in der Ausschöpfung der Hierarchien zum Auf- und Weiterbau des Vokabulars und zur Darstellung der "Sachregister-Umgebungen"
  4. Reisser, M.: ¬Die Darstellung begrifflicher Kontexte im Online-Retrieval (1995) 0.08
    0.078827344 = product of:
      0.15765469 = sum of:
        0.04397137 = weight(_text_:und in 934) [ClassicSimilarity], result of:
          0.04397137 = score(doc=934,freq=12.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.41987535 = fieldWeight in 934, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=934)
        0.08565781 = weight(_text_:anwendung in 934) [ClassicSimilarity], result of:
          0.08565781 = score(doc=934,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.37443897 = fieldWeight in 934, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=934)
        0.028025504 = weight(_text_:des in 934) [ClassicSimilarity], result of:
          0.028025504 = score(doc=934,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2141777 = fieldWeight in 934, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=934)
      0.5 = coord(3/6)
    
    Abstract
    Die traditionellen Verfahren der klassifikatorischen sachlichen Erschließung von Medieninhalten heben auf die Eindeutigkeit der Zuordnung von Objekt (Medieninhalt) und Klasse ab. Sie unterscheiden sich damit in der Praxis des Online-Retrievals nur unwesentlich von den Verfahren der verbalen sachlichen Erschließung (z.B. Thesauri, SWD/RSWK). Auf der Grundlage der in der Sacherschließungstheorie vorgenommenen Unterscheidung von klassifikatorischer und verbaler Sacherschließung werden mögliche und bereits in Anwendung befindliche Verfahren diskutiert, welche die begrifflichen Kontexte der Klassen für den Anwender einer bibliothekarischen Klassifikation im Online-Retrieval nutzbar machen
    Imprint
    Oldenburg : Bibliotheks- und Informationssystem
    Source
    Aufbau und Erschließung begrifflicher Datenbanken: Beiträge zur bibliothekarischen Klassifikation. Eine Auswahl von Vorträgen der Jahrestagungen 1993 (Kaiserslautern) und 1994 (Oldenburg) der Gesellschaft für Klassifikation. Hrsg.: H. Havekost u. H.-J. Wätjen
  5. Hanke, M.: Bibliothekarische Klassifikationssysteme im semantischen Web : zu Chancen und Problemen von Linked-data-Repräsentationen ausgewählter Klassifikationssysteme (2014) 0.07
    0.06907622 = product of:
      0.13815244 = sum of:
        0.04070958 = weight(_text_:und in 2463) [ClassicSimilarity], result of:
          0.04070958 = score(doc=2463,freq=14.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.38872904 = fieldWeight in 2463, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2463)
        0.07342099 = weight(_text_:anwendung in 2463) [ClassicSimilarity], result of:
          0.07342099 = score(doc=2463,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 2463, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=2463)
        0.02402186 = weight(_text_:des in 2463) [ClassicSimilarity], result of:
          0.02402186 = score(doc=2463,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 2463, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2463)
      0.5 = coord(3/6)
    
    Abstract
    Pflege und Anwendung von Klassifikationssystemen für Informationsressourcen sind traditionell eine Kernkompetenz von Bibliotheken. Diese Systeme sind häufig historisch gewachsen und die Veröffentlichung verschiedener Systeme ist in der Vergangenheit typischerweise durch gedruckte Regelwerke oder proprietäre Datenbanken erfolgt. Die Technologien des semantischen Web erlauben es, Klassifikationssysteme in einer standardisierten und maschinenlesbaren Weise zu repräsentieren, sowie als Linked (Open) Data für die Nachnutzung zugänglich zu machen. Anhand ausgewählter Beispiele von Klassifikationssystemen, die bereits als Linked (Open) Data publiziert wurden, werden in diesem Artikel zentrale semantische und technische Fragen erörtert, sowie mögliche Einsatzgebiete und Chancen dargestellt. So kann beispielsweise die für die Maschinenlesbarkeit erforderliche starke Strukturierung von Daten im semantischen Web zum besseren Verständnis der Klassifikationssysteme beitragen und möglicherweise positive Impulse für ihre Weiterentwicklung liefern. Für das semantische Web aufbereitete Repräsentationen von Klassifikationssystemen können unter anderem zur Kataloganreicherung oder für die anwendungsbezogene Erstellung von Konkordanzen zwischen verschiedenen Klassifikations- bzw. Begriffssystemen genutzt werden..
  6. Oberhauser, O.: Klassifikation in Online-Informationssystemen (1986) 0.06
    0.059601516 = product of:
      0.11920303 = sum of:
        0.021760186 = weight(_text_:und in 588) [ClassicSimilarity], result of:
          0.021760186 = score(doc=588,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.20778441 = fieldWeight in 588, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=588)
        0.07342099 = weight(_text_:anwendung in 588) [ClassicSimilarity], result of:
          0.07342099 = score(doc=588,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 588, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=588)
        0.02402186 = weight(_text_:des in 588) [ClassicSimilarity], result of:
          0.02402186 = score(doc=588,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 588, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=588)
      0.5 = coord(3/6)
    
    Abstract
    Für fachspezifische bibliographische Online-Recherchen werden in den meisten Fällen die Ergebnisse nur der verbalen inhaltlichen Erschliessung genutzt (Deskriptoren, Schlagwörter, Stichwörter, Abstract-Texte). Viele bibliographische Datenbanken sind aber auch mit Hilfe von Notationen aus Klassifikationssystemen recherchierbar. Dieser Beitrag behandelt die letztere Form des sachlichen Zugriffs und streicht die Rolle von Notationen ("class codes") als nützliche Ergänzung zur verbalen Recherche heraus. Im ersten Teil werden folgende Fragen thematisiert: In welchem Ausmass sind Klassifikationsschemata als sachliche Zugriffsmöglichkeit in bibliographischen Datenbanken vorhanden? Welcher Art sind diese Schemata und ihre Notationen? Der zweite Teil veranschaulicht mehrere vorteilhafte Möglichkeiten der Anwendung von Notationen bei der bibliographischen Recherche. Der dritte Teil beschäftigt sich mit Änderungen von Klassifikationssystemen - dem Hauptproblem ihrer Verwendung bei der Online-Recherche. Der Rechercheur muss daher nicht nur wissen, wie Klassifikationen zur Verbesserung der Suchstrategie eingesetzt werden, sondern auch, wie Schwierigkeiten dieser Art zu bewältigen sind.
  7. Oberhauser, O.: Implementierung und Parametrisierung klassifikatorischer Recherchekomponenten im OPAC (2005) 0.06
    0.056311123 = product of:
      0.112622246 = sum of:
        0.026926855 = weight(_text_:und in 3353) [ClassicSimilarity], result of:
          0.026926855 = score(doc=3353,freq=18.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.25712007 = fieldWeight in 3353, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3353)
        0.0242708 = weight(_text_:des in 3353) [ClassicSimilarity], result of:
          0.0242708 = score(doc=3353,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18548335 = fieldWeight in 3353, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3353)
        0.06142459 = sum of:
          0.039018244 = weight(_text_:thesaurus in 3353) [ClassicSimilarity], result of:
            0.039018244 = score(doc=3353,freq=2.0), product of:
              0.21834905 = queryWeight, product of:
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.04725067 = queryNorm
              0.17869665 = fieldWeight in 3353, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3353)
          0.022406347 = weight(_text_:22 in 3353) [ClassicSimilarity], result of:
            0.022406347 = score(doc=3353,freq=2.0), product of:
              0.16546379 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04725067 = queryNorm
              0.1354154 = fieldWeight in 3353, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3353)
      0.5 = coord(3/6)
    
    Abstract
    Das in den letzten Jahren wiedererwachte Interesse an der klassifikatorischen Erschließung und Recherche hat sich allem Anschein nach noch nicht ausreichend bis zu den Herstellern integrierter Bibliothekssysteme herumgesprochen. Wie wäre es sonst zu erklären, dass im OPAC-Modul eines führenden Systems wie Aleph 500 so gut wie keine Features für klassifikationsbasierte Recherchen zu erblicken sind? Tatsächlich finden wir heute einen im Vergleich zum einstigen System Bibos kaum veränderten Zustand vor: Notationen eines oder mehrerer Klassifikationssysteme können in einer durch MAB dafür bestimmten Kategorie (700, nebst Indikatoren) katalogisiert und dann recherchiert bzw. angezeigt werden. Doch welcher Benutzer weiß schon, was diese Notationen im einzelnen bedeuten? Wer macht sich die Mühe, dies selbst herauszufinden, um dann danach zu recherchieren? Hier liegt im wesentlich dasselbe Problem vor, das schon dem systematischen Zettelkatalog anhaftete und ihn zu einem zwar mühevoll erstellten, aber wenig genutzten Rechercheinstrument machte, das nur dann (zwangsläufig) angenommen wurde, wenn ein verbaler Sachkatalog fehlte. Nun könnte eingewandt werden, dass im Vergleich zu früher unter Aleph 500 wenigstens das Aufblättern von Indizes möglich sei, sodass im OPAC ein Index für die vergebenen Notationen angeboten werden kann (bzw. mehrere solche Indizes bei Verwendung von mehr als nur einem Klassifikationssystem). Gewiss, doch was bringt dem Uneingeweihten das Aufblättern des Notationsindex - außer einer alphabetischen Liste von kryptischen Codes? Weiter könnte man einwenden, dass es im Aleph-500-OPAC die so genannten Suchdienste ("services") gibt, mithilfe derer von bestimmten Elementen einer Vollanzeige hypertextuell weiternavigiert werden kann. Richtig, doch damit kann man bloß wiederum den Index aufblättern oder alle anderen Werke anzeigen lassen, die dieselbe Notationen - also einen Code, dessen Bedeutung meist unbekannt ist - aufweisen. Wie populär mag dieses Feature beim Publikum wohl sein? Ein anderer Einwand wäre der Hinweis auf das inzwischen vom Hersteller angebotene Thesaurus-Modul, das vermutlich auch für Klassifikationssysteme eingesetzt werden könnte. Doch wie viele Bibliotheken unseres Verbundes waren bisher bereit, für dieses Modul, das man eigentlich als Bestandteil des Basissystems erwarten könnte, gesondert zu bezahlen? Schließlich mag man noch einwenden, dass es im Gegensatz zur Bibos-Zeit nun die Möglichkeit gibt, Systematiken und Klassifikationen als Normdateien zu implementieren und diese beim Retrieval für verbale Einstiege in die klassifikatorische Recherche oder zumindest für die Veranschaulichung der Klassenbenennungen in der Vollanzeige zu nutzen. Korrekt - dies ist möglich und wurde sogar einst für die MSC (Mathematics Subject Classification, auch bekannt als "AMS-Klassifikation") versucht. Dieses Projekt, das noch unter der Systemversion 11.5 begonnen wurde, geriet jedoch nach einiger Zeit ins Stocken und fand bedauerlicherweise nie seinen Weg in die folgende Version (14.2). Mag auch zu hoffen sein, dass es unter der neuen Version 16 wieder weitergeführt werden kann, so weist dieses Beispiel doch auf die grundsätzliche Problematik des Normdatei-Ansatzes (zusätzlicher Aufwand, Kontinuität) hin. Zudem lohnt sich die Implementierung einer eigenen Normdatei 4 wohl nur bei einem größeren bzw. komplexen Klassifikationssystem, wogegen man im Falle kleinerer Systematiken kaum daran denken würde.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.1, S.22-37
  8. Kluck, M.: Weiterentwicklung der Instrumente für die inhaltliche Erschließung und für Recherchen (1996) 0.06
    0.05607783 = product of:
      0.11215566 = sum of:
        0.035534237 = weight(_text_:und in 4849) [ClassicSimilarity], result of:
          0.035534237 = score(doc=4849,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.33931053 = fieldWeight in 4849, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4849)
        0.03202915 = weight(_text_:des in 4849) [ClassicSimilarity], result of:
          0.03202915 = score(doc=4849,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.24477452 = fieldWeight in 4849, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=4849)
        0.044592276 = product of:
          0.08918455 = sum of:
            0.08918455 = weight(_text_:thesaurus in 4849) [ClassicSimilarity], result of:
              0.08918455 = score(doc=4849,freq=2.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.40844947 = fieldWeight in 4849, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4849)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Für die Recherchen in den Datenbanken FORIS und SOLIS bietet das IZ verschiedene Einstiegsmöglichkeiten, die - abhängig von der Fragestellung - einzeln oder kombiniert genutzt werden können: bibliographische Elemente, wie z.B. Namen von Autoren oder Projektleitern, Erscheinungsjahre von Veröffentlichungen oder Laufzeiten von Projekten, sowie inhaltlich orientierte Einstiege, wie z.B. Textrecherchen, Klassifikationen oder Schlagwörter
    Object
    Thesaurus Sozialwissenschaften
    Source
    Informationsservice des IZ Sozialwissenschaften: Datenbankentwicklung und -nutzung, Netzwerke, Wissenschaftsforschung. Hrsg.: J. Krause u. M. Zimmer
  9. Reiner, U.: Automatische DDC-Klassifizierung von bibliografischen Titeldatensätzen (2009) 0.05
    0.048845068 = product of:
      0.097690135 = sum of:
        0.025644625 = weight(_text_:und in 611) [ClassicSimilarity], result of:
          0.025644625 = score(doc=611,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.24487628 = fieldWeight in 611, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=611)
        0.040036436 = weight(_text_:des in 611) [ClassicSimilarity], result of:
          0.040036436 = score(doc=611,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.30596817 = fieldWeight in 611, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=611)
        0.03200907 = product of:
          0.06401814 = sum of:
            0.06401814 = weight(_text_:22 in 611) [ClassicSimilarity], result of:
              0.06401814 = score(doc=611,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.38690117 = fieldWeight in 611, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=611)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Content
    Präsentation zum Vortrag anlässlich des 98. Deutscher Bibliothekartag in Erfurt: Ein neuer Blick auf Bibliotheken; TK10: Information erschließen und recherchieren Inhalte erschließen - mit neuen Tools
    Date
    22. 8.2009 12:54:24
  10. Lösse, M.; Svensson, L.: "Classification at a Crossroad" : Internationales UDC-Seminar 2009 in Den Haag, Niederlande (2010) 0.04
    0.040978 = product of:
      0.081956 = sum of:
        0.030773548 = weight(_text_:und in 4379) [ClassicSimilarity], result of:
          0.030773548 = score(doc=4379,freq=8.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.29385152 = fieldWeight in 4379, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.02402186 = weight(_text_:des in 4379) [ClassicSimilarity], result of:
          0.02402186 = score(doc=4379,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 4379, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.027160594 = product of:
          0.05432119 = sum of:
            0.05432119 = weight(_text_:22 in 4379) [ClassicSimilarity], result of:
              0.05432119 = score(doc=4379,freq=4.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.32829654 = fieldWeight in 4379, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Am 29. und 30. Oktober 2009 fand in der Königlichen Bibliothek in Den Haag das zweite internationale UDC-Seminar zum Thema "Classification at a Crossroad" statt. Organisiert wurde diese Konferenz - wie auch die erste Konferenz dieser Art im Jahr 2007 - vom UDC-Konsortium (UDCC). Im Mittelpunkt der diesjährigen Veranstaltung stand die Erschließung des World Wide Web unter besserer Nutzung von Klassifikationen (im Besonderen natürlich der UDC), einschließlich benutzerfreundlicher Repräsentationen von Informationen und Wissen. Standards, neue Technologien und Dienste, semantische Suche und der multilinguale Zugriff spielten ebenfalls eine Rolle. 135 Teilnehmer aus 35 Ländern waren dazu nach Den Haag gekommen. Das Programm umfasste mit 22 Vorträgen aus 14 verschiedenen Ländern eine breite Palette, wobei Großbritannien mit fünf Beiträgen am stärksten vertreten war. Die Tagesschwerpunkte wurden an beiden Konferenztagen durch die Eröffnungsvorträge gesetzt, die dann in insgesamt sechs thematischen Sitzungen weiter vertieft wurden.
    Date
    22. 1.2010 15:06:54
  11. Oberhauser, O.: ¬Das RVK-Interface der FU Berlin : modifiziert, zentral gehostet und lokal im Online-Katalog der WU Wien genutzt (2009) 0.04
    0.040520098 = product of:
      0.12156029 = sum of:
        0.035902474 = weight(_text_:und in 3277) [ClassicSimilarity], result of:
          0.035902474 = score(doc=3277,freq=8.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.34282678 = fieldWeight in 3277, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3277)
        0.08565781 = weight(_text_:anwendung in 3277) [ClassicSimilarity], result of:
          0.08565781 = score(doc=3277,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.37443897 = fieldWeight in 3277, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3277)
      0.33333334 = coord(2/6)
    
    Abstract
    Der Beitrag berichtet über ein an der Universitätsbibliothek der Freien Universität Berlin entwickeltes und in den dortigen Aleph-OPAC integriertes Gateway zu der Datenbank "RVK-Online". Dieses unterstützt neben der hierarchischen Navigation in der Baumstruktur der Regensburger Verbundklassifikation sowie der Recherche in ihren verbalen Elementen auch die Abfrage von RVK-Notationen im lokalen OPAC. Das Interface wurde in der Verbundzentrale OBVSG modifiziert und so implementiert, dass es als gehostete Anwendung für lokale Online-Kataloge einsetzbar ist. Als erstes österreichisches Lokalsystem nutzt nun die Wirtschaftsuniversität Wien diese Lösung in ihrem OPAC.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 62(2009) H.3, S.43-56
  12. Sandner, M.; Jahns, Y.: Kurzbericht zum DDC-Übersetzer- und Anwendertreffen bei der IFLA-Konferenz 2005 in Oslo, Norwegen (2005) 0.04
    0.04050683 = product of:
      0.08101366 = sum of:
        0.03358369 = weight(_text_:und in 4406) [ClassicSimilarity], result of:
          0.03358369 = score(doc=4406,freq=28.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3206851 = fieldWeight in 4406, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4406)
        0.028025504 = weight(_text_:des in 4406) [ClassicSimilarity], result of:
          0.028025504 = score(doc=4406,freq=8.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2141777 = fieldWeight in 4406, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4406)
        0.019404465 = product of:
          0.03880893 = sum of:
            0.03880893 = weight(_text_:22 in 4406) [ClassicSimilarity], result of:
              0.03880893 = score(doc=4406,freq=6.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.23454636 = fieldWeight in 4406, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4406)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Content
    "Am 16. August 2005 fand in Oslo im Rahmen der heurigen IFLA-Konferenz das alljährliche Treffen der DDC-Übersetzer und der weltweiten DeweyAnwender-Institutionen (Nationalbibliotheken, Ersteller von Nationalbibliografien) statt. Die im Sommer 2005 bereits abgeschlossene deutsche Übersetzung wird in der Druckfassung Ende des Jahres in 4 Bänden vorliegen, beim K. G. Saur Verlag in München erscheinen (ISBN 3-598-11651-9) und 2006 vom ebenfalls erstmals ins Deutsche übersetzten DDC-Lehrbuch (ISBN 3-598-11748-5) begleitet. Pläne für neu startende Übersetzungen der DDC 22 gibt es für folgende Sprachen: Arabisch (mit der wachsenden Notwendigkeit, Klasse 200 Religion zu revidieren), Französisch (es erschien zuletzt eine neue Kurzausgabe 14, nun werden eine vierbändige Druckausgabe und eine frz. Webversion anvisiert), Schwedisch, Vietnamesisch (hierfür wird eine an die Sprache und Schrift angepasste Version des deutschen Übersetzungstools zum Einsatz kommen).
    Das Neueste zuerst Die Herausgeber der DDC präsentierten eine neue Informationsplattform "025.431: The Dewey blog"; seit Anfang Juli erreichbar unter http://ddc.typepad.com/. Neu ist auch der fünfsprachige, mit einem Farbleitsystem ausgestattete "DeweyBrowser" von OCLC; der Protoyp führt bereits in einen Katalog von 125.000 e-books und kann unter http://ddcresearch.oclc.org ,i ebooks/fileServer erprobt werden. OCLC bietet seit April 2005 eine neue Current Awareness-Schiene zur DDC mit unterschiedlichen Schwerpunkten an: Dewey Mappings, Dewey News, DeweyTips, Dewey Updates, Deweyjournal (letzteres fängt Themen aus allen 4 Teilbereichen auf); zu subskribieren unter http://www.oclc.org/dewey/syndicated/rss.htm. Wichtig für Freihandaufstellungen Die Segmentierung von Dewey-Notationen wurde reduziert! Ab September 2005 vergibt LoC nur noch ein einziges Segmentierungszeichen, und zwar an der Stelle, an der die jeweilige Notation in der englischen Kurzausgabe endet. Der Beginn einer Teilnotation aus Hilfstafel 1: Standardunterteilungen, wird also nun nicht mehr markiert. Für die Bildung von Standortsignaturen bietet sich das Dewey Cutter Programm an; Downloaden unter www.oclc.org/dewey/support/program.
    Allgemein DDC 22 ist im Gegensatz zu den früheren Neuauflagen der Standard Edition eine Ausgabe ohne generelle Überarbeitung einer gesamten Klasse. Sie enthält jedoch zahlreiche Änderungen und Expansionen in fast allen Disziplinen und in vielen Hilfstafeln. Es erschien auch eine Sonderausgabe der Klasse 200, Religion. In der aktuellen Kurzausgabe der DDC 22 (14, aus 2004) sind all diese Neuerungen berücksichtigt. Auch die elektronische Version exisitiert in einer vollständigen (WebDewey) und in einer KurzVariante (Abridged WebDewey) und ist immer auf dem jüngsten Stand der Klassifikation. Ein Tutorial für die Nutzung von WebDewey steht unter www.oclc.org /dewey/ resourcesitutorial zur Verfügung. Der Index enthält in dieser elektronischen Fassung weit mehr zusammengesetzte Notationen und verbale Sucheinstiege (resultierend aus den Titeldaten des "WorldCat") als die Druckausgabe, sowie Mappings zu den aktuellsten Normdatensätzen aus LCSH und McSH. Aktuell Die personelle Zusammensetzung des EPC (Editorial Policy Committee) hat sich im letzten Jahr verändert. Dieses oberste Gremium der DDC hat Prioritäten für den aktuellen Arbeitsplan festgelegt. Es wurde vereinbart, größere Änderungsvorhaben via Dewey-Website künftig wie in einem Stellungnahmeverfahren zur fachlichen Diskussion zu stellen. www.oclc.org/dewey/discussion/."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.3, S.89-91
  13. Francu, V.: Construirea unui tezaur multilingv bazat pr CZU (1997) 0.04
    0.035354 = product of:
      0.106061995 = sum of:
        0.028025504 = weight(_text_:des in 3221) [ClassicSimilarity], result of:
          0.028025504 = score(doc=3221,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2141777 = fieldWeight in 3221, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3221)
        0.07803649 = product of:
          0.15607297 = sum of:
            0.15607297 = weight(_text_:thesaurus in 3221) [ClassicSimilarity], result of:
              0.15607297 = score(doc=3221,freq=8.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.7147866 = fieldWeight in 3221, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3221)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    The automation of Bucharest University Central Library involved the compilation of a dictionary of terms to facilitate postcoordinated searching in accordance with the UDC notation attached to every bibliographic record. Describes the project and demonstrates why a multilingual UDC based thesaurus is considered as ideal indexing and searching tool. The experiment, which applied to Class 8 of UDC (Linguisitcs and Literature), illustrates how all UDC tables can be successfully used to build a thesaurus and the ways in which their limitations can be overcome by a thesaurus
    Footnote
    Übers. des Titels: Building a multilingual thesaurus based on UDC
  14. Knell, G.: Probleme bei der computergestützten DK-Anwendung (1988) 0.03
    0.03263155 = product of:
      0.19578929 = sum of:
        0.19578929 = weight(_text_:anwendung in 663) [ClassicSimilarity], result of:
          0.19578929 = score(doc=663,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.85586053 = fieldWeight in 663, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.125 = fieldNorm(doc=663)
      0.16666667 = coord(1/6)
    
  15. Frâncu, V.; Sabo, C.-N.: Implementation of a UDC-based multilingual thesaurus in a library catalogue : the case of BiblioPhil (2010) 0.03
    0.031329658 = product of:
      0.18797794 = sum of:
        0.18797794 = sum of:
          0.14956705 = weight(_text_:thesaurus in 3697) [ClassicSimilarity], result of:
            0.14956705 = score(doc=3697,freq=10.0), product of:
              0.21834905 = queryWeight, product of:
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.04725067 = queryNorm
              0.68499064 = fieldWeight in 3697, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.046875 = fieldNorm(doc=3697)
          0.03841088 = weight(_text_:22 in 3697) [ClassicSimilarity], result of:
            0.03841088 = score(doc=3697,freq=2.0), product of:
              0.16546379 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04725067 = queryNorm
              0.23214069 = fieldWeight in 3697, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=3697)
      0.16666667 = coord(1/6)
    
    Abstract
    In order to enhance the use of Universal Decimal Classification (UDC) numbers in information retrieval, the authors have represented classification with multilingual thesaurus descriptors and implemented this solution in an automated way. The authors illustrate a solution implemented in a BiblioPhil library system. The standard formats used are UNIMARC for subject authority records (i.e. the UDC-based multilingual thesaurus) and MARC XML support for data transfer. The multilingual thesaurus was built according to existing standards, the constituent parts of the classification notations being used as the basis for search terms in the multilingual information retrieval. The verbal equivalents, descriptors and non-descriptors, are used to expand the number of concepts and are given in Romanian, English and French. This approach saves the time of the indexer and provides more user-friendly and easier access to the bibliographic information. The multilingual aspect of the thesaurus enhances information access for a greater number of online users
    Date
    22. 7.2010 20:40:56
  16. Trinkhaus, M.: Möglichkeiten und Aspekte des sachlichen Zugriffs in Online-Katalogen (1990) 0.03
    0.030521363 = product of:
      0.09156409 = sum of:
        0.043520372 = weight(_text_:und in 1301) [ClassicSimilarity], result of:
          0.043520372 = score(doc=1301,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.41556883 = fieldWeight in 1301, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1301)
        0.04804372 = weight(_text_:des in 1301) [ClassicSimilarity], result of:
          0.04804372 = score(doc=1301,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.36716178 = fieldWeight in 1301, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=1301)
      0.33333334 = coord(2/6)
    
    Source
    Bibliothek. Forschung und Praxis. 14(1990), S.193-225
  17. Hondt, E. d': ¬Die Anwendung der Dezimalklassifikation (DK) in einer automatisierten theologischen Bibliothek (1990) 0.03
    0.028552605 = product of:
      0.17131563 = sum of:
        0.17131563 = weight(_text_:anwendung in 1159) [ClassicSimilarity], result of:
          0.17131563 = score(doc=1159,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.74887794 = fieldWeight in 1159, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.109375 = fieldNorm(doc=1159)
      0.16666667 = coord(1/6)
    
  18. Oberhauser, O.: Klassifikatorische Erschließung und Recherche im Österreichischen Verbundkatalog (2005) 0.03
    0.027723238 = product of:
      0.08316971 = sum of:
        0.04113145 = weight(_text_:und in 3701) [ClassicSimilarity], result of:
          0.04113145 = score(doc=3701,freq=42.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.39275742 = fieldWeight in 3701, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3701)
        0.04203826 = weight(_text_:des in 3701) [ClassicSimilarity], result of:
          0.04203826 = score(doc=3701,freq=18.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.32126656 = fieldWeight in 3701, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3701)
      0.33333334 = coord(2/6)
    
    Abstract
    Dieser Beitrag referiert und dokumentiert die klassifikationsbasierten Anzeige- und Recherchemöglichkeiten, die 2005 anlässlich einer Versionsumstellung erstmals im OPAC des Österreichischen Bibliothekenverbundes implementiert wurden. Dazu wird einleitend ein kurzer Statusbericht über die im Titeldatenmaterial des Zentralkatologes vorhandenen Notationen gegeben. Danach werden die auf den Notationen der ZDB-Systematik, der Regensburger Verbundklassifikotion (RVK) und der Mathematics Subject Classification (MSC) aufbauenden OPAC-Features vorgestellt. Des weiteren wird ein bereits vorliegendes, aber noch nicht realisiertes Konzept zur Implementierung der MSC als Normdatei präsentiert, auf dem auch die künftige Verwendung der Basisklassifikation (BK) aufsetzen könnte.
    Content
    "Der Österreichische Verbundkatalog ist das zentrale Katalogisierungs- und Auskunftsinstrument des Österreichischen Bibliothekenverbundes, der grössten und bedeutendsten Kooperative wissenschaftlicher und administrativer Bibliotheken des Landes. Zur Zeit nehmen 62 Bibliotheken aktiv an diesem Verbund teil, darunter die Österreichische Nationalbibliothek und fast alle Universitätsbibliotheken. Mit dem Aufbau des elektronischen Verbundkataloges wurde 1988 begonnen; seit Anfang 1999 geschieht dies verbundweit unter Verwendung der Bibliotheksautomationssoftware "Aleph 500" der Firma ExLibris. Die Zahl der nachgewiesenen Titel beträgt mit Stand April 2005 über 4,3 Millionen (mit etwa 8,1 Millionen Exemplar- und 0,6 Millionen Zeitschriften-Bestandsnachweisen). Ursprünglich bezogen sich die Katalogisate schwerpunktmässig auf Publikationen seit etwa 1990, doch ist inzwischen aufgrund verschiedener Rückarbeitungsaktionen der Verbundteilnehmer auch ein beträchtlicher Anteil älterer Werke hinzugekommen. Überdies wurden in den 1990er Jahren die Zettel der "Büchernachweisstelle" (ein Zentralkatalog für den Zeitraum 1981-1993) retrokatalogisiert und Anfang 2000 die Daten der früheren "Österreichischen Zeitschriftendatenbank" (ÖZDB) in den Verbundkatalog eingearbeitet, wodurch nun auch eine grosse Zahl von Besitznachweisen von Bibliotheken ausserhalb des Verbundes vorhanden ist. Die verbale Sacherschliessung, an der sich der überwiegende Teil der Verbundbibliotheken beteiligt, erfolgt seit 1989 kooperativ nach RSWK und SWD. Nach einer aktuellen Statistik (April 2005) beträgt der Anteil der mit RSWK-Ketten versehenen Datensätze 44% - ein Wert, der den Vergleich mit deutschen Verbünden nicht zu scheuen braucht und in den letzten Jahren sogar ein wenig angestiegen ist. Was dagegen die klassifikatorische Sacherschliessung betrifft, so gab und gibt es in Österreich keine Einheitlichkeit; die in Deutschland in den 1970er Jahren verfolgte und schliesslich gescheiterte Idee einer "Einheitsklassifikation" war hierzulande kaum je ein Thema. Für die Zwecke der systematischen Erschliessung und/oder Buchaufstellung wurden und werden zahlreiche verschiedene Systematiken und Klassifikationssysteme verwendet, zum überwiegenden Teil "Haussystematiken" von unterschiedlicher Grösse und Komplexität. Internationale Universalklassifikationen wie etwa die UDC vermochten sich nicht durchzusetzen und werden nur vereinzelt angewandt. In jüngerer Vergangenheit hat sich allerdings das Interesse an der Regensburger Verbundklassifikation (RVK) verstärkt. Dieses System wurde etwa als präsumtives Ablösesystem für die veraltete Haussystematik der grossen germanistischen Fachbibliothek an der Universität Wien und als faktisches Aufstellungssystem für eine neu errichtete, geisteswissenschaftliche Fakultätsbibliothek in Innsbruck ausgewählt. Im Zuge des DFG-Projekts "DDC Deutsch" ist auch ein gewisses, vielleicht noch ein wenig abwartendes Interesse an der Dewey-Dezimalklassifikation entstanden.
    Die Vielfalt der eingesetzten Systematiken hat dazu geführt, dass klassifikationsbasierte Retrievalmöglichkeiten bisher, wenn überhaupt, nur in den lokalen Katalogen des Österreichischen Verbundes anzutreffen waren. Etwa ein Drittel der lokalen Bibliotheken bietet gegenwärtig in den betreffenden OPACs solche Suchoptionen in verschiedenen Ausformungen an. Im zentralen Verbundkatalog gab es bislang keine solchen klassifikationsbasierten Suchmöglichkeiten. Die lokalen Notationen werden ja beim Lokaldatensatz katalogisiert und gelangen nicht in den Verbundkatalog. Allerdings ist es auch bei der zentralen Katalogisierung der bibliographischen Daten möglich, die MAB-Kategorie 700 mit den verschiedenen Indikatoren für die Eingabe von Notationen bestimmter Klassifikationssysteme zu nutzen. Von dieser Möglichkeit wird sowohl aktiv als auch passiv (d.h. durch Fremddatenübernahme) Gebrauch gemacht.
  19. Zimmermann, H.H.: Zur Struktur und Nutzung von Klassifikationen im Bibliothekswesen : Beispiel der Klassifikation der Deutschen Bibliothek und der sog. Niederländischen Basiskklassifikation (1994) 0.03
    0.02543447 = product of:
      0.07630341 = sum of:
        0.036266975 = weight(_text_:und in 6027) [ClassicSimilarity], result of:
          0.036266975 = score(doc=6027,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.34630734 = fieldWeight in 6027, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=6027)
        0.040036436 = weight(_text_:des in 6027) [ClassicSimilarity], result of:
          0.040036436 = score(doc=6027,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.30596817 = fieldWeight in 6027, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=6027)
      0.33333334 = coord(2/6)
    
    Source
    Mehrwert von Information - Professionalisierung der Informationsarbeit: Proceedings des 4. Internationalen Symposiums für Informationswissenschaft (ISI'94), Graz, 2.-4. November 1994. Hrsg.: W. Rauch u.a
  20. Qualität in der Inhaltserschließung (2021) 0.03
    0.02531646 = product of:
      0.07594938 = sum of:
        0.053301353 = weight(_text_:und in 753) [ClassicSimilarity], result of:
          0.053301353 = score(doc=753,freq=54.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.5089658 = fieldWeight in 753, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.022648027 = weight(_text_:des in 753) [ClassicSimilarity], result of:
          0.022648027 = score(doc=753,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.17308173 = fieldWeight in 753, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
      0.33333334 = coord(2/6)
    
    Abstract
    Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Footnote
    Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
    Series
    Bibliotheks- und Informationspraxis; 70

Years

Languages

  • d 55
  • e 40
  • i 1
  • nl 1
  • pt 1
  • ro 1
  • More… Less…

Types

  • a 83
  • el 11
  • s 4
  • m 3
  • h 2
  • p 1
  • x 1
  • More… Less…

Classifications