Search (108 results, page 1 of 6)

  • × theme_ss:"Klassifikationssysteme im Online-Retrieval"
  1. Gödert, W.: Systematisches Suchen und Orientierung in Datenbanken (1995) 0.06
    0.063097395 = product of:
      0.21032465 = sum of:
        0.03266668 = product of:
          0.06533336 = sum of:
            0.06533336 = weight(_text_:wissenschaft in 1465) [ClassicSimilarity], result of:
              0.06533336 = score(doc=1465,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.5262667 = fieldWeight in 1465, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1465)
          0.5 = coord(1/2)
        0.04073888 = weight(_text_:und in 1465) [ClassicSimilarity], result of:
          0.04073888 = score(doc=1465,freq=8.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.58770305 = fieldWeight in 1465, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1465)
        0.13691908 = weight(_text_:kultur in 1465) [ClassicSimilarity], result of:
          0.13691908 = score(doc=1465,freq=2.0), product of:
            0.17971884 = queryWeight, product of:
              5.746245 = idf(docFreq=383, maxDocs=44218)
              0.031275876 = queryNorm
            0.7618516 = fieldWeight in 1465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.746245 = idf(docFreq=383, maxDocs=44218)
              0.09375 = fieldNorm(doc=1465)
      0.3 = coord(3/10)
    
    Imprint
    Oldenburg : Bibliotheks- und Informationssystem
    Source
    Zwischen Schreiben und Lesen: Perspektiven für Bibliotheken, Wissenschaft und Kultur. Festschrift zum 60. Geburtstag von Hermann Havekost. Hrsg. von H.-J. Wätjen
  2. Trinkhaus, M.: Möglichkeiten und Aspekte des sachlichen Zugriffs in Online-Katalogen (1990) 0.05
    0.047624506 = product of:
      0.15874834 = sum of:
        0.0981408 = weight(_text_:forschung in 1301) [ClassicSimilarity], result of:
          0.0981408 = score(doc=1301,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.64500517 = fieldWeight in 1301, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.09375 = fieldNorm(doc=1301)
        0.028806739 = weight(_text_:und in 1301) [ClassicSimilarity], result of:
          0.028806739 = score(doc=1301,freq=4.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.41556883 = fieldWeight in 1301, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1301)
        0.031800807 = weight(_text_:des in 1301) [ClassicSimilarity], result of:
          0.031800807 = score(doc=1301,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.36716178 = fieldWeight in 1301, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=1301)
      0.3 = coord(3/10)
    
    Source
    Bibliothek. Forschung und Praxis. 14(1990), S.193-225
  3. Oberhauser, O.: Klassifikatorische Erschließung und Recherche im Österreichischen Verbundkatalog (2005) 0.03
    0.03202391 = product of:
      0.10674637 = sum of:
        0.02722548 = weight(_text_:und in 3701) [ClassicSimilarity], result of:
          0.02722548 = score(doc=3701,freq=42.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.39275742 = fieldWeight in 3701, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3701)
        0.027825708 = weight(_text_:des in 3701) [ClassicSimilarity], result of:
          0.027825708 = score(doc=3701,freq=18.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.32126656 = fieldWeight in 3701, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3701)
        0.051695183 = weight(_text_:landes in 3701) [ClassicSimilarity], result of:
          0.051695183 = score(doc=3701,freq=2.0), product of:
            0.20447642 = queryWeight, product of:
              6.537832 = idf(docFreq=173, maxDocs=44218)
              0.031275876 = queryNorm
            0.25281733 = fieldWeight in 3701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.537832 = idf(docFreq=173, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3701)
      0.3 = coord(3/10)
    
    Abstract
    Dieser Beitrag referiert und dokumentiert die klassifikationsbasierten Anzeige- und Recherchemöglichkeiten, die 2005 anlässlich einer Versionsumstellung erstmals im OPAC des Österreichischen Bibliothekenverbundes implementiert wurden. Dazu wird einleitend ein kurzer Statusbericht über die im Titeldatenmaterial des Zentralkatologes vorhandenen Notationen gegeben. Danach werden die auf den Notationen der ZDB-Systematik, der Regensburger Verbundklassifikotion (RVK) und der Mathematics Subject Classification (MSC) aufbauenden OPAC-Features vorgestellt. Des weiteren wird ein bereits vorliegendes, aber noch nicht realisiertes Konzept zur Implementierung der MSC als Normdatei präsentiert, auf dem auch die künftige Verwendung der Basisklassifikation (BK) aufsetzen könnte.
    Content
    "Der Österreichische Verbundkatalog ist das zentrale Katalogisierungs- und Auskunftsinstrument des Österreichischen Bibliothekenverbundes, der grössten und bedeutendsten Kooperative wissenschaftlicher und administrativer Bibliotheken des Landes. Zur Zeit nehmen 62 Bibliotheken aktiv an diesem Verbund teil, darunter die Österreichische Nationalbibliothek und fast alle Universitätsbibliotheken. Mit dem Aufbau des elektronischen Verbundkataloges wurde 1988 begonnen; seit Anfang 1999 geschieht dies verbundweit unter Verwendung der Bibliotheksautomationssoftware "Aleph 500" der Firma ExLibris. Die Zahl der nachgewiesenen Titel beträgt mit Stand April 2005 über 4,3 Millionen (mit etwa 8,1 Millionen Exemplar- und 0,6 Millionen Zeitschriften-Bestandsnachweisen). Ursprünglich bezogen sich die Katalogisate schwerpunktmässig auf Publikationen seit etwa 1990, doch ist inzwischen aufgrund verschiedener Rückarbeitungsaktionen der Verbundteilnehmer auch ein beträchtlicher Anteil älterer Werke hinzugekommen. Überdies wurden in den 1990er Jahren die Zettel der "Büchernachweisstelle" (ein Zentralkatalog für den Zeitraum 1981-1993) retrokatalogisiert und Anfang 2000 die Daten der früheren "Österreichischen Zeitschriftendatenbank" (ÖZDB) in den Verbundkatalog eingearbeitet, wodurch nun auch eine grosse Zahl von Besitznachweisen von Bibliotheken ausserhalb des Verbundes vorhanden ist. Die verbale Sacherschliessung, an der sich der überwiegende Teil der Verbundbibliotheken beteiligt, erfolgt seit 1989 kooperativ nach RSWK und SWD. Nach einer aktuellen Statistik (April 2005) beträgt der Anteil der mit RSWK-Ketten versehenen Datensätze 44% - ein Wert, der den Vergleich mit deutschen Verbünden nicht zu scheuen braucht und in den letzten Jahren sogar ein wenig angestiegen ist. Was dagegen die klassifikatorische Sacherschliessung betrifft, so gab und gibt es in Österreich keine Einheitlichkeit; die in Deutschland in den 1970er Jahren verfolgte und schliesslich gescheiterte Idee einer "Einheitsklassifikation" war hierzulande kaum je ein Thema. Für die Zwecke der systematischen Erschliessung und/oder Buchaufstellung wurden und werden zahlreiche verschiedene Systematiken und Klassifikationssysteme verwendet, zum überwiegenden Teil "Haussystematiken" von unterschiedlicher Grösse und Komplexität. Internationale Universalklassifikationen wie etwa die UDC vermochten sich nicht durchzusetzen und werden nur vereinzelt angewandt. In jüngerer Vergangenheit hat sich allerdings das Interesse an der Regensburger Verbundklassifikation (RVK) verstärkt. Dieses System wurde etwa als präsumtives Ablösesystem für die veraltete Haussystematik der grossen germanistischen Fachbibliothek an der Universität Wien und als faktisches Aufstellungssystem für eine neu errichtete, geisteswissenschaftliche Fakultätsbibliothek in Innsbruck ausgewählt. Im Zuge des DFG-Projekts "DDC Deutsch" ist auch ein gewisses, vielleicht noch ein wenig abwartendes Interesse an der Dewey-Dezimalklassifikation entstanden.
    Die Vielfalt der eingesetzten Systematiken hat dazu geführt, dass klassifikationsbasierte Retrievalmöglichkeiten bisher, wenn überhaupt, nur in den lokalen Katalogen des Österreichischen Verbundes anzutreffen waren. Etwa ein Drittel der lokalen Bibliotheken bietet gegenwärtig in den betreffenden OPACs solche Suchoptionen in verschiedenen Ausformungen an. Im zentralen Verbundkatalog gab es bislang keine solchen klassifikationsbasierten Suchmöglichkeiten. Die lokalen Notationen werden ja beim Lokaldatensatz katalogisiert und gelangen nicht in den Verbundkatalog. Allerdings ist es auch bei der zentralen Katalogisierung der bibliographischen Daten möglich, die MAB-Kategorie 700 mit den verschiedenen Indikatoren für die Eingabe von Notationen bestimmter Klassifikationssysteme zu nutzen. Von dieser Möglichkeit wird sowohl aktiv als auch passiv (d.h. durch Fremddatenübernahme) Gebrauch gemacht.
  4. Gödert, W.: Facettenklassifikation im Online-Retrieval (1992) 0.03
    0.031219097 = product of:
      0.10406365 = sum of:
        0.057248797 = weight(_text_:forschung in 4574) [ClassicSimilarity], result of:
          0.057248797 = score(doc=4574,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.376253 = fieldWeight in 4574, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4574)
        0.020580528 = weight(_text_:und in 4574) [ClassicSimilarity], result of:
          0.020580528 = score(doc=4574,freq=6.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.2968967 = fieldWeight in 4574, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4574)
        0.026234329 = weight(_text_:des in 4574) [ClassicSimilarity], result of:
          0.026234329 = score(doc=4574,freq=4.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.302893 = fieldWeight in 4574, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4574)
      0.3 = coord(3/10)
    
    Abstract
    Facettenklassifikationen wurden bislang vorwiegend im Hinblick auf ihre Verwendungsmöglichkeiten in präkombinierten systematischen Katalogen bzw. Bibliographien betrachtet, nicht so sehr unter dem Aspekt eines möglichen Einsatzes in postkoordinierenden Retrievalsystemen. Im vorliegenden Beitrag soll nachgewiesen werden, daß Facettenklassifikationen anderen Techniken des Online Retrievals überlegen sein können. Hierzu sollten Begriffs- und Facettenanalyse mit einem strukturabbildenden Notationssystem kombiniert werden, um mit Hilfe Boolescher Operatoren (zur Verknüpfung von Facetten unabhängig von einer definierten Citation order) und Truncierung hierarchisch differenzierte Dokumentenmengen für komplexe Fragestellungen zu erhalten. Die Methode wird an zwei Beispielen illustriert: das erste nutzt eine kleine, von B. Buchanan entwickelte Klassifikation, das zweite das für Library and Information Science Abstracts (LISA) verwendete Klassifikationssystem. Weiter wird am Beispiel PRECIS diskutiert, welche Möglichkeiten des syntaktischen Retrievals Rollenoperatoren bieten können.
    Source
    Bibliothek: Forschung und Praxis. 16(1992) H.3, S.382-395
  5. Koch, T.; Vizine-Goetz, D.: DDC and knowledge organization in the digital library : Research and development. Demonstration pages (1999) 0.03
    0.027577924 = product of:
      0.09192641 = sum of:
        0.0490704 = weight(_text_:forschung in 942) [ClassicSimilarity], result of:
          0.0490704 = score(doc=942,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.32250258 = fieldWeight in 942, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=942)
        0.02036944 = weight(_text_:und in 942) [ClassicSimilarity], result of:
          0.02036944 = score(doc=942,freq=8.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.29385152 = fieldWeight in 942, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=942)
        0.022486566 = weight(_text_:des in 942) [ClassicSimilarity], result of:
          0.022486566 = score(doc=942,freq=4.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.25962257 = fieldWeight in 942, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=942)
      0.3 = coord(3/10)
    
    Abstract
    Der Workshop gibt einen Einblick in die aktuelle Forschung und Entwicklung zur Wissensorganisation in digitalen Bibliotheken. Diane Vizine-Goetz vom OCLC Office of Research in Dublin, Ohio, stellt die Forschungsprojekte von OCLC zur Anpassung und Weiterentwicklung der Dewey Decimal Classification als Wissensorganisationsinstrument fuer grosse digitale Dokumentensammlungen vor. Traugott Koch, NetLab, Universität Lund in Schweden, demonstriert die Ansätze und Lösungen des EU-Projekts DESIRE zum Einsatz von intellektueller und vor allem automatischer Klassifikation in Fachinformationsdiensten im Internet.
    Footnote
    Vortrag anläßlich des Workshops am 21.10.1999, Deutsche Bibliothek, Frankfurt/M.
  6. Lösse, M.; Svensson, L.: "Classification at a Crossroad" : Internationales UDC-Seminar 2009 in Den Haag, Niederlande (2010) 0.02
    0.02320324 = product of:
      0.077344134 = sum of:
        0.02036944 = weight(_text_:und in 4379) [ClassicSimilarity], result of:
          0.02036944 = score(doc=4379,freq=8.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.29385152 = fieldWeight in 4379, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.015900403 = weight(_text_:des in 4379) [ClassicSimilarity], result of:
          0.015900403 = score(doc=4379,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.18358089 = fieldWeight in 4379, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.04107429 = product of:
          0.061611436 = sum of:
            0.025655484 = weight(_text_:29 in 4379) [ClassicSimilarity], result of:
              0.025655484 = score(doc=4379,freq=2.0), product of:
                0.11001875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.031275876 = queryNorm
                0.23319192 = fieldWeight in 4379, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
            0.035955954 = weight(_text_:22 in 4379) [ClassicSimilarity], result of:
              0.035955954 = score(doc=4379,freq=4.0), product of:
                0.10952279 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031275876 = queryNorm
                0.32829654 = fieldWeight in 4379, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
          0.6666667 = coord(2/3)
      0.3 = coord(3/10)
    
    Abstract
    Am 29. und 30. Oktober 2009 fand in der Königlichen Bibliothek in Den Haag das zweite internationale UDC-Seminar zum Thema "Classification at a Crossroad" statt. Organisiert wurde diese Konferenz - wie auch die erste Konferenz dieser Art im Jahr 2007 - vom UDC-Konsortium (UDCC). Im Mittelpunkt der diesjährigen Veranstaltung stand die Erschließung des World Wide Web unter besserer Nutzung von Klassifikationen (im Besonderen natürlich der UDC), einschließlich benutzerfreundlicher Repräsentationen von Informationen und Wissen. Standards, neue Technologien und Dienste, semantische Suche und der multilinguale Zugriff spielten ebenfalls eine Rolle. 135 Teilnehmer aus 35 Ländern waren dazu nach Den Haag gekommen. Das Programm umfasste mit 22 Vorträgen aus 14 verschiedenen Ländern eine breite Palette, wobei Großbritannien mit fünf Beiträgen am stärksten vertreten war. Die Tagesschwerpunkte wurden an beiden Konferenztagen durch die Eröffnungsvorträge gesetzt, die dann in insgesamt sechs thematischen Sitzungen weiter vertieft wurden.
    Date
    22. 1.2010 15:06:54
  7. Sandner, M.; Jahns, Y.: Kurzbericht zum DDC-Übersetzer- und Anwendertreffen bei der IFLA-Konferenz 2005 in Oslo, Norwegen (2005) 0.02
    0.020364769 = product of:
      0.06788256 = sum of:
        0.022229511 = weight(_text_:und in 4406) [ClassicSimilarity], result of:
          0.022229511 = score(doc=4406,freq=28.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.3206851 = fieldWeight in 4406, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4406)
        0.01855047 = weight(_text_:des in 4406) [ClassicSimilarity], result of:
          0.01855047 = score(doc=4406,freq=8.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.2141777 = fieldWeight in 4406, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4406)
        0.02710258 = product of:
          0.04065387 = sum of:
            0.014965699 = weight(_text_:29 in 4406) [ClassicSimilarity], result of:
              0.014965699 = score(doc=4406,freq=2.0), product of:
                0.11001875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.031275876 = queryNorm
                0.13602862 = fieldWeight in 4406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4406)
            0.025688171 = weight(_text_:22 in 4406) [ClassicSimilarity], result of:
              0.025688171 = score(doc=4406,freq=6.0), product of:
                0.10952279 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031275876 = queryNorm
                0.23454636 = fieldWeight in 4406, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4406)
          0.6666667 = coord(2/3)
      0.3 = coord(3/10)
    
    Content
    "Am 16. August 2005 fand in Oslo im Rahmen der heurigen IFLA-Konferenz das alljährliche Treffen der DDC-Übersetzer und der weltweiten DeweyAnwender-Institutionen (Nationalbibliotheken, Ersteller von Nationalbibliografien) statt. Die im Sommer 2005 bereits abgeschlossene deutsche Übersetzung wird in der Druckfassung Ende des Jahres in 4 Bänden vorliegen, beim K. G. Saur Verlag in München erscheinen (ISBN 3-598-11651-9) und 2006 vom ebenfalls erstmals ins Deutsche übersetzten DDC-Lehrbuch (ISBN 3-598-11748-5) begleitet. Pläne für neu startende Übersetzungen der DDC 22 gibt es für folgende Sprachen: Arabisch (mit der wachsenden Notwendigkeit, Klasse 200 Religion zu revidieren), Französisch (es erschien zuletzt eine neue Kurzausgabe 14, nun werden eine vierbändige Druckausgabe und eine frz. Webversion anvisiert), Schwedisch, Vietnamesisch (hierfür wird eine an die Sprache und Schrift angepasste Version des deutschen Übersetzungstools zum Einsatz kommen).
    Das Neueste zuerst Die Herausgeber der DDC präsentierten eine neue Informationsplattform "025.431: The Dewey blog"; seit Anfang Juli erreichbar unter http://ddc.typepad.com/. Neu ist auch der fünfsprachige, mit einem Farbleitsystem ausgestattete "DeweyBrowser" von OCLC; der Protoyp führt bereits in einen Katalog von 125.000 e-books und kann unter http://ddcresearch.oclc.org ,i ebooks/fileServer erprobt werden. OCLC bietet seit April 2005 eine neue Current Awareness-Schiene zur DDC mit unterschiedlichen Schwerpunkten an: Dewey Mappings, Dewey News, DeweyTips, Dewey Updates, Deweyjournal (letzteres fängt Themen aus allen 4 Teilbereichen auf); zu subskribieren unter http://www.oclc.org/dewey/syndicated/rss.htm. Wichtig für Freihandaufstellungen Die Segmentierung von Dewey-Notationen wurde reduziert! Ab September 2005 vergibt LoC nur noch ein einziges Segmentierungszeichen, und zwar an der Stelle, an der die jeweilige Notation in der englischen Kurzausgabe endet. Der Beginn einer Teilnotation aus Hilfstafel 1: Standardunterteilungen, wird also nun nicht mehr markiert. Für die Bildung von Standortsignaturen bietet sich das Dewey Cutter Programm an; Downloaden unter www.oclc.org/dewey/support/program.
    Allgemein DDC 22 ist im Gegensatz zu den früheren Neuauflagen der Standard Edition eine Ausgabe ohne generelle Überarbeitung einer gesamten Klasse. Sie enthält jedoch zahlreiche Änderungen und Expansionen in fast allen Disziplinen und in vielen Hilfstafeln. Es erschien auch eine Sonderausgabe der Klasse 200, Religion. In der aktuellen Kurzausgabe der DDC 22 (14, aus 2004) sind all diese Neuerungen berücksichtigt. Auch die elektronische Version exisitiert in einer vollständigen (WebDewey) und in einer KurzVariante (Abridged WebDewey) und ist immer auf dem jüngsten Stand der Klassifikation. Ein Tutorial für die Nutzung von WebDewey steht unter www.oclc.org /dewey/ resourcesitutorial zur Verfügung. Der Index enthält in dieser elektronischen Fassung weit mehr zusammengesetzte Notationen und verbale Sucheinstiege (resultierend aus den Titeldaten des "WorldCat") als die Druckausgabe, sowie Mappings zu den aktuellsten Normdatensätzen aus LCSH und McSH. Aktuell Die personelle Zusammensetzung des EPC (Editorial Policy Committee) hat sich im letzten Jahr verändert. Dieses oberste Gremium der DDC hat Prioritäten für den aktuellen Arbeitsplan festgelegt. Es wurde vereinbart, größere Änderungsvorhaben via Dewey-Website künftig wie in einem Stellungnahmeverfahren zur fachlichen Diskussion zu stellen. www.oclc.org/dewey/discussion/."
    Date
    6.11.2005 12:27:29
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.3, S.89-91
  8. Qualität in der Inhaltserschließung (2021) 0.02
    0.018348254 = product of:
      0.061160844 = sum of:
        0.010888893 = product of:
          0.021777786 = sum of:
            0.021777786 = weight(_text_:wissenschaft in 753) [ClassicSimilarity], result of:
              0.021777786 = score(doc=753,freq=2.0), product of:
                0.124144964 = queryWeight, product of:
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.031275876 = queryNorm
                0.17542224 = fieldWeight in 753, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.969352 = idf(docFreq=2269, maxDocs=44218)
                  0.03125 = fieldNorm(doc=753)
          0.5 = coord(1/2)
        0.035280906 = weight(_text_:und in 753) [ClassicSimilarity], result of:
          0.035280906 = score(doc=753,freq=54.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.5089658 = fieldWeight in 753, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.014991045 = weight(_text_:des in 753) [ClassicSimilarity], result of:
          0.014991045 = score(doc=753,freq=4.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.17308173 = fieldWeight in 753, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
      0.3 = coord(3/10)
    
    Abstract
    Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Footnote
    Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
    Series
    Bibliotheks- und Informationspraxis; 70
  9. König, G.: Online-Retrieval mit der Dezimalklassifikation? (1986) 0.02
    0.017789561 = product of:
      0.0889478 = sum of:
        0.0654272 = weight(_text_:forschung in 670) [ClassicSimilarity], result of:
          0.0654272 = score(doc=670,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.43000343 = fieldWeight in 670, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=670)
        0.023520604 = weight(_text_:und in 670) [ClassicSimilarity], result of:
          0.023520604 = score(doc=670,freq=6.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.33931053 = fieldWeight in 670, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=670)
      0.2 = coord(2/10)
    
    Abstract
    Nach einer kurzen Einführung in die DK wird die Verwendung einer computerisierten fassung der DK in einigen Institutionen beschrieben, wie z.B. in der Bibliothek der ETH Zürich oder beim Österreichischen Arbeiterkammertag. Abfragemöglichkeiten über die DK werden am Beispiel von drei datenbanken aus drei verschiedenen Hosts diskutiert. Es sind: Economic Abstracts (Host: DIALOG), VWWW (Host: DATASTAR) und MATHDI (Host: INKA). Die besonderen Schwierigkeiten bei komplexen DK-Zahlen werden diskutiert und es wird vorgeschlagen, einen Algorithmus zum Aufbau von DK-Zahlen zu erstellen.
    Source
    Klassifikation als Werkzeug der Lehre und Forschung. Hrsg.: I. Dahlberg
  10. Reiner, U.: Automatische DDC-Klassifizierung von bibliografischen Titeldatensätzen (2009) 0.02
    0.017280012 = product of:
      0.05760004 = sum of:
        0.016974533 = weight(_text_:und in 611) [ClassicSimilarity], result of:
          0.016974533 = score(doc=611,freq=2.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.24487628 = fieldWeight in 611, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=611)
        0.026500674 = weight(_text_:des in 611) [ClassicSimilarity], result of:
          0.026500674 = score(doc=611,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.30596817 = fieldWeight in 611, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=611)
        0.014124832 = product of:
          0.042374495 = sum of:
            0.042374495 = weight(_text_:22 in 611) [ClassicSimilarity], result of:
              0.042374495 = score(doc=611,freq=2.0), product of:
                0.10952279 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031275876 = queryNorm
                0.38690117 = fieldWeight in 611, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=611)
          0.33333334 = coord(1/3)
      0.3 = coord(3/10)
    
    Content
    Präsentation zum Vortrag anlässlich des 98. Deutscher Bibliothekartag in Erfurt: Ein neuer Blick auf Bibliotheken; TK10: Information erschließen und recherchieren Inhalte erschließen - mit neuen Tools
    Date
    22. 8.2009 12:54:24
  11. Reisser, M.: Anforderungen an bibliothekarische Klassifikationen bei der Verwendung der EDV (1993) 0.02
    0.017270813 = product of:
      0.08635406 = sum of:
        0.057248797 = weight(_text_:forschung in 5017) [ClassicSimilarity], result of:
          0.057248797 = score(doc=5017,freq=2.0), product of:
            0.15215506 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.031275876 = queryNorm
            0.376253 = fieldWeight in 5017, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5017)
        0.029105263 = weight(_text_:und in 5017) [ClassicSimilarity], result of:
          0.029105263 = score(doc=5017,freq=12.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.41987535 = fieldWeight in 5017, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5017)
      0.2 = coord(2/10)
    
    Abstract
    Die Methoden zur formalen und inhaltlichen Erschließung von Medienbeständen in Bibliotheken wurden ausnahmslos vor dem Hintergrund der konventionellen Katalogisierung entwickelt und optimiert. Durch den zunehmenden Einsatz der Computertechnologie in Bibliotheken wird eine kritische Überprüfung der tradierten Erschließungsmethoden erforderlich. Gegenstand dieser Untersuchung ist die bibliothekarische Klassifikation und ihre Verwendung in Online-Publikums-Katalogen (OPAC) und anderen Information-Retrieval-Systemen (IRS). Auf der Grundlage der bibliothekarischen Klassifikationstheorie erfolgt eine Überprüfung der verschiedenen Klassifikationstypen hinsichtlich ihrer Tauglichkeit für die gängigen Recherche-Funktionen in diesen Systemen. Zusätzlich wird ein Anforderungskatalog für die Schlagwort-Register und -indizes entwickelt, der im Online-Dialog den verbalen Zugriff auf die einzelnen Klassen einer bibliothekarischen Klassifikation sicherstellen soll
    Source
    Bibliothek: Forschung und Praxis. 17(1993) H.2, S.137-162
  12. Bambey, D.: Thesauri und Klassifikationen im Netz : Neue Herausforderungen für klassische Werkzeuge (2000) 0.01
    0.013078843 = product of:
      0.065394215 = sum of:
        0.03889354 = weight(_text_:und in 5505) [ClassicSimilarity], result of:
          0.03889354 = score(doc=5505,freq=42.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.561082 = fieldWeight in 5505, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5505)
        0.026500674 = weight(_text_:des in 5505) [ClassicSimilarity], result of:
          0.026500674 = score(doc=5505,freq=8.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.30596817 = fieldWeight in 5505, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5505)
      0.2 = coord(2/10)
    
    Abstract
    Die verstärkte Diskussion über qualitativ bessere Such- und Erschließungsmethoden im Internet führt auch dazu, dass Thesauri und Klassifikation bei Fachanbietern und im wissenschaftlich-bibliothekarischen Bereich verstärkt wieder Thema und auch Gegenstand von Projekten geworden sind. Solche Konjunkturschwankungen sind ein bekanntes Phänomen, denn schon immer haben fachlich-methodische Instrumente in Zeiten technologischer Schübe schlechte Konjunktur. Wenn die technologischen Machbarkeiten dann kritisch überdacht werden müssen und die Probleme der Qualitätssicherung ins Auge fallen, rückt das Problem der Vermittlung technologischer Verfahren mit sach- und inhaltsbezogenen Anforderungen unweigerlich wieder stärker in den Mittelpunkt des Interesses'. Meine Ausführungen richten sich vor allem auf aktuelle Probleme der Produktion und Wiedergewinnung von Informationen oder präziser: von Fachinformationen, Fragen der Qualitätssicherung und die Rolle, die Klassifikationen und Thesauri in diesem Zusammenhang spielen oder spielen könnten. Insbesondere der Aspekt der Nutzerakzeptanz wird hier stärker thematisiert. Der Punkt nettere Ansätze wird etwas eingehender am Beispiel der Vernetzung verschiedener Thesauri und Klassifikationen mittels sogenannter Cross-Konkordanzen erläutert. Im Folgenden beziehe ich mich vor allem auf die Sozialwissenschaften und insbesondere die Erziehungswissenschaft. Dies ist der fachliche Background des Fachinformationssystem Bildung, und des Deutschen Bildungsservers in deren Kontext ich mit den hier angesprochenen Problemen befasst bin
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  13. Geißelmann, F.: ¬Die Online-Version der Regensburger Verbundklassifikation (1997) 0.01
    0.012543837 = product of:
      0.06271918 = sum of:
        0.025618238 = product of:
          0.07685471 = sum of:
            0.07685471 = weight(_text_:f in 201) [ClassicSimilarity], result of:
              0.07685471 = score(doc=201,freq=2.0), product of:
                0.12465895 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.031275876 = queryNorm
                0.6165198 = fieldWeight in 201, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.109375 = fieldNorm(doc=201)
          0.33333334 = coord(1/3)
        0.03710094 = weight(_text_:des in 201) [ClassicSimilarity], result of:
          0.03710094 = score(doc=201,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.4283554 = fieldWeight in 201, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.109375 = fieldNorm(doc=201)
      0.2 = coord(2/10)
    
    Footnote
    Vortrag anläßlich des 24. Österreichischen Bibliothekartages 1996 in Innsbruck
  14. Oberhauser, O.: Implementierung und Parametrisierung klassifikatorischer Recherchekomponenten im OPAC (2005) 0.01
    0.011649638 = product of:
      0.038832128 = sum of:
        0.017823258 = weight(_text_:und in 3353) [ClassicSimilarity], result of:
          0.017823258 = score(doc=3353,freq=18.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.25712007 = fieldWeight in 3353, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3353)
        0.01606518 = weight(_text_:des in 3353) [ClassicSimilarity], result of:
          0.01606518 = score(doc=3353,freq=6.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.18548335 = fieldWeight in 3353, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3353)
        0.004943691 = product of:
          0.014831073 = sum of:
            0.014831073 = weight(_text_:22 in 3353) [ClassicSimilarity], result of:
              0.014831073 = score(doc=3353,freq=2.0), product of:
                0.10952279 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031275876 = queryNorm
                0.1354154 = fieldWeight in 3353, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3353)
          0.33333334 = coord(1/3)
      0.3 = coord(3/10)
    
    Abstract
    Das in den letzten Jahren wiedererwachte Interesse an der klassifikatorischen Erschließung und Recherche hat sich allem Anschein nach noch nicht ausreichend bis zu den Herstellern integrierter Bibliothekssysteme herumgesprochen. Wie wäre es sonst zu erklären, dass im OPAC-Modul eines führenden Systems wie Aleph 500 so gut wie keine Features für klassifikationsbasierte Recherchen zu erblicken sind? Tatsächlich finden wir heute einen im Vergleich zum einstigen System Bibos kaum veränderten Zustand vor: Notationen eines oder mehrerer Klassifikationssysteme können in einer durch MAB dafür bestimmten Kategorie (700, nebst Indikatoren) katalogisiert und dann recherchiert bzw. angezeigt werden. Doch welcher Benutzer weiß schon, was diese Notationen im einzelnen bedeuten? Wer macht sich die Mühe, dies selbst herauszufinden, um dann danach zu recherchieren? Hier liegt im wesentlich dasselbe Problem vor, das schon dem systematischen Zettelkatalog anhaftete und ihn zu einem zwar mühevoll erstellten, aber wenig genutzten Rechercheinstrument machte, das nur dann (zwangsläufig) angenommen wurde, wenn ein verbaler Sachkatalog fehlte. Nun könnte eingewandt werden, dass im Vergleich zu früher unter Aleph 500 wenigstens das Aufblättern von Indizes möglich sei, sodass im OPAC ein Index für die vergebenen Notationen angeboten werden kann (bzw. mehrere solche Indizes bei Verwendung von mehr als nur einem Klassifikationssystem). Gewiss, doch was bringt dem Uneingeweihten das Aufblättern des Notationsindex - außer einer alphabetischen Liste von kryptischen Codes? Weiter könnte man einwenden, dass es im Aleph-500-OPAC die so genannten Suchdienste ("services") gibt, mithilfe derer von bestimmten Elementen einer Vollanzeige hypertextuell weiternavigiert werden kann. Richtig, doch damit kann man bloß wiederum den Index aufblättern oder alle anderen Werke anzeigen lassen, die dieselbe Notationen - also einen Code, dessen Bedeutung meist unbekannt ist - aufweisen. Wie populär mag dieses Feature beim Publikum wohl sein? Ein anderer Einwand wäre der Hinweis auf das inzwischen vom Hersteller angebotene Thesaurus-Modul, das vermutlich auch für Klassifikationssysteme eingesetzt werden könnte. Doch wie viele Bibliotheken unseres Verbundes waren bisher bereit, für dieses Modul, das man eigentlich als Bestandteil des Basissystems erwarten könnte, gesondert zu bezahlen? Schließlich mag man noch einwenden, dass es im Gegensatz zur Bibos-Zeit nun die Möglichkeit gibt, Systematiken und Klassifikationen als Normdateien zu implementieren und diese beim Retrieval für verbale Einstiege in die klassifikatorische Recherche oder zumindest für die Veranschaulichung der Klassenbenennungen in der Vollanzeige zu nutzen. Korrekt - dies ist möglich und wurde sogar einst für die MSC (Mathematics Subject Classification, auch bekannt als "AMS-Klassifikation") versucht. Dieses Projekt, das noch unter der Systemversion 11.5 begonnen wurde, geriet jedoch nach einiger Zeit ins Stocken und fand bedauerlicherweise nie seinen Weg in die folgende Version (14.2). Mag auch zu hoffen sein, dass es unter der neuen Version 16 wieder weitergeführt werden kann, so weist dieses Beispiel doch auf die grundsätzliche Problematik des Normdatei-Ansatzes (zusätzlicher Aufwand, Kontinuität) hin. Zudem lohnt sich die Implementierung einer eigenen Normdatei 4 wohl nur bei einem größeren bzw. komplexen Klassifikationssystem, wogegen man im Falle kleinerer Systematiken kaum daran denken würde.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.1, S.22-37
  15. Geißelmann, F.: Online-Version einer Aufstellungssystematik (1995) 0.01
    0.0114478795 = product of:
      0.057239395 = sum of:
        0.021958489 = product of:
          0.06587546 = sum of:
            0.06587546 = weight(_text_:f in 929) [ClassicSimilarity], result of:
              0.06587546 = score(doc=929,freq=2.0), product of:
                0.12465895 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.031275876 = queryNorm
                0.52844554 = fieldWeight in 929, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.09375 = fieldNorm(doc=929)
          0.33333334 = coord(1/3)
        0.035280906 = weight(_text_:und in 929) [ClassicSimilarity], result of:
          0.035280906 = score(doc=929,freq=6.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.5089658 = fieldWeight in 929, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=929)
      0.2 = coord(2/10)
    
    Imprint
    Oldenburg : Bibliotheks- und Informationssystem
    Source
    Aufbau und Erschließung begrifflicher Datenbanken: Beiträge zur bibliothekarischen Klassifikation. Eine Auswahl von Vorträgen der Jahrestagungen 1993 (Kaiserslautern) und 1994 (Oldenburg) der Gesellschaft für Klassifikation. Hrsg.: H. Havekost u. H.-J. Wätjen
  16. Loth, K.; Grunewald, F.: Ideen zu einer gemeinsamen Sacherschliessung (1996) 0.01
    0.010416573 = product of:
      0.052082863 = sum of:
        0.029277986 = product of:
          0.087833956 = sum of:
            0.087833956 = weight(_text_:f in 3647) [ClassicSimilarity], result of:
              0.087833956 = score(doc=3647,freq=2.0), product of:
                0.12465895 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.031275876 = queryNorm
                0.7045941 = fieldWeight in 3647, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.125 = fieldNorm(doc=3647)
          0.33333334 = coord(1/3)
        0.022804877 = product of:
          0.06841463 = sum of:
            0.06841463 = weight(_text_:29 in 3647) [ClassicSimilarity], result of:
              0.06841463 = score(doc=3647,freq=2.0), product of:
                0.11001875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.031275876 = queryNorm
                0.6218451 = fieldWeight in 3647, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=3647)
          0.33333334 = coord(1/3)
      0.2 = coord(2/10)
    
    Date
    29. 3.1996 15:20:01
  17. Geißelmann, F.: ¬Die Online-Version der Regensburger Verbundklassifikation (1997) 0.01
    0.010153046 = product of:
      0.050765228 = sum of:
        0.021958489 = product of:
          0.06587546 = sum of:
            0.06587546 = weight(_text_:f in 1054) [ClassicSimilarity], result of:
              0.06587546 = score(doc=1054,freq=2.0), product of:
                0.12465895 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.031275876 = queryNorm
                0.52844554 = fieldWeight in 1054, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1054)
          0.33333334 = coord(1/3)
        0.028806739 = weight(_text_:und in 1054) [ClassicSimilarity], result of:
          0.028806739 = score(doc=1054,freq=4.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.41556883 = fieldWeight in 1054, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1054)
      0.2 = coord(2/10)
    
    Source
    Information und Dokumentation: Qualität und Qualifikation. Deutscher Dokumentartag 1997, Universität Regensburg, 24.-26.9.1997. Hrsg.: M. Ockenfeld u. G.J. Mantwill
  18. Hermes, H.-J.; Bischoff, M.: ¬Die Dezimaklassifikation (DK) in Datenbanken (1989) 0.01
    0.010101258 = product of:
      0.050506286 = sum of:
        0.024005614 = weight(_text_:und in 937) [ClassicSimilarity], result of:
          0.024005614 = score(doc=937,freq=4.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.34630734 = fieldWeight in 937, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=937)
        0.026500674 = weight(_text_:des in 937) [ClassicSimilarity], result of:
          0.026500674 = score(doc=937,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.30596817 = fieldWeight in 937, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=937)
      0.2 = coord(2/10)
    
    Abstract
    Untersucht wird die unterschiedliche Anwendung der UDK in Datenbanken. Die vollendete Nutzung aller Vorteile besteht in der Ausschöpfung der Hierarchien zum Auf- und Weiterbau des Vokabulars und zur Darstellung der "Sachregister-Umgebungen"
  19. Zimmermann, H.H.: Zur Struktur und Nutzung von Klassifikationen im Bibliothekswesen : Beispiel der Klassifikation der Deutschen Bibliothek und der sog. Niederländischen Basiskklassifikation (1994) 0.01
    0.010101258 = product of:
      0.050506286 = sum of:
        0.024005614 = weight(_text_:und in 6027) [ClassicSimilarity], result of:
          0.024005614 = score(doc=6027,freq=4.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.34630734 = fieldWeight in 6027, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=6027)
        0.026500674 = weight(_text_:des in 6027) [ClassicSimilarity], result of:
          0.026500674 = score(doc=6027,freq=2.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.30596817 = fieldWeight in 6027, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=6027)
      0.2 = coord(2/10)
    
    Source
    Mehrwert von Information - Professionalisierung der Informationsarbeit: Proceedings des 4. Internationalen Symposiums für Informationswissenschaft (ISI'94), Graz, 2.-4. November 1994. Hrsg.: W. Rauch u.a
  20. Wätjen, H.-J.: GERHARD : Automatisches Sammeln, Klassifizieren und Indexieren von wissenschaftlich relevanten Informationsressourcen im deutschen World Wide Web (1998) 0.01
    0.009999736 = product of:
      0.04999868 = sum of:
        0.023764348 = weight(_text_:und in 3064) [ClassicSimilarity], result of:
          0.023764348 = score(doc=3064,freq=8.0), product of:
            0.069318816 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.031275876 = queryNorm
            0.34282678 = fieldWeight in 3064, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3064)
        0.026234329 = weight(_text_:des in 3064) [ClassicSimilarity], result of:
          0.026234329 = score(doc=3064,freq=4.0), product of:
            0.08661252 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.031275876 = queryNorm
            0.302893 = fieldWeight in 3064, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3064)
      0.2 = coord(2/10)
    
    Abstract
    Die intellektuelle Erschließung des Internet befindet sich in einer Krise. Yahoo und andere Dienste können mit dem Wachstum des Web nicht mithalten. GERHARD ist derzeit weltweit der einzige Such- und Navigationsdienst, der die mit einem Roboter gesammelten Internetressourcen mit computerlinguistischen und statistischen Verfahren auch automatisch vollständig klassifiziert. Weit über eine Million HTML-Dokumente von wissenschaftlich relevanten Servern in Deutschland können wie bei anderen Suchmaschinen in der Datenbank gesucht, aber auch über die Navigation in der dreisprachigen Universalen Dezimalklassifikation (ETH-Bibliothek Zürich) recherchiert werden

Years

Languages

  • d 53
  • e 50
  • nl 2
  • hu 1
  • i 1
  • ro 1
  • More… Less…

Types

  • a 87
  • el 16
  • s 4
  • m 3
  • h 2
  • p 1
  • r 1
  • x 1
  • More… Less…