Search (50 results, page 1 of 3)

  • × theme_ss:"Klassifikationssysteme im Online-Retrieval"
  1. Reiner, U.: Automatische DDC-Klassifizierung von bibliografischen Titeldatensätzen (2009) 0.05
    0.04931596 = product of:
      0.07397394 = sum of:
        0.041108087 = weight(_text_:des in 611) [ClassicSimilarity], result of:
          0.041108087 = score(doc=611,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.30596817 = fieldWeight in 611, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=611)
        0.032865852 = product of:
          0.065731704 = sum of:
            0.065731704 = weight(_text_:22 in 611) [ClassicSimilarity], result of:
              0.065731704 = score(doc=611,freq=2.0), product of:
                0.16989274 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04851542 = queryNorm
                0.38690117 = fieldWeight in 611, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=611)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    Präsentation zum Vortrag anlässlich des 98. Deutscher Bibliothekartag in Erfurt: Ein neuer Blick auf Bibliotheken; TK10: Information erschließen und recherchieren Inhalte erschließen - mit neuen Tools
    Date
    22. 8.2009 12:54:24
  2. Lösse, M.; Svensson, L.: "Classification at a Crossroad" : Internationales UDC-Seminar 2009 in Den Haag, Niederlande (2010) 0.04
    0.03503497 = product of:
      0.05255245 = sum of:
        0.02466485 = weight(_text_:des in 4379) [ClassicSimilarity], result of:
          0.02466485 = score(doc=4379,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.18358089 = fieldWeight in 4379, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.0278876 = product of:
          0.0557752 = sum of:
            0.0557752 = weight(_text_:22 in 4379) [ClassicSimilarity], result of:
              0.0557752 = score(doc=4379,freq=4.0), product of:
                0.16989274 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04851542 = queryNorm
                0.32829654 = fieldWeight in 4379, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Am 29. und 30. Oktober 2009 fand in der Königlichen Bibliothek in Den Haag das zweite internationale UDC-Seminar zum Thema "Classification at a Crossroad" statt. Organisiert wurde diese Konferenz - wie auch die erste Konferenz dieser Art im Jahr 2007 - vom UDC-Konsortium (UDCC). Im Mittelpunkt der diesjährigen Veranstaltung stand die Erschließung des World Wide Web unter besserer Nutzung von Klassifikationen (im Besonderen natürlich der UDC), einschließlich benutzerfreundlicher Repräsentationen von Informationen und Wissen. Standards, neue Technologien und Dienste, semantische Suche und der multilinguale Zugriff spielten ebenfalls eine Rolle. 135 Teilnehmer aus 35 Ländern waren dazu nach Den Haag gekommen. Das Programm umfasste mit 22 Vorträgen aus 14 verschiedenen Ländern eine breite Palette, wobei Großbritannien mit fünf Beiträgen am stärksten vertreten war. Die Tagesschwerpunkte wurden an beiden Konferenztagen durch die Eröffnungsvorträge gesetzt, die dann in insgesamt sechs thematischen Sitzungen weiter vertieft wurden.
    Date
    22. 1.2010 15:06:54
  3. Sandner, M.; Jahns, Y.: Kurzbericht zum DDC-Übersetzer- und Anwendertreffen bei der IFLA-Konferenz 2005 in Oslo, Norwegen (2005) 0.03
    0.03246635 = product of:
      0.04869952 = sum of:
        0.028775658 = weight(_text_:des in 4406) [ClassicSimilarity], result of:
          0.028775658 = score(doc=4406,freq=8.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.2141777 = fieldWeight in 4406, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4406)
        0.019923862 = product of:
          0.039847724 = sum of:
            0.039847724 = weight(_text_:22 in 4406) [ClassicSimilarity], result of:
              0.039847724 = score(doc=4406,freq=6.0), product of:
                0.16989274 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04851542 = queryNorm
                0.23454636 = fieldWeight in 4406, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4406)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    "Am 16. August 2005 fand in Oslo im Rahmen der heurigen IFLA-Konferenz das alljährliche Treffen der DDC-Übersetzer und der weltweiten DeweyAnwender-Institutionen (Nationalbibliotheken, Ersteller von Nationalbibliografien) statt. Die im Sommer 2005 bereits abgeschlossene deutsche Übersetzung wird in der Druckfassung Ende des Jahres in 4 Bänden vorliegen, beim K. G. Saur Verlag in München erscheinen (ISBN 3-598-11651-9) und 2006 vom ebenfalls erstmals ins Deutsche übersetzten DDC-Lehrbuch (ISBN 3-598-11748-5) begleitet. Pläne für neu startende Übersetzungen der DDC 22 gibt es für folgende Sprachen: Arabisch (mit der wachsenden Notwendigkeit, Klasse 200 Religion zu revidieren), Französisch (es erschien zuletzt eine neue Kurzausgabe 14, nun werden eine vierbändige Druckausgabe und eine frz. Webversion anvisiert), Schwedisch, Vietnamesisch (hierfür wird eine an die Sprache und Schrift angepasste Version des deutschen Übersetzungstools zum Einsatz kommen).
    Allgemein DDC 22 ist im Gegensatz zu den früheren Neuauflagen der Standard Edition eine Ausgabe ohne generelle Überarbeitung einer gesamten Klasse. Sie enthält jedoch zahlreiche Änderungen und Expansionen in fast allen Disziplinen und in vielen Hilfstafeln. Es erschien auch eine Sonderausgabe der Klasse 200, Religion. In der aktuellen Kurzausgabe der DDC 22 (14, aus 2004) sind all diese Neuerungen berücksichtigt. Auch die elektronische Version exisitiert in einer vollständigen (WebDewey) und in einer KurzVariante (Abridged WebDewey) und ist immer auf dem jüngsten Stand der Klassifikation. Ein Tutorial für die Nutzung von WebDewey steht unter www.oclc.org /dewey/ resourcesitutorial zur Verfügung. Der Index enthält in dieser elektronischen Fassung weit mehr zusammengesetzte Notationen und verbale Sucheinstiege (resultierend aus den Titeldaten des "WorldCat") als die Druckausgabe, sowie Mappings zu den aktuellsten Normdatensätzen aus LCSH und McSH. Aktuell Die personelle Zusammensetzung des EPC (Editorial Policy Committee) hat sich im letzten Jahr verändert. Dieses oberste Gremium der DDC hat Prioritäten für den aktuellen Arbeitsplan festgelegt. Es wurde vereinbart, größere Änderungsvorhaben via Dewey-Website künftig wie in einem Stellungnahmeverfahren zur fachlichen Diskussion zu stellen. www.oclc.org/dewey/discussion/."
  4. Oberhauser, O.: Implementierung und Parametrisierung klassifikatorischer Recherchekomponenten im OPAC (2005) 0.02
    0.024282334 = product of:
      0.0364235 = sum of:
        0.024920454 = weight(_text_:des in 3353) [ClassicSimilarity], result of:
          0.024920454 = score(doc=3353,freq=6.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.18548335 = fieldWeight in 3353, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3353)
        0.011503047 = product of:
          0.023006095 = sum of:
            0.023006095 = weight(_text_:22 in 3353) [ClassicSimilarity], result of:
              0.023006095 = score(doc=3353,freq=2.0), product of:
                0.16989274 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04851542 = queryNorm
                0.1354154 = fieldWeight in 3353, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3353)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Das in den letzten Jahren wiedererwachte Interesse an der klassifikatorischen Erschließung und Recherche hat sich allem Anschein nach noch nicht ausreichend bis zu den Herstellern integrierter Bibliothekssysteme herumgesprochen. Wie wäre es sonst zu erklären, dass im OPAC-Modul eines führenden Systems wie Aleph 500 so gut wie keine Features für klassifikationsbasierte Recherchen zu erblicken sind? Tatsächlich finden wir heute einen im Vergleich zum einstigen System Bibos kaum veränderten Zustand vor: Notationen eines oder mehrerer Klassifikationssysteme können in einer durch MAB dafür bestimmten Kategorie (700, nebst Indikatoren) katalogisiert und dann recherchiert bzw. angezeigt werden. Doch welcher Benutzer weiß schon, was diese Notationen im einzelnen bedeuten? Wer macht sich die Mühe, dies selbst herauszufinden, um dann danach zu recherchieren? Hier liegt im wesentlich dasselbe Problem vor, das schon dem systematischen Zettelkatalog anhaftete und ihn zu einem zwar mühevoll erstellten, aber wenig genutzten Rechercheinstrument machte, das nur dann (zwangsläufig) angenommen wurde, wenn ein verbaler Sachkatalog fehlte. Nun könnte eingewandt werden, dass im Vergleich zu früher unter Aleph 500 wenigstens das Aufblättern von Indizes möglich sei, sodass im OPAC ein Index für die vergebenen Notationen angeboten werden kann (bzw. mehrere solche Indizes bei Verwendung von mehr als nur einem Klassifikationssystem). Gewiss, doch was bringt dem Uneingeweihten das Aufblättern des Notationsindex - außer einer alphabetischen Liste von kryptischen Codes? Weiter könnte man einwenden, dass es im Aleph-500-OPAC die so genannten Suchdienste ("services") gibt, mithilfe derer von bestimmten Elementen einer Vollanzeige hypertextuell weiternavigiert werden kann. Richtig, doch damit kann man bloß wiederum den Index aufblättern oder alle anderen Werke anzeigen lassen, die dieselbe Notationen - also einen Code, dessen Bedeutung meist unbekannt ist - aufweisen. Wie populär mag dieses Feature beim Publikum wohl sein? Ein anderer Einwand wäre der Hinweis auf das inzwischen vom Hersteller angebotene Thesaurus-Modul, das vermutlich auch für Klassifikationssysteme eingesetzt werden könnte. Doch wie viele Bibliotheken unseres Verbundes waren bisher bereit, für dieses Modul, das man eigentlich als Bestandteil des Basissystems erwarten könnte, gesondert zu bezahlen? Schließlich mag man noch einwenden, dass es im Gegensatz zur Bibos-Zeit nun die Möglichkeit gibt, Systematiken und Klassifikationen als Normdateien zu implementieren und diese beim Retrieval für verbale Einstiege in die klassifikatorische Recherche oder zumindest für die Veranschaulichung der Klassenbenennungen in der Vollanzeige zu nutzen. Korrekt - dies ist möglich und wurde sogar einst für die MSC (Mathematics Subject Classification, auch bekannt als "AMS-Klassifikation") versucht. Dieses Projekt, das noch unter der Systemversion 11.5 begonnen wurde, geriet jedoch nach einiger Zeit ins Stocken und fand bedauerlicherweise nie seinen Weg in die folgende Version (14.2). Mag auch zu hoffen sein, dass es unter der neuen Version 16 wieder weitergeführt werden kann, so weist dieses Beispiel doch auf die grundsätzliche Problematik des Normdatei-Ansatzes (zusätzlicher Aufwand, Kontinuität) hin. Zudem lohnt sich die Implementierung einer eigenen Normdatei 4 wohl nur bei einem größeren bzw. komplexen Klassifikationssystem, wogegen man im Falle kleinerer Systematiken kaum daran denken würde.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.1, S.22-37
  5. Geißelmann, F.: ¬Die Online-Version der Regensburger Verbundklassifikation (1997) 0.02
    0.019183774 = product of:
      0.057551317 = sum of:
        0.057551317 = weight(_text_:des in 201) [ClassicSimilarity], result of:
          0.057551317 = score(doc=201,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.4283554 = fieldWeight in 201, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.109375 = fieldNorm(doc=201)
      0.33333334 = coord(1/3)
    
    Footnote
    Vortrag anläßlich des 24. Österreichischen Bibliothekartages 1996 in Innsbruck
  6. Hill, J.S.: Online classification number access : some practical considerations (1984) 0.02
    0.017528454 = product of:
      0.05258536 = sum of:
        0.05258536 = product of:
          0.10517072 = sum of:
            0.10517072 = weight(_text_:22 in 7684) [ClassicSimilarity], result of:
              0.10517072 = score(doc=7684,freq=2.0), product of:
                0.16989274 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04851542 = queryNorm
                0.61904186 = fieldWeight in 7684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=7684)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Journal of academic librarianship. 10(1984), S.17-22
  7. Trinkhaus, M.: Möglichkeiten und Aspekte des sachlichen Zugriffs in Online-Katalogen (1990) 0.02
    0.016443234 = product of:
      0.0493297 = sum of:
        0.0493297 = weight(_text_:des in 1301) [ClassicSimilarity], result of:
          0.0493297 = score(doc=1301,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.36716178 = fieldWeight in 1301, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=1301)
      0.33333334 = coord(1/3)
    
  8. Oberhauser, O.: Klassifikatorische Erschließung und Recherche im Österreichischen Verbundkatalog (2005) 0.01
    0.01438783 = product of:
      0.04316349 = sum of:
        0.04316349 = weight(_text_:des in 3701) [ClassicSimilarity], result of:
          0.04316349 = score(doc=3701,freq=18.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.32126656 = fieldWeight in 3701, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3701)
      0.33333334 = coord(1/3)
    
    Abstract
    Dieser Beitrag referiert und dokumentiert die klassifikationsbasierten Anzeige- und Recherchemöglichkeiten, die 2005 anlässlich einer Versionsumstellung erstmals im OPAC des Österreichischen Bibliothekenverbundes implementiert wurden. Dazu wird einleitend ein kurzer Statusbericht über die im Titeldatenmaterial des Zentralkatologes vorhandenen Notationen gegeben. Danach werden die auf den Notationen der ZDB-Systematik, der Regensburger Verbundklassifikotion (RVK) und der Mathematics Subject Classification (MSC) aufbauenden OPAC-Features vorgestellt. Des weiteren wird ein bereits vorliegendes, aber noch nicht realisiertes Konzept zur Implementierung der MSC als Normdatei präsentiert, auf dem auch die künftige Verwendung der Basisklassifikation (BK) aufsetzen könnte.
    Content
    "Der Österreichische Verbundkatalog ist das zentrale Katalogisierungs- und Auskunftsinstrument des Österreichischen Bibliothekenverbundes, der grössten und bedeutendsten Kooperative wissenschaftlicher und administrativer Bibliotheken des Landes. Zur Zeit nehmen 62 Bibliotheken aktiv an diesem Verbund teil, darunter die Österreichische Nationalbibliothek und fast alle Universitätsbibliotheken. Mit dem Aufbau des elektronischen Verbundkataloges wurde 1988 begonnen; seit Anfang 1999 geschieht dies verbundweit unter Verwendung der Bibliotheksautomationssoftware "Aleph 500" der Firma ExLibris. Die Zahl der nachgewiesenen Titel beträgt mit Stand April 2005 über 4,3 Millionen (mit etwa 8,1 Millionen Exemplar- und 0,6 Millionen Zeitschriften-Bestandsnachweisen). Ursprünglich bezogen sich die Katalogisate schwerpunktmässig auf Publikationen seit etwa 1990, doch ist inzwischen aufgrund verschiedener Rückarbeitungsaktionen der Verbundteilnehmer auch ein beträchtlicher Anteil älterer Werke hinzugekommen. Überdies wurden in den 1990er Jahren die Zettel der "Büchernachweisstelle" (ein Zentralkatalog für den Zeitraum 1981-1993) retrokatalogisiert und Anfang 2000 die Daten der früheren "Österreichischen Zeitschriftendatenbank" (ÖZDB) in den Verbundkatalog eingearbeitet, wodurch nun auch eine grosse Zahl von Besitznachweisen von Bibliotheken ausserhalb des Verbundes vorhanden ist. Die verbale Sacherschliessung, an der sich der überwiegende Teil der Verbundbibliotheken beteiligt, erfolgt seit 1989 kooperativ nach RSWK und SWD. Nach einer aktuellen Statistik (April 2005) beträgt der Anteil der mit RSWK-Ketten versehenen Datensätze 44% - ein Wert, der den Vergleich mit deutschen Verbünden nicht zu scheuen braucht und in den letzten Jahren sogar ein wenig angestiegen ist. Was dagegen die klassifikatorische Sacherschliessung betrifft, so gab und gibt es in Österreich keine Einheitlichkeit; die in Deutschland in den 1970er Jahren verfolgte und schliesslich gescheiterte Idee einer "Einheitsklassifikation" war hierzulande kaum je ein Thema. Für die Zwecke der systematischen Erschliessung und/oder Buchaufstellung wurden und werden zahlreiche verschiedene Systematiken und Klassifikationssysteme verwendet, zum überwiegenden Teil "Haussystematiken" von unterschiedlicher Grösse und Komplexität. Internationale Universalklassifikationen wie etwa die UDC vermochten sich nicht durchzusetzen und werden nur vereinzelt angewandt. In jüngerer Vergangenheit hat sich allerdings das Interesse an der Regensburger Verbundklassifikation (RVK) verstärkt. Dieses System wurde etwa als präsumtives Ablösesystem für die veraltete Haussystematik der grossen germanistischen Fachbibliothek an der Universität Wien und als faktisches Aufstellungssystem für eine neu errichtete, geisteswissenschaftliche Fakultätsbibliothek in Innsbruck ausgewählt. Im Zuge des DFG-Projekts "DDC Deutsch" ist auch ein gewisses, vielleicht noch ein wenig abwartendes Interesse an der Dewey-Dezimalklassifikation entstanden.
    Die Vielfalt der eingesetzten Systematiken hat dazu geführt, dass klassifikationsbasierte Retrievalmöglichkeiten bisher, wenn überhaupt, nur in den lokalen Katalogen des Österreichischen Verbundes anzutreffen waren. Etwa ein Drittel der lokalen Bibliotheken bietet gegenwärtig in den betreffenden OPACs solche Suchoptionen in verschiedenen Ausformungen an. Im zentralen Verbundkatalog gab es bislang keine solchen klassifikationsbasierten Suchmöglichkeiten. Die lokalen Notationen werden ja beim Lokaldatensatz katalogisiert und gelangen nicht in den Verbundkatalog. Allerdings ist es auch bei der zentralen Katalogisierung der bibliographischen Daten möglich, die MAB-Kategorie 700 mit den verschiedenen Indikatoren für die Eingabe von Notationen bestimmter Klassifikationssysteme zu nutzen. Von dieser Möglichkeit wird sowohl aktiv als auch passiv (d.h. durch Fremddatenübernahme) Gebrauch gemacht.
  9. Oberhauser, O.; Labner, J.: Praktische Lösungen für lokale Systematiken (1) : Die neue lokale Multi-Klassifikations-Normdatei der Verbundzentrale (2007) 0.01
    0.01424026 = product of:
      0.04272078 = sum of:
        0.04272078 = weight(_text_:des in 496) [ClassicSimilarity], result of:
          0.04272078 = score(doc=496,freq=6.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.31797147 = fieldWeight in 496, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=496)
      0.33333334 = coord(1/3)
    
    Abstract
    Der Beitrag berichtet über eine unter der Bibliothekssoftware "Aleph 500" neu eingerichtete Normdatei, die mehrere "koexistierende" lokale Klassifikationssysteme aus den Bibliotheken des Österreichischen Bibliothekenverbundes aufzunehmen vermag. Implementiert wurden darin als erste Klassifikation jene der Universitätsbibliothek Bodenkultur (Wien), für die nach dem Auslaufen einer früheren Softwarelösung eine neue Plattform gesucht worden war. Folgende Aspekte werden im Detail angesprochen bzw. dokumentiert: Struktur und Besonderheiten dieser Klassifikation, Gliederung des Gesamtprojektes in mehrere Phasen und Realisierung der ersten Phase (Tabellen-Setup inkl. Kategorienschema, Überführung der Daten in die neue Normdatei, Indexierung). Die neue Multi-Klassifikations-Normdatei ist bereit für die Aufnahme weiterer lokaler Systematiken, wobei diese einerseits von den an der Verbundzentrale geführten Lokalsystemen, andererseits aber auch von den anderen Lokalsystemen des Verbundes stammen können.
  10. Hermes, H.-J.; Bischoff, M.: ¬Die Dezimaklassifikation (DK) in Datenbanken (1989) 0.01
    0.013702696 = product of:
      0.041108087 = sum of:
        0.041108087 = weight(_text_:des in 937) [ClassicSimilarity], result of:
          0.041108087 = score(doc=937,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.30596817 = fieldWeight in 937, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=937)
      0.33333334 = coord(1/3)
    
    Abstract
    Untersucht wird die unterschiedliche Anwendung der UDK in Datenbanken. Die vollendete Nutzung aller Vorteile besteht in der Ausschöpfung der Hierarchien zum Auf- und Weiterbau des Vokabulars und zur Darstellung der "Sachregister-Umgebungen"
  11. Zimmermann, H.H.: Zur Struktur und Nutzung von Klassifikationen im Bibliothekswesen : Beispiel der Klassifikation der Deutschen Bibliothek und der sog. Niederländischen Basiskklassifikation (1994) 0.01
    0.013702696 = product of:
      0.041108087 = sum of:
        0.041108087 = weight(_text_:des in 6027) [ClassicSimilarity], result of:
          0.041108087 = score(doc=6027,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.30596817 = fieldWeight in 6027, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=6027)
      0.33333334 = coord(1/3)
    
    Source
    Mehrwert von Information - Professionalisierung der Informationsarbeit: Proceedings des 4. Internationalen Symposiums für Informationswissenschaft (ISI'94), Graz, 2.-4. November 1994. Hrsg.: W. Rauch u.a
  12. Bambey, D.: Thesauri und Klassifikationen im Netz : Neue Herausforderungen für klassische Werkzeuge (2000) 0.01
    0.013702696 = product of:
      0.041108087 = sum of:
        0.041108087 = weight(_text_:des in 5505) [ClassicSimilarity], result of:
          0.041108087 = score(doc=5505,freq=8.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.30596817 = fieldWeight in 5505, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5505)
      0.33333334 = coord(1/3)
    
    Abstract
    Die verstärkte Diskussion über qualitativ bessere Such- und Erschließungsmethoden im Internet führt auch dazu, dass Thesauri und Klassifikation bei Fachanbietern und im wissenschaftlich-bibliothekarischen Bereich verstärkt wieder Thema und auch Gegenstand von Projekten geworden sind. Solche Konjunkturschwankungen sind ein bekanntes Phänomen, denn schon immer haben fachlich-methodische Instrumente in Zeiten technologischer Schübe schlechte Konjunktur. Wenn die technologischen Machbarkeiten dann kritisch überdacht werden müssen und die Probleme der Qualitätssicherung ins Auge fallen, rückt das Problem der Vermittlung technologischer Verfahren mit sach- und inhaltsbezogenen Anforderungen unweigerlich wieder stärker in den Mittelpunkt des Interesses'. Meine Ausführungen richten sich vor allem auf aktuelle Probleme der Produktion und Wiedergewinnung von Informationen oder präziser: von Fachinformationen, Fragen der Qualitätssicherung und die Rolle, die Klassifikationen und Thesauri in diesem Zusammenhang spielen oder spielen könnten. Insbesondere der Aspekt der Nutzerakzeptanz wird hier stärker thematisiert. Der Punkt nettere Ansätze wird etwas eingehender am Beispiel der Vernetzung verschiedener Thesauri und Klassifikationen mittels sogenannter Cross-Konkordanzen erläutert. Im Folgenden beziehe ich mich vor allem auf die Sozialwissenschaften und insbesondere die Erziehungswissenschaft. Dies ist der fachliche Background des Fachinformationssystem Bildung, und des Deutschen Bildungsservers in deren Kontext ich mit den hier angesprochenen Problemen befasst bin
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  13. Wätjen, H.-J.: GERHARD : Automatisches Sammeln, Klassifizieren und Indexieren von wissenschaftlich relevanten Informationsressourcen im deutschen World Wide Web (1998) 0.01
    0.013564976 = product of:
      0.040694926 = sum of:
        0.040694926 = weight(_text_:des in 3064) [ClassicSimilarity], result of:
          0.040694926 = score(doc=3064,freq=4.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.302893 = fieldWeight in 3064, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3064)
      0.33333334 = coord(1/3)
    
    Abstract
    Die intellektuelle Erschließung des Internet befindet sich in einer Krise. Yahoo und andere Dienste können mit dem Wachstum des Web nicht mithalten. GERHARD ist derzeit weltweit der einzige Such- und Navigationsdienst, der die mit einem Roboter gesammelten Internetressourcen mit computerlinguistischen und statistischen Verfahren auch automatisch vollständig klassifiziert. Weit über eine Million HTML-Dokumente von wissenschaftlich relevanten Servern in Deutschland können wie bei anderen Suchmaschinen in der Datenbank gesucht, aber auch über die Navigation in der dreisprachigen Universalen Dezimalklassifikation (ETH-Bibliothek Zürich) recherchiert werden
  14. Gödert, W.: Facettenklassifikation im Online-Retrieval (1992) 0.01
    0.013564976 = product of:
      0.040694926 = sum of:
        0.040694926 = weight(_text_:des in 4574) [ClassicSimilarity], result of:
          0.040694926 = score(doc=4574,freq=4.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.302893 = fieldWeight in 4574, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4574)
      0.33333334 = coord(1/3)
    
    Abstract
    Facettenklassifikationen wurden bislang vorwiegend im Hinblick auf ihre Verwendungsmöglichkeiten in präkombinierten systematischen Katalogen bzw. Bibliographien betrachtet, nicht so sehr unter dem Aspekt eines möglichen Einsatzes in postkoordinierenden Retrievalsystemen. Im vorliegenden Beitrag soll nachgewiesen werden, daß Facettenklassifikationen anderen Techniken des Online Retrievals überlegen sein können. Hierzu sollten Begriffs- und Facettenanalyse mit einem strukturabbildenden Notationssystem kombiniert werden, um mit Hilfe Boolescher Operatoren (zur Verknüpfung von Facetten unabhängig von einer definierten Citation order) und Truncierung hierarchisch differenzierte Dokumentenmengen für komplexe Fragestellungen zu erhalten. Die Methode wird an zwei Beispielen illustriert: das erste nutzt eine kleine, von B. Buchanan entwickelte Klassifikation, das zweite das für Library and Information Science Abstracts (LISA) verwendete Klassifikationssystem. Weiter wird am Beispiel PRECIS diskutiert, welche Möglichkeiten des syntaktischen Retrievals Rollenoperatoren bieten können.
  15. Lim, E.: Southeast Asian subject gateways : an examination of their classification practices (2000) 0.01
    0.01314634 = product of:
      0.03943902 = sum of:
        0.03943902 = product of:
          0.07887804 = sum of:
            0.07887804 = weight(_text_:22 in 6040) [ClassicSimilarity], result of:
              0.07887804 = score(doc=6040,freq=2.0), product of:
                0.16989274 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04851542 = queryNorm
                0.46428138 = fieldWeight in 6040, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6040)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 6.2002 19:42:47
  16. Koch, T.; Vizine-Goetz, D.: DDC and knowledge organization in the digital library : Research and development. Demonstration pages (1999) 0.01
    0.011627122 = product of:
      0.034881365 = sum of:
        0.034881365 = weight(_text_:des in 942) [ClassicSimilarity], result of:
          0.034881365 = score(doc=942,freq=4.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.25962257 = fieldWeight in 942, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=942)
      0.33333334 = coord(1/3)
    
    Abstract
    Der Workshop gibt einen Einblick in die aktuelle Forschung und Entwicklung zur Wissensorganisation in digitalen Bibliotheken. Diane Vizine-Goetz vom OCLC Office of Research in Dublin, Ohio, stellt die Forschungsprojekte von OCLC zur Anpassung und Weiterentwicklung der Dewey Decimal Classification als Wissensorganisationsinstrument fuer grosse digitale Dokumentensammlungen vor. Traugott Koch, NetLab, Universität Lund in Schweden, demonstriert die Ansätze und Lösungen des EU-Projekts DESIRE zum Einsatz von intellektueller und vor allem automatischer Klassifikation in Fachinformationsdiensten im Internet.
    Footnote
    Vortrag anläßlich des Workshops am 21.10.1999, Deutsche Bibliothek, Frankfurt/M.
  17. Maibach, C.: ¬Die DDC auf neuen Wegen : verbale Sucheinstiege für klassifikatorisch erschlossene Titel (2014) 0.01
    0.011627122 = product of:
      0.034881365 = sum of:
        0.034881365 = weight(_text_:des in 2482) [ClassicSimilarity], result of:
          0.034881365 = score(doc=2482,freq=4.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.25962257 = fieldWeight in 2482, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2482)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Dewey-Dezimalklassifikation (DDC) ist ein mächtiges Instrument der klassifikatorischen Inhaltserschließung. Immer mehr Bibliotheken im In- und Ausland erkennen den Nutzen der international am weitesten verbreiteten Universalklassifikation. Die Deutsche Nationalbibliothek (DNB) setzt die DDC seit 2006 für die inhaltliche Erschließung der Bibliografiereihen A, B und H ein. Seitdem wurden rund 800.000 Publikationen mit DDC-Notationen versehen. Der Nutzen von Klassifikationen ist unter Bibliothekar/innen unumstritten. Die Bibliotheksnutzer/innen hingegen wissen oft nicht, dass der Katalog ihrer Bibliothek auch eine systematische Recherche ermöglicht. Ihre Recherchestrategie ist meist verbal. Durch Internetsuchmaschinen wird diese Strategie noch bestärkt. Daher liegt es nahe, auch für die klassifikatorisch erschlossenen Titel einen verbalen Sucheinstieg zu schaffen. ie DDC enthält nicht nur die in vielen Klassifikationssystemen üblichen Registereinträge und Klassenbenennungen, sondern auch die im Rahmen des Projekts CrissCross in großem Umfang erstellten Verknüpfungen zu Schlagwörtern der Gemeinsamen Normdatei (GND), die für diesen Zweck ausgewertet werden können.
    Content
    Beitrag als ausgearbeitete Form eines Vortrages während des 103. Deutschen Bibliothekartages in Bremen. Vgl.: http://dx.doi.org/10.5282/o-bib/2014H1S205-219.
  18. Kluck, M.: Weiterentwicklung der Instrumente für die inhaltliche Erschließung und für Recherchen (1996) 0.01
    0.010962157 = product of:
      0.032886468 = sum of:
        0.032886468 = weight(_text_:des in 4849) [ClassicSimilarity], result of:
          0.032886468 = score(doc=4849,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.24477452 = fieldWeight in 4849, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=4849)
      0.33333334 = coord(1/3)
    
    Source
    Informationsservice des IZ Sozialwissenschaften: Datenbankentwicklung und -nutzung, Netzwerke, Wissenschaftsforschung. Hrsg.: J. Krause u. M. Zimmer
  19. Comaromi, C.L.: Summation of classification as an enhancement of intellectual access to information in an online environment (1990) 0.01
    0.010955284 = product of:
      0.032865852 = sum of:
        0.032865852 = product of:
          0.065731704 = sum of:
            0.065731704 = weight(_text_:22 in 3576) [ClassicSimilarity], result of:
              0.065731704 = score(doc=3576,freq=2.0), product of:
                0.16989274 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04851542 = queryNorm
                0.38690117 = fieldWeight in 3576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3576)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    8. 1.2007 12:22:40
  20. Reisser, M.: ¬Die Darstellung begrifflicher Kontexte im Online-Retrieval (1995) 0.01
    0.009591887 = product of:
      0.028775658 = sum of:
        0.028775658 = weight(_text_:des in 934) [ClassicSimilarity], result of:
          0.028775658 = score(doc=934,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.2141777 = fieldWeight in 934, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=934)
      0.33333334 = coord(1/3)
    
    Abstract
    Die traditionellen Verfahren der klassifikatorischen sachlichen Erschließung von Medieninhalten heben auf die Eindeutigkeit der Zuordnung von Objekt (Medieninhalt) und Klasse ab. Sie unterscheiden sich damit in der Praxis des Online-Retrievals nur unwesentlich von den Verfahren der verbalen sachlichen Erschließung (z.B. Thesauri, SWD/RSWK). Auf der Grundlage der in der Sacherschließungstheorie vorgenommenen Unterscheidung von klassifikatorischer und verbaler Sacherschließung werden mögliche und bereits in Anwendung befindliche Verfahren diskutiert, welche die begrifflichen Kontexte der Klassen für den Anwender einer bibliothekarischen Klassifikation im Online-Retrieval nutzbar machen