Search (35 results, page 1 of 2)

  • × theme_ss:"Klassifikationssysteme im Online-Retrieval"
  1. Oberhauser, O.: Implementierung und Parametrisierung klassifikatorischer Recherchekomponenten im OPAC (2005) 0.09
    0.08794 = product of:
      0.17588 = sum of:
        0.17588 = sum of:
          0.14786826 = weight(_text_:500 in 3353) [ClassicSimilarity], result of:
            0.14786826 = score(doc=3353,freq=6.0), product of:
              0.36112627 = queryWeight, product of:
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.059071355 = queryNorm
              0.40946415 = fieldWeight in 3353, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                6.113391 = idf(docFreq=265, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3353)
          0.028011736 = weight(_text_:22 in 3353) [ClassicSimilarity], result of:
            0.028011736 = score(doc=3353,freq=2.0), product of:
              0.20685782 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.059071355 = queryNorm
              0.1354154 = fieldWeight in 3353, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3353)
      0.5 = coord(1/2)
    
    Abstract
    Das in den letzten Jahren wiedererwachte Interesse an der klassifikatorischen Erschließung und Recherche hat sich allem Anschein nach noch nicht ausreichend bis zu den Herstellern integrierter Bibliothekssysteme herumgesprochen. Wie wäre es sonst zu erklären, dass im OPAC-Modul eines führenden Systems wie Aleph 500 so gut wie keine Features für klassifikationsbasierte Recherchen zu erblicken sind? Tatsächlich finden wir heute einen im Vergleich zum einstigen System Bibos kaum veränderten Zustand vor: Notationen eines oder mehrerer Klassifikationssysteme können in einer durch MAB dafür bestimmten Kategorie (700, nebst Indikatoren) katalogisiert und dann recherchiert bzw. angezeigt werden. Doch welcher Benutzer weiß schon, was diese Notationen im einzelnen bedeuten? Wer macht sich die Mühe, dies selbst herauszufinden, um dann danach zu recherchieren? Hier liegt im wesentlich dasselbe Problem vor, das schon dem systematischen Zettelkatalog anhaftete und ihn zu einem zwar mühevoll erstellten, aber wenig genutzten Rechercheinstrument machte, das nur dann (zwangsläufig) angenommen wurde, wenn ein verbaler Sachkatalog fehlte. Nun könnte eingewandt werden, dass im Vergleich zu früher unter Aleph 500 wenigstens das Aufblättern von Indizes möglich sei, sodass im OPAC ein Index für die vergebenen Notationen angeboten werden kann (bzw. mehrere solche Indizes bei Verwendung von mehr als nur einem Klassifikationssystem). Gewiss, doch was bringt dem Uneingeweihten das Aufblättern des Notationsindex - außer einer alphabetischen Liste von kryptischen Codes? Weiter könnte man einwenden, dass es im Aleph-500-OPAC die so genannten Suchdienste ("services") gibt, mithilfe derer von bestimmten Elementen einer Vollanzeige hypertextuell weiternavigiert werden kann. Richtig, doch damit kann man bloß wiederum den Index aufblättern oder alle anderen Werke anzeigen lassen, die dieselbe Notationen - also einen Code, dessen Bedeutung meist unbekannt ist - aufweisen. Wie populär mag dieses Feature beim Publikum wohl sein? Ein anderer Einwand wäre der Hinweis auf das inzwischen vom Hersteller angebotene Thesaurus-Modul, das vermutlich auch für Klassifikationssysteme eingesetzt werden könnte. Doch wie viele Bibliotheken unseres Verbundes waren bisher bereit, für dieses Modul, das man eigentlich als Bestandteil des Basissystems erwarten könnte, gesondert zu bezahlen? Schließlich mag man noch einwenden, dass es im Gegensatz zur Bibos-Zeit nun die Möglichkeit gibt, Systematiken und Klassifikationen als Normdateien zu implementieren und diese beim Retrieval für verbale Einstiege in die klassifikatorische Recherche oder zumindest für die Veranschaulichung der Klassenbenennungen in der Vollanzeige zu nutzen. Korrekt - dies ist möglich und wurde sogar einst für die MSC (Mathematics Subject Classification, auch bekannt als "AMS-Klassifikation") versucht. Dieses Projekt, das noch unter der Systemversion 11.5 begonnen wurde, geriet jedoch nach einiger Zeit ins Stocken und fand bedauerlicherweise nie seinen Weg in die folgende Version (14.2). Mag auch zu hoffen sein, dass es unter der neuen Version 16 wieder weitergeführt werden kann, so weist dieses Beispiel doch auf die grundsätzliche Problematik des Normdatei-Ansatzes (zusätzlicher Aufwand, Kontinuität) hin. Zudem lohnt sich die Implementierung einer eigenen Normdatei 4 wohl nur bei einem größeren bzw. komplexen Klassifikationssystem, wogegen man im Falle kleinerer Systematiken kaum daran denken würde.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.1, S.22-37
  2. Oberhauser, O.; Labner, J.: Praktische Lösungen für lokale Systematiken (1) : Die neue lokale Multi-Klassifikations-Normdatei der Verbundzentrale (2007) 0.05
    0.05174311 = product of:
      0.10348622 = sum of:
        0.10348622 = product of:
          0.20697244 = sum of:
            0.20697244 = weight(_text_:500 in 496) [ClassicSimilarity], result of:
              0.20697244 = score(doc=496,freq=4.0), product of:
                0.36112627 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.059071355 = queryNorm
                0.57313037 = fieldWeight in 496, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.046875 = fieldNorm(doc=496)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Beitrag berichtet über eine unter der Bibliothekssoftware "Aleph 500" neu eingerichtete Normdatei, die mehrere "koexistierende" lokale Klassifikationssysteme aus den Bibliotheken des Österreichischen Bibliothekenverbundes aufzunehmen vermag. Implementiert wurden darin als erste Klassifikation jene der Universitätsbibliothek Bodenkultur (Wien), für die nach dem Auslaufen einer früheren Softwarelösung eine neue Plattform gesucht worden war. Folgende Aspekte werden im Detail angesprochen bzw. dokumentiert: Struktur und Besonderheiten dieser Klassifikation, Gliederung des Gesamtprojektes in mehrere Phasen und Realisierung der ersten Phase (Tabellen-Setup inkl. Kategorienschema, Überführung der Daten in die neue Normdatei, Indexierung). Die neue Multi-Klassifikations-Normdatei ist bereit für die Aufnahme weiterer lokaler Systematiken, wobei diese einerseits von den an der Verbundzentrale geführten Lokalsystemen, andererseits aber auch von den anderen Lokalsystemen des Verbundes stammen können.
    Object
    Aleph 500
  3. Oberhauser, O.: Praktische Lösungen für lokale Systematiken (2) : Ein einfaches Interface für den Online-Katalog (2007) 0.04
    0.036587905 = product of:
      0.07317581 = sum of:
        0.07317581 = product of:
          0.14635162 = sum of:
            0.14635162 = weight(_text_:500 in 724) [ClassicSimilarity], result of:
              0.14635162 = score(doc=724,freq=2.0), product of:
                0.36112627 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.059071355 = queryNorm
                0.40526438 = fieldWeight in 724, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.046875 = fieldNorm(doc=724)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Beitrag berichtet über die Erstellung eines hierarchischen Browse- und Abfrage-Interfaces für die lokale Systematik der Bibliothek der Sigmund Freud Privatstiftung (Wien), deren Online-Katalog an der Zentrale des Österreichischen Bibliothekenverbundes (OBVSG) unter Aleph 500 geführt wird. Da dieses System selbst keinerlei Features für die klassifikatorische Recherche vorsieht, wurden 25 HTLM-Seiten in den OPAC integriert, die eine hierarchische Navigation auf den drei Ebenen der Systematik ermöglichen. Mittels eines wöchentlich automatisch eingesetzten Perl-Programms wird dabei auch angezeigt, mit welchen Treffermengen in der jeweiligen Klasse bzw. den zugehörigen Unterklassen (in etwa) zu rechnen ist; diese Anzeige ist ausserdem mit der unmittelbaren Suche nach den betreffenden Titeln verlinkt. Da vonseiten der Bibliothek lediglich die Notationen katalogisiert werden, erfolgt bei der Titel-Vollanzeige mittels einer JavaScript-basierten Umnutzung der Aleph-Funktion "Suchdienste" ebenfalls ein Link auf das hierarchische Interface, um die Bedeutung der jeweiligen Notation im systematischen Kontext zu veranschaulichen.
  4. Hill, J.S.: Online classification number access : some practical considerations (1984) 0.03
    0.032013413 = product of:
      0.064026825 = sum of:
        0.064026825 = product of:
          0.12805365 = sum of:
            0.12805365 = weight(_text_:22 in 7684) [ClassicSimilarity], result of:
              0.12805365 = score(doc=7684,freq=2.0), product of:
                0.20685782 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.059071355 = queryNorm
                0.61904186 = fieldWeight in 7684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=7684)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Journal of academic librarianship. 10(1984), S.17-22
  5. Faceted classification of information (o.J.) 0.03
    0.030729031 = product of:
      0.061458062 = sum of:
        0.061458062 = product of:
          0.18437418 = sum of:
            0.18437418 = weight(_text_:objects in 2653) [ClassicSimilarity], result of:
              0.18437418 = score(doc=2653,freq=2.0), product of:
                0.31396845 = queryWeight, product of:
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.059071355 = queryNorm
                0.58723795 = fieldWeight in 2653, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2653)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    An explanation of faceted classification meant for people working in knowledge management. An example given for a high-technology company has the fundamental categories Products, Applications, Organizations, People, Domain objects ("technologies applied in the marketplace in which the organization participates"), Events (i.e. time), and Publications.
  6. LaBarre, K.: Faceted navigation and browsing features in new OPACs : a more robust solution to problems of information seekers? (2007) 0.03
    0.026074447 = product of:
      0.052148893 = sum of:
        0.052148893 = product of:
          0.15644668 = sum of:
            0.15644668 = weight(_text_:objects in 688) [ClassicSimilarity], result of:
              0.15644668 = score(doc=688,freq=4.0), product of:
                0.31396845 = queryWeight, product of:
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.059071355 = queryNorm
                0.49828792 = fieldWeight in 688, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.046875 = fieldNorm(doc=688)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    At the end of 2005, impending digitization efforts and several developments related to the creation of access and discovery tools for informational and cultural objects resulted in a series of responses that continue to ripple throughout the library, museum and archive communities. These developments have broad implications for all three communities because of the goals shared by each in the creation of description, control and enhanced access to informational and cultural objects. This position paper will consider new implementations of faceted navigation and browsing features in online catalogs. It is also a response to challenges to develop interwoven approaches to the study of information seeking and the design and implementation of search and discovery systems. Urgently needed during this time of experimentation, development and implementation is a framework for system evaluation and critical analysis of needed and missing features that is grounded in traditional principles, borne out by practice. Such a framework could extend feature analysis protocols established during the early years of online catalog development.
  7. Lim, E.: Southeast Asian subject gateways : an examination of their classification practices (2000) 0.02
    0.024010058 = product of:
      0.048020117 = sum of:
        0.048020117 = product of:
          0.096040234 = sum of:
            0.096040234 = weight(_text_:22 in 6040) [ClassicSimilarity], result of:
              0.096040234 = score(doc=6040,freq=2.0), product of:
                0.20685782 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.059071355 = queryNorm
                0.46428138 = fieldWeight in 6040, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6040)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 6.2002 19:42:47
  8. Oberhauser, O.: Klassifikatorische Erschließung und Recherche im Österreichischen Verbundkatalog (2005) 0.02
    0.021342944 = product of:
      0.04268589 = sum of:
        0.04268589 = product of:
          0.08537178 = sum of:
            0.08537178 = weight(_text_:500 in 3701) [ClassicSimilarity], result of:
              0.08537178 = score(doc=3701,freq=2.0), product of:
                0.36112627 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.059071355 = queryNorm
                0.23640423 = fieldWeight in 3701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3701)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Der Österreichische Verbundkatalog ist das zentrale Katalogisierungs- und Auskunftsinstrument des Österreichischen Bibliothekenverbundes, der grössten und bedeutendsten Kooperative wissenschaftlicher und administrativer Bibliotheken des Landes. Zur Zeit nehmen 62 Bibliotheken aktiv an diesem Verbund teil, darunter die Österreichische Nationalbibliothek und fast alle Universitätsbibliotheken. Mit dem Aufbau des elektronischen Verbundkataloges wurde 1988 begonnen; seit Anfang 1999 geschieht dies verbundweit unter Verwendung der Bibliotheksautomationssoftware "Aleph 500" der Firma ExLibris. Die Zahl der nachgewiesenen Titel beträgt mit Stand April 2005 über 4,3 Millionen (mit etwa 8,1 Millionen Exemplar- und 0,6 Millionen Zeitschriften-Bestandsnachweisen). Ursprünglich bezogen sich die Katalogisate schwerpunktmässig auf Publikationen seit etwa 1990, doch ist inzwischen aufgrund verschiedener Rückarbeitungsaktionen der Verbundteilnehmer auch ein beträchtlicher Anteil älterer Werke hinzugekommen. Überdies wurden in den 1990er Jahren die Zettel der "Büchernachweisstelle" (ein Zentralkatalog für den Zeitraum 1981-1993) retrokatalogisiert und Anfang 2000 die Daten der früheren "Österreichischen Zeitschriftendatenbank" (ÖZDB) in den Verbundkatalog eingearbeitet, wodurch nun auch eine grosse Zahl von Besitznachweisen von Bibliotheken ausserhalb des Verbundes vorhanden ist. Die verbale Sacherschliessung, an der sich der überwiegende Teil der Verbundbibliotheken beteiligt, erfolgt seit 1989 kooperativ nach RSWK und SWD. Nach einer aktuellen Statistik (April 2005) beträgt der Anteil der mit RSWK-Ketten versehenen Datensätze 44% - ein Wert, der den Vergleich mit deutschen Verbünden nicht zu scheuen braucht und in den letzten Jahren sogar ein wenig angestiegen ist. Was dagegen die klassifikatorische Sacherschliessung betrifft, so gab und gibt es in Österreich keine Einheitlichkeit; die in Deutschland in den 1970er Jahren verfolgte und schliesslich gescheiterte Idee einer "Einheitsklassifikation" war hierzulande kaum je ein Thema. Für die Zwecke der systematischen Erschliessung und/oder Buchaufstellung wurden und werden zahlreiche verschiedene Systematiken und Klassifikationssysteme verwendet, zum überwiegenden Teil "Haussystematiken" von unterschiedlicher Grösse und Komplexität. Internationale Universalklassifikationen wie etwa die UDC vermochten sich nicht durchzusetzen und werden nur vereinzelt angewandt. In jüngerer Vergangenheit hat sich allerdings das Interesse an der Regensburger Verbundklassifikation (RVK) verstärkt. Dieses System wurde etwa als präsumtives Ablösesystem für die veraltete Haussystematik der grossen germanistischen Fachbibliothek an der Universität Wien und als faktisches Aufstellungssystem für eine neu errichtete, geisteswissenschaftliche Fakultätsbibliothek in Innsbruck ausgewählt. Im Zuge des DFG-Projekts "DDC Deutsch" ist auch ein gewisses, vielleicht noch ein wenig abwartendes Interesse an der Dewey-Dezimalklassifikation entstanden.
  9. Comaromi, C.L.: Summation of classification as an enhancement of intellectual access to information in an online environment (1990) 0.02
    0.020008383 = product of:
      0.040016767 = sum of:
        0.040016767 = product of:
          0.08003353 = sum of:
            0.08003353 = weight(_text_:22 in 3576) [ClassicSimilarity], result of:
              0.08003353 = score(doc=3576,freq=2.0), product of:
                0.20685782 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.059071355 = queryNorm
                0.38690117 = fieldWeight in 3576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3576)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    8. 1.2007 12:22:40
  10. Reiner, U.: Automatische DDC-Klassifizierung von bibliografischen Titeldatensätzen (2009) 0.02
    0.020008383 = product of:
      0.040016767 = sum of:
        0.040016767 = product of:
          0.08003353 = sum of:
            0.08003353 = weight(_text_:22 in 611) [ClassicSimilarity], result of:
              0.08003353 = score(doc=611,freq=2.0), product of:
                0.20685782 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.059071355 = queryNorm
                0.38690117 = fieldWeight in 611, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=611)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 8.2009 12:54:24
  11. Lösse, M.; Svensson, L.: "Classification at a Crossroad" : Internationales UDC-Seminar 2009 in Den Haag, Niederlande (2010) 0.02
    0.016977677 = product of:
      0.033955354 = sum of:
        0.033955354 = product of:
          0.06791071 = sum of:
            0.06791071 = weight(_text_:22 in 4379) [ClassicSimilarity], result of:
              0.06791071 = score(doc=4379,freq=4.0), product of:
                0.20685782 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.059071355 = queryNorm
                0.32829654 = fieldWeight in 4379, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Am 29. und 30. Oktober 2009 fand in der Königlichen Bibliothek in Den Haag das zweite internationale UDC-Seminar zum Thema "Classification at a Crossroad" statt. Organisiert wurde diese Konferenz - wie auch die erste Konferenz dieser Art im Jahr 2007 - vom UDC-Konsortium (UDCC). Im Mittelpunkt der diesjährigen Veranstaltung stand die Erschließung des World Wide Web unter besserer Nutzung von Klassifikationen (im Besonderen natürlich der UDC), einschließlich benutzerfreundlicher Repräsentationen von Informationen und Wissen. Standards, neue Technologien und Dienste, semantische Suche und der multilinguale Zugriff spielten ebenfalls eine Rolle. 135 Teilnehmer aus 35 Ländern waren dazu nach Den Haag gekommen. Das Programm umfasste mit 22 Vorträgen aus 14 verschiedenen Ländern eine breite Palette, wobei Großbritannien mit fünf Beiträgen am stärksten vertreten war. Die Tagesschwerpunkte wurden an beiden Konferenztagen durch die Eröffnungsvorträge gesetzt, die dann in insgesamt sechs thematischen Sitzungen weiter vertieft wurden.
    Date
    22. 1.2010 15:06:54
  12. Doyle, B.: ¬The classification and evaluation of Content Management Systems (2003) 0.02
    0.016006706 = product of:
      0.032013413 = sum of:
        0.032013413 = product of:
          0.064026825 = sum of:
            0.064026825 = weight(_text_:22 in 2871) [ClassicSimilarity], result of:
              0.064026825 = score(doc=2871,freq=2.0), product of:
                0.20685782 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.059071355 = queryNorm
                0.30952093 = fieldWeight in 2871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2871)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    30. 7.2004 12:22:52
  13. Peereboom, M.: DutchESS : Dutch Electronic Subject Service - a Dutch national collaborative effort (2000) 0.02
    0.016006706 = product of:
      0.032013413 = sum of:
        0.032013413 = product of:
          0.064026825 = sum of:
            0.064026825 = weight(_text_:22 in 4869) [ClassicSimilarity], result of:
              0.064026825 = score(doc=4869,freq=2.0), product of:
                0.20685782 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.059071355 = queryNorm
                0.30952093 = fieldWeight in 4869, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4869)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 6.2002 19:39:23
  14. Van Dijck, P.: Introduction to XFML (2003) 0.02
    0.016006706 = product of:
      0.032013413 = sum of:
        0.032013413 = product of:
          0.064026825 = sum of:
            0.064026825 = weight(_text_:22 in 2474) [ClassicSimilarity], result of:
              0.064026825 = score(doc=2474,freq=2.0), product of:
                0.20685782 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.059071355 = queryNorm
                0.30952093 = fieldWeight in 2474, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2474)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    http://www.xml.com/lpt/a/2003/01/22/xfml.html
  15. Sparck Jones, K.: Some thoughts on classification for retrieval (1970) 0.02
    0.015364516 = product of:
      0.030729031 = sum of:
        0.030729031 = product of:
          0.09218709 = sum of:
            0.09218709 = weight(_text_:objects in 4327) [ClassicSimilarity], result of:
              0.09218709 = score(doc=4327,freq=2.0), product of:
                0.31396845 = queryWeight, product of:
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.059071355 = queryNorm
                0.29361898 = fieldWeight in 4327, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4327)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    The suggestion that classifications for retrieval should be constructed automatically raises some serious problems concerning the sorts of classification which are required, and the way in which formal classification theories should be exploited, given that a retrieval classification is required for a purpose. These difficulties have not been sufficiently considered, and the paper therefore attempts an analysis of them, though no solution of immediate application can be suggested. Starting with the illustrative proposition that a polythetic, multiple, unordered classification is required in automatic thesaurus construction, this is considered in the context of classification in general, where eight sorts of classification can be distinguished, each covering a range of class definitions and class-finding algorithms. The problem which follows is that since there is generally no natural or best classification of a set of objects as such, the evaluation of alternative classifications requires either formal criteria of goodness of fit, or, if a classification is required for a purpose, a precises statement of that purpose. In any case a substantive theory of classification is needed, which does not exist; and since sufficiently precise specifications of retrieval requirements are also lacking, the only currently available approach to automatic classification experiments for information retrieval is to do enough of them
  16. Sparck Jones, K.: Some thoughts on classification for retrieval (2005) 0.02
    0.015364516 = product of:
      0.030729031 = sum of:
        0.030729031 = product of:
          0.09218709 = sum of:
            0.09218709 = weight(_text_:objects in 4392) [ClassicSimilarity], result of:
              0.09218709 = score(doc=4392,freq=2.0), product of:
                0.31396845 = queryWeight, product of:
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.059071355 = queryNorm
                0.29361898 = fieldWeight in 4392, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4392)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    Purpose - This paper was originally published in 1970 (Journal of documentation. 26(1970), S.89-101), considered the suggestion that classifications for retrieval should be constructed automatically and raised some serious problems concerning the sorts of classification which were required, and the way in which formal classification theories should be exploited, given that a retrieval classification is required for a purpose. These difficulties had not been sufficiently considered, and the paper, therefore, aims to attempt an analysis of them, though no solutions of immediate application could be suggested. Design/methodology/approach - Starting with the illustrative proposition that a polythetic, multiple, unordered classification is required in automatic thesaurus construction, this is considered in the context of classification in general, where eight sorts of classification can be distinguished, each covering a range of class definitions and class-finding algorithms. Findings - Since there is generally no natural or best classification of a set of objects as such, the evaluation of alternative classifications requires either formal criteria of goodness of fit, or, if a classification is required for a purpose, a precise statement of that purpose. In any case a substantive theory of classification is needed, which does not exist; and, since sufficiently precise specifications of retrieval requirements are also lacking, the only currently available approach to automatic classification experiments for information retrieval is to do enough of them. Originality/value - Gives insights into the classification of material for information retrieval.
  17. Broughton, V.: Faceted classification as a basis for knowledge organization in a digital environment : the Bliss Bibliographic Classification as a model for vocabulary management and the creation of multi-dimensional knowledge structures (2001) 0.02
    0.015364516 = product of:
      0.030729031 = sum of:
        0.030729031 = product of:
          0.09218709 = sum of:
            0.09218709 = weight(_text_:objects in 5895) [ClassicSimilarity], result of:
              0.09218709 = score(doc=5895,freq=2.0), product of:
                0.31396845 = queryWeight, product of:
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.059071355 = queryNorm
                0.29361898 = fieldWeight in 5895, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5895)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    Broughton is one of the key people working on the second edition of the Bliss Bibliographic Classification (BC2). Her article has a brief, informative history of facets, then discusses semantic vs. syntactic relationships, standard facets used by Ranganathan and the Classification Research Group, facet analysis and citation order, and how to build subject indexes out of faceted classifications, all with occasional reference to digital environments and hypertext, but never with any specifics. It concludes by saying of faceted classification that the "capacity which it has to create highly sophisticated structures for the accommodation of complex objects suggests that it is worth investigation as an organizational tool for digital materials, and that the results of such investigation would be knowledge structures of unparalleled utility and elegance." How to build them is left to the reader, but this article provides an excellent starting point. It includes an example that shows how general concepts can be applied to a small set of documents and subjects, and how terms can be adapted to suit the material and users
  18. Dack, D.: Australian attends conference on Dewey (1989) 0.01
    0.014005868 = product of:
      0.028011736 = sum of:
        0.028011736 = product of:
          0.05602347 = sum of:
            0.05602347 = weight(_text_:22 in 2509) [ClassicSimilarity], result of:
              0.05602347 = score(doc=2509,freq=2.0), product of:
                0.20685782 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.059071355 = queryNorm
                0.2708308 = fieldWeight in 2509, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2509)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    8.11.1995 11:52:22
  19. Vizine-Goetz, D.: OCLC investigates using classification tools to organize Internet data (1998) 0.01
    0.014005868 = product of:
      0.028011736 = sum of:
        0.028011736 = product of:
          0.05602347 = sum of:
            0.05602347 = weight(_text_:22 in 2342) [ClassicSimilarity], result of:
              0.05602347 = score(doc=2342,freq=2.0), product of:
                0.20685782 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.059071355 = queryNorm
                0.2708308 = fieldWeight in 2342, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2342)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 9.1997 19:16:05
  20. Kent, R.E.: Organizing conceptual knowledge online : metadata interoperability and faceted classification (1998) 0.01
    0.014005868 = product of:
      0.028011736 = sum of:
        0.028011736 = product of:
          0.05602347 = sum of:
            0.05602347 = weight(_text_:22 in 57) [ClassicSimilarity], result of:
              0.05602347 = score(doc=57,freq=2.0), product of:
                0.20685782 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.059071355 = queryNorm
                0.2708308 = fieldWeight in 57, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=57)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    30.12.2001 16:22:41