Search (93 results, page 1 of 5)

  • × theme_ss:"Klassifikationssysteme im Online-Retrieval"
  1. Lösse, M.; Svensson, L.: "Classification at a Crossroad" : Internationales UDC-Seminar 2009 in Den Haag, Niederlande (2010) 0.07
    0.06750114 = product of:
      0.101251714 = sum of:
        0.018610956 = weight(_text_:h in 4379) [ClassicSimilarity], result of:
          0.018610956 = score(doc=4379,freq=2.0), product of:
            0.113001004 = queryWeight, product of:
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.045483325 = queryNorm
            0.16469726 = fieldWeight in 4379, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.08264076 = sum of:
          0.03035138 = weight(_text_:von in 4379) [ClassicSimilarity], result of:
            0.03035138 = score(doc=4379,freq=4.0), product of:
              0.12134718 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045483325 = queryNorm
              0.2501202 = fieldWeight in 4379, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.046875 = fieldNorm(doc=4379)
          0.05228938 = weight(_text_:22 in 4379) [ClassicSimilarity], result of:
            0.05228938 = score(doc=4379,freq=4.0), product of:
              0.15927485 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045483325 = queryNorm
              0.32829654 = fieldWeight in 4379, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=4379)
      0.6666667 = coord(2/3)
    
    Abstract
    Am 29. und 30. Oktober 2009 fand in der Königlichen Bibliothek in Den Haag das zweite internationale UDC-Seminar zum Thema "Classification at a Crossroad" statt. Organisiert wurde diese Konferenz - wie auch die erste Konferenz dieser Art im Jahr 2007 - vom UDC-Konsortium (UDCC). Im Mittelpunkt der diesjährigen Veranstaltung stand die Erschließung des World Wide Web unter besserer Nutzung von Klassifikationen (im Besonderen natürlich der UDC), einschließlich benutzerfreundlicher Repräsentationen von Informationen und Wissen. Standards, neue Technologien und Dienste, semantische Suche und der multilinguale Zugriff spielten ebenfalls eine Rolle. 135 Teilnehmer aus 35 Ländern waren dazu nach Den Haag gekommen. Das Programm umfasste mit 22 Vorträgen aus 14 verschiedenen Ländern eine breite Palette, wobei Großbritannien mit fünf Beiträgen am stärksten vertreten war. Die Tagesschwerpunkte wurden an beiden Konferenztagen durch die Eröffnungsvorträge gesetzt, die dann in insgesamt sechs thematischen Sitzungen weiter vertieft wurden.
    Date
    22. 1.2010 15:06:54
    Source
    Bibliotheksdienst. 44(2010) H.1, S.25-34
  2. Sandner, M.; Jahns, Y.: Kurzbericht zum DDC-Übersetzer- und Anwendertreffen bei der IFLA-Konferenz 2005 in Oslo, Norwegen (2005) 0.05
    0.05258643 = product of:
      0.07887964 = sum of:
        0.010856391 = weight(_text_:h in 4406) [ClassicSimilarity], result of:
          0.010856391 = score(doc=4406,freq=2.0), product of:
            0.113001004 = queryWeight, product of:
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.045483325 = queryNorm
            0.096073404 = fieldWeight in 4406, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4406)
        0.06802325 = sum of:
          0.030665912 = weight(_text_:von in 4406) [ClassicSimilarity], result of:
            0.030665912 = score(doc=4406,freq=12.0), product of:
              0.12134718 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045483325 = queryNorm
              0.2527122 = fieldWeight in 4406, product of:
                3.4641016 = tf(freq=12.0), with freq of:
                  12.0 = termFreq=12.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4406)
          0.037357338 = weight(_text_:22 in 4406) [ClassicSimilarity], result of:
            0.037357338 = score(doc=4406,freq=6.0), product of:
              0.15927485 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045483325 = queryNorm
              0.23454636 = fieldWeight in 4406, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4406)
      0.6666667 = coord(2/3)
    
    Content
    "Am 16. August 2005 fand in Oslo im Rahmen der heurigen IFLA-Konferenz das alljährliche Treffen der DDC-Übersetzer und der weltweiten DeweyAnwender-Institutionen (Nationalbibliotheken, Ersteller von Nationalbibliografien) statt. Die im Sommer 2005 bereits abgeschlossene deutsche Übersetzung wird in der Druckfassung Ende des Jahres in 4 Bänden vorliegen, beim K. G. Saur Verlag in München erscheinen (ISBN 3-598-11651-9) und 2006 vom ebenfalls erstmals ins Deutsche übersetzten DDC-Lehrbuch (ISBN 3-598-11748-5) begleitet. Pläne für neu startende Übersetzungen der DDC 22 gibt es für folgende Sprachen: Arabisch (mit der wachsenden Notwendigkeit, Klasse 200 Religion zu revidieren), Französisch (es erschien zuletzt eine neue Kurzausgabe 14, nun werden eine vierbändige Druckausgabe und eine frz. Webversion anvisiert), Schwedisch, Vietnamesisch (hierfür wird eine an die Sprache und Schrift angepasste Version des deutschen Übersetzungstools zum Einsatz kommen).
    Das Neueste zuerst Die Herausgeber der DDC präsentierten eine neue Informationsplattform "025.431: The Dewey blog"; seit Anfang Juli erreichbar unter http://ddc.typepad.com/. Neu ist auch der fünfsprachige, mit einem Farbleitsystem ausgestattete "DeweyBrowser" von OCLC; der Protoyp führt bereits in einen Katalog von 125.000 e-books und kann unter http://ddcresearch.oclc.org ,i ebooks/fileServer erprobt werden. OCLC bietet seit April 2005 eine neue Current Awareness-Schiene zur DDC mit unterschiedlichen Schwerpunkten an: Dewey Mappings, Dewey News, DeweyTips, Dewey Updates, Deweyjournal (letzteres fängt Themen aus allen 4 Teilbereichen auf); zu subskribieren unter http://www.oclc.org/dewey/syndicated/rss.htm. Wichtig für Freihandaufstellungen Die Segmentierung von Dewey-Notationen wurde reduziert! Ab September 2005 vergibt LoC nur noch ein einziges Segmentierungszeichen, und zwar an der Stelle, an der die jeweilige Notation in der englischen Kurzausgabe endet. Der Beginn einer Teilnotation aus Hilfstafel 1: Standardunterteilungen, wird also nun nicht mehr markiert. Für die Bildung von Standortsignaturen bietet sich das Dewey Cutter Programm an; Downloaden unter www.oclc.org/dewey/support/program.
    Allgemein DDC 22 ist im Gegensatz zu den früheren Neuauflagen der Standard Edition eine Ausgabe ohne generelle Überarbeitung einer gesamten Klasse. Sie enthält jedoch zahlreiche Änderungen und Expansionen in fast allen Disziplinen und in vielen Hilfstafeln. Es erschien auch eine Sonderausgabe der Klasse 200, Religion. In der aktuellen Kurzausgabe der DDC 22 (14, aus 2004) sind all diese Neuerungen berücksichtigt. Auch die elektronische Version exisitiert in einer vollständigen (WebDewey) und in einer KurzVariante (Abridged WebDewey) und ist immer auf dem jüngsten Stand der Klassifikation. Ein Tutorial für die Nutzung von WebDewey steht unter www.oclc.org /dewey/ resourcesitutorial zur Verfügung. Der Index enthält in dieser elektronischen Fassung weit mehr zusammengesetzte Notationen und verbale Sucheinstiege (resultierend aus den Titeldaten des "WorldCat") als die Druckausgabe, sowie Mappings zu den aktuellsten Normdatensätzen aus LCSH und McSH. Aktuell Die personelle Zusammensetzung des EPC (Editorial Policy Committee) hat sich im letzten Jahr verändert. Dieses oberste Gremium der DDC hat Prioritäten für den aktuellen Arbeitsplan festgelegt. Es wurde vereinbart, größere Änderungsvorhaben via Dewey-Website künftig wie in einem Stellungnahmeverfahren zur fachlichen Diskussion zu stellen. www.oclc.org/dewey/discussion/."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.3, S.89-91
  3. Geißelmann, F.: Online-Version einer Aufstellungssystematik (1995) 0.05
    0.049400937 = product of:
      0.0741014 = sum of:
        0.052639734 = weight(_text_:h in 929) [ClassicSimilarity], result of:
          0.052639734 = score(doc=929,freq=4.0), product of:
            0.113001004 = queryWeight, product of:
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.045483325 = queryNorm
            0.4658342 = fieldWeight in 929, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.09375 = fieldNorm(doc=929)
        0.021461666 = product of:
          0.04292333 = sum of:
            0.04292333 = weight(_text_:von in 929) [ClassicSimilarity], result of:
              0.04292333 = score(doc=929,freq=2.0), product of:
                0.12134718 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045483325 = queryNorm
                0.35372335 = fieldWeight in 929, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.09375 = fieldNorm(doc=929)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Source
    Aufbau und Erschließung begrifflicher Datenbanken: Beiträge zur bibliothekarischen Klassifikation. Eine Auswahl von Vorträgen der Jahrestagungen 1993 (Kaiserslautern) und 1994 (Oldenburg) der Gesellschaft für Klassifikation. Hrsg.: H. Havekost u. H.-J. Wätjen
  4. Gödert, W.: Strukturierung von Klassifikationssystemen und Online-Retrieval (1995) 0.05
    0.046106175 = product of:
      0.06915926 = sum of:
        0.043866444 = weight(_text_:h in 922) [ClassicSimilarity], result of:
          0.043866444 = score(doc=922,freq=4.0), product of:
            0.113001004 = queryWeight, product of:
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.045483325 = queryNorm
            0.3881952 = fieldWeight in 922, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.078125 = fieldNorm(doc=922)
        0.025292818 = product of:
          0.050585635 = sum of:
            0.050585635 = weight(_text_:von in 922) [ClassicSimilarity], result of:
              0.050585635 = score(doc=922,freq=4.0), product of:
                0.12134718 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045483325 = queryNorm
                0.416867 = fieldWeight in 922, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.078125 = fieldNorm(doc=922)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Source
    Aufbau und Erschließung begrifflicher Datenbanken: Beiträge zur bibliothekarischen Klassifikation. Eine Auswahl von Vorträgen der Jahrestagungen 1993 (Kaiserslautern) und 1994 (Oldenburg) der Gesellschaft für Klassifikation. Hrsg.: H. Havekost u. H.-J. Wätjen
  5. Gödert, W.: Systematisches Suchen und Orientierung in Datenbanken (1995) 0.05
    0.045048863 = product of:
      0.067573294 = sum of:
        0.037221912 = weight(_text_:h in 1465) [ClassicSimilarity], result of:
          0.037221912 = score(doc=1465,freq=2.0), product of:
            0.113001004 = queryWeight, product of:
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.045483325 = queryNorm
            0.32939452 = fieldWeight in 1465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.09375 = fieldNorm(doc=1465)
        0.03035138 = product of:
          0.06070276 = sum of:
            0.06070276 = weight(_text_:von in 1465) [ClassicSimilarity], result of:
              0.06070276 = score(doc=1465,freq=4.0), product of:
                0.12134718 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045483325 = queryNorm
                0.5002404 = fieldWeight in 1465, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1465)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Source
    Zwischen Schreiben und Lesen: Perspektiven für Bibliotheken, Wissenschaft und Kultur. Festschrift zum 60. Geburtstag von Hermann Havekost. Hrsg. von H.-J. Wätjen
  6. Reisser, M.: ¬Die Darstellung begrifflicher Kontexte im Online-Retrieval (1995) 0.04
    0.03913369 = product of:
      0.05870053 = sum of:
        0.030706512 = weight(_text_:h in 934) [ClassicSimilarity], result of:
          0.030706512 = score(doc=934,freq=4.0), product of:
            0.113001004 = queryWeight, product of:
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.045483325 = queryNorm
            0.27173662 = fieldWeight in 934, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.0546875 = fieldNorm(doc=934)
        0.027994018 = product of:
          0.055988036 = sum of:
            0.055988036 = weight(_text_:von in 934) [ClassicSimilarity], result of:
              0.055988036 = score(doc=934,freq=10.0), product of:
                0.12134718 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045483325 = queryNorm
                0.4613872 = fieldWeight in 934, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=934)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Die traditionellen Verfahren der klassifikatorischen sachlichen Erschließung von Medieninhalten heben auf die Eindeutigkeit der Zuordnung von Objekt (Medieninhalt) und Klasse ab. Sie unterscheiden sich damit in der Praxis des Online-Retrievals nur unwesentlich von den Verfahren der verbalen sachlichen Erschließung (z.B. Thesauri, SWD/RSWK). Auf der Grundlage der in der Sacherschließungstheorie vorgenommenen Unterscheidung von klassifikatorischer und verbaler Sacherschließung werden mögliche und bereits in Anwendung befindliche Verfahren diskutiert, welche die begrifflichen Kontexte der Klassen für den Anwender einer bibliothekarischen Klassifikation im Online-Retrieval nutzbar machen
    Source
    Aufbau und Erschließung begrifflicher Datenbanken: Beiträge zur bibliothekarischen Klassifikation. Eine Auswahl von Vorträgen der Jahrestagungen 1993 (Kaiserslautern) und 1994 (Oldenburg) der Gesellschaft für Klassifikation. Hrsg.: H. Havekost u. H.-J. Wätjen
  7. Oberhauser, O.: Implementierung und Parametrisierung klassifikatorischer Recherchekomponenten im OPAC (2005) 0.04
    0.038308848 = product of:
      0.05746327 = sum of:
        0.010856391 = weight(_text_:h in 3353) [ClassicSimilarity], result of:
          0.010856391 = score(doc=3353,freq=2.0), product of:
            0.113001004 = queryWeight, product of:
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.045483325 = queryNorm
            0.096073404 = fieldWeight in 3353, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3353)
        0.04660688 = sum of:
          0.025038611 = weight(_text_:von in 3353) [ClassicSimilarity], result of:
            0.025038611 = score(doc=3353,freq=8.0), product of:
              0.12134718 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045483325 = queryNorm
              0.20633863 = fieldWeight in 3353, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3353)
          0.021568269 = weight(_text_:22 in 3353) [ClassicSimilarity], result of:
            0.021568269 = score(doc=3353,freq=2.0), product of:
              0.15927485 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045483325 = queryNorm
              0.1354154 = fieldWeight in 3353, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3353)
      0.6666667 = coord(2/3)
    
    Abstract
    Das in den letzten Jahren wiedererwachte Interesse an der klassifikatorischen Erschließung und Recherche hat sich allem Anschein nach noch nicht ausreichend bis zu den Herstellern integrierter Bibliothekssysteme herumgesprochen. Wie wäre es sonst zu erklären, dass im OPAC-Modul eines führenden Systems wie Aleph 500 so gut wie keine Features für klassifikationsbasierte Recherchen zu erblicken sind? Tatsächlich finden wir heute einen im Vergleich zum einstigen System Bibos kaum veränderten Zustand vor: Notationen eines oder mehrerer Klassifikationssysteme können in einer durch MAB dafür bestimmten Kategorie (700, nebst Indikatoren) katalogisiert und dann recherchiert bzw. angezeigt werden. Doch welcher Benutzer weiß schon, was diese Notationen im einzelnen bedeuten? Wer macht sich die Mühe, dies selbst herauszufinden, um dann danach zu recherchieren? Hier liegt im wesentlich dasselbe Problem vor, das schon dem systematischen Zettelkatalog anhaftete und ihn zu einem zwar mühevoll erstellten, aber wenig genutzten Rechercheinstrument machte, das nur dann (zwangsläufig) angenommen wurde, wenn ein verbaler Sachkatalog fehlte. Nun könnte eingewandt werden, dass im Vergleich zu früher unter Aleph 500 wenigstens das Aufblättern von Indizes möglich sei, sodass im OPAC ein Index für die vergebenen Notationen angeboten werden kann (bzw. mehrere solche Indizes bei Verwendung von mehr als nur einem Klassifikationssystem). Gewiss, doch was bringt dem Uneingeweihten das Aufblättern des Notationsindex - außer einer alphabetischen Liste von kryptischen Codes? Weiter könnte man einwenden, dass es im Aleph-500-OPAC die so genannten Suchdienste ("services") gibt, mithilfe derer von bestimmten Elementen einer Vollanzeige hypertextuell weiternavigiert werden kann. Richtig, doch damit kann man bloß wiederum den Index aufblättern oder alle anderen Werke anzeigen lassen, die dieselbe Notationen - also einen Code, dessen Bedeutung meist unbekannt ist - aufweisen. Wie populär mag dieses Feature beim Publikum wohl sein? Ein anderer Einwand wäre der Hinweis auf das inzwischen vom Hersteller angebotene Thesaurus-Modul, das vermutlich auch für Klassifikationssysteme eingesetzt werden könnte. Doch wie viele Bibliotheken unseres Verbundes waren bisher bereit, für dieses Modul, das man eigentlich als Bestandteil des Basissystems erwarten könnte, gesondert zu bezahlen? Schließlich mag man noch einwenden, dass es im Gegensatz zur Bibos-Zeit nun die Möglichkeit gibt, Systematiken und Klassifikationen als Normdateien zu implementieren und diese beim Retrieval für verbale Einstiege in die klassifikatorische Recherche oder zumindest für die Veranschaulichung der Klassenbenennungen in der Vollanzeige zu nutzen. Korrekt - dies ist möglich und wurde sogar einst für die MSC (Mathematics Subject Classification, auch bekannt als "AMS-Klassifikation") versucht. Dieses Projekt, das noch unter der Systemversion 11.5 begonnen wurde, geriet jedoch nach einiger Zeit ins Stocken und fand bedauerlicherweise nie seinen Weg in die folgende Version (14.2). Mag auch zu hoffen sein, dass es unter der neuen Version 16 wieder weitergeführt werden kann, so weist dieses Beispiel doch auf die grundsätzliche Problematik des Normdatei-Ansatzes (zusätzlicher Aufwand, Kontinuität) hin. Zudem lohnt sich die Implementierung einer eigenen Normdatei 4 wohl nur bei einem größeren bzw. komplexen Klassifikationssystem, wogegen man im Falle kleinerer Systematiken kaum daran denken würde.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.1, S.22-37
  8. Koch, T.: Nutzung von Klassifikationssystemen zur verbesserten Beschreibung, Organisation und Suche von Internetressourcen (1998) 0.04
    0.03562011 = product of:
      0.053430162 = sum of:
        0.02481461 = weight(_text_:h in 1030) [ClassicSimilarity], result of:
          0.02481461 = score(doc=1030,freq=2.0), product of:
            0.113001004 = queryWeight, product of:
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.045483325 = queryNorm
            0.21959636 = fieldWeight in 1030, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.0625 = fieldNorm(doc=1030)
        0.028615555 = product of:
          0.05723111 = sum of:
            0.05723111 = weight(_text_:von in 1030) [ClassicSimilarity], result of:
              0.05723111 = score(doc=1030,freq=8.0), product of:
                0.12134718 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045483325 = queryNorm
                0.47163114 = fieldWeight in 1030, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1030)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    In den ersten Jahren der Internetdienste wurde auf Klassifikationen weitgehend verzichtet. Viele Anbieter argumentierten, daß diese wie auch andere Metadaten von der Entwicklung aufgrund der Volltextindices überholt sind. Inzwischen hat sich das Blatt gewendet: Die meisten der großen Suchdienste bieten eine mehr oder minder ausgefeilte Klassifikation an. eine Reihe von Internetdiensten verwendet etablierte Bibliotheksklassifikationssysteme; deren Einsatzbereiche, die Vor- und Nachteile sowie Anwendungsbeispiele sind Thema dieses Aufsatzes
    Source
    BuB. 50(1998) H.5, S.326-335
  9. Alex, H.; Heiner-Freiling, M.: Melvil (2005) 0.03
    0.034849852 = product of:
      0.05227478 = sum of:
        0.030706512 = weight(_text_:h in 4321) [ClassicSimilarity], result of:
          0.030706512 = score(doc=4321,freq=4.0), product of:
            0.113001004 = queryWeight, product of:
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.045483325 = queryNorm
            0.27173662 = fieldWeight in 4321, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4321)
        0.021568269 = product of:
          0.043136537 = sum of:
            0.043136537 = weight(_text_:22 in 4321) [ClassicSimilarity], result of:
              0.043136537 = score(doc=4321,freq=2.0), product of:
                0.15927485 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045483325 = queryNorm
                0.2708308 = fieldWeight in 4321, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4321)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Ab Januar 2006 wird Die Deutsche Bibliothek ein neues Webangebot mit dem Namen Melvil starten, das ein Ergebnis ihres Engagements für die DDC und das Projekt DDC Deutsch ist. Der angebotene Webservice basiert auf der Übersetzung der 22. Ausgabe der DDC, die im Oktober 2005 als Druckausgabe im K. G. Saur Verlag erscheint. Er bietet jedoch darüber hinausgehende Features, die den Klassifizierer bei seiner Arbeit unterstützen und erstmals eine verbale Recherche für Endnutzer über DDCerschlossene Titel ermöglichen. Der Webservice Melvil gliedert sich in drei Anwendungen: - MelvilClass, - MelvilSearch und - MelvilSoap.
    Source
    Dialog mit Bibliotheken. 17(2005) H.3, S.14-17
  10. Wätjen, H.-J.: Automatisches Sammeln, Klassifizieren und Indexieren von wissenschaftlich relevanten Informationsressourcen im deutschen World Wide Web : das DFG-Projekt GERHARD (1998) 0.03
    0.03260199 = product of:
      0.04890298 = sum of:
        0.03101826 = weight(_text_:h in 3066) [ClassicSimilarity], result of:
          0.03101826 = score(doc=3066,freq=2.0), product of:
            0.113001004 = queryWeight, product of:
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.045483325 = queryNorm
            0.27449545 = fieldWeight in 3066, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.078125 = fieldNorm(doc=3066)
        0.017884722 = product of:
          0.035769444 = sum of:
            0.035769444 = weight(_text_:von in 3066) [ClassicSimilarity], result of:
              0.035769444 = score(doc=3066,freq=2.0), product of:
                0.12134718 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045483325 = queryNorm
                0.29476947 = fieldWeight in 3066, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3066)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
  11. Reiner, U.: Automatische DDC-Klassifizierung von bibliografischen Titeldatensätzen (2009) 0.03
    0.032464355 = product of:
      0.097393066 = sum of:
        0.097393066 = sum of:
          0.035769444 = weight(_text_:von in 611) [ClassicSimilarity], result of:
            0.035769444 = score(doc=611,freq=2.0), product of:
              0.12134718 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045483325 = queryNorm
              0.29476947 = fieldWeight in 611, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.078125 = fieldNorm(doc=611)
          0.061623625 = weight(_text_:22 in 611) [ClassicSimilarity], result of:
            0.061623625 = score(doc=611,freq=2.0), product of:
              0.15927485 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045483325 = queryNorm
              0.38690117 = fieldWeight in 611, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=611)
      0.33333334 = coord(1/3)
    
    Date
    22. 8.2009 12:54:24
  12. Wätjen, H.-J.: GERHARD : Automatisches Sammeln, Klassifizieren und Indexieren von wissenschaftlich relevanten Informationsressourcen im deutschen World Wide Web (1998) 0.03
    0.03227432 = product of:
      0.04841148 = sum of:
        0.030706512 = weight(_text_:h in 3064) [ClassicSimilarity], result of:
          0.030706512 = score(doc=3064,freq=4.0), product of:
            0.113001004 = queryWeight, product of:
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.045483325 = queryNorm
            0.27173662 = fieldWeight in 3064, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3064)
        0.017704971 = product of:
          0.035409942 = sum of:
            0.035409942 = weight(_text_:von in 3064) [ClassicSimilarity], result of:
              0.035409942 = score(doc=3064,freq=4.0), product of:
                0.12134718 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045483325 = queryNorm
                0.29180688 = fieldWeight in 3064, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3064)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Die intellektuelle Erschließung des Internet befindet sich in einer Krise. Yahoo und andere Dienste können mit dem Wachstum des Web nicht mithalten. GERHARD ist derzeit weltweit der einzige Such- und Navigationsdienst, der die mit einem Roboter gesammelten Internetressourcen mit computerlinguistischen und statistischen Verfahren auch automatisch vollständig klassifiziert. Weit über eine Million HTML-Dokumente von wissenschaftlich relevanten Servern in Deutschland können wie bei anderen Suchmaschinen in der Datenbank gesucht, aber auch über die Navigation in der dreisprachigen Universalen Dezimalklassifikation (ETH-Bibliothek Zürich) recherchiert werden
    Source
    B.I.T.online. 1(1998) H.4, S.279-290
  13. Hanke, M.: Bibliothekarische Klassifikationssysteme im semantischen Web : zu Chancen und Problemen von Linked-data-Repräsentationen ausgewählter Klassifikationssysteme (2014) 0.03
    0.031334717 = product of:
      0.047002073 = sum of:
        0.018610956 = weight(_text_:h in 2463) [ClassicSimilarity], result of:
          0.018610956 = score(doc=2463,freq=2.0), product of:
            0.113001004 = queryWeight, product of:
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.045483325 = queryNorm
            0.16469726 = fieldWeight in 2463, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.046875 = fieldNorm(doc=2463)
        0.028391117 = product of:
          0.056782234 = sum of:
            0.056782234 = weight(_text_:von in 2463) [ClassicSimilarity], result of:
              0.056782234 = score(doc=2463,freq=14.0), product of:
                0.12134718 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045483325 = queryNorm
                0.46793205 = fieldWeight in 2463, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2463)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Pflege und Anwendung von Klassifikationssystemen für Informationsressourcen sind traditionell eine Kernkompetenz von Bibliotheken. Diese Systeme sind häufig historisch gewachsen und die Veröffentlichung verschiedener Systeme ist in der Vergangenheit typischerweise durch gedruckte Regelwerke oder proprietäre Datenbanken erfolgt. Die Technologien des semantischen Web erlauben es, Klassifikationssysteme in einer standardisierten und maschinenlesbaren Weise zu repräsentieren, sowie als Linked (Open) Data für die Nachnutzung zugänglich zu machen. Anhand ausgewählter Beispiele von Klassifikationssystemen, die bereits als Linked (Open) Data publiziert wurden, werden in diesem Artikel zentrale semantische und technische Fragen erörtert, sowie mögliche Einsatzgebiete und Chancen dargestellt. So kann beispielsweise die für die Maschinenlesbarkeit erforderliche starke Strukturierung von Daten im semantischen Web zum besseren Verständnis der Klassifikationssysteme beitragen und möglicherweise positive Impulse für ihre Weiterentwicklung liefern. Für das semantische Web aufbereitete Repräsentationen von Klassifikationssystemen können unter anderem zur Kataloganreicherung oder für die anwendungsbezogene Erstellung von Konkordanzen zwischen verschiedenen Klassifikations- bzw. Begriffssystemen genutzt werden..
    Source
    Perspektive Bibliothek. 3(2014) H.2, S.91-119
  14. Gödert, W.: Navigation und Konzepte für ein interaktives Retrieval im OPAC : Oder: Von der Informationserschließung zur Wissenserkundung (2004) 0.03
    0.030032575 = product of:
      0.045048863 = sum of:
        0.02481461 = weight(_text_:h in 2195) [ClassicSimilarity], result of:
          0.02481461 = score(doc=2195,freq=2.0), product of:
            0.113001004 = queryWeight, product of:
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.045483325 = queryNorm
            0.21959636 = fieldWeight in 2195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.0625 = fieldNorm(doc=2195)
        0.020234253 = product of:
          0.040468507 = sum of:
            0.040468507 = weight(_text_:von in 2195) [ClassicSimilarity], result of:
              0.040468507 = score(doc=2195,freq=4.0), product of:
                0.12134718 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045483325 = queryNorm
                0.3334936 = fieldWeight in 2195, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2195)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    In diesem Beitrag werden nach einem kurzen historischen Abriss der OPAC-Entwicklung die Prinzipien und Möglichkeiten zur Gestaltung von Interaktionsvorgängen zur inhaltlichen Suche diskutiert. Es wird dabei ein Plädoyer abgegeben, die OPACs nicht allein als Findeinstrumente für bibliografische Daten sondern auch als Systeme zur Wissenserkundung zu begreifen und die Interaktionsvorgänge darauf abzustimmen
    Source
    AKMB-news. 10(2004) H.1, S.27-30
  15. Gödert, W.: Navigation und Konzepte für ein interaktives Retrieval im OPAC : Oder: Von der Informationserschließung zur Wissenserkundung (2004) 0.03
    0.030032575 = product of:
      0.045048863 = sum of:
        0.02481461 = weight(_text_:h in 2491) [ClassicSimilarity], result of:
          0.02481461 = score(doc=2491,freq=2.0), product of:
            0.113001004 = queryWeight, product of:
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.045483325 = queryNorm
            0.21959636 = fieldWeight in 2491, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.0625 = fieldNorm(doc=2491)
        0.020234253 = product of:
          0.040468507 = sum of:
            0.040468507 = weight(_text_:von in 2491) [ClassicSimilarity], result of:
              0.040468507 = score(doc=2491,freq=4.0), product of:
                0.12134718 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045483325 = queryNorm
                0.3334936 = fieldWeight in 2491, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2491)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    In diesem Beitrag werden nach einem kurzen historischen Abriss der OPAC-Entwicklung die Prinzipien und Möglichkeiten zur Gestaltung von Interaktionsvorgängen zur inhaltlichen Suche diskutiert. Es wird dabei ein Plädoyer abgegeben, die OPACs nicht allein als Findeinstrumente für bibliografische Daten sondern auch als Systeme zur Wissenserkundung zu begreifen und die Interaktionsvorgänge darauf abzustimmen
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 57(2004) H.1, S.70-80
  16. Gödert, W.: Facettenklassifikation im Online-Retrieval (1992) 0.03
    0.028931238 = product of:
      0.043396857 = sum of:
        0.021712782 = weight(_text_:h in 4574) [ClassicSimilarity], result of:
          0.021712782 = score(doc=4574,freq=2.0), product of:
            0.113001004 = queryWeight, product of:
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.045483325 = queryNorm
            0.19214681 = fieldWeight in 4574, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4574)
        0.021684075 = product of:
          0.04336815 = sum of:
            0.04336815 = weight(_text_:von in 4574) [ClassicSimilarity], result of:
              0.04336815 = score(doc=4574,freq=6.0), product of:
                0.12134718 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045483325 = queryNorm
                0.357389 = fieldWeight in 4574, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4574)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Facettenklassifikationen wurden bislang vorwiegend im Hinblick auf ihre Verwendungsmöglichkeiten in präkombinierten systematischen Katalogen bzw. Bibliographien betrachtet, nicht so sehr unter dem Aspekt eines möglichen Einsatzes in postkoordinierenden Retrievalsystemen. Im vorliegenden Beitrag soll nachgewiesen werden, daß Facettenklassifikationen anderen Techniken des Online Retrievals überlegen sein können. Hierzu sollten Begriffs- und Facettenanalyse mit einem strukturabbildenden Notationssystem kombiniert werden, um mit Hilfe Boolescher Operatoren (zur Verknüpfung von Facetten unabhängig von einer definierten Citation order) und Truncierung hierarchisch differenzierte Dokumentenmengen für komplexe Fragestellungen zu erhalten. Die Methode wird an zwei Beispielen illustriert: das erste nutzt eine kleine, von B. Buchanan entwickelte Klassifikation, das zweite das für Library and Information Science Abstracts (LISA) verwendete Klassifikationssystem. Weiter wird am Beispiel PRECIS diskutiert, welche Möglichkeiten des syntaktischen Retrievals Rollenoperatoren bieten können.
    Source
    Bibliothek: Forschung und Praxis. 16(1992) H.3, S.382-395
  17. Qualität in der Inhaltserschließung (2021) 0.03
    0.026005497 = product of:
      0.039008245 = sum of:
        0.017546577 = weight(_text_:h in 753) [ClassicSimilarity], result of:
          0.017546577 = score(doc=753,freq=4.0), product of:
            0.113001004 = queryWeight, product of:
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.045483325 = queryNorm
            0.15527807 = fieldWeight in 753, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.021461666 = product of:
          0.04292333 = sum of:
            0.04292333 = weight(_text_:von in 753) [ClassicSimilarity], result of:
              0.04292333 = score(doc=753,freq=18.0), product of:
                0.12134718 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045483325 = queryNorm
                0.35372335 = fieldWeight in 753, product of:
                  4.2426405 = tf(freq=18.0), with freq of:
                    18.0 = termFreq=18.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.03125 = fieldNorm(doc=753)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Editor
    Franke-Maier, M., A. Kasprzik, A. Ledl u. H. Schürmann
    Footnote
    Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
  18. Svensson, L.G.: Sacherschließung als Basis für intelligente Navigation ausgehend von der DDC : Konzepte - Realisierung - Visionen (2004) 0.02
    0.024798205 = product of:
      0.037197307 = sum of:
        0.018610956 = weight(_text_:h in 2876) [ClassicSimilarity], result of:
          0.018610956 = score(doc=2876,freq=2.0), product of:
            0.113001004 = queryWeight, product of:
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.045483325 = queryNorm
            0.16469726 = fieldWeight in 2876, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.046875 = fieldNorm(doc=2876)
        0.018586349 = product of:
          0.037172697 = sum of:
            0.037172697 = weight(_text_:von in 2876) [ClassicSimilarity], result of:
              0.037172697 = score(doc=2876,freq=6.0), product of:
                0.12134718 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045483325 = queryNorm
                0.30633342 = fieldWeight in 2876, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2876)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Über die Heterogenität der Sacherschließung in der deutschen Bibliothekslandschaft ist schon viel berichtet und geschrieben worden. Im Folgenden wird dargestellt, wie eine Suchumgebung ausgehend von der DDC aufgebaut werden kann und wie diese auf andere Erschließungssysteme erweitert werden kann. ... Fazit: Navigation ausgehend von der DDC Als das weltweit am meisten benutzte Klassifikationssystem hat die DDC ein erhebliches Potential, sich als Switching Language für sprachunabhängige Dokumentenrecherche zu positionieren. Allerdings ist eine verbale Suche für viele Benutzer deutlich intuitiver, so dass der Umstieg auf rein hierarchisches Browsing - wie es die DDC erlauben würde - nicht sinnvoll erscheint. Angesichts der großen Zahl an vorhandenen, mit SWD erschlossenen Daten wäre eine solche Vorgehensweise unsinnig. Vielmehr müssen die Bestrebungen darauf konzentriert werden, das Nebeneinander der verschiedenen Erschließungsmethoden auf der Ebene der Suchmaschinen zusammen zu führen. Für die wissenschaftliche Literaturrecherche birgt die Möglichkeit zur verteilten Suche über heterogen erschlossene Daten ein großes Potential. Die obigen Überlegungen stellen die Vorgehensweise dar, wie dies im Projekt DDC Deutsch verfolgt und realisiert wird.
    Source
    Bibliotheksdienst. 38(2004) H.10, S.1283-1294
  19. Effenberger, C.: ¬Ein semantisches Netz für die Suche mit der Dewey-Dezimalklassifikation : optimiertes Retrieval durch die Verwendung versionierter DDC-Klassen (2011) 0.02
    0.024798205 = product of:
      0.037197307 = sum of:
        0.018610956 = weight(_text_:h in 190) [ClassicSimilarity], result of:
          0.018610956 = score(doc=190,freq=2.0), product of:
            0.113001004 = queryWeight, product of:
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.045483325 = queryNorm
            0.16469726 = fieldWeight in 190, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.046875 = fieldNorm(doc=190)
        0.018586349 = product of:
          0.037172697 = sum of:
            0.037172697 = weight(_text_:von in 190) [ClassicSimilarity], result of:
              0.037172697 = score(doc=190,freq=6.0), product of:
                0.12134718 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045483325 = queryNorm
                0.30633342 = fieldWeight in 190, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.046875 = fieldNorm(doc=190)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Die Dewey-Dezimalklassifikation (DDC) wird weltweit für die Erschließung von Bibliotheksbeständen eingesetzt. Um immer auf dem aktuellen wissenschaftlichen Stand zu sein, wird die DDC regelmäßig aktualisiert. Hierdurch kann es zu Begriffsverschiebungen kommen und die Erschließung ähnlicher Titel weicht voneinander ab, wird also heterogen, was zu inkorrekten Treffermengen bei der Suche nach DDC-erschlossenen Dokumenten führen kann. Eine mögliche Lösung des Problems ist, jeder Version einer DDC-Klasse einen eindeutigen Identifier zuzuordnen und so die Klasse eindeutig identifizieren zu können, mit der ein Titel verknüpft ist. Mit Hilfe von RDF kann aus Titeldaten, Schlagwörtern der Schlagwortnormdatei und den versionierten DDC-Klassen ein semantisches Netzwerk modelliert werden und durch entsprechende Anfragen können genauere Suchergebnisse, unabhängig von Änderungen in der DDC, generiert werden. Die Untersuchungen erfolgten im Rahmen eines Werkvertrages mit der Deutschen Nationalbibliothek und wurden in ausgearbeiteter Form als Masterthesis eingereicht.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 64(2011) H.2, S.270-289
  20. Hasubick, J.; Wiesenmüller, H.: RVK-Registerbegriffe in der Katalogrecherche : Chancen und Grenzen (2022) 0.02
    0.024798205 = product of:
      0.037197307 = sum of:
        0.018610956 = weight(_text_:h in 538) [ClassicSimilarity], result of:
          0.018610956 = score(doc=538,freq=2.0), product of:
            0.113001004 = queryWeight, product of:
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.045483325 = queryNorm
            0.16469726 = fieldWeight in 538, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4844491 = idf(docFreq=10020, maxDocs=44218)
              0.046875 = fieldNorm(doc=538)
        0.018586349 = product of:
          0.037172697 = sum of:
            0.037172697 = weight(_text_:von in 538) [ClassicSimilarity], result of:
              0.037172697 = score(doc=538,freq=6.0), product of:
                0.12134718 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045483325 = queryNorm
                0.30633342 = fieldWeight in 538, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.046875 = fieldNorm(doc=538)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Die Registerbegriffe der Regensburger Verbundklassifikation (RVK) werden bisher in der Regel nur für die Suche nach passenden Systemstellen verwendet. Die vor einigen Jahren erfolgte Verknüpfung der RVK mit der Gemeinsamen Normdatei (GND) und die Aufbereitung der RVK als Normdatei lassen es jedoch denkbar erscheinen, die Registerbegriffe auch im Rahmen der Katalogrecherche zu nutzen - insbesondere für weiterführende und explorierende Recherchen im Anschluss an eine "known-item search". Der Aufsatz stellt die Ergebnisse einer Studie zu einer möglichen Einbindung von RVK-Registerbegriffen in die Katalogrecherche am Beispiel des K10plus vor. Dabei wurde für Notationsstichproben aus fünf Fachsystematiken sowohl der quantitative als auch der qualitative Mehrwert einer Recherche mit entsprechenden Registerbegriffen ermittelt. Es ergaben sich drei Kategorien von Notationen und ihren Registereinträgen: eindeutig geeignete, eindeutig nicht geeignete und ein großer Teil von Fällen, die nur nach umfassenden Vorarbeiten sinnvoll eingebunden werden könnten. Die herausgearbeiteten Fall-Cluster geben einen Überblick über die Chancen und Grenzen einer möglichen Einbindung der RVK-Registerbegriffe in die Katalogrecherche.

Years

Languages

  • d 53
  • e 39
  • nl 1
  • More… Less…

Types

  • a 78
  • el 8
  • s 6
  • m 5
  • h 2
  • r 1
  • More… Less…

Classifications