Search (32 results, page 1 of 2)

  • × theme_ss:"Klassifikationssysteme im Online-Retrieval"
  1. Hill, J.S.: Online classification number access : some practical considerations (1984) 0.03
    0.027785558 = product of:
      0.055571117 = sum of:
        0.055571117 = product of:
          0.11114223 = sum of:
            0.11114223 = weight(_text_:22 in 7684) [ClassicSimilarity], result of:
              0.11114223 = score(doc=7684,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.61904186 = fieldWeight in 7684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=7684)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Journal of academic librarianship. 10(1984), S.17-22
  2. Svensson, L.G.: Sacherschließung als Basis für intelligente Navigation ausgehend von der DDC : Konzepte - Realisierung - Visionen (2004) 0.03
    0.027221458 = product of:
      0.054442916 = sum of:
        0.054442916 = product of:
          0.10888583 = sum of:
            0.10888583 = weight(_text_:daten in 2876) [ClassicSimilarity], result of:
              0.10888583 = score(doc=2876,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.44620997 = fieldWeight in 2876, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2876)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Über die Heterogenität der Sacherschließung in der deutschen Bibliothekslandschaft ist schon viel berichtet und geschrieben worden. Im Folgenden wird dargestellt, wie eine Suchumgebung ausgehend von der DDC aufgebaut werden kann und wie diese auf andere Erschließungssysteme erweitert werden kann. ... Fazit: Navigation ausgehend von der DDC Als das weltweit am meisten benutzte Klassifikationssystem hat die DDC ein erhebliches Potential, sich als Switching Language für sprachunabhängige Dokumentenrecherche zu positionieren. Allerdings ist eine verbale Suche für viele Benutzer deutlich intuitiver, so dass der Umstieg auf rein hierarchisches Browsing - wie es die DDC erlauben würde - nicht sinnvoll erscheint. Angesichts der großen Zahl an vorhandenen, mit SWD erschlossenen Daten wäre eine solche Vorgehensweise unsinnig. Vielmehr müssen die Bestrebungen darauf konzentriert werden, das Nebeneinander der verschiedenen Erschließungsmethoden auf der Ebene der Suchmaschinen zusammen zu führen. Für die wissenschaftliche Literaturrecherche birgt die Möglichkeit zur verteilten Suche über heterogen erschlossene Daten ein großes Potential. Die obigen Überlegungen stellen die Vorgehensweise dar, wie dies im Projekt DDC Deutsch verfolgt und realisiert wird.
  3. Gödert, W.: Navigation und Konzepte für ein interaktives Retrieval im OPAC : Oder: Von der Informationserschließung zur Wissenserkundung (2004) 0.03
    0.025664635 = product of:
      0.05132927 = sum of:
        0.05132927 = product of:
          0.10265854 = sum of:
            0.10265854 = weight(_text_:daten in 2195) [ClassicSimilarity], result of:
              0.10265854 = score(doc=2195,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.42069077 = fieldWeight in 2195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2195)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In diesem Beitrag werden nach einem kurzen historischen Abriss der OPAC-Entwicklung die Prinzipien und Möglichkeiten zur Gestaltung von Interaktionsvorgängen zur inhaltlichen Suche diskutiert. Es wird dabei ein Plädoyer abgegeben, die OPACs nicht allein als Findeinstrumente für bibliografische Daten sondern auch als Systeme zur Wissenserkundung zu begreifen und die Interaktionsvorgänge darauf abzustimmen
  4. Gödert, W.: Navigation und Konzepte für ein interaktives Retrieval im OPAC : Oder: Von der Informationserschließung zur Wissenserkundung (2004) 0.03
    0.025664635 = product of:
      0.05132927 = sum of:
        0.05132927 = product of:
          0.10265854 = sum of:
            0.10265854 = weight(_text_:daten in 2491) [ClassicSimilarity], result of:
              0.10265854 = score(doc=2491,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.42069077 = fieldWeight in 2491, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2491)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In diesem Beitrag werden nach einem kurzen historischen Abriss der OPAC-Entwicklung die Prinzipien und Möglichkeiten zur Gestaltung von Interaktionsvorgängen zur inhaltlichen Suche diskutiert. Es wird dabei ein Plädoyer abgegeben, die OPACs nicht allein als Findeinstrumente für bibliografische Daten sondern auch als Systeme zur Wissenserkundung zu begreifen und die Interaktionsvorgänge darauf abzustimmen
  5. Lim, E.: Southeast Asian subject gateways : an examination of their classification practices (2000) 0.02
    0.020839168 = product of:
      0.041678336 = sum of:
        0.041678336 = product of:
          0.08335667 = sum of:
            0.08335667 = weight(_text_:22 in 6040) [ClassicSimilarity], result of:
              0.08335667 = score(doc=6040,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.46428138 = fieldWeight in 6040, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6040)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 6.2002 19:42:47
  6. Oberhauser, O.; Labner, J.: Praktische Lösungen für lokale Systematiken (1) : Die neue lokale Multi-Klassifikations-Normdatei der Verbundzentrale (2007) 0.02
    0.019248476 = product of:
      0.038496953 = sum of:
        0.038496953 = product of:
          0.076993905 = sum of:
            0.076993905 = weight(_text_:daten in 496) [ClassicSimilarity], result of:
              0.076993905 = score(doc=496,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.31551808 = fieldWeight in 496, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=496)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Beitrag berichtet über eine unter der Bibliothekssoftware "Aleph 500" neu eingerichtete Normdatei, die mehrere "koexistierende" lokale Klassifikationssysteme aus den Bibliotheken des Österreichischen Bibliothekenverbundes aufzunehmen vermag. Implementiert wurden darin als erste Klassifikation jene der Universitätsbibliothek Bodenkultur (Wien), für die nach dem Auslaufen einer früheren Softwarelösung eine neue Plattform gesucht worden war. Folgende Aspekte werden im Detail angesprochen bzw. dokumentiert: Struktur und Besonderheiten dieser Klassifikation, Gliederung des Gesamtprojektes in mehrere Phasen und Realisierung der ersten Phase (Tabellen-Setup inkl. Kategorienschema, Überführung der Daten in die neue Normdatei, Indexierung). Die neue Multi-Klassifikations-Normdatei ist bereit für die Aufnahme weiterer lokaler Systematiken, wobei diese einerseits von den an der Verbundzentrale geführten Lokalsystemen, andererseits aber auch von den anderen Lokalsystemen des Verbundes stammen können.
  7. Hanke, M.: Bibliothekarische Klassifikationssysteme im semantischen Web : zu Chancen und Problemen von Linked-data-Repräsentationen ausgewählter Klassifikationssysteme (2014) 0.02
    0.019248476 = product of:
      0.038496953 = sum of:
        0.038496953 = product of:
          0.076993905 = sum of:
            0.076993905 = weight(_text_:daten in 2463) [ClassicSimilarity], result of:
              0.076993905 = score(doc=2463,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.31551808 = fieldWeight in 2463, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2463)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Pflege und Anwendung von Klassifikationssystemen für Informationsressourcen sind traditionell eine Kernkompetenz von Bibliotheken. Diese Systeme sind häufig historisch gewachsen und die Veröffentlichung verschiedener Systeme ist in der Vergangenheit typischerweise durch gedruckte Regelwerke oder proprietäre Datenbanken erfolgt. Die Technologien des semantischen Web erlauben es, Klassifikationssysteme in einer standardisierten und maschinenlesbaren Weise zu repräsentieren, sowie als Linked (Open) Data für die Nachnutzung zugänglich zu machen. Anhand ausgewählter Beispiele von Klassifikationssystemen, die bereits als Linked (Open) Data publiziert wurden, werden in diesem Artikel zentrale semantische und technische Fragen erörtert, sowie mögliche Einsatzgebiete und Chancen dargestellt. So kann beispielsweise die für die Maschinenlesbarkeit erforderliche starke Strukturierung von Daten im semantischen Web zum besseren Verständnis der Klassifikationssysteme beitragen und möglicherweise positive Impulse für ihre Weiterentwicklung liefern. Für das semantische Web aufbereitete Repräsentationen von Klassifikationssystemen können unter anderem zur Kataloganreicherung oder für die anwendungsbezogene Erstellung von Konkordanzen zwischen verschiedenen Klassifikations- bzw. Begriffssystemen genutzt werden..
  8. Comaromi, C.L.: Summation of classification as an enhancement of intellectual access to information in an online environment (1990) 0.02
    0.017365975 = product of:
      0.03473195 = sum of:
        0.03473195 = product of:
          0.0694639 = sum of:
            0.0694639 = weight(_text_:22 in 3576) [ClassicSimilarity], result of:
              0.0694639 = score(doc=3576,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.38690117 = fieldWeight in 3576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3576)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    8. 1.2007 12:22:40
  9. Reiner, U.: Automatische DDC-Klassifizierung von bibliografischen Titeldatensätzen (2009) 0.02
    0.017365975 = product of:
      0.03473195 = sum of:
        0.03473195 = product of:
          0.0694639 = sum of:
            0.0694639 = weight(_text_:22 in 611) [ClassicSimilarity], result of:
              0.0694639 = score(doc=611,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.38690117 = fieldWeight in 611, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=611)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 8.2009 12:54:24
  10. Oberhauser, O.: Klassifikatorische Erschließung und Recherche im Österreichischen Verbundkatalog (2005) 0.02
    0.015879182 = product of:
      0.031758364 = sum of:
        0.031758364 = product of:
          0.06351673 = sum of:
            0.06351673 = weight(_text_:daten in 3701) [ClassicSimilarity], result of:
              0.06351673 = score(doc=3701,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.26028913 = fieldWeight in 3701, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3701)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Der Österreichische Verbundkatalog ist das zentrale Katalogisierungs- und Auskunftsinstrument des Österreichischen Bibliothekenverbundes, der grössten und bedeutendsten Kooperative wissenschaftlicher und administrativer Bibliotheken des Landes. Zur Zeit nehmen 62 Bibliotheken aktiv an diesem Verbund teil, darunter die Österreichische Nationalbibliothek und fast alle Universitätsbibliotheken. Mit dem Aufbau des elektronischen Verbundkataloges wurde 1988 begonnen; seit Anfang 1999 geschieht dies verbundweit unter Verwendung der Bibliotheksautomationssoftware "Aleph 500" der Firma ExLibris. Die Zahl der nachgewiesenen Titel beträgt mit Stand April 2005 über 4,3 Millionen (mit etwa 8,1 Millionen Exemplar- und 0,6 Millionen Zeitschriften-Bestandsnachweisen). Ursprünglich bezogen sich die Katalogisate schwerpunktmässig auf Publikationen seit etwa 1990, doch ist inzwischen aufgrund verschiedener Rückarbeitungsaktionen der Verbundteilnehmer auch ein beträchtlicher Anteil älterer Werke hinzugekommen. Überdies wurden in den 1990er Jahren die Zettel der "Büchernachweisstelle" (ein Zentralkatalog für den Zeitraum 1981-1993) retrokatalogisiert und Anfang 2000 die Daten der früheren "Österreichischen Zeitschriftendatenbank" (ÖZDB) in den Verbundkatalog eingearbeitet, wodurch nun auch eine grosse Zahl von Besitznachweisen von Bibliotheken ausserhalb des Verbundes vorhanden ist. Die verbale Sacherschliessung, an der sich der überwiegende Teil der Verbundbibliotheken beteiligt, erfolgt seit 1989 kooperativ nach RSWK und SWD. Nach einer aktuellen Statistik (April 2005) beträgt der Anteil der mit RSWK-Ketten versehenen Datensätze 44% - ein Wert, der den Vergleich mit deutschen Verbünden nicht zu scheuen braucht und in den letzten Jahren sogar ein wenig angestiegen ist. Was dagegen die klassifikatorische Sacherschliessung betrifft, so gab und gibt es in Österreich keine Einheitlichkeit; die in Deutschland in den 1970er Jahren verfolgte und schliesslich gescheiterte Idee einer "Einheitsklassifikation" war hierzulande kaum je ein Thema. Für die Zwecke der systematischen Erschliessung und/oder Buchaufstellung wurden und werden zahlreiche verschiedene Systematiken und Klassifikationssysteme verwendet, zum überwiegenden Teil "Haussystematiken" von unterschiedlicher Grösse und Komplexität. Internationale Universalklassifikationen wie etwa die UDC vermochten sich nicht durchzusetzen und werden nur vereinzelt angewandt. In jüngerer Vergangenheit hat sich allerdings das Interesse an der Regensburger Verbundklassifikation (RVK) verstärkt. Dieses System wurde etwa als präsumtives Ablösesystem für die veraltete Haussystematik der grossen germanistischen Fachbibliothek an der Universität Wien und als faktisches Aufstellungssystem für eine neu errichtete, geisteswissenschaftliche Fakultätsbibliothek in Innsbruck ausgewählt. Im Zuge des DFG-Projekts "DDC Deutsch" ist auch ein gewisses, vielleicht noch ein wenig abwartendes Interesse an der Dewey-Dezimalklassifikation entstanden.
    Die Vielfalt der eingesetzten Systematiken hat dazu geführt, dass klassifikationsbasierte Retrievalmöglichkeiten bisher, wenn überhaupt, nur in den lokalen Katalogen des Österreichischen Verbundes anzutreffen waren. Etwa ein Drittel der lokalen Bibliotheken bietet gegenwärtig in den betreffenden OPACs solche Suchoptionen in verschiedenen Ausformungen an. Im zentralen Verbundkatalog gab es bislang keine solchen klassifikationsbasierten Suchmöglichkeiten. Die lokalen Notationen werden ja beim Lokaldatensatz katalogisiert und gelangen nicht in den Verbundkatalog. Allerdings ist es auch bei der zentralen Katalogisierung der bibliographischen Daten möglich, die MAB-Kategorie 700 mit den verschiedenen Indikatoren für die Eingabe von Notationen bestimmter Klassifikationssysteme zu nutzen. Von dieser Möglichkeit wird sowohl aktiv als auch passiv (d.h. durch Fremddatenübernahme) Gebrauch gemacht.
  11. Lösse, M.; Svensson, L.: "Classification at a Crossroad" : Internationales UDC-Seminar 2009 in Den Haag, Niederlande (2010) 0.01
    0.014735519 = product of:
      0.029471038 = sum of:
        0.029471038 = product of:
          0.058942076 = sum of:
            0.058942076 = weight(_text_:22 in 4379) [ClassicSimilarity], result of:
              0.058942076 = score(doc=4379,freq=4.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.32829654 = fieldWeight in 4379, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Am 29. und 30. Oktober 2009 fand in der Königlichen Bibliothek in Den Haag das zweite internationale UDC-Seminar zum Thema "Classification at a Crossroad" statt. Organisiert wurde diese Konferenz - wie auch die erste Konferenz dieser Art im Jahr 2007 - vom UDC-Konsortium (UDCC). Im Mittelpunkt der diesjährigen Veranstaltung stand die Erschließung des World Wide Web unter besserer Nutzung von Klassifikationen (im Besonderen natürlich der UDC), einschließlich benutzerfreundlicher Repräsentationen von Informationen und Wissen. Standards, neue Technologien und Dienste, semantische Suche und der multilinguale Zugriff spielten ebenfalls eine Rolle. 135 Teilnehmer aus 35 Ländern waren dazu nach Den Haag gekommen. Das Programm umfasste mit 22 Vorträgen aus 14 verschiedenen Ländern eine breite Palette, wobei Großbritannien mit fünf Beiträgen am stärksten vertreten war. Die Tagesschwerpunkte wurden an beiden Konferenztagen durch die Eröffnungsvorträge gesetzt, die dann in insgesamt sechs thematischen Sitzungen weiter vertieft wurden.
    Date
    22. 1.2010 15:06:54
  12. Doyle, B.: ¬The classification and evaluation of Content Management Systems (2003) 0.01
    0.013892779 = product of:
      0.027785558 = sum of:
        0.027785558 = product of:
          0.055571117 = sum of:
            0.055571117 = weight(_text_:22 in 2871) [ClassicSimilarity], result of:
              0.055571117 = score(doc=2871,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.30952093 = fieldWeight in 2871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2871)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    30. 7.2004 12:22:52
  13. Peereboom, M.: DutchESS : Dutch Electronic Subject Service - a Dutch national collaborative effort (2000) 0.01
    0.013892779 = product of:
      0.027785558 = sum of:
        0.027785558 = product of:
          0.055571117 = sum of:
            0.055571117 = weight(_text_:22 in 4869) [ClassicSimilarity], result of:
              0.055571117 = score(doc=4869,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.30952093 = fieldWeight in 4869, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4869)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 6.2002 19:39:23
  14. Van Dijck, P.: Introduction to XFML (2003) 0.01
    0.013892779 = product of:
      0.027785558 = sum of:
        0.027785558 = product of:
          0.055571117 = sum of:
            0.055571117 = weight(_text_:22 in 2474) [ClassicSimilarity], result of:
              0.055571117 = score(doc=2474,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.30952093 = fieldWeight in 2474, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2474)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    http://www.xml.com/lpt/a/2003/01/22/xfml.html
  15. Qualität in der Inhaltserschließung (2021) 0.01
    0.0128323175 = product of:
      0.025664635 = sum of:
        0.025664635 = product of:
          0.05132927 = sum of:
            0.05132927 = weight(_text_:daten in 753) [ClassicSimilarity], result of:
              0.05132927 = score(doc=753,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.21034539 = fieldWeight in 753, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.03125 = fieldNorm(doc=753)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
  16. Dack, D.: Australian attends conference on Dewey (1989) 0.01
    0.012156182 = product of:
      0.024312364 = sum of:
        0.024312364 = product of:
          0.048624728 = sum of:
            0.048624728 = weight(_text_:22 in 2509) [ClassicSimilarity], result of:
              0.048624728 = score(doc=2509,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.2708308 = fieldWeight in 2509, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2509)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    8.11.1995 11:52:22
  17. Vizine-Goetz, D.: OCLC investigates using classification tools to organize Internet data (1998) 0.01
    0.012156182 = product of:
      0.024312364 = sum of:
        0.024312364 = product of:
          0.048624728 = sum of:
            0.048624728 = weight(_text_:22 in 2342) [ClassicSimilarity], result of:
              0.048624728 = score(doc=2342,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.2708308 = fieldWeight in 2342, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2342)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 9.1997 19:16:05
  18. Kent, R.E.: Organizing conceptual knowledge online : metadata interoperability and faceted classification (1998) 0.01
    0.012156182 = product of:
      0.024312364 = sum of:
        0.024312364 = product of:
          0.048624728 = sum of:
            0.048624728 = weight(_text_:22 in 57) [ClassicSimilarity], result of:
              0.048624728 = score(doc=57,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.2708308 = fieldWeight in 57, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=57)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    30.12.2001 16:22:41
  19. Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998) 0.01
    0.012156182 = product of:
      0.024312364 = sum of:
        0.024312364 = product of:
          0.048624728 = sum of:
            0.048624728 = weight(_text_:22 in 1673) [ClassicSimilarity], result of:
              0.048624728 = score(doc=1673,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.2708308 = fieldWeight in 1673, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1673)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    1. 8.1996 22:08:06
  20. Alex, H.; Heiner-Freiling, M.: Melvil (2005) 0.01
    0.012156182 = product of:
      0.024312364 = sum of:
        0.024312364 = product of:
          0.048624728 = sum of:
            0.048624728 = weight(_text_:22 in 4321) [ClassicSimilarity], result of:
              0.048624728 = score(doc=4321,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.2708308 = fieldWeight in 4321, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4321)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Ab Januar 2006 wird Die Deutsche Bibliothek ein neues Webangebot mit dem Namen Melvil starten, das ein Ergebnis ihres Engagements für die DDC und das Projekt DDC Deutsch ist. Der angebotene Webservice basiert auf der Übersetzung der 22. Ausgabe der DDC, die im Oktober 2005 als Druckausgabe im K. G. Saur Verlag erscheint. Er bietet jedoch darüber hinausgehende Features, die den Klassifizierer bei seiner Arbeit unterstützen und erstmals eine verbale Recherche für Endnutzer über DDCerschlossene Titel ermöglichen. Der Webservice Melvil gliedert sich in drei Anwendungen: - MelvilClass, - MelvilSearch und - MelvilSoap.