Search (10 results, page 1 of 1)

  • × author_ss:"Pfeffer, M."
  1. Pfeffer, M.: Automatische Vergabe von RVK-Notationen mittels fallbasiertem Schließen (2009) 0.04
    0.039741106 = product of:
      0.07948221 = sum of:
        0.05064729 = weight(_text_:von in 3051) [ClassicSimilarity], result of:
          0.05064729 = score(doc=3051,freq=10.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.39547473 = fieldWeight in 3051, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=3051)
        0.028834928 = product of:
          0.04325239 = sum of:
            0.004230681 = weight(_text_:a in 3051) [ClassicSimilarity], result of:
              0.004230681 = score(doc=3051,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 3051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3051)
            0.039021708 = weight(_text_:22 in 3051) [ClassicSimilarity], result of:
              0.039021708 = score(doc=3051,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.23214069 = fieldWeight in 3051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3051)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Klassifikation von bibliografischen Einheiten ist für einen systematischen Zugang zu den Beständen einer Bibliothek und deren Aufstellung unumgänglich. Bislang wurde diese Aufgabe von Fachexperten manuell erledigt, sei es individuell nach einer selbst entwickelten Systematik oder kooperativ nach einer gemeinsamen Systematik. In dieser Arbeit wird ein Verfahren zur Automatisierung des Klassifikationsvorgangs vorgestellt. Dabei kommt das Verfahren des fallbasierten Schließens zum Einsatz, das im Kontext der Forschung zur künstlichen Intelligenz entwickelt wurde. Das Verfahren liefert für jedes Werk, für das bibliografische Daten vorliegen, eine oder mehrere mögliche Klassifikationen. In Experimenten werden die Ergebnisse der automatischen Klassifikation mit der durch Fachexperten verglichen. Diese Experimente belegen die hohe Qualität der automatischen Klassifikation und dass das Verfahren geeignet ist, Fachexperten bei der Klassifikationsarbeit signifikant zu entlasten. Auch die nahezu vollständige Resystematisierung eines Bibliothekskataloges ist - mit gewissen Abstrichen - möglich.
    Date
    22. 8.2009 19:51:28
    Source
    Wissen bewegen - Bibliotheken in der Informationsgesellschaft / 97. Deutscher Bibliothekartag in Mannheim, 2008. Hrsg. von Ulrich Hohoff und Per Knudsen. Bearb. von Stefan Siebert
    Type
    a
  2. Wiesenmüller, H.; Pfeffer, M.: Abgleichen, anreichern, verknüpfen : das Clustering-Verfahren - eine neue Möglichkeit für die Analyse und Verbesserung von Katalogdaten (2013) 0.03
    0.028445775 = product of:
      0.05689155 = sum of:
        0.055481322 = weight(_text_:von in 1275) [ClassicSimilarity], result of:
          0.055481322 = score(doc=1275,freq=12.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.43322086 = fieldWeight in 1275, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=1275)
        0.001410227 = product of:
          0.004230681 = sum of:
            0.004230681 = weight(_text_:a in 1275) [ClassicSimilarity], result of:
              0.004230681 = score(doc=1275,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 1275, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1275)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Footnote
    Neben den gewohnten Vortragsveranstaltungen in großen Sälen wartete der Leipziger Bibliothekskongress im März 2013 mit einem neuen Veranstaltungsformat auf: Verschiedene Workshops boten die Gelegenheit, Themen intensiv zu beleuchten und in kleinen Gruppen zu diskutieren. Einer dieser Workshops wurde von den Autoren des vorliegenden Beitrags gestaltet und war neuartigen Möglichkeiten für die Analyse und Verbesserung von Katalogdaten gewidmet. Als dritter Referent wurde Markus Geipel von der Deutschen Nationalbibliothek (DNB) über Google Hangout virtuell zugeschaltet. Initiiert wurde die Veranstaltung von der AG Bibliotheken der Deutschen Gesellschaft für Klassifikation, die damit an ihre Hildesheimer Tagung von 2012 anknüpfte' Im Folgenden werden die wichtigsten Ergebnisse zusammengefasst.
    Type
    a
  3. Pfeffer, M.; Schöllhorn, K.: Praktische Nutzung von Klassifikationssystemen (2018) 0.03
    0.026028758 = product of:
      0.052057516 = sum of:
        0.05064729 = weight(_text_:von in 3131) [ClassicSimilarity], result of:
          0.05064729 = score(doc=3131,freq=10.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.39547473 = fieldWeight in 3131, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=3131)
        0.001410227 = product of:
          0.004230681 = sum of:
            0.004230681 = weight(_text_:a in 3131) [ClassicSimilarity], result of:
              0.004230681 = score(doc=3131,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 3131, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3131)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Ist der Medienbestand einer Informationseinrichtung klassifikatorisch erschlossen, kann diese Information auf vielfältige Weise verwendet werden: Die hierarchische Struktur eines Klassifikationssystems kann mit Hilfe eines geeigneten Notationssystems als Basis für die Signaturvergabe genutzt werden und so die Anordnung der physischen Medien in Regalen inhaltlich strukturieren. In Katalogen und anderen Suchsystemen dienen Klassifikationssysteme als systematischer Zugang, zur inhaltlichen Eingrenzung von Treffermengen oder als Hilfsmittel, um thematisch verwandte Medien zu einem vorhandenen Medium zu finden. Etliche Visualisierungsmethoden bauen ebenfalls auf hierarchischen Strukturen von Klassifikationssystemen auf und können für eine Analyse der inhaltlichen Zusammensetzung von (Teil-)Beständen oder Treffermengen eingesetzt werden. In diesem Kapitel werden diese unterschiedlichen Anwendungsgebiete vorgestellt und anhand von Beispielen aus der Praxis erläutert.
    Type
    a
  4. Pfeffer, M.; Wiesenmüller, H.: Resource Discovery Systeme (2016) 0.02
    0.020050319 = product of:
      0.040100638 = sum of:
        0.03775026 = weight(_text_:von in 6775) [ClassicSimilarity], result of:
          0.03775026 = score(doc=6775,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29476947 = fieldWeight in 6775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.078125 = fieldNorm(doc=6775)
        0.002350378 = product of:
          0.007051134 = sum of:
            0.007051134 = weight(_text_:a in 6775) [ClassicSimilarity], result of:
              0.007051134 = score(doc=6775,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.12739488 = fieldWeight in 6775, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6775)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Resource Discovery Systeme (RDS) bieten Nutzern einen einheitlichen, Google-artigen Zugang zu einer enormen Zahl von Ressourcen. Eine wichtige Rolle spielt dabei ein zentraler, kommerziell erstellter Index.
    Type
    a
  5. Pfeffer, M.: Automatische Vergabe von RVK-Notationen anhand von bibliografischen Daten mittels fallbasiertem Schließen (2007) 0.01
    0.011325077 = product of:
      0.04530031 = sum of:
        0.04530031 = weight(_text_:von in 558) [ClassicSimilarity], result of:
          0.04530031 = score(doc=558,freq=8.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.35372335 = fieldWeight in 558, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=558)
      0.25 = coord(1/4)
    
    Abstract
    Klassifikation von bibliografischen Einheiten ist für einen systematischen Zugang zu den Beständen einer Bibliothek und deren Aufstellung unumgänglich. Bislang wurde diese Aufgabe von Fachexperten manuell erledigt, sei es individuell nach einer selbst entwickelten Systematik oder kooperativ nach einer gemeinsamen Systematik. In dieser Arbeit wird ein Verfahren zur Automatisierung des Klassifikationsvorgangs vorgestellt. Dabei kommt das Verfahren des fallbasierten Schließens zum Einsatz, das im Kontext der Forschung zur künstlichen Intelligenz entwickelt wurde. Das Verfahren liefert für jedes Werk, für das bibliografische Daten vorliegen, eine oder mehrere mögliche Klassifikationen. In Experimenten werden die Ergebnisse der automatischen Klassifikation mit der durch Fachexperten verglichen. Diese Experimente belegen die hohe Qualität der automatischen Klassifikation und dass das Verfahren geeignet ist, Fachexperten bei der Klassifikationsarbeit signifikant zu entlasten. Auch die nahezu vollständige Resystematisierung eines Bibliothekskataloges ist - mit gewissen Abstrichen - möglich.
  6. Hänger, C.; Kaldenberg, B.; Pfeffer, M.: Präsentation von E-Books mit Primo (2010) 0.01
    0.011147462 = product of:
      0.022294924 = sum of:
        0.021354772 = weight(_text_:von in 3687) [ClassicSimilarity], result of:
          0.021354772 = score(doc=3687,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.1667468 = fieldWeight in 3687, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.03125 = fieldNorm(doc=3687)
        9.401512E-4 = product of:
          0.0028204536 = sum of:
            0.0028204536 = weight(_text_:a in 3687) [ClassicSimilarity], result of:
              0.0028204536 = score(doc=3687,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.050957955 = fieldWeight in 3687, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3687)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Man versetze sich für einen kurzen Augenblick in ein Wohnheimzimmer einer Studentin, die eine Hausarbeit in Politologie zum Thema "Der Sozialstaat in der öffentlichen Wahrnehmung der Bundesrepublik Deutschland von 1990 bis 2010" schreibt. Es ist zwei Uhr nachts, die Universitätsbibliothek hat geschlossen und die Studentin muss bis spätestens 14 Uhr am gleichen Tag die Arbeit einreichen. Verzweifelt sucht sie im Online-Katalog nach weiterer Literatur, um die Forschungsdiskussion in den Fußnoten weiter zu differenzieren. Sie findet auch die entsprechenden gedruckten Publikationen, auf die sie leider nicht zugreifen kann, da die Bibliothek geschlossen hat. Dabei hat "ihre" Universitätsbibliothek E-Books lizenziert, die sie allerdings nicht gefunden hat, da die E-Books nicht im Online-Katalog erfasst, sondern nur auf der Homepage der Einrichtung verlinkt sind. Bei der Rückgabe der Arbeit erfährt die Studentin, dass sie eine bessere Note erhalten hätte, wenn sie nur die Forschungsdiskussion differenziert dargestellt hätte. Eine vollständige Einbindung der lizenzierten E-Books im Online-Katalog ist der Wunsch vieler Bibliotheken. Insbesondere mit der vermehrten Verfügbarkeit konsortial oder national lizenzierter Sammlungen und Pakete ist das Angebot zusehends unübersichtlicher geworden und die bisherige Praxis, elektronische Dokumente parallel zu den gedruckten Exemplaren manuell formal und inhaltlich zu erschließen, stößt an organisatorische und ressourcenbedingte Grenzen. Einer direkten maschinellen Verarbeitung steht das Problem entgegen, dass die bibliografischen Metadaten der E-Books häufig im Format MARC 21 geliefert werden, die lokalen Bibliothekssysteme in der Regel aber mit den Formaten MAB2 und Pica arbeiten und Daten in anderen Formaten nicht verarbeiten können. Ein Lösungsansatz besteht darin, die bibliografischen Metadaten an zentraler Stelle zu konvertieren und zu harmonisieren und den Bibliotheken im Format MAB2 zur Verfügung zu stellen. Dieser Ansatz ist allerdings nur für statische E-BookSammlungen praktizierbar und durch den Aufwand der Konversion in "saubere" MAB2-Daten mit einem deutlichen zeitlichen Verzug verbunden.
    Type
    a
  7. Eckert, K.; Pfeffer, M.; Stuckenschmidt, H.: Assessing thesaurus-based annotations for semantic search applications (2008) 0.00
    0.0010075148 = product of:
      0.004030059 = sum of:
        0.004030059 = product of:
          0.012090176 = sum of:
            0.012090176 = weight(_text_:a in 1528) [ClassicSimilarity], result of:
              0.012090176 = score(doc=1528,freq=12.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.21843673 = fieldWeight in 1528, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1528)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    Statistical methods for automated document indexing are becoming an alternative to the manual assignment of keywords. We argue that the quality of the thesaurus used as a basis for indexing in regard to its ability to adequately cover the contents to be indexed and as a basis for the specific indexing method used is of crucial importance in automatic indexing. We present an interactive tool for thesaurus evaluation that is based on a combination of statistical measures and appropriate visualisation techniques that supports the detection of potential problems in a thesaurus. We describe the methods used and show that the tool supports the detection and correction of errors, leading to a better indexing result.
    Type
    a
  8. Pfeffer, M.; Eckert, K.; Stuckenschmidt, H.: Visual analysis of classification systems and library collections (2008) 0.00
    8.141949E-4 = product of:
      0.0032567796 = sum of:
        0.0032567796 = product of:
          0.009770338 = sum of:
            0.009770338 = weight(_text_:a in 317) [ClassicSimilarity], result of:
              0.009770338 = score(doc=317,freq=6.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.17652355 = fieldWeight in 317, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=317)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    In this demonstration we present a visual analysis approach that addresses both developers and users of hierarchical classification systems. The approach supports an intuitive understanding of the structure and current use in relation to a specific collection. We will also demonstrate its application for the development and management of library collections.
    Type
    a
  9. Pfeffer, M.: Using clustering across union catalogues to enrich entries with indexing information (2014) 0.00
    7.883408E-4 = product of:
      0.0031533632 = sum of:
        0.0031533632 = product of:
          0.00946009 = sum of:
            0.00946009 = weight(_text_:a in 3301) [ClassicSimilarity], result of:
              0.00946009 = score(doc=3301,freq=10.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.1709182 = fieldWeight in 3301, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3301)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    The federal system in Germany has created a segmented library landscape. Instead of a central entity responsible for cataloguing and indexing, regional library unions share the workload cooperatively among their members. One result of this approach is limited sharing of cataloguing and indexing information across union catalogues as well as heterogeneous indexing of items with almost equivalent content: different editions of the same work. In this paper, a method for clustering entries in library catalogues is proposed that can be used to reduce this heterogeneity as well as share indexing information across catalogue boundaries. In two experiments, the method is applied to several union catalogues and the results show that a surprisingly large number of previously not indexed entries can be enriched with indexing information. The quality of the indexing has been positively evaluated by human professionals and the results have already been imported into the production catalogues of two library unions.
    Type
    a
  10. Wiesenmüller, H.; Maylein, L.; Pfeffer, M.: Mehr aus der Schlagwortnormdatei herausholen : Implementierung einer geographischen Facette in den Online-Katalogen der UB Heidelberg und der UB Mannheim (2011) 0.00
    4.1131617E-4 = product of:
      0.0016452647 = sum of:
        0.0016452647 = product of:
          0.004935794 = sum of:
            0.004935794 = weight(_text_:a in 2563) [ClassicSimilarity], result of:
              0.004935794 = score(doc=2563,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.089176424 = fieldWeight in 2563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2563)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Type
    a