Search (9 results, page 1 of 1)

  • × author_ss:"Pfeffer, M."
  1. Eckert, K.; Pfeffer, M.; Stuckenschmidt, H.: Assessing thesaurus-based annotations for semantic search applications (2008) 0.15
    0.1471012 = product of:
      0.22065178 = sum of:
        0.018096382 = weight(_text_:und in 1528) [ClassicSimilarity], result of:
          0.018096382 = score(doc=1528,freq=2.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.17141339 = fieldWeight in 1528, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1528)
        0.086350404 = weight(_text_:anwendung in 1528) [ClassicSimilarity], result of:
          0.086350404 = score(doc=1528,freq=2.0), product of:
            0.23061275 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.047632713 = queryNorm
            0.37443897 = fieldWeight in 1528, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1528)
        0.028252102 = weight(_text_:des in 1528) [ClassicSimilarity], result of:
          0.028252102 = score(doc=1528,freq=2.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.2141777 = fieldWeight in 1528, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1528)
        0.08795288 = product of:
          0.17590576 = sum of:
            0.17590576 = weight(_text_:thesaurus in 1528) [ClassicSimilarity], result of:
              0.17590576 = score(doc=1528,freq=10.0), product of:
                0.2201145 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.047632713 = queryNorm
                0.7991557 = fieldWeight in 1528, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1528)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Statistical methods for automated document indexing are becoming an alternative to the manual assignment of keywords. We argue that the quality of the thesaurus used as a basis for indexing in regard to its ability to adequately cover the contents to be indexed and as a basis for the specific indexing method used is of crucial importance in automatic indexing. We present an interactive tool for thesaurus evaluation that is based on a combination of statistical measures and appropriate visualisation techniques that supports the detection of potential problems in a thesaurus. We describe the methods used and show that the tool supports the detection and correction of errors, leading to a better indexing result.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  2. Pfeffer, M.; Eckert, K.; Stuckenschmidt, H.: Visual analysis of classification systems and library collections (2008) 0.13
    0.13107248 = product of:
      0.1966087 = sum of:
        0.020681579 = weight(_text_:und in 317) [ClassicSimilarity], result of:
          0.020681579 = score(doc=317,freq=2.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.19590102 = fieldWeight in 317, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=317)
        0.09868618 = weight(_text_:anwendung in 317) [ClassicSimilarity], result of:
          0.09868618 = score(doc=317,freq=2.0), product of:
            0.23061275 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.047632713 = queryNorm
            0.42793027 = fieldWeight in 317, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0625 = fieldNorm(doc=317)
        0.03228812 = weight(_text_:des in 317) [ClassicSimilarity], result of:
          0.03228812 = score(doc=317,freq=2.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.24477452 = fieldWeight in 317, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=317)
        0.044952825 = product of:
          0.08990565 = sum of:
            0.08990565 = weight(_text_:thesaurus in 317) [ClassicSimilarity], result of:
              0.08990565 = score(doc=317,freq=2.0), product of:
                0.2201145 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.047632713 = queryNorm
                0.40844947 = fieldWeight in 317, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0625 = fieldNorm(doc=317)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  3. Pfeffer, M.: Automatische Vergabe von RVK-Notationen mittels fallbasiertem Schließen (2009) 0.04
    0.04231491 = product of:
      0.08462982 = sum of:
        0.031022368 = weight(_text_:und in 3051) [ClassicSimilarity], result of:
          0.031022368 = score(doc=3051,freq=8.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.29385152 = fieldWeight in 3051, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3051)
        0.03424672 = weight(_text_:des in 3051) [ClassicSimilarity], result of:
          0.03424672 = score(doc=3051,freq=4.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.25962257 = fieldWeight in 3051, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3051)
        0.019360725 = product of:
          0.03872145 = sum of:
            0.03872145 = weight(_text_:22 in 3051) [ClassicSimilarity], result of:
              0.03872145 = score(doc=3051,freq=2.0), product of:
                0.16680165 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.047632713 = queryNorm
                0.23214069 = fieldWeight in 3051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3051)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Klassifikation von bibliografischen Einheiten ist für einen systematischen Zugang zu den Beständen einer Bibliothek und deren Aufstellung unumgänglich. Bislang wurde diese Aufgabe von Fachexperten manuell erledigt, sei es individuell nach einer selbst entwickelten Systematik oder kooperativ nach einer gemeinsamen Systematik. In dieser Arbeit wird ein Verfahren zur Automatisierung des Klassifikationsvorgangs vorgestellt. Dabei kommt das Verfahren des fallbasierten Schließens zum Einsatz, das im Kontext der Forschung zur künstlichen Intelligenz entwickelt wurde. Das Verfahren liefert für jedes Werk, für das bibliografische Daten vorliegen, eine oder mehrere mögliche Klassifikationen. In Experimenten werden die Ergebnisse der automatischen Klassifikation mit der durch Fachexperten verglichen. Diese Experimente belegen die hohe Qualität der automatischen Klassifikation und dass das Verfahren geeignet ist, Fachexperten bei der Klassifikationsarbeit signifikant zu entlasten. Auch die nahezu vollständige Resystematisierung eines Bibliothekskataloges ist - mit gewissen Abstrichen - möglich.
    Date
    22. 8.2009 19:51:28
    Series
    Zeitschrift für Bibliothekswesen und Bibliographie : Sonderband ; 96
    Source
    Wissen bewegen - Bibliotheken in der Informationsgesellschaft / 97. Deutscher Bibliothekartag in Mannheim, 2008. Hrsg. von Ulrich Hohoff und Per Knudsen. Bearb. von Stefan Siebert
  4. Pfeffer, M.; Schöllhorn, K.: Praktische Nutzung von Klassifikationssystemen (2018) 0.04
    0.0362329 = product of:
      0.108698696 = sum of:
        0.034684062 = weight(_text_:und in 3131) [ClassicSimilarity], result of:
          0.034684062 = score(doc=3131,freq=10.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.328536 = fieldWeight in 3131, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3131)
        0.074014634 = weight(_text_:anwendung in 3131) [ClassicSimilarity], result of:
          0.074014634 = score(doc=3131,freq=2.0), product of:
            0.23061275 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.047632713 = queryNorm
            0.3209477 = fieldWeight in 3131, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=3131)
      0.33333334 = coord(2/6)
    
    Abstract
    Ist der Medienbestand einer Informationseinrichtung klassifikatorisch erschlossen, kann diese Information auf vielfältige Weise verwendet werden: Die hierarchische Struktur eines Klassifikationssystems kann mit Hilfe eines geeigneten Notationssystems als Basis für die Signaturvergabe genutzt werden und so die Anordnung der physischen Medien in Regalen inhaltlich strukturieren. In Katalogen und anderen Suchsystemen dienen Klassifikationssysteme als systematischer Zugang, zur inhaltlichen Eingrenzung von Treffermengen oder als Hilfsmittel, um thematisch verwandte Medien zu einem vorhandenen Medium zu finden. Etliche Visualisierungsmethoden bauen ebenfalls auf hierarchischen Strukturen von Klassifikationssystemen auf und können für eine Analyse der inhaltlichen Zusammensetzung von (Teil-)Beständen oder Treffermengen eingesetzt werden. In diesem Kapitel werden diese unterschiedlichen Anwendungsgebiete vorgestellt und anhand von Beispielen aus der Praxis erläutert.
    Series
    Bibliotheks- und Informationspraxis; 53
    Source
    Klassifikationen in Bibliotheken: Theorie - Anwendung - Nutzen. Hrsg.: H. Alex, G. Bee u. U. Junger
  5. Pfeffer, M.: Automatische Vergabe von RVK-Notationen anhand von bibliografischen Daten mittels fallbasiertem Schließen (2007) 0.02
    0.022936553 = product of:
      0.06880966 = sum of:
        0.02686616 = weight(_text_:und in 558) [ClassicSimilarity], result of:
          0.02686616 = score(doc=558,freq=6.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.2544829 = fieldWeight in 558, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=558)
        0.0419435 = weight(_text_:des in 558) [ClassicSimilarity], result of:
          0.0419435 = score(doc=558,freq=6.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.31797147 = fieldWeight in 558, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=558)
      0.33333334 = coord(2/6)
    
    Abstract
    Klassifikation von bibliografischen Einheiten ist für einen systematischen Zugang zu den Beständen einer Bibliothek und deren Aufstellung unumgänglich. Bislang wurde diese Aufgabe von Fachexperten manuell erledigt, sei es individuell nach einer selbst entwickelten Systematik oder kooperativ nach einer gemeinsamen Systematik. In dieser Arbeit wird ein Verfahren zur Automatisierung des Klassifikationsvorgangs vorgestellt. Dabei kommt das Verfahren des fallbasierten Schließens zum Einsatz, das im Kontext der Forschung zur künstlichen Intelligenz entwickelt wurde. Das Verfahren liefert für jedes Werk, für das bibliografische Daten vorliegen, eine oder mehrere mögliche Klassifikationen. In Experimenten werden die Ergebnisse der automatischen Klassifikation mit der durch Fachexperten verglichen. Diese Experimente belegen die hohe Qualität der automatischen Klassifikation und dass das Verfahren geeignet ist, Fachexperten bei der Klassifikationsarbeit signifikant zu entlasten. Auch die nahezu vollständige Resystematisierung eines Bibliothekskataloges ist - mit gewissen Abstrichen - möglich.
    Content
    Masterarbeit im Rahmen des postgradualen Fernstudiums Master of Arts (Library and Information Science)
    Imprint
    Berlin : Humboldt-Universität / Institut für Bibliotheks- und Informationswissenschaft
  6. Wiesenmüller, H.; Pfeffer, M.: Abgleichen, anreichern, verknüpfen : das Clustering-Verfahren - eine neue Möglichkeit für die Analyse und Verbesserung von Katalogdaten (2013) 0.02
    0.021751609 = product of:
      0.06525482 = sum of:
        0.041038737 = weight(_text_:und in 1275) [ClassicSimilarity], result of:
          0.041038737 = score(doc=1275,freq=14.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.38872904 = fieldWeight in 1275, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1275)
        0.02421609 = weight(_text_:des in 1275) [ClassicSimilarity], result of:
          0.02421609 = score(doc=1275,freq=2.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.18358089 = fieldWeight in 1275, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1275)
      0.33333334 = coord(2/6)
    
    Abstract
    Ein vergleichsweise einfaches Verfah ren bildet die Grundlage: Über einen Abgleich einiger weniger Kategorien lassen sich mit großer Zuverlässigkeit diejenigen bibliografischen Datensätze aus einem Datenpool (der auch aus mehreren Katalogen bestehen kann) zusammenführen, die zum selben Werk gehören. Ein solches Werk-Cluster umfasst dann unterschiedliche Ausgaben und Auflagen eines Werkes ebenso wie Übersetzungen. Zu einem Cluster gehören alle Datensätze, die im Einheitssachtitel beziehungsweise in Sachtitel und Zusätzen übereinstimmen und mindestens eine verknüpfte Person oder Körperschaft gemeinsam haben.
    Footnote
    Neben den gewohnten Vortragsveranstaltungen in großen Sälen wartete der Leipziger Bibliothekskongress im März 2013 mit einem neuen Veranstaltungsformat auf: Verschiedene Workshops boten die Gelegenheit, Themen intensiv zu beleuchten und in kleinen Gruppen zu diskutieren. Einer dieser Workshops wurde von den Autoren des vorliegenden Beitrags gestaltet und war neuartigen Möglichkeiten für die Analyse und Verbesserung von Katalogdaten gewidmet. Als dritter Referent wurde Markus Geipel von der Deutschen Nationalbibliothek (DNB) über Google Hangout virtuell zugeschaltet. Initiiert wurde die Veranstaltung von der AG Bibliotheken der Deutschen Gesellschaft für Klassifikation, die damit an ihre Hildesheimer Tagung von 2012 anknüpfte' Im Folgenden werden die wichtigsten Ergebnisse zusammengefasst.
  7. Hänger, C.; Kaldenberg, B.; Pfeffer, M.: Präsentation von E-Books mit Primo (2010) 0.01
    0.005450075 = product of:
      0.03270045 = sum of:
        0.03270045 = weight(_text_:und in 3687) [ClassicSimilarity], result of:
          0.03270045 = score(doc=3687,freq=20.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.3097467 = fieldWeight in 3687, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3687)
      0.16666667 = coord(1/6)
    
    Abstract
    Man versetze sich für einen kurzen Augenblick in ein Wohnheimzimmer einer Studentin, die eine Hausarbeit in Politologie zum Thema "Der Sozialstaat in der öffentlichen Wahrnehmung der Bundesrepublik Deutschland von 1990 bis 2010" schreibt. Es ist zwei Uhr nachts, die Universitätsbibliothek hat geschlossen und die Studentin muss bis spätestens 14 Uhr am gleichen Tag die Arbeit einreichen. Verzweifelt sucht sie im Online-Katalog nach weiterer Literatur, um die Forschungsdiskussion in den Fußnoten weiter zu differenzieren. Sie findet auch die entsprechenden gedruckten Publikationen, auf die sie leider nicht zugreifen kann, da die Bibliothek geschlossen hat. Dabei hat "ihre" Universitätsbibliothek E-Books lizenziert, die sie allerdings nicht gefunden hat, da die E-Books nicht im Online-Katalog erfasst, sondern nur auf der Homepage der Einrichtung verlinkt sind. Bei der Rückgabe der Arbeit erfährt die Studentin, dass sie eine bessere Note erhalten hätte, wenn sie nur die Forschungsdiskussion differenziert dargestellt hätte. Eine vollständige Einbindung der lizenzierten E-Books im Online-Katalog ist der Wunsch vieler Bibliotheken. Insbesondere mit der vermehrten Verfügbarkeit konsortial oder national lizenzierter Sammlungen und Pakete ist das Angebot zusehends unübersichtlicher geworden und die bisherige Praxis, elektronische Dokumente parallel zu den gedruckten Exemplaren manuell formal und inhaltlich zu erschließen, stößt an organisatorische und ressourcenbedingte Grenzen. Einer direkten maschinellen Verarbeitung steht das Problem entgegen, dass die bibliografischen Metadaten der E-Books häufig im Format MARC 21 geliefert werden, die lokalen Bibliothekssysteme in der Regel aber mit den Formaten MAB2 und Pica arbeiten und Daten in anderen Formaten nicht verarbeiten können. Ein Lösungsansatz besteht darin, die bibliografischen Metadaten an zentraler Stelle zu konvertieren und zu harmonisieren und den Bibliotheken im Format MAB2 zur Verfügung zu stellen. Dieser Ansatz ist allerdings nur für statische E-BookSammlungen praktizierbar und durch den Aufwand der Konversion in "saubere" MAB2-Daten mit einem deutlichen zeitlichen Verzug verbunden.
  8. Wiesenmüller, H.; Maylein, L.; Pfeffer, M.: Mehr aus der Schlagwortnormdatei herausholen : Implementierung einer geographischen Facette in den Online-Katalogen der UB Heidelberg und der UB Mannheim (2011) 0.00
    0.004265358 = product of:
      0.025592148 = sum of:
        0.025592148 = weight(_text_:und in 2563) [ClassicSimilarity], result of:
          0.025592148 = score(doc=2563,freq=4.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.24241515 = fieldWeight in 2563, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2563)
      0.16666667 = coord(1/6)
    
    Abstract
    Heutige Bibliothekskatalog werten nur einen Bruchteil der in den Schlagwortnomsätzen abgelegten Informationen aus, obwohl die Recherche dadurch signifikant verbessert werden könnte. So können die ISO-Ländercodes, die nicht nur bei Geografika, sondern z.B. auch bei Personen erfasst werden, als Basis für eine Einschränkung nach dem geografischen Raum dienen. Ein erster Ansatz zur Einbeziehung dieser Ländercodes in die Recherche stellt die Einführung einer geografischen Facette dar, wie sie in den auf Suchmaschinentechnologie basierenden Katalogen der UB Heidelberg und der UB Mannheim realisiert wurde.
  9. Pfeffer, M.: Using clustering across union catalogues to enrich entries with indexing information (2014) 0.00
    0.0025851973 = product of:
      0.015511184 = sum of:
        0.015511184 = weight(_text_:und in 3301) [ClassicSimilarity], result of:
          0.015511184 = score(doc=3301,freq=2.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.14692576 = fieldWeight in 3301, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3301)
      0.16666667 = coord(1/6)
    
    Source
    Data analysis, machine learning and knowledge discovery. Eds. Myra Spiliopoulou, Lars Schmidt-Thieme und Ruth Janning