Search (6 results, page 1 of 1)

  • × author_ss:"Kasprzik, A."
  • × language_ss:"d"
  • × type_ss:"a"
  1. Kasprzik, A.: Automatisierte und semiautomatisierte Klassifizierung : eine Analyse aktueller Projekte (2014) 0.01
    0.009891222 = product of:
      0.074184164 = sum of:
        0.033011325 = weight(_text_:software in 2470) [ClassicSimilarity], result of:
          0.033011325 = score(doc=2470,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.2629875 = fieldWeight in 2470, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
        0.041172836 = product of:
          0.08234567 = sum of:
            0.08234567 = weight(_text_:analyse in 2470) [ClassicSimilarity], result of:
              0.08234567 = score(doc=2470,freq=4.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.49394834 = fieldWeight in 2470, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2470)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Das sprunghafte Anwachsen der Menge digital verfügbarer Dokumente gepaart mit dem Zeit- und Personalmangel an wissenschaftlichen Bibliotheken legt den Einsatz von halb- oder vollautomatischen Verfahren für die verbale und klassifikatorische Inhaltserschließung nahe. Nach einer kurzen allgemeinen Einführung in die gängige Methodik beleuchtet dieser Artikel eine Reihe von Projekten zur automatisierten Klassifizierung aus dem Zeitraum 2007-2012 und aus dem deutschsprachigen Raum. Ein Großteil der vorgestellten Projekte verwendet Methoden des Maschinellen Lernens aus der Künstlichen Intelligenz, arbeitet meist mit angepassten Versionen einer kommerziellen Software und bezieht sich in der Regel auf die Dewey Decimal Classification (DDC). Als Datengrundlage dienen Metadatensätze, Abstracs, Inhaltsverzeichnisse und Volltexte in diversen Datenformaten. Die abschließende Analyse enthält eine Anordnung der Projekte nach einer Reihe von verschiedenen Kriterien und eine Zusammenfassung der aktuellen Lage und der größten Herausfordungen für automatisierte Klassifizierungsverfahren.
  2. Kasprzik, A.; Kett, J.: Vorschläge für eine Weiterentwicklung der Sacherschließung und Schritte zur fortgesetzten strukturellen Aufwertung der GND (2018) 0.01
    0.006745172 = product of:
      0.05058879 = sum of:
        0.026327467 = weight(_text_:web in 4599) [ClassicSimilarity], result of:
          0.026327467 = score(doc=4599,freq=4.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.25496176 = fieldWeight in 4599, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.024261324 = product of:
          0.048522647 = sum of:
            0.048522647 = weight(_text_:analyse in 4599) [ClassicSimilarity], result of:
              0.048522647 = score(doc=4599,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.29106182 = fieldWeight in 4599, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4599)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Aufgrund der fortgesetzten Publikationsflut stellt sich immer dringender die Frage, wie die Schwellen für die Titel- und Normdatenpflege gesenkt werden können - sowohl für die intellektuelle als auch die automatisierte Sacherschließung. Zu einer Verbesserung der Daten- und Arbeitsqualität in der Sacherschließung kann beigetragen werden a) durch eine flexible Visualisierung der Gemeinsamen Normdatei (GND) und anderer Wissensorganisationssysteme, so dass deren Graphstruktur intuitiv erfassbar wird, und b) durch eine investigative Analyse ihrer aktuellen Struktur und die Entwicklung angepasster automatisierter Methoden zur Ermittlung und Korrektur fehlerhafter Muster. Die Deutsche Nationalbibliothek (DNB) prüft im Rahmen des GND-Entwicklungsprogramms 2017-2021, welche Bedingungen für eine fruchtbare community-getriebene Open-Source-Entwicklung entsprechender Werkzeuge gegeben sein müssen. Weiteres Potential steckt in einem langfristigen Übergang zu einer Darstellung von Titel- und Normdaten in Beschreibungssprachen im Sinne des Semantic Web (RDF; OWL, SKOS). So profitiert die GND von der Interoperabilität mit anderen kontrollierten Vokabularen und von einer erleichterten Interaktion mit anderen Fach-Communities und kann umgekehrt auch außerhalb des Bibliothekswesens zu einem noch attraktiveren Wissensorganisationssystem werden. Darüber hinaus bieten die Ansätze aus dem Semantic Web die Möglichkeit, stärker formalisierte, strukturierende Satellitenvokabulare rund um die GND zu entwickeln. Daraus ergeben sich nicht zuletzt auch neue Perspektiven für die automatisierte Sacherschließung. Es wäre lohnend, näher auszuloten, wie und inwieweit semantisch-logische Verfahren den bestehenden Methodenmix bereichern können.
  3. Kasprzik, A.: Aufbau eines produktiven Dienstes für die automatisierte Inhaltserschließung an der ZBW : ein Status- und Erfahrungsbericht. (2023) 0.00
    0.0020748917 = product of:
      0.031123376 = sum of:
        0.031123376 = weight(_text_:software in 935) [ClassicSimilarity], result of:
          0.031123376 = score(doc=935,freq=4.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.24794699 = fieldWeight in 935, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=935)
      0.06666667 = coord(1/15)
    
    Abstract
    Die ZBW - Leibniz-Informationszentrum Wirtschaft betreibt seit 2016 eigene angewandte Forschung im Bereich Machine Learning mit dem Zweck, praktikable Lösungen für eine automatisierte oder maschinell unterstützte Inhaltserschließung zu entwickeln. 2020 begann ein Team an der ZBW die Konzeption und Implementierung einer Softwarearchitektur, die es ermöglichte, diese prototypischen Lösungen in einen produktiven Dienst zu überführen und mit den bestehenden Nachweis- und Informationssystemen zu verzahnen. Sowohl die angewandte Forschung als auch die für dieses Vorhaben ("AutoSE") notwendige Softwareentwicklung sind direkt im Bibliotheksbereich der ZBW angesiedelt, werden kontinuierlich anhand des State of the Art vorangetrieben und profitieren von einem engen Austausch mit den Verantwortlichen für die intellektuelle Inhaltserschließung. Dieser Beitrag zeigt die Meilensteine auf, die das AutoSE-Team in zwei Jahren in Bezug auf den Aufbau und die Integration der Software erreicht hat, und skizziert, welche bis zum Ende der Pilotphase (2024) noch ausstehen. Die Architektur basiert auf Open-Source-Software und die eingesetzten Machine-Learning-Komponenten werden im Rahmen einer internationalen Zusammenarbeit im engen Austausch mit der Finnischen Nationalbibliothek (NLF) weiterentwickelt und zur Nachnutzung in dem von der NLF entwickelten Open-Source-Werkzeugkasten Annif aufbereitet. Das Betriebsmodell des AutoSE-Dienstes sieht regelmäßige Überprüfungen sowohl einzelner Komponenten als auch des Produktionsworkflows als Ganzes vor und erlaubt eine fortlaufende Weiterentwicklung der Architektur. Eines der Ergebnisse, das bis zum Ende der Pilotphase vorliegen soll, ist die Dokumentation der Anforderungen an einen dauerhaften produktiven Betrieb des Dienstes, damit die Ressourcen dafür im Rahmen eines tragfähigen Modells langfristig gesichert werden können. Aus diesem Praxisbeispiel lässt sich ableiten, welche Bedingungen gegeben sein müssen, um Machine-Learning-Lösungen wie die in Annif enthaltenen erfolgreich an einer Institution für die Inhaltserschließung einsetzen zu können.
  4. Kasprzik, A.: Voraussetzungen und Anwendungspotentiale einer präzisen Sacherschließung aus Sicht der Wissenschaft (2018) 0.00
    0.0010002783 = product of:
      0.015004174 = sum of:
        0.015004174 = product of:
          0.030008348 = sum of:
            0.030008348 = weight(_text_:22 in 5195) [ClassicSimilarity], result of:
              0.030008348 = score(doc=5195,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.2708308 = fieldWeight in 5195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5195)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Große Aufmerksamkeit richtet sich im Moment auf das Potential von automatisierten Methoden in der Sacherschließung und deren Interaktionsmöglichkeiten mit intellektuellen Methoden. In diesem Kontext befasst sich der vorliegende Beitrag mit den folgenden Fragen: Was sind die Anforderungen an bibliothekarische Metadaten aus Sicht der Wissenschaft? Was wird gebraucht, um den Informationsbedarf der Fachcommunities zu bedienen? Und was bedeutet das entsprechend für die Automatisierung der Metadatenerstellung und -pflege? Dieser Beitrag fasst die von der Autorin eingenommene Position in einem Impulsvortrag und der Podiumsdiskussion beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  5. Kasprzik, A.: Implementierung eines Hierarchisierungsalgorithmus' für die Konstanzer Systematik : Projektbericht (2013) 0.00
    8.5864164E-4 = product of:
      0.012879624 = sum of:
        0.012879624 = product of:
          0.025759248 = sum of:
            0.025759248 = weight(_text_:online in 1277) [ClassicSimilarity], result of:
              0.025759248 = score(doc=1277,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.2682499 = fieldWeight in 1277, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1277)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Theme
    Klassifikationssysteme im Online-Retrieval
  6. Auer, S.; Kasprzik, A.; Sens, I.: Von dokumentenbasierten zu wissensbasierten Informationsflüssen : Die Rolle wissenschaftlicher Bibliotheken im Transformationsprozess. Teil 1: Vor einer Revolution der wissenschaftlichen Kommunikation (2019) 0.00
    7.4360555E-4 = product of:
      0.011154083 = sum of:
        0.011154083 = product of:
          0.022308165 = sum of:
            0.022308165 = weight(_text_:online in 5241) [ClassicSimilarity], result of:
              0.022308165 = score(doc=5241,freq=6.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.23231125 = fieldWeight in 5241, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5241)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Im Zuge der Vernetzung und Digitalisierung sind mittlerweile nahezu alle Arten von Information online verfügbar und der Informationsaustausch hat sich in zahlreichen Bereichen radikal gewandelt. Informationen, die früher über gedruckte Medien wie Telefon- und Adressbücher, Straßenkarten und -atlanten oder auch Katalogen für den Bestell-Einzelhandel zur Verfügung gestellt wurden, werden heute in der Regel online und komplett anders strukturiert dargeboten. In der Wissenschaft erfolgt die Kommunikation von Forschungsergebnissen jedoch nach wie vor auf der Basis statischer Text-Dokumente: Forscher erarbeiten Aufsätze und Artikel, die in Online- und Offline-Publikationsmedien als grobgranulare und wenig übergreifend strukturierte Dokumente verfügbar gemacht werden. Als Nutzer einer Bibliothek suchen sie dann ihrerseits nach Dokumenten und müssen zunächst in langen Trefferlisten die passenden Dokumente und in diesen wiederum die für sie relevanten Informationen identifizieren. Auch wenn der Anteil an Publikationen wächst, die im Open Access verfügbar sind, sind die Wissenschaftler weiterhin darauf angewiesen, dass die Bibliothek ihnen ein umfassendes Ressourcenangebot zur Verfügung stellt. Auf diese grundsätzliche Vorgehensweise ist die gesamte Bibliotheks-, Technologie-, Dienst- und Forschungslandschaft derzeit ausgerichtet. Während es früher ausreichte, nur wenige Zeitschriften für das eigene Fach im Blick zu haben, sind Information Overload und Transdisziplinarität nun allgegenwärtige Herausforderungen. Die TIB hat mit der Realisierung eines prototypischen ORKG-Dienstes begonnen.