Search (199 results, page 1 of 10)

  • × theme_ss:"Automatisches Indexieren"
  1. Kasprzik, A.: Voraussetzungen und Anwendungspotentiale einer präzisen Sacherschließung aus Sicht der Wissenschaft (2018) 0.14
    0.14024796 = product of:
      0.21037193 = sum of:
        0.061083373 = weight(_text_:der in 5195) [ClassicSimilarity], result of:
          0.061083373 = score(doc=5195,freq=22.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.57297707 = fieldWeight in 5195, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.08224419 = weight(_text_:wissenschaft in 5195) [ClassicSimilarity], result of:
          0.08224419 = score(doc=5195,freq=4.0), product of:
            0.1894382 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.04772522 = queryNorm
            0.43414786 = fieldWeight in 5195, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.04441299 = weight(_text_:und in 5195) [ClassicSimilarity], result of:
          0.04441299 = score(doc=5195,freq=12.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.41987535 = fieldWeight in 5195, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.022631379 = product of:
          0.045262758 = sum of:
            0.045262758 = weight(_text_:22 in 5195) [ClassicSimilarity], result of:
              0.045262758 = score(doc=5195,freq=2.0), product of:
                0.16712558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04772522 = queryNorm
                0.2708308 = fieldWeight in 5195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5195)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Große Aufmerksamkeit richtet sich im Moment auf das Potential von automatisierten Methoden in der Sacherschließung und deren Interaktionsmöglichkeiten mit intellektuellen Methoden. In diesem Kontext befasst sich der vorliegende Beitrag mit den folgenden Fragen: Was sind die Anforderungen an bibliothekarische Metadaten aus Sicht der Wissenschaft? Was wird gebraucht, um den Informationsbedarf der Fachcommunities zu bedienen? Und was bedeutet das entsprechend für die Automatisierung der Metadatenerstellung und -pflege? Dieser Beitrag fasst die von der Autorin eingenommene Position in einem Impulsvortrag und der Podiumsdiskussion beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  2. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.11
    0.10748495 = product of:
      0.16122742 = sum of:
        0.026046038 = weight(_text_:der in 5671) [ClassicSimilarity], result of:
          0.026046038 = score(doc=5671,freq=4.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.24431825 = fieldWeight in 5671, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.05815543 = weight(_text_:wissenschaft in 5671) [ClassicSimilarity], result of:
          0.05815543 = score(doc=5671,freq=2.0), product of:
            0.1894382 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.04772522 = queryNorm
            0.30698892 = fieldWeight in 5671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.054394573 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.054394573 = score(doc=5671,freq=18.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.022631379 = product of:
          0.045262758 = sum of:
            0.045262758 = weight(_text_:22 in 5671) [ClassicSimilarity], result of:
              0.045262758 = score(doc=5671,freq=2.0), product of:
                0.16712558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04772522 = queryNorm
                0.2708308 = fieldWeight in 5671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5671)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Methoden der automatischen Inhaltserschließung werden seit mehr als 30 Jahren entwickelt, ohne in luD-Kreisen auf merkliche Akzeptanz zu stoßen. Gegenwärtig führen jedoch die steigende Informationsflut und der Bedarf an effizienten Zugriffsverfahren im Informations- und Wissensmanagement in breiten Anwenderkreisen zu einem wachsenden Interesse an diesen Methoden, zu verstärkten Anstrengungen in Forschung und Entwicklung und zu neuen Produkten. In diesem Beitrag werden verschiedene Ansätze zu intelligentem und inhaltsbasiertem Retrieval und zur automatischen Inhaltserschließung diskutiert sowie kommerziell vertriebene Softwarewerkzeuge und Lösungen präsentiert. Abschließend wird festgestellt, dass in naher Zukunft mit einer zunehmenden Automatisierung von bestimmten Komponenten des Informations- und Wissensmanagements zu rechnen ist, indem Software-Werkzeuge zur automatischen Inhaltserschließung in den Workflow integriert werden
    Date
    22. 3.2001 13:14:48
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.2, S.69-78
  3. Schwantner, M.: Entwicklung und Pflege des Indexierungswörterbuches PHYS/PILOT (1988) 0.09
    0.092552125 = product of:
      0.18510425 = sum of:
        0.031572565 = weight(_text_:der in 527) [ClassicSimilarity], result of:
          0.031572565 = score(doc=527,freq=2.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.29615843 = fieldWeight in 527, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=527)
        0.09969501 = weight(_text_:wissenschaft in 527) [ClassicSimilarity], result of:
          0.09969501 = score(doc=527,freq=2.0), product of:
            0.1894382 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.04772522 = queryNorm
            0.5262667 = fieldWeight in 527, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.09375 = fieldNorm(doc=527)
        0.05383667 = weight(_text_:und in 527) [ClassicSimilarity], result of:
          0.05383667 = score(doc=527,freq=6.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.5089658 = fieldWeight in 527, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=527)
      0.5 = coord(3/6)
    
    Source
    Von der Information zum Wissen - vom Wissen zur Information: traditionelle und moderne Informationssysteme für Wissenschaft und Praxis, Deutscher Dokumentartag 1987, Bad Dürkheim, vom 23.-25.9.1987. Hrsg.: H. Strohl-Goebel
  4. Lück, W.: Erfahrungen mit dem automatischen Indexierungssystem AIR/PHYS (1988) 0.09
    0.08761252 = product of:
      0.17522503 = sum of:
        0.031572565 = weight(_text_:der in 526) [ClassicSimilarity], result of:
          0.031572565 = score(doc=526,freq=2.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.29615843 = fieldWeight in 526, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=526)
        0.09969501 = weight(_text_:wissenschaft in 526) [ClassicSimilarity], result of:
          0.09969501 = score(doc=526,freq=2.0), product of:
            0.1894382 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.04772522 = queryNorm
            0.5262667 = fieldWeight in 526, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.09375 = fieldNorm(doc=526)
        0.043957457 = weight(_text_:und in 526) [ClassicSimilarity], result of:
          0.043957457 = score(doc=526,freq=4.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.41556883 = fieldWeight in 526, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=526)
      0.5 = coord(3/6)
    
    Source
    Von der Information zum Wissen - vom Wissen zur Information: traditionelle und moderne Informationssysteme für Wissenschaft und Praxis, Deutscher Dokumentartag 1987, Bad Dürkheim, vom 23.-25.9.1987. Hrsg.: H. Strohl-Goebel
  5. Junger, U.; Scholze, F.: Neue Wege und Qualitäten : die Inhaltserschließungspolitik der Deutschen Nationalbibliothek (2021) 0.09
    0.08522387 = product of:
      0.17044774 = sum of:
        0.07146663 = weight(_text_:geschichte in 365) [ClassicSimilarity], result of:
          0.07146663 = score(doc=365,freq=2.0), product of:
            0.22682843 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.04772522 = queryNorm
            0.3150691 = fieldWeight in 365, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.046875 = fieldNorm(doc=365)
        0.05235718 = weight(_text_:der in 365) [ClassicSimilarity], result of:
          0.05235718 = score(doc=365,freq=22.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.4911232 = fieldWeight in 365, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=365)
        0.046623923 = weight(_text_:und in 365) [ClassicSimilarity], result of:
          0.046623923 = score(doc=365,freq=18.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.4407773 = fieldWeight in 365, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=365)
      0.5 = coord(3/6)
    
    Abstract
    Es kommt nicht oft vor, dass ein bibliothekfachliches Thema Gegenstand eines ganzseitigen Artikels im Feuilleton einer der wichtigsten überregionalen Zeitungen in Deutschland wird. Am 31. Juli 2017 war dies der Fall: Die Frankfurter Allgemeine Zeitung veröffentlichte einen Artikel des Generaldirektors der Bayerischen Staatsbibliothek, Klaus Ceynowa, in dem dieser sich kritisch mit einem Konzept zur inhaltlichen Erschließung auseinandersetzte, das die Deutsche Nationalbibliothek (DNB) zuvor für die deutschsprachige bibliothekarische Community veröffentlicht hatte. Hatten bereits zuvor die Bemühungen der DNB, Verfahren zur maschinellen Dokumenterschließung zu entwickeln und einzusetzen, zu kontroversen Reaktionen im Bibliothekswesen geführt, so sorgte dieser Artikel noch einmal in besonderer Weise für Aufmerksamkeit und Diskussionen zu einem Thema, das vielen als eher verstaubt und unattraktiv galt: die Inhaltserschließung. Der folgende Beitrag zeichnet einige Grundlinien der Erschließungspolitik der DNB seit 2010 nach und beschreibt, welche Instrumente und Verfahren bei der Inhaltserschließung zum Einsatz kommen, welche konzeptionellen Entscheidungen ihr zugrunde liegen, wie versucht wird, Qualität zu erfassen und welche Entwicklungs- und Handlungsfelder für die Zukunft gesehen werden.
    Series
    Bibliotheks- und Informationspraxis; 70
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a
    Theme
    Geschichte der Sacherschließung
  6. Lepsky, K.: Automatische Indexierung zur Erschließung deutschsprachiger Dokumente (1999) 0.08
    0.08179781 = product of:
      0.16359562 = sum of:
        0.055688772 = weight(_text_:der in 4656) [ClassicSimilarity], result of:
          0.055688772 = score(doc=4656,freq=14.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.5223744 = fieldWeight in 4656, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4656)
        0.066463344 = weight(_text_:wissenschaft in 4656) [ClassicSimilarity], result of:
          0.066463344 = score(doc=4656,freq=2.0), product of:
            0.1894382 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.04772522 = queryNorm
            0.35084447 = fieldWeight in 4656, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.0625 = fieldNorm(doc=4656)
        0.04144349 = weight(_text_:und in 4656) [ClassicSimilarity], result of:
          0.04144349 = score(doc=4656,freq=8.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.39180204 = fieldWeight in 4656, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4656)
      0.5 = coord(3/6)
    
    Abstract
    Der Beitrag beschäftigt sich mit der Anwendung eines Verfahrens zur automatischen Indexierung deutschsprachiger Texte in Bibliotheken. Die Arbeitsweise des Verfahrens und seine Entwicklung innerhalb der von der Deutschen Forschungsgemeinschaft geförderte und an der ULB Düsseldorf gemeinsam mit der Fachrichtung Informationswissenschaft der Universität des Saarlandes durchgeführten Projekte MILOS I, MILOS II und KASCADE werden geschildert. Die Ergebnisse von Retrievaltests belegen die Tauglichkeit des Verfahrens für den Einsatz in Bibliotheken. Aufsetzend auf diesen Ergebnissen werden Perspektiven für die bibliothekarische Sacherschließung im Hinblick auf den Einsatz von automatischen Verfahren entworfen
    Source
    nfd Information - Wissenschaft und Praxis. 50(1999) H.6, S.325-330
  7. Pollmeier, M.: Verlagsschlagwörter als Grundlage für den Einsatz eines maschinellen Verfahrens zur verbalen Erschließung der Kinder- und Jugendliteratur durch die Deutsche Nationalbibliothek : eine Datenanalyse (2019) 0.08
    0.079466134 = product of:
      0.15893227 = sum of:
        0.045571074 = weight(_text_:der in 1081) [ClassicSimilarity], result of:
          0.045571074 = score(doc=1081,freq=24.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.42746788 = fieldWeight in 1081, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.05180436 = weight(_text_:und in 1081) [ClassicSimilarity], result of:
          0.05180436 = score(doc=1081,freq=32.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.48975256 = fieldWeight in 1081, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.061556824 = product of:
          0.12311365 = sum of:
            0.12311365 = weight(_text_:kultur in 1081) [ClassicSimilarity], result of:
              0.12311365 = score(doc=1081,freq=4.0), product of:
                0.2742408 = queryWeight, product of:
                  5.746245 = idf(docFreq=383, maxDocs=44218)
                  0.04772522 = queryNorm
                0.44892538 = fieldWeight in 1081, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.746245 = idf(docFreq=383, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1081)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Die Inhaltserschließung durch Schlagwörter wird aktuell in vielen Öffentlichen Bibliotheken Deutschlands zurückgefahren. Aufgrund von Personalmangel und den vielfältigen anderen bibliothekarischen Dienstleistungen, die für die Benutzer zu leisten sind, kommt sie oft zu kurz. Die Deutsche Nationalbibliothek unterstützte diese Bibliotheken bisher als wichtigster Datenlieferant, jedoch stellte sie 2017 die intellektuelle Inhaltserschließung der Kinder- und Jugendliteratur und der Belletristik ein. Um diese problematische Situation zu verbessern, wird aktuell in der Deutschen Nationalbibliothek ein Verfahren erprobt, das aus Schlagwörtern von Verlagen maschinell bibliothekarische Schlagwörter aus der Gemeinsamen Normdatei generiert. Auf die Titel der Kinder- und Jugendliteratur aus den Jahren 2018 und 2019 wurde es bereits angewendet. In dieser Arbeit geht es um eine erste Analyse dieser Erschließungsergebnisse, um Aussagen über die Nützlichkeit der Verlagsschlagwörter und des automatischen Verfahrens zu treffen. Im theoretischen Teil werden einerseits die Inhaltserschließung im bibliothekarischen Bereich und deren aktuelle Entwicklungen hinsichtlich der Automatisierung beschrieben. Andererseits wird näher auf die Erschließungspraxis in der Deutschen Nationalbibliothek hinsichtlich der Automatisierung und der Kinder- und Jugendliteratur eingegangen. Im Analyseteil werden sowohl die Verlagsschlagwörter als auch die bibliothekarischen Schlagwörter nach festgelegten Kriterien untersucht und schließlich miteinander verglichen.
    Footnote
    Bachelorarbeit an der Hochschule für Technik, Wirtschaft und Kultur Leipzig Fakultät Informatik und Medien Studiengang Bibliotheks- und Informationswissenschaft.
    Imprint
    Leipzig : Hochschule für Technik, Wirtschaft und Kultur / Fakultät Informatik und Medien
  8. Bunk, T.: Deskriptoren Stoppwortlisten und kryptische Zeichen (2008) 0.08
    0.07845951 = product of:
      0.15691902 = sum of:
        0.037208624 = weight(_text_:der in 2471) [ClassicSimilarity], result of:
          0.037208624 = score(doc=2471,freq=4.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.34902605 = fieldWeight in 2471, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=2471)
        0.08307918 = weight(_text_:wissenschaft in 2471) [ClassicSimilarity], result of:
          0.08307918 = score(doc=2471,freq=2.0), product of:
            0.1894382 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.04772522 = queryNorm
            0.4385556 = fieldWeight in 2471, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.078125 = fieldNorm(doc=2471)
        0.03663121 = weight(_text_:und in 2471) [ClassicSimilarity], result of:
          0.03663121 = score(doc=2471,freq=4.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.34630734 = fieldWeight in 2471, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2471)
      0.5 = coord(3/6)
    
    Abstract
    Die Automatische Indexierung stellt eine Möglichkeit dar, große Dokumentenkollektionen nachträglich zu indexieren. Der hier vorliegende Artikel versucht aufzuzeigen, welcher intellektueller Aufwand dennoch notwendig ist, um aussagekräftige Deskriptoren mit Hilfe der Automatischen Indexierung zu erzeugen.
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.5, S.285-292
  9. Biebricher, P.; Fuhr, N.; Lustig, G.; Schwantner, M.; Knorz, G.: ¬Das automatische Indexierungssystem AIR/PHYS (1988) 0.07
    0.07301043 = product of:
      0.14602086 = sum of:
        0.026310472 = weight(_text_:der in 528) [ClassicSimilarity], result of:
          0.026310472 = score(doc=528,freq=2.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.2467987 = fieldWeight in 528, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=528)
        0.08307918 = weight(_text_:wissenschaft in 528) [ClassicSimilarity], result of:
          0.08307918 = score(doc=528,freq=2.0), product of:
            0.1894382 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.04772522 = queryNorm
            0.4385556 = fieldWeight in 528, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.078125 = fieldNorm(doc=528)
        0.03663121 = weight(_text_:und in 528) [ClassicSimilarity], result of:
          0.03663121 = score(doc=528,freq=4.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.34630734 = fieldWeight in 528, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=528)
      0.5 = coord(3/6)
    
    Source
    Von der Information zum Wissen - vom Wissen zur Information: traditionelle und moderne Informationssysteme für Wissenschaft und Praxis, Deutscher Dokumentartag 1987, Bad Dürkheim, vom 23.-25.9.1987. Hrsg.: H. Strohl-Goebel
  10. Lepsky, K.: Automatische Indexierung des Reallexikons zur Deutschen Kunstgeschichte (2006) 0.07
    0.06677707 = product of:
      0.13355415 = sum of:
        0.058956962 = weight(_text_:geschichte in 6080) [ClassicSimilarity], result of:
          0.058956962 = score(doc=6080,freq=4.0), product of:
            0.22682843 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.04772522 = queryNorm
            0.25991875 = fieldWeight in 6080, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.04319247 = weight(_text_:der in 6080) [ClassicSimilarity], result of:
          0.04319247 = score(doc=6080,freq=44.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.405156 = fieldWeight in 6080, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
        0.031404722 = weight(_text_:und in 6080) [ClassicSimilarity], result of:
          0.031404722 = score(doc=6080,freq=24.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.2968967 = fieldWeight in 6080, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
      0.5 = coord(3/6)
    
    Abstract
    Digitalisierungsvorhaben sorgen für eine immer größere Verfügbarkeit von Inhalten bislang ausschließlich gedruckt vorliegender Werke, zunehmend auch von ganzen Büchern. Projekte wie "Google Print" versprechen die völlige elektronische Verfügbarkeit von Informationen nahezu unabhängig von Zeit und Ort und sorgen dafür, dass die Hüter der konventionellen Information, die Bibliotheken, in Angst und Schrecken versetzt werden angesichts des befürchteten Verlusts ihrer traditionellen Rolle. Die Debatte kreist dabei eher selten um die Frage, welcher Nutzen sich konkret aus dem elektronischen Volltext ergibt: Der Nutzen steht schlichtweg außer Frage, Volltexte gelten prinzipiell als nützlich. Das ist insofern zu optimistisch, als die reine Verfügbarkeit von Information noch lange nicht fir deren sinnvolle Verwertung sorgt - die bloße Verfügbarkeit des Volltexts von Kants "Kritik der reinen Vernunft" enthebt nicht der Notwendigkeit, das Werk zu lesen und verstehen zu wollen. Lesen wird man besser auch nicht am Bildschirm sondern in der (neu-deutsch) "PrintAusgabe". Elektronische Volltexte von Büchern dienen nicht der Lektüre. Falls ihr Sinn nicht ohnehin ein rein verkaufsfördernder ist (das "Publishers Program" von Google Print erweckt in der Tat diesen Eindruck), bleibt ihr potenzieller Nutzen als Nachschlageinstrument. Nur der Volltext bietet die Möglichkeit, Informationen in einem Werk zu finden, die nicht explizit erschlossen wurden, durch ein Inhaltsverzeichnis etwa oder, eine noch günstigere Ausgangslage, durch ein Sachregister. Allerdings sind die meisten Werke nicht für einen solchen Zweck verfasst worden, d.h. es ist nicht zu erwarten, dass ein Werk über die "Geschichte des Römischen Reiches" im Volltextzugriff zu einem Lexikon zur Geschichte des Römischen Reiches wird. Entspricht also die hinter Google Print und zahllosen anderen Digitalisierungsinitiativen stehende Auffassung einem doch sehr naiven Bild von der Nützlichkeit gedruckter Information?
    Seriöse Information darf erwarten, wer renommierte Nachschlagewerke befragt. Zumindest für die über die Primärordnung (Stichwort/Lemma) erschlossenen Sachverhalte ist für Buchausgaben ein gezielter Zugriff möglich, Verweisungen zwischen Artikeln sorgen für weitere Einstiege. Anzunehmen ist, dass sich der Nutzen von Nachschlagewerken in elektronischer Form noch deutlich erhöhen lässt: Produkte wie z.B. "Brockhaus multimedial" oder "Encyclopedia Britannica" sorgen mit leistungsfähigen Techniken über den wahlfreien Volltextzugriff hinaus für zahlreiche Navigations- und Recherchemöglichkeiten. Es liegt daher nahe, über eine Digitalisierung konventionell vorliegender Nachschlagewerke auch deren Anwendung zu verbessern, die im Print möglichen Zugriffsmöglichkeiten deutlich zu erweitern. Beispiele für diesen Ansatz sind die Digitalisierung der "Oekonomischen Encyklopädie" von Johann Georg Krünitz, die mit hohem Aufwand nicht maschinell (Scanning und OCR) sondern manuell realisiert wurde oder auch die im "Projekt Runeberg' , vorgenommenen zahlreichen Digitalisierungen u.a. auch von Nachschlagewerken. Ob die einfache Volltextindexierung derartig umfangreicher und - weil bereits als Nachschlagewerk konzipiert - gleichzeitig extrem verdichteter Quellen für einen größtmöglichen Nutzen der elektronischen Version ausreicht, darf zu Recht bezweifelt werden. In kommerziellen Produkten sorgen daher zusätzliche Techniken für einerseits thematisch gezielte Zugriffe auch über Nicht-Stichwörter, andererseits für Querverbindungen zu möglicherweise weiteren Artikeln von Interesse ("Wissensnetz" des Brockhaus, "Knowledge Navigator" der Britannica). Es darf angenommen werden, dass derartige Techniken dabei auf Informationen aufsetzen können (Strukturierung der Artikel, gekennzeichnete (getaggte) Personennamen, Querverweise etc.), die in den zu verarbeitenden Artikeln in nutzbarer Form vorliegen. Für digitalisierte Druckausgaben kommen derartige Verfahren nicht in Frage, weil lediglich flache, noch dazu in der Regel mit OCR-Fehlern behaftete Texte vorliegen. Die Zugriffsmöglichkeiten bewegen sich daher zwischen der 1:1-Umsetzung der Druckausgabe, d.h. dem Primärzugriff über Stichwort, und der Volltextsuche auf den vollständigen Lexikontext. Beides ist angesichts der im elektronischen Volltext liegenden Möglichkeiten sicher nicht die Methode der Wahl. Für die Digitalisierung des "Reallexikons zur Deutschen Kunstgeschichte" im Rahmen des von der Deutschen Forschungsgemeinschaft geförderten Projekts "RDKWeb" wird daher versucht, mit den Mitteln der Automatischen Indexierung eine Lösung zu erzielen, die über eine reine Volltextsuchmöglichkeit hinaus Suchunterstützungen bietet, die sich an den Fähigkeiten kommerzieller Produkte orientieren (nicht messen!).
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  11. Qualität in der Inhaltserschließung (2021) 0.07
    0.06523034 = product of:
      0.13046068 = sum of:
        0.04339234 = weight(_text_:der in 753) [ClassicSimilarity], result of:
          0.04339234 = score(doc=753,freq=34.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.40703082 = fieldWeight in 753, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.033231672 = weight(_text_:wissenschaft in 753) [ClassicSimilarity], result of:
          0.033231672 = score(doc=753,freq=2.0), product of:
            0.1894382 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.04772522 = queryNorm
            0.17542224 = fieldWeight in 753, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.05383667 = weight(_text_:und in 753) [ClassicSimilarity], result of:
          0.05383667 = score(doc=753,freq=54.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.5089658 = fieldWeight in 753, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
      0.5 = coord(3/6)
    
    Abstract
    Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Footnote
    Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
    Series
    Bibliotheks- und Informationspraxis; 70
  12. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.06
    0.06462464 = product of:
      0.12924927 = sum of:
        0.044650353 = weight(_text_:der in 6386) [ClassicSimilarity], result of:
          0.044650353 = score(doc=6386,freq=16.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.4188313 = fieldWeight in 6386, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.049847506 = weight(_text_:wissenschaft in 6386) [ClassicSimilarity], result of:
          0.049847506 = score(doc=6386,freq=2.0), product of:
            0.1894382 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.04772522 = queryNorm
            0.26313335 = fieldWeight in 6386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.034751423 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.034751423 = score(doc=6386,freq=10.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.5 = coord(3/6)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.5, S.251-262
  13. Kempf, A.O.: Automatische Inhaltserschließung in der Fachinformation (2013) 0.06
    0.06239206 = product of:
      0.12478412 = sum of:
        0.057342347 = weight(_text_:der in 905) [ClassicSimilarity], result of:
          0.057342347 = score(doc=905,freq=38.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.5378853 = fieldWeight in 905, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=905)
        0.04153959 = weight(_text_:wissenschaft in 905) [ClassicSimilarity], result of:
          0.04153959 = score(doc=905,freq=2.0), product of:
            0.1894382 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.04772522 = queryNorm
            0.2192778 = fieldWeight in 905, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.0390625 = fieldNorm(doc=905)
        0.02590218 = weight(_text_:und in 905) [ClassicSimilarity], result of:
          0.02590218 = score(doc=905,freq=8.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.24487628 = fieldWeight in 905, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=905)
      0.5 = coord(3/6)
    
    Abstract
    Der Artikel basiert auf einer Masterarbeit mit dem Titel "Automatische Indexierung in der sozialwissenschaftlichen Fachinformation. Eine Evaluationsstudie zur maschinellen Erschließung für die Datenbank SOLIS" (Kempf 2012), die im Rahmen des Aufbaustudiengangs Bibliotheks- und Informationswissenschaft an der Humboldt- Universität zu Berlin am Lehrstuhl Information Retrieval verfasst wurde. Auf der Grundlage des Schalenmodells zur Inhaltserschließung in der Fachinformation stellt der Artikel Evaluationsergebnisse eines automatischen Erschließungsverfahrens für den Einsatz in der sozialwissenschaftlichen Fachinformation vor. Ausgehend von dem von Krause beschriebenen Anwendungsszenario, wonach SOLIS-Datenbestände (Sozialwissenschaftliches Literaturinformationssystem) von geringerer Relevanz automatisch erschlossen werden sollten, wurden auf dieser Dokumentgrundlage zwei Testreihen mit der Indexierungssoftware MindServer der Firma Recommind durchgeführt. Neben den Auswirkungen allgemeiner Systemeinstellungen in der ersten Testreihe wurde in der zweiten Testreihe die Indexierungsleistung der Software für die Rand- und die Kernbereiche der Literaturdatenbank miteinander verglichen. Für letztere Testreihe wurden für beide Bereiche der Datenbank spezifische Versionen der Indexierungssoftware aufgebaut, die anhand von Dokumentkorpora aus den entsprechenden Bereichen trainiert wurden. Die Ergebnisse der Evaluation, die auf der Grundlage intellektuell generierter Vergleichsdaten erfolgt, weisen auf Unterschiede in der Indexierungsleistung zwischen Rand- und Kernbereichen hin, die einerseits gegen den Einsatz automatischer Indexierungsverfahren in den Randbereichen sprechen. Andererseits deutet sich an, dass sich die Indexierungsresultate durch den Aufbau fachteilgebietsspezifischer Trainingsmengen verbessern lassen.
    Source
    Information - Wissenschaft und Praxis. 64(2013) H.2/3, S.96-106
  14. Franke-Maier, M.; Beck, C.; Kasprzik, A.; Maas, J.F.; Pielmeier, S.; Wiesenmüller, H: ¬Ein Feuerwerk an Algorithmen und der Startschuss zur Bildung eines Kompetenznetzwerks für maschinelle Erschließung : Bericht zur Fachtagung Netzwerk maschinelle Erschließung an der Deutschen Nationalbibliothek am 10. und 11. Oktober 2019 (2020) 0.06
    0.06160749 = product of:
      0.12321498 = sum of:
        0.0352992 = weight(_text_:der in 5851) [ClassicSimilarity], result of:
          0.0352992 = score(doc=5851,freq=10.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.3311152 = fieldWeight in 5851, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5851)
        0.049847506 = weight(_text_:wissenschaft in 5851) [ClassicSimilarity], result of:
          0.049847506 = score(doc=5851,freq=2.0), product of:
            0.1894382 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.04772522 = queryNorm
            0.26313335 = fieldWeight in 5851, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.046875 = fieldNorm(doc=5851)
        0.038068272 = weight(_text_:und in 5851) [ClassicSimilarity], result of:
          0.038068272 = score(doc=5851,freq=12.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.35989314 = fieldWeight in 5851, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5851)
      0.5 = coord(3/6)
    
    Abstract
    Am 10. und 11. Oktober 2019 trafen sich rund 100 Vertreterinnen und Vertreter aus Bibliothek, Wissenschaft und Wirtschaft an der Deutschen Nationalbibliothek (DNB) in Frankfurt am Main zu einer Fachtagung über das derzeitige Trend-Thema "maschinelle Erschließung". Ziel der Veranstaltung war die "Betrachtung unterschiedlicher Anwendungsbereiche maschineller Textanalyse" sowie die Initiation eines Dialogs zu Technologien für die maschinelle Textanalyse, Aufgabenstellungen, Erfahrungen und den Herausforderungen, die maschinelle Verfahren nach sich ziehen. Hintergrund ist der Auftrag des Standardisierungsausschusses an die DNB, regelmäßig einschlägige Tagungen durchzuführen, aus denen "perspektivisch ein Kompetenznetzwerk für die maschinelle Erschließung entsteh[t]".
  15. Bredack, J.: Automatische Extraktion fachterminologischer Mehrwortbegriffe : ein Verfahrensvergleich (2016) 0.06
    0.05992928 = product of:
      0.11985856 = sum of:
        0.039465707 = weight(_text_:der in 3194) [ClassicSimilarity], result of:
          0.039465707 = score(doc=3194,freq=18.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.37019804 = fieldWeight in 3194, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
        0.04153959 = weight(_text_:wissenschaft in 3194) [ClassicSimilarity], result of:
          0.04153959 = score(doc=3194,freq=2.0), product of:
            0.1894382 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.04772522 = queryNorm
            0.2192778 = fieldWeight in 3194, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
        0.03885327 = weight(_text_:und in 3194) [ClassicSimilarity], result of:
          0.03885327 = score(doc=3194,freq=18.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.3673144 = fieldWeight in 3194, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
      0.5 = coord(3/6)
    
    Abstract
    In dieser Untersuchung wurden zwei Systeme eingesetzt, um MWT aus einer Dokumentkollektion mit fachsprachlichem Bezug (Volltexte des ACL Anthology Reference Corpus) automatisch zu extrahieren. Das thematische Spektrum umfasste alle Bereiche der natürlichen Sprachverarbeitung, im Speziellen die CL als interdisziplinäre Wissenschaft. Ziel war es MWT zu extrahieren, die als potentielle Indexterme im IR Verwendung finden können. Diese sollten auf Konzepte, Methoden, Verfahren und Algorithmen in der CL und angrenzenden Teilgebieten, wie Linguistik und Informatik hinweisen bzw. benennen.
    Als Extraktionssysteme wurden der TreeTagger und die Indexierungssoftware Lingo verwendet. Der TreeTagger basiert auf einem statistischen Tagging- und Chunking- Algorithmus, mit dessen Hilfe NPs automatisch identifiziert und extrahiert werden. Er kann für verschiedene Anwendungsszenarien der natürlichen Sprachverarbeitung eingesetzt werden, in erster Linie als POS-Tagger für unterschiedliche Sprachen. Das Indexierungssystem Lingo arbeitet im Gegensatz zum TreeTagger mit elektronischen Wörterbüchern und einem musterbasierten Abgleich. Lingo ist ein auf automatische Indexierung ausgerichtetes System, was eine Vielzahl von Modulen mitliefert, die individuell auf eine bestimmte Aufgabenstellung angepasst und aufeinander abgestimmt werden können. Die unterschiedlichen Verarbeitungsweisen haben sich in den Ergebnismengen beider Systeme deutlich gezeigt. Die gering ausfallenden Übereinstimmungen der Ergebnismengen verdeutlichen die abweichende Funktionsweise und konnte mit einer qualitativen Analyse beispielhaft beschrieben werden. In der vorliegenden Arbeit kann abschließend nicht geklärt werden, welches der beiden Systeme bevorzugt für die Generierung von Indextermen eingesetzt werden sollte.
    Content
    Schriftliche Hausarbeit (Masterarbeit) zur Erlangung des Grades eines Master of Arts An der Universität Trier Fachbereich II Studiengang Computerlinguistik.
  16. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.06
    0.05726481 = product of:
      0.11452962 = sum of:
        0.044650353 = weight(_text_:der in 2051) [ClassicSimilarity], result of:
          0.044650353 = score(doc=2051,freq=4.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.4188313 = fieldWeight in 2051, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.031082615 = weight(_text_:und in 2051) [ClassicSimilarity], result of:
          0.031082615 = score(doc=2051,freq=2.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.29385152 = fieldWeight in 2051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.03879665 = product of:
          0.0775933 = sum of:
            0.0775933 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.0775933 = score(doc=2051,freq=2.0), product of:
                0.16712558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04772522 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Frage der Konzeption von Rankingalgorithmen auf Grundlage gewichteter Indexierung mittels statistischer Verfahren.
    Date
    14. 6.2015 22:12:56
    Source
    Automatische Indexierung zwischen Forschung und Anwendung, Hrsg.: G. Lustig
  17. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.06
    0.05714821 = product of:
      0.11429642 = sum of:
        0.042096753 = weight(_text_:der in 401) [ClassicSimilarity], result of:
          0.042096753 = score(doc=401,freq=8.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.3948779 = fieldWeight in 401, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.046335228 = weight(_text_:und in 401) [ClassicSimilarity], result of:
          0.046335228 = score(doc=401,freq=10.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.438048 = fieldWeight in 401, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.025864433 = product of:
          0.051728867 = sum of:
            0.051728867 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.051728867 = score(doc=401,freq=2.0), product of:
                0.16712558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04772522 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Ein Bericht über die Ergebnisse und die Prozessanalyse einer automatischen Indexierung mit Mehrwortgruppen. Diese Bachelorarbeit beschreibt, inwieweit der Inhalt informationswissenschaftlicher Fachtexte durch informationswissenschaftliches Fachvokabular erschlossen werden kann und sollte und dass in diesen wissenschaftlichen Texten ein Großteil der fachlichen Inhalte in Mehrwortgruppen vorkommt. Die Ergebnisse wurden durch eine automatische Indexierung mit Mehrwortgruppen mithilfe des Programme Lingo an einer informationswissenschaftlichen Datenbank ermittelt.
    Content
    Bachelorarbeit im Studiengang Bibliothekswesen der Fakultät für Informations- und Kommunikationswissenschaften an der Fachhochschule Köln.
    Date
    11. 9.2012 19:43:22
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
  18. Ladewig, C.; Henkes, M.: Verfahren zur automatischen inhaltlichen Erschließung von elektronischen Texten : ASPECTIX (2001) 0.06
    0.05664556 = product of:
      0.11329112 = sum of:
        0.022325177 = weight(_text_:der in 5794) [ClassicSimilarity], result of:
          0.022325177 = score(doc=5794,freq=4.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.20941564 = fieldWeight in 5794, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5794)
        0.049847506 = weight(_text_:wissenschaft in 5794) [ClassicSimilarity], result of:
          0.049847506 = score(doc=5794,freq=2.0), product of:
            0.1894382 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.04772522 = queryNorm
            0.26313335 = fieldWeight in 5794, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.046875 = fieldNorm(doc=5794)
        0.041118436 = weight(_text_:und in 5794) [ClassicSimilarity], result of:
          0.041118436 = score(doc=5794,freq=14.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.38872904 = fieldWeight in 5794, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5794)
      0.5 = coord(3/6)
    
    Abstract
    Das Verfahren zur automatischen syntaktischen inhaltlichen Erschließung von elektronischen Texten, AspectiX, basiert auf einem Index, dessen Elemente mit einer universellen Aspekt-Klassifikation verknüpft sind, die es erlauben, ein syntaktisches Retrieval durchzuführen. Mit diesen, auf den jeweiligen Suchgegenstand inhaltlich bezogenen Klassifikationselementen, werden die Informationen in elektronischen Texten mit bekannten Suchalgorithmen abgefragt und die Ergebnisse entsprechend der Aspektverknüpfung ausgewertet. Mit diesen Aspekten ist es möglich, unbekannte Textdokumente automatisch fachgebiets- und sprachunabhängig nach Inhalten zu klassifizieren und beim Suchen in einem Textcorpus nicht nur auf die Verwendung von Zeichenfolgen angewiesen zu sein wie bei Suchmaschinen im WWW. Der Index kann bei diesen Vorgängen intellektuell und automatisch weiter ausgebaut werden und liefert Ergebnisse im Retrieval von nahezu 100 Prozent Precision, bei gleichzeitig nahezu 100 Prozent Recall. Damit ist das Verfahren AspectiX allen anderen Recherchetools um bis zu 40 Prozent an Precision bzw. Recall überlegen, wie an zahlreichen Recherchen in drei Datenbanken, die unterschiedlich groß und thematisch unähnlich sind, nachgewiesen wird
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.3, S.159-164
  19. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.05
    0.05470234 = product of:
      0.10940468 = sum of:
        0.042096753 = weight(_text_:der in 3581) [ClassicSimilarity], result of:
          0.042096753 = score(doc=3581,freq=8.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.3948779 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.04144349 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.04144349 = score(doc=3581,freq=8.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.025864433 = product of:
          0.051728867 = sum of:
            0.051728867 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.051728867 = score(doc=3581,freq=2.0), product of:
                0.16712558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04772522 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Lingo ist ein frei verfügbares System (open source) zur automatischen Indexierung der deutschen Sprache. Bei der Entwicklung von lingo standen hohe Konfigurierbarkeit und Flexibilität des Systems für unterschiedliche Einsatzmöglichkeiten im Vordergrund. Der Beitrag zeigt den Nutzen einer linguistisch basierten automatischen Indexierung für das Information Retrieval auf. Die für eine Retrievalverbesserung zur Verfügung stehende linguistische Funktionalität von lingo wird vorgestellt und an Beispielen erläutert: Grundformerkennung, Kompositumerkennung bzw. Kompositumzerlegung, Wortrelationierung, lexikalische und algorithmische Mehrwortgruppenerkennung, OCR-Fehlerkorrektur. Der offene Systemaufbau von lingo wird beschrieben, mögliche Einsatzszenarien und Anwendungsgrenzen werden benannt.
    Date
    24. 3.2006 12:22:02
  20. Probst, M.; Mittelbach, J.: Maschinelle Indexierung in der Sacherschließung wissenschaftlicher Bibliotheken (2006) 0.05
    0.054328263 = product of:
      0.108656526 = sum of:
        0.03645686 = weight(_text_:der in 1755) [ClassicSimilarity], result of:
          0.03645686 = score(doc=1755,freq=6.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.34197432 = fieldWeight in 1755, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.046335228 = weight(_text_:und in 1755) [ClassicSimilarity], result of:
          0.046335228 = score(doc=1755,freq=10.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.438048 = fieldWeight in 1755, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.025864433 = product of:
          0.051728867 = sum of:
            0.051728867 = weight(_text_:22 in 1755) [ClassicSimilarity], result of:
              0.051728867 = score(doc=1755,freq=2.0), product of:
                0.16712558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04772522 = queryNorm
                0.30952093 = fieldWeight in 1755, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1755)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Obwohl fast alle größeren Bibliotheken intellektuelle Sacherschließung betreiben, sind elektronische Kataloge für die zielgerichtete sachliche Suche nur eingeschränkt nutzbar. Durch maschinelle Indexierung können ohne nennenswerten personellen Mehraufwand ausreichend große Datenmengen für Informationsretrievalsysteme erzeugt und somit die Auffindbarkeit von Dokumenten erhöht werden. Geeignete Sprachanalysetechniken zur Indextermerzeugung sind bekannt und bieten im Gegensatz zur gebräuchlichen Freitextinvertierung entscheidende Vorteile beim Retrieval. Im Fokus steht die Betrachtung der Vor- und Nachteile der gängigen Indexierungssysteme MILOS und intelligentCAPTURE.
    Date
    22. 3.2008 12:35:19
    Source
    Bibliothek: Forschung und Praxis. 30(2006) H.2, S.168-176

Years

Languages

  • d 167
  • e 29
  • a 1
  • m 1
  • nl 1
  • ru 1
  • More… Less…

Types

  • a 145
  • x 31
  • el 21
  • m 11
  • s 5
  • d 2
  • p 2
  • h 1
  • r 1
  • More… Less…