Search (191 results, page 1 of 10)

  • × theme_ss:"Automatisches Indexieren"
  1. Gombocz, W.L.: Stichwort oder Schlagwort versus Textwort : Grazer und Düsseldorfer Philosophie-Dokumentation und -Information nach bzw. gemäß Norbert Henrichs (2000) 0.08
    0.08261976 = product of:
      0.33047903 = sum of:
        0.13245946 = weight(_text_:philosophie in 3413) [ClassicSimilarity], result of:
          0.13245946 = score(doc=3413,freq=4.0), product of:
            0.1600026 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.030198902 = queryNorm
            0.82785815 = fieldWeight in 3413, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.13245946 = weight(_text_:philosophie in 3413) [ClassicSimilarity], result of:
          0.13245946 = score(doc=3413,freq=4.0), product of:
            0.1600026 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.030198902 = queryNorm
            0.82785815 = fieldWeight in 3413, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.032780044 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.032780044 = score(doc=3413,freq=8.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.032780044 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.032780044 = score(doc=3413,freq=8.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
      0.25 = coord(4/16)
    
    Field
    Philosophie
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
  2. Stock, W.G.: Textwortmethode : Norbert Henrichs zum 65. (3) (2000) 0.06
    0.06433912 = product of:
      0.2573565 = sum of:
        0.10596757 = weight(_text_:philosophie in 4891) [ClassicSimilarity], result of:
          0.10596757 = score(doc=4891,freq=4.0), product of:
            0.1600026 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.030198902 = queryNorm
            0.6622865 = fieldWeight in 4891, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.10596757 = weight(_text_:philosophie in 4891) [ClassicSimilarity], result of:
          0.10596757 = score(doc=4891,freq=4.0), product of:
            0.1600026 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.030198902 = queryNorm
            0.6622865 = fieldWeight in 4891, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.022710681 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.022710681 = score(doc=4891,freq=6.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.022710681 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.022710681 = score(doc=4891,freq=6.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
      0.25 = coord(4/16)
    
    Abstract
    Nur wenige Dokumentationsmethoden werden mit dem Namen ihrer Entwickler assoziiert. Ausnahmen sind Melvil Dewey (DDC), S.R. Ranganathan (Colon Classification) - und Norbert Henrichs. Seine Textwortmethode ermöglicht die Indexierung und das Retrieval von Literatur aus Fachgebieten, die keine allseits akzeptierte Fachterminologie vorweisen, also viele Sozial- und Geisteswissenschaften, vorneweg die Philosophie. Für den Einsatz in der elektronischen Philosophie-Dokumentation hat Henrichs in den späten sechziger Jahren die Textwortmethode entworfen. Er ist damit nicht nur einer der Pioniere der Anwendung der elektronischen Datenverarbeitung in der Informationspraxis, sondern auch der Pionier bei der Dokumentation terminologisch nicht starrer Fachsprachen
  3. Stock, W.G.: Textwortmethode (2000) 0.06
    0.05842099 = product of:
      0.23368396 = sum of:
        0.093662985 = weight(_text_:philosophie in 3408) [ClassicSimilarity], result of:
          0.093662985 = score(doc=3408,freq=2.0), product of:
            0.1600026 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.030198902 = queryNorm
            0.58538413 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.093662985 = weight(_text_:philosophie in 3408) [ClassicSimilarity], result of:
          0.093662985 = score(doc=3408,freq=2.0), product of:
            0.1600026 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.030198902 = queryNorm
            0.58538413 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.02317899 = weight(_text_:und in 3408) [ClassicSimilarity], result of:
          0.02317899 = score(doc=3408,freq=4.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.34630734 = fieldWeight in 3408, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.02317899 = weight(_text_:und in 3408) [ClassicSimilarity], result of:
          0.02317899 = score(doc=3408,freq=4.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.34630734 = fieldWeight in 3408, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
      0.25 = coord(4/16)
    
    Field
    Philosophie
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
  4. Kasprzik, A.: Voraussetzungen und Anwendungspotentiale einer präzisen Sacherschließung aus Sicht der Wissenschaft (2018) 0.06
    0.05637922 = product of:
      0.18041351 = sum of:
        0.028103035 = weight(_text_:und in 5195) [ClassicSimilarity], result of:
          0.028103035 = score(doc=5195,freq=12.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.41987535 = fieldWeight in 5195, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.057845738 = weight(_text_:technik in 5195) [ClassicSimilarity], result of:
          0.057845738 = score(doc=5195,freq=2.0), product of:
            0.15028988 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.030198902 = queryNorm
            0.38489443 = fieldWeight in 5195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.028103035 = weight(_text_:und in 5195) [ClassicSimilarity], result of:
          0.028103035 = score(doc=5195,freq=12.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.41987535 = fieldWeight in 5195, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.052041337 = weight(_text_:wissenschaft in 5195) [ClassicSimilarity], result of:
          0.052041337 = score(doc=5195,freq=4.0), product of:
            0.119870074 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.030198902 = queryNorm
            0.43414786 = fieldWeight in 5195, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.01432037 = product of:
          0.02864074 = sum of:
            0.02864074 = weight(_text_:22 in 5195) [ClassicSimilarity], result of:
              0.02864074 = score(doc=5195,freq=2.0), product of:
                0.10575141 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030198902 = queryNorm
                0.2708308 = fieldWeight in 5195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5195)
          0.5 = coord(1/2)
      0.3125 = coord(5/16)
    
    Abstract
    Große Aufmerksamkeit richtet sich im Moment auf das Potential von automatisierten Methoden in der Sacherschließung und deren Interaktionsmöglichkeiten mit intellektuellen Methoden. In diesem Kontext befasst sich der vorliegende Beitrag mit den folgenden Fragen: Was sind die Anforderungen an bibliothekarische Metadaten aus Sicht der Wissenschaft? Was wird gebraucht, um den Informationsbedarf der Fachcommunities zu bedienen? Und was bedeutet das entsprechend für die Automatisierung der Metadatenerstellung und -pflege? Dieser Beitrag fasst die von der Autorin eingenommene Position in einem Impulsvortrag und der Podiumsdiskussion beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
    Source
    ABI-Technik. 38(2018) H.4, S.332-335
  5. Hauer, M.: Neue Qualitäten in Bibliotheken : Durch Content-Ergänzung, maschinelle Indexierung und modernes Information Retrieval können Recherchen in Bibliothekskatalogen deutlich verbessert werden (2004) 0.05
    0.046018932 = product of:
      0.18407573 = sum of:
        0.03933605 = weight(_text_:und in 886) [ClassicSimilarity], result of:
          0.03933605 = score(doc=886,freq=18.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.58770305 = fieldWeight in 886, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
        0.06610941 = weight(_text_:technik in 886) [ClassicSimilarity], result of:
          0.06610941 = score(doc=886,freq=2.0), product of:
            0.15028988 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.030198902 = queryNorm
            0.43987936 = fieldWeight in 886, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
        0.03933605 = weight(_text_:und in 886) [ClassicSimilarity], result of:
          0.03933605 = score(doc=886,freq=18.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.58770305 = fieldWeight in 886, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
        0.03929421 = weight(_text_:als in 886) [ClassicSimilarity], result of:
          0.03929421 = score(doc=886,freq=4.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.40329581 = fieldWeight in 886, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
      0.25 = coord(4/16)
    
    Abstract
    Seit Frühjahr 2004 ist Dandelon.com als neues, offenes, internationales Wissenschaftsportal in Betrieb. Erste Retrieval-Tests bescheinigen deutlich bessere Suchergebnisse als in herkömmlichen OPACs oder Verbundsystemen. Seine Daten stammen aus intelligentCAPTURE und Bibliothekskatalogen. intelligentCAPTURE erfasst Content über Scanning oder File-Import oder Web-Spidering und indexiert nach morphosyntaktischen und semantischen Verfahren. Aufbereiteter Content und Indexate gehen an Bibliothekssysteme und an dandelon.com. Dandelon.com ist kostenlos zugänglich für Endbenutzer und ist zugleich Austauschzentrale und Katalogerweiterung für angeschlossene Bibliotheken. Neue Inhalte können so kostengünstig und performant erschlossen werden.
    Source
    ABI-Technik. 24(2004) H.4, S.262-
  6. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.05
    0.045084156 = product of:
      0.1442693 = sum of:
        0.034419045 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.034419045 = score(doc=5671,freq=18.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.034419045 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.034419045 = score(doc=5671,freq=18.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.036798786 = weight(_text_:wissenschaft in 5671) [ClassicSimilarity], result of:
          0.036798786 = score(doc=5671,freq=2.0), product of:
            0.119870074 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.030198902 = queryNorm
            0.30698892 = fieldWeight in 5671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.024312053 = weight(_text_:als in 5671) [ClassicSimilarity], result of:
          0.024312053 = score(doc=5671,freq=2.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.24952656 = fieldWeight in 5671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.01432037 = product of:
          0.02864074 = sum of:
            0.02864074 = weight(_text_:22 in 5671) [ClassicSimilarity], result of:
              0.02864074 = score(doc=5671,freq=2.0), product of:
                0.10575141 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030198902 = queryNorm
                0.2708308 = fieldWeight in 5671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5671)
          0.5 = coord(1/2)
      0.3125 = coord(5/16)
    
    Abstract
    Methoden der automatischen Inhaltserschließung werden seit mehr als 30 Jahren entwickelt, ohne in luD-Kreisen auf merkliche Akzeptanz zu stoßen. Gegenwärtig führen jedoch die steigende Informationsflut und der Bedarf an effizienten Zugriffsverfahren im Informations- und Wissensmanagement in breiten Anwenderkreisen zu einem wachsenden Interesse an diesen Methoden, zu verstärkten Anstrengungen in Forschung und Entwicklung und zu neuen Produkten. In diesem Beitrag werden verschiedene Ansätze zu intelligentem und inhaltsbasiertem Retrieval und zur automatischen Inhaltserschließung diskutiert sowie kommerziell vertriebene Softwarewerkzeuge und Lösungen präsentiert. Abschließend wird festgestellt, dass in naher Zukunft mit einer zunehmenden Automatisierung von bestimmten Komponenten des Informations- und Wissensmanagements zu rechnen ist, indem Software-Werkzeuge zur automatischen Inhaltserschließung in den Workflow integriert werden
    Date
    22. 3.2001 13:14:48
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.2, S.69-78
  7. Franke-Maier, M.: Anforderungen an die Qualität der Inhaltserschließung im Spannungsfeld von intellektuell und automatisch erzeugten Metadaten (2018) 0.04
    0.04256933 = product of:
      0.13622186 = sum of:
        0.019871846 = weight(_text_:und in 5344) [ClassicSimilarity], result of:
          0.019871846 = score(doc=5344,freq=6.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.2968967 = fieldWeight in 5344, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.057845738 = weight(_text_:technik in 5344) [ClassicSimilarity], result of:
          0.057845738 = score(doc=5344,freq=2.0), product of:
            0.15028988 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.030198902 = queryNorm
            0.38489443 = fieldWeight in 5344, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.019871846 = weight(_text_:und in 5344) [ClassicSimilarity], result of:
          0.019871846 = score(doc=5344,freq=6.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.2968967 = fieldWeight in 5344, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.024312053 = weight(_text_:als in 5344) [ClassicSimilarity], result of:
          0.024312053 = score(doc=5344,freq=2.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.24952656 = fieldWeight in 5344, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.01432037 = product of:
          0.02864074 = sum of:
            0.02864074 = weight(_text_:22 in 5344) [ClassicSimilarity], result of:
              0.02864074 = score(doc=5344,freq=2.0), product of:
                0.10575141 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030198902 = queryNorm
                0.2708308 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.5 = coord(1/2)
      0.3125 = coord(5/16)
    
    Abstract
    Spätestens seit dem Deutschen Bibliothekartag 2018 hat sich die Diskussion zu den automatischen Verfahren der Inhaltserschließung der Deutschen Nationalbibliothek von einer politisch geführten Diskussion in eine Qualitätsdiskussion verwandelt. Der folgende Beitrag beschäftigt sich mit Fragen der Qualität von Inhaltserschließung in digitalen Zeiten, wo heterogene Erzeugnisse unterschiedlicher Verfahren aufeinandertreffen und versucht, wichtige Anforderungen an Qualität zu definieren. Dieser Tagungsbeitrag fasst die vom Autor als Impulse vorgetragenen Ideen beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV am 29. August 2018 in Kiel zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
    Source
    ABI-Technik. 38(2018) H.4, S.327-331
  8. Pollmeier, M.: Verlagsschlagwörter als Grundlage für den Einsatz eines maschinellen Verfahrens zur verbalen Erschließung der Kinder- und Jugendliteratur durch die Deutsche Nationalbibliothek : eine Datenanalyse (2019) 0.04
    0.03851787 = product of:
      0.15407148 = sum of:
        0.032780044 = weight(_text_:und in 1081) [ClassicSimilarity], result of:
          0.032780044 = score(doc=1081,freq=32.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.48975256 = fieldWeight in 1081, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.058433022 = weight(_text_:technik in 1081) [ClassicSimilarity], result of:
          0.058433022 = score(doc=1081,freq=4.0), product of:
            0.15028988 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.030198902 = queryNorm
            0.3888021 = fieldWeight in 1081, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.032780044 = weight(_text_:und in 1081) [ClassicSimilarity], result of:
          0.032780044 = score(doc=1081,freq=32.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.48975256 = fieldWeight in 1081, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.030078368 = weight(_text_:als in 1081) [ClassicSimilarity], result of:
          0.030078368 = score(doc=1081,freq=6.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.30870908 = fieldWeight in 1081, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
      0.25 = coord(4/16)
    
    Abstract
    Die Inhaltserschließung durch Schlagwörter wird aktuell in vielen Öffentlichen Bibliotheken Deutschlands zurückgefahren. Aufgrund von Personalmangel und den vielfältigen anderen bibliothekarischen Dienstleistungen, die für die Benutzer zu leisten sind, kommt sie oft zu kurz. Die Deutsche Nationalbibliothek unterstützte diese Bibliotheken bisher als wichtigster Datenlieferant, jedoch stellte sie 2017 die intellektuelle Inhaltserschließung der Kinder- und Jugendliteratur und der Belletristik ein. Um diese problematische Situation zu verbessern, wird aktuell in der Deutschen Nationalbibliothek ein Verfahren erprobt, das aus Schlagwörtern von Verlagen maschinell bibliothekarische Schlagwörter aus der Gemeinsamen Normdatei generiert. Auf die Titel der Kinder- und Jugendliteratur aus den Jahren 2018 und 2019 wurde es bereits angewendet. In dieser Arbeit geht es um eine erste Analyse dieser Erschließungsergebnisse, um Aussagen über die Nützlichkeit der Verlagsschlagwörter und des automatischen Verfahrens zu treffen. Im theoretischen Teil werden einerseits die Inhaltserschließung im bibliothekarischen Bereich und deren aktuelle Entwicklungen hinsichtlich der Automatisierung beschrieben. Andererseits wird näher auf die Erschließungspraxis in der Deutschen Nationalbibliothek hinsichtlich der Automatisierung und der Kinder- und Jugendliteratur eingegangen. Im Analyseteil werden sowohl die Verlagsschlagwörter als auch die bibliothekarischen Schlagwörter nach festgelegten Kriterien untersucht und schließlich miteinander verglichen.
    Footnote
    Bachelorarbeit an der Hochschule für Technik, Wirtschaft und Kultur Leipzig Fakultät Informatik und Medien Studiengang Bibliotheks- und Informationswissenschaft.
    Imprint
    Leipzig : Hochschule für Technik, Wirtschaft und Kultur / Fakultät Informatik und Medien
  9. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.03
    0.033730906 = product of:
      0.13492362 = sum of:
        0.026224036 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.026224036 = score(doc=3581,freq=8.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.06610941 = weight(_text_:technik in 3581) [ClassicSimilarity], result of:
          0.06610941 = score(doc=3581,freq=2.0), product of:
            0.15028988 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.030198902 = queryNorm
            0.43987936 = fieldWeight in 3581, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.026224036 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.026224036 = score(doc=3581,freq=8.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.016366137 = product of:
          0.032732274 = sum of:
            0.032732274 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.032732274 = score(doc=3581,freq=2.0), product of:
                0.10575141 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030198902 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Abstract
    Lingo ist ein frei verfügbares System (open source) zur automatischen Indexierung der deutschen Sprache. Bei der Entwicklung von lingo standen hohe Konfigurierbarkeit und Flexibilität des Systems für unterschiedliche Einsatzmöglichkeiten im Vordergrund. Der Beitrag zeigt den Nutzen einer linguistisch basierten automatischen Indexierung für das Information Retrieval auf. Die für eine Retrievalverbesserung zur Verfügung stehende linguistische Funktionalität von lingo wird vorgestellt und an Beispielen erläutert: Grundformerkennung, Kompositumerkennung bzw. Kompositumzerlegung, Wortrelationierung, lexikalische und algorithmische Mehrwortgruppenerkennung, OCR-Fehlerkorrektur. Der offene Systemaufbau von lingo wird beschrieben, mögliche Einsatzszenarien und Anwendungsgrenzen werden benannt.
    Date
    24. 3.2006 12:22:02
    Source
    ABI-Technik. 26(2006) H.1, S.18-28
  10. Sack, H.: Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung (2021) 0.03
    0.031807337 = product of:
      0.12722935 = sum of:
        0.024088314 = weight(_text_:und in 372) [ClassicSimilarity], result of:
          0.024088314 = score(doc=372,freq=12.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.35989314 = fieldWeight in 372, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=372)
        0.04958206 = weight(_text_:technik in 372) [ClassicSimilarity], result of:
          0.04958206 = score(doc=372,freq=2.0), product of:
            0.15028988 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.030198902 = queryNorm
            0.3299095 = fieldWeight in 372, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.046875 = fieldNorm(doc=372)
        0.024088314 = weight(_text_:und in 372) [ClassicSimilarity], result of:
          0.024088314 = score(doc=372,freq=12.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.35989314 = fieldWeight in 372, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=372)
        0.02947066 = weight(_text_:als in 372) [ClassicSimilarity], result of:
          0.02947066 = score(doc=372,freq=4.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.30247188 = fieldWeight in 372, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.046875 = fieldNorm(doc=372)
      0.25 = coord(4/16)
    
    Abstract
    Effizienter (Online-)Zugang zu Bibliotheks- und Archivmaterialien erfordert eine qualitativ hinreichende inhaltliche Erschließung dieser Dokumente. Die passgenaue Verschlagwortung und Kategorisierung dieser unstrukturierten Dokumente ermöglichen einen strukturell gegliederten Zugang sowohl in der analogen als auch in der digitalen Welt. Darüber hinaus erweitert eine vollständige Transkription der Dokumente den Zugang über die Möglichkeiten der Volltextsuche. Angesichts der in jüngster Zeit erzielten spektakulären Erfolge der Künstlichen Intelligenz liegt die Schlussfolgerung nahe, dass auch das Problem der automatisierten Inhaltserschließung für Bibliotheken und Archive als mehr oder weniger gelöst anzusehen wäre. Allerdings lassen sich die oftmals nur in thematisch engen Teilbereichen erzielten Erfolge nicht immer problemlos verallgemeinern oder in einen neuen Kontext übertragen. Das Ziel der vorliegenden Darstellung liegt in der Diskussion des aktuellen Stands der Technik der automatisierten inhaltlichen Erschließung anhand ausgewählter Beispiele sowie möglicher Fortschritte und Prognosen basierend auf aktuellen Entwicklungen des maschinellen Lernens und der Künstlichen Intelligenz einschließlich deren Kritik.
    Series
    Bibliotheks- und Informationspraxis; 70
  11. Stock, M.: Textwortmethode und Übersetzungsrelation : Eine Methode zum Aufbau von kombinierten Literaturnachweis- und Terminologiedatenbanken (1989) 0.03
    0.029237844 = product of:
      0.15593517 = sum of:
        0.0366492 = weight(_text_:und in 3412) [ClassicSimilarity], result of:
          0.0366492 = score(doc=3412,freq=10.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.54756 = fieldWeight in 3412, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3412)
        0.08263677 = weight(_text_:technik in 3412) [ClassicSimilarity], result of:
          0.08263677 = score(doc=3412,freq=2.0), product of:
            0.15028988 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.030198902 = queryNorm
            0.5498492 = fieldWeight in 3412, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.078125 = fieldNorm(doc=3412)
        0.0366492 = weight(_text_:und in 3412) [ClassicSimilarity], result of:
          0.0366492 = score(doc=3412,freq=10.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.54756 = fieldWeight in 3412, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3412)
      0.1875 = coord(3/16)
    
    Abstract
    Geisteswissenschaftliche Fachinformation erfordert eine enge Kooperation zwischen Literaturnachweis- und Terminologieinformationssystemen. Eine geeignete Dokumentationsmethode für die Auswertung geisteswissen- schaftlicher Literatur ist die Textwortwethode. Dem originalsprachig aufgenommenen Begriffsrepertoire ist ein einheitssprachiger Zugriff beizuordnen, der einerseits ein vollständiges und genaues Retrieval garantiert und andererseits den Aufbau fachspezifischer Wörterbücher vorantreibt
    Source
    ABI-Technik. 9(1989), S.309-313
  12. Qualität in der Inhaltserschließung (2021) 0.03
    0.028305653 = product of:
      0.113222614 = sum of:
        0.03406602 = weight(_text_:und in 753) [ClassicSimilarity], result of:
          0.03406602 = score(doc=753,freq=54.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.5089658 = fieldWeight in 753, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.03406602 = weight(_text_:und in 753) [ClassicSimilarity], result of:
          0.03406602 = score(doc=753,freq=54.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.5089658 = fieldWeight in 753, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.021027876 = weight(_text_:wissenschaft in 753) [ClassicSimilarity], result of:
          0.021027876 = score(doc=753,freq=2.0), product of:
            0.119870074 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.030198902 = queryNorm
            0.17542224 = fieldWeight in 753, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.024062693 = weight(_text_:als in 753) [ClassicSimilarity], result of:
          0.024062693 = score(doc=753,freq=6.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.24696726 = fieldWeight in 753, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
      0.25 = coord(4/16)
    
    Abstract
    Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Footnote
    Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
    Series
    Bibliotheks- und Informationspraxis; 70
  13. Bredack, J.: Automatische Extraktion fachterminologischer Mehrwortbegriffe : ein Verfahrensvergleich (2016) 0.03
    0.027546603 = product of:
      0.11018641 = sum of:
        0.024585033 = weight(_text_:und in 3194) [ClassicSimilarity], result of:
          0.024585033 = score(doc=3194,freq=18.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.3673144 = fieldWeight in 3194, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
        0.024585033 = weight(_text_:und in 3194) [ClassicSimilarity], result of:
          0.024585033 = score(doc=3194,freq=18.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.3673144 = fieldWeight in 3194, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
        0.026284846 = weight(_text_:wissenschaft in 3194) [ClassicSimilarity], result of:
          0.026284846 = score(doc=3194,freq=2.0), product of:
            0.119870074 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.030198902 = queryNorm
            0.2192778 = fieldWeight in 3194, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
        0.034731504 = weight(_text_:als in 3194) [ClassicSimilarity], result of:
          0.034731504 = score(doc=3194,freq=8.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.3564665 = fieldWeight in 3194, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
      0.25 = coord(4/16)
    
    Abstract
    In dieser Untersuchung wurden zwei Systeme eingesetzt, um MWT aus einer Dokumentkollektion mit fachsprachlichem Bezug (Volltexte des ACL Anthology Reference Corpus) automatisch zu extrahieren. Das thematische Spektrum umfasste alle Bereiche der natürlichen Sprachverarbeitung, im Speziellen die CL als interdisziplinäre Wissenschaft. Ziel war es MWT zu extrahieren, die als potentielle Indexterme im IR Verwendung finden können. Diese sollten auf Konzepte, Methoden, Verfahren und Algorithmen in der CL und angrenzenden Teilgebieten, wie Linguistik und Informatik hinweisen bzw. benennen.
    Als Extraktionssysteme wurden der TreeTagger und die Indexierungssoftware Lingo verwendet. Der TreeTagger basiert auf einem statistischen Tagging- und Chunking- Algorithmus, mit dessen Hilfe NPs automatisch identifiziert und extrahiert werden. Er kann für verschiedene Anwendungsszenarien der natürlichen Sprachverarbeitung eingesetzt werden, in erster Linie als POS-Tagger für unterschiedliche Sprachen. Das Indexierungssystem Lingo arbeitet im Gegensatz zum TreeTagger mit elektronischen Wörterbüchern und einem musterbasierten Abgleich. Lingo ist ein auf automatische Indexierung ausgerichtetes System, was eine Vielzahl von Modulen mitliefert, die individuell auf eine bestimmte Aufgabenstellung angepasst und aufeinander abgestimmt werden können. Die unterschiedlichen Verarbeitungsweisen haben sich in den Ergebnismengen beider Systeme deutlich gezeigt. Die gering ausfallenden Übereinstimmungen der Ergebnismengen verdeutlichen die abweichende Funktionsweise und konnte mit einer qualitativen Analyse beispielhaft beschrieben werden. In der vorliegenden Arbeit kann abschließend nicht geklärt werden, welches der beiden Systeme bevorzugt für die Generierung von Indextermen eingesetzt werden sollte.
  14. Lepsky, K.; Zimmermann, H.H.: Katalogerweiterung durch Scanning und Automatische Dokumenterschließung : Das DFG-Projekt KASCADE (1998) 0.03
    0.025968783 = product of:
      0.13850017 = sum of:
        0.019668026 = weight(_text_:und in 3938) [ClassicSimilarity], result of:
          0.019668026 = score(doc=3938,freq=2.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.29385152 = fieldWeight in 3938, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=3938)
        0.09916412 = weight(_text_:technik in 3938) [ClassicSimilarity], result of:
          0.09916412 = score(doc=3938,freq=2.0), product of:
            0.15028988 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.030198902 = queryNorm
            0.659819 = fieldWeight in 3938, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.09375 = fieldNorm(doc=3938)
        0.019668026 = weight(_text_:und in 3938) [ClassicSimilarity], result of:
          0.019668026 = score(doc=3938,freq=2.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.29385152 = fieldWeight in 3938, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=3938)
      0.1875 = coord(3/16)
    
    Source
    ABI-Technik. 18(1998) H.1, S.56-60
  15. Schäuble, P.: Kostengünstige Konversion großer Bibliothekskataloge (1996) 0.03
    0.025968783 = product of:
      0.13850017 = sum of:
        0.019668026 = weight(_text_:und in 4232) [ClassicSimilarity], result of:
          0.019668026 = score(doc=4232,freq=2.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.29385152 = fieldWeight in 4232, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4232)
        0.09916412 = weight(_text_:technik in 4232) [ClassicSimilarity], result of:
          0.09916412 = score(doc=4232,freq=2.0), product of:
            0.15028988 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.030198902 = queryNorm
            0.659819 = fieldWeight in 4232, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.09375 = fieldNorm(doc=4232)
        0.019668026 = weight(_text_:und in 4232) [ClassicSimilarity], result of:
          0.019668026 = score(doc=4232,freq=2.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.29385152 = fieldWeight in 4232, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4232)
      0.1875 = coord(3/16)
    
    Content
    Kurzbericht über eine Konversion von Katalogkarten mit Automatischer Indexierung und grafischer Abbildung der Katalogkarten im Retrievalsystem
    Source
    ABI-Technik. 16(1996) H.2, S.165-166
  16. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.03
    0.025408262 = product of:
      0.10163305 = sum of:
        0.030662924 = weight(_text_:und in 3780) [ClassicSimilarity], result of:
          0.030662924 = score(doc=3780,freq=28.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.45812157 = fieldWeight in 3780, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.030662924 = weight(_text_:und in 3780) [ClassicSimilarity], result of:
          0.030662924 = score(doc=3780,freq=28.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.45812157 = fieldWeight in 3780, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.030078368 = weight(_text_:als in 3780) [ClassicSimilarity], result of:
          0.030078368 = score(doc=3780,freq=6.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.30870908 = fieldWeight in 3780, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.010228836 = product of:
          0.020457672 = sum of:
            0.020457672 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
              0.020457672 = score(doc=3780,freq=2.0), product of:
                0.10575141 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030198902 = queryNorm
                0.19345059 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  17. Schwantner, M.: Entwicklung und Pflege des Indexierungswörterbuches PHYS/PILOT (1988) 0.02
    0.024602937 = product of:
      0.13121566 = sum of:
        0.03406602 = weight(_text_:und in 527) [ClassicSimilarity], result of:
          0.03406602 = score(doc=527,freq=6.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.5089658 = fieldWeight in 527, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=527)
        0.03406602 = weight(_text_:und in 527) [ClassicSimilarity], result of:
          0.03406602 = score(doc=527,freq=6.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.5089658 = fieldWeight in 527, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=527)
        0.06308363 = weight(_text_:wissenschaft in 527) [ClassicSimilarity], result of:
          0.06308363 = score(doc=527,freq=2.0), product of:
            0.119870074 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.030198902 = queryNorm
            0.5262667 = fieldWeight in 527, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.09375 = fieldNorm(doc=527)
      0.1875 = coord(3/16)
    
    Source
    Von der Information zum Wissen - vom Wissen zur Information: traditionelle und moderne Informationssysteme für Wissenschaft und Praxis, Deutscher Dokumentartag 1987, Bad Dürkheim, vom 23.-25.9.1987. Hrsg.: H. Strohl-Goebel
  18. Maas, H.-D.: Indexieren mit AUTINDEX (2006) 0.02
    0.023603132 = product of:
      0.09441253 = sum of:
        0.0222174 = weight(_text_:und in 6077) [ClassicSimilarity], result of:
          0.0222174 = score(doc=6077,freq=30.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.33194062 = fieldWeight in 6077, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.028922869 = weight(_text_:technik in 6077) [ClassicSimilarity], result of:
          0.028922869 = score(doc=6077,freq=2.0), product of:
            0.15028988 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.030198902 = queryNorm
            0.19244722 = fieldWeight in 6077, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.0222174 = weight(_text_:und in 6077) [ClassicSimilarity], result of:
          0.0222174 = score(doc=6077,freq=30.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.33194062 = fieldWeight in 6077, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.021054855 = weight(_text_:als in 6077) [ClassicSimilarity], result of:
          0.021054855 = score(doc=6077,freq=6.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.21609634 = fieldWeight in 6077, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
      0.25 = coord(4/16)
    
    Abstract
    Wenn man ein Computerprogramm besitzt, das einem zu fast jedem Textwort dessen grammatische Merkmale bestimmt und außerdem noch seine interne Struktur und einige semantische Informationen liefert, dann fragt man sich irgendwann: Könnte ich nicht auf der Grundlage dieser Angaben einen Text global charakterisieren, etwa indem ich versuche, die wichtigen Wörter dieses Textes zu errechnen? Die häufigsten Textwörter können es nicht sein, denn gerade sie sind sehr nichtssagend. Die seltensten Textwörter sind zwar aussagekräftig, aber sie sind zu viele - die meisten Lemmata eines Textes erscheinen nur ein einziges Mal. Irgendwie müsste man den Wortschatz einschränken können. Die rettende Idee war: Wir tun so, als seien die semantischen Merkmale Wörter, denn dann enthält der Wortschatz dieser Sprache nur noch etwa hundert Elemente, weil unsere morphologische Analyse (Mpro) rund 100 semantische Features verwendet. Wir vermuteten nun, dass die häufig vorkommenden Features wichtig für den Text sind und die selteneren als Ausreißer betrachten werden können. Die Implementierung dieser Idee ist der Urahn unseres Programmpaketes AUTINDEX zur automatischen Indexierung von Texten. Dieses allererste Programm erstellte also zu einem Text eine Statistik der semantischen Merkmale und gab die drei häufigsten Klassen mit den zugehörigen Lemmata aus. Das Ergebnis war verblüffend: Auf den ersten Blick konnte man sehen, worum es in dem Text ging. Bei näherem Hinsehen wurden aber auch Unzulänglichkeiten deutlich. Einige der Schlagwörter waren doch ziemlich nichtssagend, andere hätte man gerne in der Liste gehabt, und schließlich hätte man sich noch eine ganz globale Charakterisierung des Textes durch die Angabe von Fachgebieten gewünscht, etwa in der Form: Der Text hat mit Politik oder Wirtschaft zu tun, er berichtet über einen Unfall, eine Feierlichkeit usw. Es wurde also sofort deutlich, dass das Programm ohne eine weitere Wissensquelle keine wirklich guten Ergebnisse würde liefern können. Man braucht also einen Thesaurus, ein Wörterbuch, in dem einzelne Lemmata und auch mehrwortige Ausdrücke mit zusätzlichen Informationen versehen sind.
    Die erste Implementierung wurde in Zusammenarbeit mit dem Fachinformationszentrum Technik (Frankfurt) erstellt. Eine Kontrolle der manuell vergebenen Grob- und Feinklassifizierung der Lexikonartikel des Brockhaus Multimedial und anderer Brockhaus-Lexika wurde mit AUTINDEX in Zusammenarbeit mit BIFAB (Mannheim) durchgeführt. AUTINDEX ist auch Bestandteil des Indexierungs- und Retrievalsystems der Firma AGI (Neustadt/Weinstraße), das in der Landesbibliothek Vorarlberg eingesetzt wird. Weiterhin wird AUTINDEX im System LEWI verwendet, das zusammen mit BIFAB entwickelt wird. Dieses System erlaubt natürlichsprachliche Anfragen an den Brockhaus Multimedial und liefert als Antwort die relevanten Lexikonartikel. Im IAI selbst wurden große Textmengen indexiert (Brockhaus- und Dudenlexika, Zeitungstexte usw.), die man für die Weiterentwicklung diverser Thesauri und Wörterbücher nutzen kann. Beispielsweise kann man sich für ein Wort alle Texte ausgeben lassen, in denen dieses Wort wichtig ist. Dabei sind die Texte nach Wichtigkeit sortiert. Zu einem gegebenen Wort kann man sich auch die Assoziationen oder die möglichen Klassifikationen berechnen lassen. Auf diese Weise kann man einen Thesaurus halbautomatisch erweitern.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  19. Lück, W.: Erfahrungen mit dem automatischen Indexierungssystem AIR/PHYS (1988) 0.02
    0.022258727 = product of:
      0.11871321 = sum of:
        0.02781479 = weight(_text_:und in 526) [ClassicSimilarity], result of:
          0.02781479 = score(doc=526,freq=4.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.41556883 = fieldWeight in 526, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=526)
        0.02781479 = weight(_text_:und in 526) [ClassicSimilarity], result of:
          0.02781479 = score(doc=526,freq=4.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.41556883 = fieldWeight in 526, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=526)
        0.06308363 = weight(_text_:wissenschaft in 526) [ClassicSimilarity], result of:
          0.06308363 = score(doc=526,freq=2.0), product of:
            0.119870074 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.030198902 = queryNorm
            0.5262667 = fieldWeight in 526, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.09375 = fieldNorm(doc=526)
      0.1875 = coord(3/16)
    
    Source
    Von der Information zum Wissen - vom Wissen zur Information: traditionelle und moderne Informationssysteme für Wissenschaft und Praxis, Deutscher Dokumentartag 1987, Bad Dürkheim, vom 23.-25.9.1987. Hrsg.: H. Strohl-Goebel
  20. Knorz, G.: Automatisches Indexieren als Erkennen abstrakter Objekte (1983) 0.02
    0.020253465 = product of:
      0.10801847 = sum of:
        0.026224036 = weight(_text_:und in 6133) [ClassicSimilarity], result of:
          0.026224036 = score(doc=6133,freq=2.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.39180204 = fieldWeight in 6133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=6133)
        0.026224036 = weight(_text_:und in 6133) [ClassicSimilarity], result of:
          0.026224036 = score(doc=6133,freq=2.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.39180204 = fieldWeight in 6133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=6133)
        0.055570405 = weight(_text_:als in 6133) [ClassicSimilarity], result of:
          0.055570405 = score(doc=6133,freq=2.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.5703464 = fieldWeight in 6133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.125 = fieldNorm(doc=6133)
      0.1875 = coord(3/16)
    
    Series
    Sprache und Information; 8

Years

Languages

  • d 163
  • e 24
  • nl 2
  • a 1
  • m 1
  • ru 1
  • More… Less…

Types

  • a 139
  • x 31
  • el 21
  • m 11
  • s 5
  • d 1
  • h 1
  • p 1
  • r 1
  • More… Less…