Search (199 results, page 1 of 10)

  • × theme_ss:"Automatisches Indexieren"
  1. 7e Dag van het Document : 19 & 20 mei 1998, Congrescentrum De Reehorst, Ede ; proceedings (1998) 0.06
    0.05926683 = product of:
      0.26670074 = sum of:
        0.13453844 = weight(_text_:allgemeines in 2427) [ClassicSimilarity], result of:
          0.13453844 = score(doc=2427,freq=4.0), product of:
            0.15091713 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.026451524 = queryNorm
            0.89147234 = fieldWeight in 2427, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.078125 = fieldNorm(doc=2427)
        0.09155688 = weight(_text_:medien in 2427) [ClassicSimilarity], result of:
          0.09155688 = score(doc=2427,freq=4.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.73541105 = fieldWeight in 2427, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.078125 = fieldNorm(doc=2427)
        0.020302713 = weight(_text_:und in 2427) [ClassicSimilarity], result of:
          0.020302713 = score(doc=2427,freq=4.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.34630734 = fieldWeight in 2427, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2427)
        0.020302713 = weight(_text_:und in 2427) [ClassicSimilarity], result of:
          0.020302713 = score(doc=2427,freq=4.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.34630734 = fieldWeight in 2427, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2427)
      0.22222222 = coord(4/18)
    
    BK
    06.00 (Information und Dokumentation: Allgemeines)
    05.38 (Neue elektronische Medien, Kommunikationswissenschaft)
    Classification
    06.00 (Information und Dokumentation: Allgemeines)
    05.38 (Neue elektronische Medien, Kommunikationswissenschaft)
  2. Pollmeier, M.: Verlagsschlagwörter als Grundlage für den Einsatz eines maschinellen Verfahrens zur verbalen Erschließung der Kinder- und Jugendliteratur durch die Deutsche Nationalbibliothek : eine Datenanalyse (2019) 0.05
    0.0459977 = product of:
      0.16559172 = sum of:
        0.04577844 = weight(_text_:medien in 1081) [ClassicSimilarity], result of:
          0.04577844 = score(doc=1081,freq=4.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.36770552 = fieldWeight in 1081, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.028712373 = weight(_text_:und in 1081) [ClassicSimilarity], result of:
          0.028712373 = score(doc=1081,freq=32.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.48975256 = fieldWeight in 1081, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.028712373 = weight(_text_:und in 1081) [ClassicSimilarity], result of:
          0.028712373 = score(doc=1081,freq=32.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.48975256 = fieldWeight in 1081, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.051182073 = weight(_text_:technik in 1081) [ClassicSimilarity], result of:
          0.051182073 = score(doc=1081,freq=4.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.3888021 = fieldWeight in 1081, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.011206453 = weight(_text_:des in 1081) [ClassicSimilarity], result of:
          0.011206453 = score(doc=1081,freq=2.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.15298408 = fieldWeight in 1081, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
      0.2777778 = coord(5/18)
    
    Abstract
    Die Inhaltserschließung durch Schlagwörter wird aktuell in vielen Öffentlichen Bibliotheken Deutschlands zurückgefahren. Aufgrund von Personalmangel und den vielfältigen anderen bibliothekarischen Dienstleistungen, die für die Benutzer zu leisten sind, kommt sie oft zu kurz. Die Deutsche Nationalbibliothek unterstützte diese Bibliotheken bisher als wichtigster Datenlieferant, jedoch stellte sie 2017 die intellektuelle Inhaltserschließung der Kinder- und Jugendliteratur und der Belletristik ein. Um diese problematische Situation zu verbessern, wird aktuell in der Deutschen Nationalbibliothek ein Verfahren erprobt, das aus Schlagwörtern von Verlagen maschinell bibliothekarische Schlagwörter aus der Gemeinsamen Normdatei generiert. Auf die Titel der Kinder- und Jugendliteratur aus den Jahren 2018 und 2019 wurde es bereits angewendet. In dieser Arbeit geht es um eine erste Analyse dieser Erschließungsergebnisse, um Aussagen über die Nützlichkeit der Verlagsschlagwörter und des automatischen Verfahrens zu treffen. Im theoretischen Teil werden einerseits die Inhaltserschließung im bibliothekarischen Bereich und deren aktuelle Entwicklungen hinsichtlich der Automatisierung beschrieben. Andererseits wird näher auf die Erschließungspraxis in der Deutschen Nationalbibliothek hinsichtlich der Automatisierung und der Kinder- und Jugendliteratur eingegangen. Im Analyseteil werden sowohl die Verlagsschlagwörter als auch die bibliothekarischen Schlagwörter nach festgelegten Kriterien untersucht und schließlich miteinander verglichen.
    Footnote
    Bachelorarbeit an der Hochschule für Technik, Wirtschaft und Kultur Leipzig Fakultät Informatik und Medien Studiengang Bibliotheks- und Informationswissenschaft.
    Imprint
    Leipzig : Hochschule für Technik, Wirtschaft und Kultur / Fakultät Informatik und Medien
  3. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.04
    0.037808694 = product of:
      0.13611129 = sum of:
        0.0229699 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.0229699 = score(doc=3581,freq=8.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.0229699 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
          0.0229699 = score(doc=3581,freq=8.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.39180204 = fieldWeight in 3581, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.057905905 = weight(_text_:technik in 3581) [ClassicSimilarity], result of:
          0.057905905 = score(doc=3581,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.43987936 = fieldWeight in 3581, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.017930323 = weight(_text_:des in 3581) [ClassicSimilarity], result of:
          0.017930323 = score(doc=3581,freq=2.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.24477452 = fieldWeight in 3581, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.014335265 = product of:
          0.02867053 = sum of:
            0.02867053 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.02867053 = score(doc=3581,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.5 = coord(1/2)
      0.2777778 = coord(5/18)
    
    Abstract
    Lingo ist ein frei verfügbares System (open source) zur automatischen Indexierung der deutschen Sprache. Bei der Entwicklung von lingo standen hohe Konfigurierbarkeit und Flexibilität des Systems für unterschiedliche Einsatzmöglichkeiten im Vordergrund. Der Beitrag zeigt den Nutzen einer linguistisch basierten automatischen Indexierung für das Information Retrieval auf. Die für eine Retrievalverbesserung zur Verfügung stehende linguistische Funktionalität von lingo wird vorgestellt und an Beispielen erläutert: Grundformerkennung, Kompositumerkennung bzw. Kompositumzerlegung, Wortrelationierung, lexikalische und algorithmische Mehrwortgruppenerkennung, OCR-Fehlerkorrektur. Der offene Systemaufbau von lingo wird beschrieben, mögliche Einsatzszenarien und Anwendungsgrenzen werden benannt.
    Date
    24. 3.2006 12:22:02
    Source
    ABI-Technik. 26(2006) H.1, S.18-28
  4. Kasprzik, A.: Voraussetzungen und Anwendungspotentiale einer präzisen Sacherschließung aus Sicht der Wissenschaft (2018) 0.04
    0.037397258 = product of:
      0.13463013 = sum of:
        0.024615733 = weight(_text_:und in 5195) [ClassicSimilarity], result of:
          0.024615733 = score(doc=5195,freq=12.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.41987535 = fieldWeight in 5195, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.024615733 = weight(_text_:und in 5195) [ClassicSimilarity], result of:
          0.024615733 = score(doc=5195,freq=12.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.41987535 = fieldWeight in 5195, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.050667666 = weight(_text_:technik in 5195) [ClassicSimilarity], result of:
          0.050667666 = score(doc=5195,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.38489443 = fieldWeight in 5195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.022187643 = weight(_text_:des in 5195) [ClassicSimilarity], result of:
          0.022187643 = score(doc=5195,freq=4.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.302893 = fieldWeight in 5195, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.012543357 = product of:
          0.025086714 = sum of:
            0.025086714 = weight(_text_:22 in 5195) [ClassicSimilarity], result of:
              0.025086714 = score(doc=5195,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.2708308 = fieldWeight in 5195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5195)
          0.5 = coord(1/2)
      0.2777778 = coord(5/18)
    
    Abstract
    Große Aufmerksamkeit richtet sich im Moment auf das Potential von automatisierten Methoden in der Sacherschließung und deren Interaktionsmöglichkeiten mit intellektuellen Methoden. In diesem Kontext befasst sich der vorliegende Beitrag mit den folgenden Fragen: Was sind die Anforderungen an bibliothekarische Metadaten aus Sicht der Wissenschaft? Was wird gebraucht, um den Informationsbedarf der Fachcommunities zu bedienen? Und was bedeutet das entsprechend für die Automatisierung der Metadatenerstellung und -pflege? Dieser Beitrag fasst die von der Autorin eingenommene Position in einem Impulsvortrag und der Podiumsdiskussion beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
    Source
    ABI-Technik. 38(2018) H.4, S.332-335
  5. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.04
    0.036203135 = product of:
      0.13033128 = sum of:
        0.025681129 = weight(_text_:und in 401) [ClassicSimilarity], result of:
          0.025681129 = score(doc=401,freq=10.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.438048 = fieldWeight in 401, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.04670344 = product of:
          0.09340688 = sum of:
            0.09340688 = weight(_text_:kommunikationswissenschaften in 401) [ClassicSimilarity], result of:
              0.09340688 = score(doc=401,freq=4.0), product of:
                0.14059173 = queryWeight, product of:
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.026451524 = queryNorm
                0.6643839 = fieldWeight in 401, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.5 = coord(1/2)
        0.025681129 = weight(_text_:und in 401) [ClassicSimilarity], result of:
          0.025681129 = score(doc=401,freq=10.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.438048 = fieldWeight in 401, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.017930323 = weight(_text_:des in 401) [ClassicSimilarity], result of:
          0.017930323 = score(doc=401,freq=2.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.24477452 = fieldWeight in 401, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.014335265 = product of:
          0.02867053 = sum of:
            0.02867053 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.02867053 = score(doc=401,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.5 = coord(1/2)
      0.2777778 = coord(5/18)
    
    Abstract
    Ein Bericht über die Ergebnisse und die Prozessanalyse einer automatischen Indexierung mit Mehrwortgruppen. Diese Bachelorarbeit beschreibt, inwieweit der Inhalt informationswissenschaftlicher Fachtexte durch informationswissenschaftliches Fachvokabular erschlossen werden kann und sollte und dass in diesen wissenschaftlichen Texten ein Großteil der fachlichen Inhalte in Mehrwortgruppen vorkommt. Die Ergebnisse wurden durch eine automatische Indexierung mit Mehrwortgruppen mithilfe des Programme Lingo an einer informationswissenschaftlichen Datenbank ermittelt.
    Content
    Bachelorarbeit im Studiengang Bibliothekswesen der Fakultät für Informations- und Kommunikationswissenschaften an der Fachhochschule Köln.
    Date
    11. 9.2012 19:43:22
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
  6. Franke-Maier, M.: Anforderungen an die Qualität der Inhaltserschließung im Spannungsfeld von intellektuell und automatisch erzeugten Metadaten (2018) 0.03
    0.033391826 = product of:
      0.12021057 = sum of:
        0.017405951 = weight(_text_:und in 5344) [ClassicSimilarity], result of:
          0.017405951 = score(doc=5344,freq=6.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.2968967 = fieldWeight in 5344, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.017405951 = weight(_text_:und in 5344) [ClassicSimilarity], result of:
          0.017405951 = score(doc=5344,freq=6.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.2968967 = fieldWeight in 5344, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.050667666 = weight(_text_:technik in 5344) [ClassicSimilarity], result of:
          0.050667666 = score(doc=5344,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.38489443 = fieldWeight in 5344, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.022187643 = weight(_text_:des in 5344) [ClassicSimilarity], result of:
          0.022187643 = score(doc=5344,freq=4.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.302893 = fieldWeight in 5344, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.012543357 = product of:
          0.025086714 = sum of:
            0.025086714 = weight(_text_:22 in 5344) [ClassicSimilarity], result of:
              0.025086714 = score(doc=5344,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.2708308 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.5 = coord(1/2)
      0.2777778 = coord(5/18)
    
    Abstract
    Spätestens seit dem Deutschen Bibliothekartag 2018 hat sich die Diskussion zu den automatischen Verfahren der Inhaltserschließung der Deutschen Nationalbibliothek von einer politisch geführten Diskussion in eine Qualitätsdiskussion verwandelt. Der folgende Beitrag beschäftigt sich mit Fragen der Qualität von Inhaltserschließung in digitalen Zeiten, wo heterogene Erzeugnisse unterschiedlicher Verfahren aufeinandertreffen und versucht, wichtige Anforderungen an Qualität zu definieren. Dieser Tagungsbeitrag fasst die vom Autor als Impulse vorgetragenen Ideen beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV am 29. August 2018 in Kiel zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
    Source
    ABI-Technik. 38(2018) H.4, S.327-331
  7. Mödden, E.; Dreger, A.; Hommes, K.P.; Mohammadianbisheh, N.; Mölck, L.; Pinna, L.; Sitte-Zöllner, D.: ¬Der Weg zur Gründung der AG Erschließung ÖB-DNB und die Entwicklung eines maschinellen Verfahrens zur Verschlagwortung der Kinder- und Jugendliteratur mit GND-Vokabular (2020) 0.03
    0.02751877 = product of:
      0.12383446 = sum of:
        0.059950534 = weight(_text_:medien in 71) [ClassicSimilarity], result of:
          0.059950534 = score(doc=71,freq=14.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.48153985 = fieldWeight in 71, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.02734375 = fieldNorm(doc=71)
        0.024097446 = weight(_text_:und in 71) [ClassicSimilarity], result of:
          0.024097446 = score(doc=71,freq=46.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.41103485 = fieldWeight in 71, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=71)
        0.024097446 = weight(_text_:und in 71) [ClassicSimilarity], result of:
          0.024097446 = score(doc=71,freq=46.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.41103485 = fieldWeight in 71, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=71)
        0.015689032 = weight(_text_:des in 71) [ClassicSimilarity], result of:
          0.015689032 = score(doc=71,freq=8.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.2141777 = fieldWeight in 71, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=71)
      0.22222222 = coord(4/18)
    
    Abstract
    Öffentliche Bibliotheken und die Deutsche Nationalbibliothek haben viele Gemeinsamkeiten. Öffentliche Bibliotheken und die Deutsche Nationalbibliothek haben aber auch viele Unterschiede. Zu den Gemeinsamkeiten zählt zweifelsohne die inhaltliche Vielfalt des Medienangebots. Anders als institutionell gebundene Bibliotheken wie Hochschulbibliotheken, seien es Universitäts- oder Fachhochschulbibliotheken, offerieren Öffentliche Bibliotheken wie auch die DNB ein über institutionelle Belange hinausreichendes universelles Angebot. Sie haben Kinderbücher und philosophische Abhandlungen, Ratgeber und Romane, Spiele und Noten im Bestand. Die Vielfalt der inhaltlichen und formalen Medien korrespondiert mit der Vielfalt der Nutzerinnen und Nutzer. Die Nutzerinnen und Nutzer der Öffentlichen Bibliotheken und der DNB müssen nicht Angehörige einer Institution sein; es reicht, dass sie ein wie auch immer geartetes je persönliches Informationsbedürfnis haben. Zu den Unterschieden zählen neben den gesetzlichen Aufgaben, für die DNB festgelegt als Bundesgesetz, für Öffentliche Bibliotheken in einigen Bundesländern durch entsprechende Landesgesetze, der ganz unterschiedliche Umgang mit Medien. Haben Öffentliche Bibliotheken den Anspruch, Gebrauchsbibliotheken zu sein, in denen Medien, intensiv genutzt, ein zeitlich begrenztes Aufenthaltsrecht haben, so fungiert die DNB als Gedächtnisinstitution, um die Medien auch für nachfolgende Generationen zu erhalten. Die DNB hat dabei die Aufgabe, die Medien "zu erschließen und bibliografisch zu verzeichnen" und hierbei "zentrale bibliothekarische und nationalbiografische Dienste zu leisten" sowie die Medien "für die Allgemeinheit nutzbar zu machen" (DNBG §2, Satz 1)1. Die Gebrauchsorientierung der Öffentlichen Bibliotheken impliziert, dass mit der hohen Kundenorientierung die gute Auffindbarkeit von Medien im Zentrum der Erschließung steht. Was liegt daher näher, als hierfür die zentralen Metadatendienste der DNB zu nutzen? Die Versorgung mit zentral erfassten Metadaten in hoher Qualität für die Erschließung lokaler Medienbestände ist wirtschaftlich und ermöglicht, die knappen personellen Ressourcen auf dringend erforderliche Vermittlungstätigkeiten zu konzentrieren. Soweit die Theorie, soweit auch die Praxis, bis vor etwa zehn Jahren Veränderungen eintraten.
    Man einigte sich auf das Vorhaben, die THEMA-angereicherten Daten des Buchhandels bibliotheksspezifisch aufzuarbeiten und maschinell in verbale Erschließungskategorien zu transferieren. Es wurde darüber informiert, dass die Marketing- und Verlagsservice für den Buchhandel GmbH - MVB sich intensiv bemüht, die Verwendung von THEMA durch die Verlage im Rahmen einer Offensive zur Verbesserung der Qualität der Daten im Verzeichnis Lieferbarer Bücher zu forcieren. Die Workshop-Teilnehmenden waren sich einig in der Auffassung, an der Normierung des Schlagwortvokabulars, wie sie über die GND stattfindet, festzuhalten. Denkbar sei, freie Schlagwörter aus den MVB-Daten mit der GND abzugleichen und/oder eine Liste von Begriffen zu erstellen, die für ein Mapping der THEMA-Notationen auf die GND geeignet wären. Als geeignetstes Segment empfahl sich die Kinderliteratur, zum einen wegen ihrer großen Menge und hohen Bedeutung in den ÖBs und der mangelnden Erschließung durch jedwede Klassifikation, zum anderen wegen der Menge und Qualität der freien Schlagwörter in den Daten des Buchhandels. Verabredet wurde, dass die DNB eine Skizze für ein Projekt zur Nutzbarmachung von THEMA und der freien MVB-Schlagwörter erarbeiten und zur Verfügung stellen sollte, während die ÖB-Vertretungen eine Liste von Schlagwörtern im Bereich der Kinderliteratur, die von besonderer Relevanz z.B. bei der Auskunftserteilung sind, an die DNB übermitteln wollten.
  8. Nohr, H.: Automatische Indexierung : Einführung in betriebliche Verfahren, Systeme und Anwendungen (2001) 0.02
    0.023978578 = product of:
      0.1079036 = sum of:
        0.053815376 = weight(_text_:allgemeines in 2543) [ClassicSimilarity], result of:
          0.053815376 = score(doc=2543,freq=4.0), product of:
            0.15091713 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.026451524 = queryNorm
            0.35658893 = fieldWeight in 2543, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.020704787 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.020704787 = score(doc=2543,freq=26.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.3531656 = fieldWeight in 2543, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.020704787 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.020704787 = score(doc=2543,freq=26.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.3531656 = fieldWeight in 2543, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.012678654 = weight(_text_:des in 2543) [ClassicSimilarity], result of:
          0.012678654 = score(doc=2543,freq=4.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.17308173 = fieldWeight in 2543, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
      0.22222222 = coord(4/18)
    
    Abstract
    Das vorliegende Buch zur automatischen Indexierung trägt dem Umstand Rechnung, dass ein ständig wachsender Berg von Dokumenten in Unternehmen, öffentlichen Verwaltungen, Einrichtungen der Fachinformation oder dem Internet entscheidungsrelevante Informationen enthält, die mit manuellen Mitteln und Methoden kaum mehr beherrschbar und erschließbar sind. Diese unstrukturierten Informationen sind in einer zunehmend von der schnellen Verarbeitung der Ressource Information abhängigen Wirtschaft von größter Bedeutung, ihre Beherrschung ist unabdingbar für den Wettbewerbserfolg. Verfahren der automatischen Indexierung von Dokumenten sind damit eine Basistechnik der betrieblichen Informationswirtschaft geworden. Trotz dieses Urnstandes, liegt bis auf den heutigen Tag keine einführende Darstellung in die Thematik vor. Die Zielsetzung dieses Buches ist es, einführend die Grundlagen sowie die verschiedenen Ansätze und Verfahren der automatischen Indexierung von Dokumenten vorzustellen. Die Darstellung verzichtet dabei bewusst auf die allzu detaillierte Tiefendarstellung einzelner Verfahren und Indexierungssysteme zugunsten einer Übersicht der grundsätzlichen Ansätze mit ihren jeweiligen Voraussetzungen, ihren Möglichkeiten und ihren Beschränkungen. Soweit einzelne Verfahren und Indexierungssysteme behandelt werden, besitzen diese beispielhaften Charakter für den behandelten Ansatz. Bei der Darstellung war ich stets uni eine verständliche Sprache bemüht. Der Text dieses Buches ist entstanden aus Vorlesungen in entsprechenden Lehrveranstaltungen im Studiengang Informationswirtschaft an der Fachhochschule Stuttgart. Die Darstellung richtet sich an Studierende und Lehrende der Informationswirtschaft, des Informationsmanagements, der Dokumentation sowie der Wirtschaftsinformatik, zugleich aber auch an die interessierten und mit der Thernatik konfrontierten Praktiker, die weniger an der technischen Seite der automatischen Indexierung, als vielmehr einen grundsätzlichen Informationsbedarf über die Möglichkeiten und die Schwierigkeiten des Einsatzes entsprechender Verfahren haben
    Classification
    AN 95300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Automatisches Indexing (z.B. KWIC, KWOC)
    RVK
    AN 95300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Automatisches Indexing (z.B. KWIC, KWOC)
    Series
    Materialien zur Information und Dokumentation; Bd.13
  9. Malits, A.; Schäuble, P.: ¬Der Digitale Assistent : halbautomatisches Verfahren der Sacherschließung in der Zentralbibliothek Zürich (2014) 0.02
    0.023614595 = product of:
      0.10626567 = sum of:
        0.0142119 = weight(_text_:und in 2562) [ClassicSimilarity], result of:
          0.0142119 = score(doc=2562,freq=4.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.24241515 = fieldWeight in 2562, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2562)
        0.0142119 = weight(_text_:und in 2562) [ClassicSimilarity], result of:
          0.0142119 = score(doc=2562,freq=4.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.24241515 = fieldWeight in 2562, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2562)
        0.050667666 = weight(_text_:technik in 2562) [ClassicSimilarity], result of:
          0.050667666 = score(doc=2562,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.38489443 = fieldWeight in 2562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2562)
        0.027174205 = weight(_text_:des in 2562) [ClassicSimilarity], result of:
          0.027174205 = score(doc=2562,freq=6.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.3709667 = fieldWeight in 2562, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2562)
      0.22222222 = coord(4/18)
    
    Abstract
    Seit Juni 2013 ist der Digitale As­sistent in den Workflow der Erschließungsprozesse der Zentralbibliothek Zürich integriert. Das System des Di­gitalen Assistenten kombiniert automatisch unterstützte Prozesse und intellektuelle Sacherschließung: Es werden Schlagwortvorschläge generiert, die danach intellektuell von den Fachreferenten überprüft werden. Im vorliegenden Beitrag wird die Entwicklung des Digitalen Assis­tenten im Kontext der Praxis der Sacherschließung im Allgemeinen und in der Zentralbibliothek Zürich im Speziellen skizziert. Im Anschluss werden die unterschied­lichen Prozesse der Datenverarbeitung des Systems näher erläutert, sodann wird auf Basis von Statistiken ein erstes Resümee gezogen. Ausführungen zu technischen Spezifikationen runden den Bericht ab.
    Source
    ABI-Technik. 34(2014) H.3/4, S.132-143
  10. Munkelt, J.: Erstellung einer DNB-Retrieval-Testkollektion (2018) 0.02
    0.023508003 = product of:
      0.10578601 = sum of:
        0.024615733 = weight(_text_:und in 4310) [ClassicSimilarity], result of:
          0.024615733 = score(doc=4310,freq=12.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.41987535 = fieldWeight in 4310, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4310)
        0.04086551 = product of:
          0.08173102 = sum of:
            0.08173102 = weight(_text_:kommunikationswissenschaften in 4310) [ClassicSimilarity], result of:
              0.08173102 = score(doc=4310,freq=4.0), product of:
                0.14059173 = queryWeight, product of:
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.026451524 = queryNorm
                0.5813359 = fieldWeight in 4310, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4310)
          0.5 = coord(1/2)
        0.024615733 = weight(_text_:und in 4310) [ClassicSimilarity], result of:
          0.024615733 = score(doc=4310,freq=12.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.41987535 = fieldWeight in 4310, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4310)
        0.015689032 = weight(_text_:des in 4310) [ClassicSimilarity], result of:
          0.015689032 = score(doc=4310,freq=2.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.2141777 = fieldWeight in 4310, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4310)
      0.22222222 = coord(4/18)
    
    Abstract
    Seit Herbst 2017 findet in der Deutschen Nationalbibliothek die Inhaltserschließung bestimmter Medienwerke rein maschinell statt. Die Qualität dieses Verfahrens, das die Prozessorganisation von Bibliotheken maßgeblich prägen kann, wird unter Fachleuten kontrovers diskutiert. Ihre Standpunkte werden zunächst hinreichend erläutert, ehe die Notwendigkeit einer Qualitätsprüfung des Verfahrens und dessen Grundlagen dargelegt werden. Zentraler Bestandteil einer künftigen Prüfung ist eine Testkollektion. Ihre Erstellung und deren Dokumentation steht im Fokus dieser Arbeit. In diesem Zusammenhang werden auch die Entstehungsgeschichte und Anforderungen an gelungene Testkollektionen behandelt. Abschließend wird ein Retrievaltest durchgeführt, der die Einsatzfähigkeit der erarbeiteten Testkollektion belegt. Seine Ergebnisse dienen ausschließlich der Funktionsüberprüfung. Eine Qualitätsbeurteilung maschineller Inhaltserschließung im Speziellen sowie im Allgemeinen findet nicht statt und ist nicht Ziel der Ausarbeitung.
    Content
    Bachelorarbeit, Bibliothekswissenschaften, Fakultät für Informations- und Kommunikationswissenschaften, Technische Hochschule Köln
    Imprint
    Köln : Technische Hochschule, Fakultät für Informations- und Kommunikationswissenschaften
  11. Sack, H.: Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung (2021) 0.02
    0.023254624 = product of:
      0.1046458 = sum of:
        0.021099199 = weight(_text_:und in 372) [ClassicSimilarity], result of:
          0.021099199 = score(doc=372,freq=12.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.35989314 = fieldWeight in 372, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=372)
        0.021099199 = weight(_text_:und in 372) [ClassicSimilarity], result of:
          0.021099199 = score(doc=372,freq=12.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.35989314 = fieldWeight in 372, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=372)
        0.043429427 = weight(_text_:technik in 372) [ClassicSimilarity], result of:
          0.043429427 = score(doc=372,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.3299095 = fieldWeight in 372, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.046875 = fieldNorm(doc=372)
        0.01901798 = weight(_text_:des in 372) [ClassicSimilarity], result of:
          0.01901798 = score(doc=372,freq=4.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.25962257 = fieldWeight in 372, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=372)
      0.22222222 = coord(4/18)
    
    Abstract
    Effizienter (Online-)Zugang zu Bibliotheks- und Archivmaterialien erfordert eine qualitativ hinreichende inhaltliche Erschließung dieser Dokumente. Die passgenaue Verschlagwortung und Kategorisierung dieser unstrukturierten Dokumente ermöglichen einen strukturell gegliederten Zugang sowohl in der analogen als auch in der digitalen Welt. Darüber hinaus erweitert eine vollständige Transkription der Dokumente den Zugang über die Möglichkeiten der Volltextsuche. Angesichts der in jüngster Zeit erzielten spektakulären Erfolge der Künstlichen Intelligenz liegt die Schlussfolgerung nahe, dass auch das Problem der automatisierten Inhaltserschließung für Bibliotheken und Archive als mehr oder weniger gelöst anzusehen wäre. Allerdings lassen sich die oftmals nur in thematisch engen Teilbereichen erzielten Erfolge nicht immer problemlos verallgemeinern oder in einen neuen Kontext übertragen. Das Ziel der vorliegenden Darstellung liegt in der Diskussion des aktuellen Stands der Technik der automatisierten inhaltlichen Erschließung anhand ausgewählter Beispiele sowie möglicher Fortschritte und Prognosen basierend auf aktuellen Entwicklungen des maschinellen Lernens und der Künstlichen Intelligenz einschließlich deren Kritik.
    Series
    Bibliotheks- und Informationspraxis; 70
  12. Stock, M.: Textwortmethode und Übersetzungsrelation : Eine Methode zum Aufbau von kombinierten Literaturnachweis- und Terminologiedatenbanken (1989) 0.02
    0.022764202 = product of:
      0.1365852 = sum of:
        0.032101408 = weight(_text_:und in 3412) [ClassicSimilarity], result of:
          0.032101408 = score(doc=3412,freq=10.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.54756 = fieldWeight in 3412, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3412)
        0.032101408 = weight(_text_:und in 3412) [ClassicSimilarity], result of:
          0.032101408 = score(doc=3412,freq=10.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.54756 = fieldWeight in 3412, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3412)
        0.07238238 = weight(_text_:technik in 3412) [ClassicSimilarity], result of:
          0.07238238 = score(doc=3412,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.5498492 = fieldWeight in 3412, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.078125 = fieldNorm(doc=3412)
      0.16666667 = coord(3/18)
    
    Abstract
    Geisteswissenschaftliche Fachinformation erfordert eine enge Kooperation zwischen Literaturnachweis- und Terminologieinformationssystemen. Eine geeignete Dokumentationsmethode für die Auswertung geisteswissen- schaftlicher Literatur ist die Textwortwethode. Dem originalsprachig aufgenommenen Begriffsrepertoire ist ein einheitssprachiger Zugriff beizuordnen, der einerseits ein vollständiges und genaues Retrieval garantiert und andererseits den Aufbau fachspezifischer Wörterbücher vorantreibt
    Source
    ABI-Technik. 9(1989), S.309-313
  13. Carevic, Z.: Semi-automatische Verschlagwortung zur Integration externer semantischer Inhalte innerhalb einer medizinischen Kooperationsplattform (2012) 0.02
    0.022195103 = product of:
      0.09987796 = sum of:
        0.053815376 = weight(_text_:allgemeines in 897) [ClassicSimilarity], result of:
          0.053815376 = score(doc=897,freq=4.0), product of:
            0.15091713 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.026451524 = queryNorm
            0.35658893 = fieldWeight in 897, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.014066133 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.014066133 = score(doc=897,freq=12.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.014066133 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.014066133 = score(doc=897,freq=12.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.017930323 = weight(_text_:des in 897) [ClassicSimilarity], result of:
          0.017930323 = score(doc=897,freq=8.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.24477452 = fieldWeight in 897, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
      0.22222222 = coord(4/18)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit der Integration von externen semantischen Inhalten auf Basis eines medizinischen Begriffssystems. Die zugrundeliegende Annahme ist, dass die Verwendung einer einheitlichen Terminologie auf Seiten des Anfragesystems und der Wissensbasis zu qualitativ hochwertigen Ergebnissen führt. Um dies zu erreichen muss auf Seiten des Anfragesystems eine Abbildung natürlicher Sprache auf die verwendete Terminologie gewährleistet werden. Dies geschieht auf Basis einer (semi-)automatischen Verschlagwortung textbasierter Inhalte. Im Wesentlichen lassen sich folgende Fragestellungen festhalten: Automatische Verschlagwortung textbasierter Inhalte Kann eine automatische Verschlagwortung textbasierter Inhalte auf Basis eines Begriffssystems optimiert werden? Der zentrale Aspekt der vorliegenden Arbeit ist die (semi-)automatische Verschlagwortung textbasierter Inhalte auf Basis eines medizinischen Begriffssystems. Zu diesem Zweck wird der aktuelle Stand der Forschung betrachtet. Es werden eine Reihe von Tokenizern verglichen um zu erfahren welche Algorithmen sich zur Ermittlung von Wortgrenzen eignen. Speziell wird betrachtet, wie die Ermittlung von Wortgrenzen in einer domänenspezifischen Umgebung eingesetzt werden kann. Auf Basis von identifizierten Token in einem Text werden die Auswirkungen des Stemming und POS-Tagging auf die Gesamtmenge der zu analysierenden Inhalte beobachtet. Abschließend wird evaluiert wie ein kontrolliertes Vokabular die Präzision bei der Verschlagwortung erhöhen kann. Dies geschieht unter der Annahme dass domänenspezifische Inhalte auch innerhalb eines domänenspezifischen Begriffssystems definiert sind. Zu diesem Zweck wird ein allgemeines Prozessmodell entwickelt anhand dessen eine Verschlagwortung vorgenommen wird.
    Integration externer Inhalte Inwieweit kann die Nutzung einer einheitlichen Terminologie zwischen Anfragesystem und Wissensbasis den Prozess der Informationsbeschaffung unterstützen? Zu diesem Zweck wird in einer ersten Phase ermittelt welche Wissensbasen aus der medizinischen Domäne in der Linked Data Cloud zur Verfügung stehen. Aufbauend auf den Ergebnissen werden Informationen aus verschiedenen dezentralen Wissensbasen exemplarisch integriert. Der Fokus der Betrachtung liegt dabei auf der verwendeten Terminologie sowie der Nutzung von Semantic Web Technologien. Neben Informationen aus der Linked Data Cloud erfolgt eine Suche nach medizinischer Literatur in PubMed. Wie auch in der Linked Data Cloud erfolgt die Integration unter Verwendung einer einheitlichen Terminologie. Eine weitere Fragestellung ist, wie Informationen aus insgesamt 21. Mio Aufsatzzitaten in PubMed sinnvoll integriert werden können. Dabei wird ermittelt welche Mechanismen eingesetzt werden können um die Präzision der Ergebnisse zu optimieren. Eignung medizinischer Begriffssystem Welche medizinischen Begriffssysteme existieren und wie eignen sich diese als zugrungeliegendes Vokabular für die automatische Verschlagwortung und Integration semantischer Inhalte? Der Fokus liegt dabei speziell auf einer Bewertung der Reichhaltigkeit von Begriffssystemen, wobei insbesondere der Detaillierungsgrad von Interesse ist. Handelt es sich um ein spezifisches oder allgemeines Begriffssystem und eignet sich dieses auch dafür bestimmte Teilaspekte der Medizin, wie bspw. die Chirurige oder die Anästhesie, in einer ausreichenden Tiefe zu beschreiben?
    Content
    Masterarbeit, ausgearbeitet von Zeljko Carevic zur Erlangung des akademischen Grades Master of Science vorgelegt an der Fachhochschule Köln Campus Gummersbach im Studiengang Medieninformatik. Vgl.. unter: http://opus.bibl.fh-koeln.de/volltexte/2012/376/pdf/Carevic.pdf.
  14. Bredack, J.; Lepsky, K.: Automatische Extraktion von Fachterminologie aus Volltexten (2014) 0.02
    0.021956917 = product of:
      0.09880613 = sum of:
        0.01148495 = weight(_text_:und in 4872) [ClassicSimilarity], result of:
          0.01148495 = score(doc=4872,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.19590102 = fieldWeight in 4872, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4872)
        0.01148495 = weight(_text_:und in 4872) [ClassicSimilarity], result of:
          0.01148495 = score(doc=4872,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.19590102 = fieldWeight in 4872, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4872)
        0.057905905 = weight(_text_:technik in 4872) [ClassicSimilarity], result of:
          0.057905905 = score(doc=4872,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.43987936 = fieldWeight in 4872, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0625 = fieldNorm(doc=4872)
        0.017930323 = weight(_text_:des in 4872) [ClassicSimilarity], result of:
          0.017930323 = score(doc=4872,freq=2.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.24477452 = fieldWeight in 4872, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=4872)
      0.22222222 = coord(4/18)
    
    Abstract
    Fachterminologie in wissenschaftlichen Texten liegt häufig in Form von Phrasen oder Mehrwortgruppen vor. Vorgestellt wird ein algorithmisches Verfahren zur Identifikation und Extraktion fachtermi­nologischer Mehrwortgruppen. Besonderer Schwerpunkt ist die Einbindung von Funktionswörtern der deutschen Sprache, um die Extraktion komplexer Mehrwortkonstruktionen zu ermöglichen. Eingesetzt wurde das automatische Indexierungssystem Lingo. Die Ergebnisse für eine Extraktion kunsthistorischer Fachterminologie aus dem Reallexikon zur Deutschen Kunstgeschichte belegen die Tauglichkeit des Verfahrens.
    Source
    ABI-Technik. 34(2014) H.1, S.2-8
  15. Hauer, M.: Neue Qualitäten in Bibliotheken : Durch Content-Ergänzung, maschinelle Indexierung und modernes Information Retrieval können Recherchen in Bibliothekskatalogen deutlich verbessert werden (2004) 0.02
    0.021135934 = product of:
      0.1268156 = sum of:
        0.03445485 = weight(_text_:und in 886) [ClassicSimilarity], result of:
          0.03445485 = score(doc=886,freq=18.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.58770305 = fieldWeight in 886, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
        0.03445485 = weight(_text_:und in 886) [ClassicSimilarity], result of:
          0.03445485 = score(doc=886,freq=18.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.58770305 = fieldWeight in 886, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
        0.057905905 = weight(_text_:technik in 886) [ClassicSimilarity], result of:
          0.057905905 = score(doc=886,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.43987936 = fieldWeight in 886, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
      0.16666667 = coord(3/18)
    
    Abstract
    Seit Frühjahr 2004 ist Dandelon.com als neues, offenes, internationales Wissenschaftsportal in Betrieb. Erste Retrieval-Tests bescheinigen deutlich bessere Suchergebnisse als in herkömmlichen OPACs oder Verbundsystemen. Seine Daten stammen aus intelligentCAPTURE und Bibliothekskatalogen. intelligentCAPTURE erfasst Content über Scanning oder File-Import oder Web-Spidering und indexiert nach morphosyntaktischen und semantischen Verfahren. Aufbereiteter Content und Indexate gehen an Bibliothekssysteme und an dandelon.com. Dandelon.com ist kostenlos zugänglich für Endbenutzer und ist zugleich Austauschzentrale und Katalogerweiterung für angeschlossene Bibliotheken. Neue Inhalte können so kostengünstig und performant erschlossen werden.
    Source
    ABI-Technik. 24(2004) H.4, S.262-
  16. Lepsky, K.: Automatisierung in der Sacherschließung : Maschinelles Indexieren von Titeldaten (1996) 0.02
    0.021069184 = product of:
      0.1264151 = sum of:
        0.07768858 = weight(_text_:medien in 3418) [ClassicSimilarity], result of:
          0.07768858 = score(doc=3418,freq=2.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.62401694 = fieldWeight in 3418, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.09375 = fieldNorm(doc=3418)
        0.024363257 = weight(_text_:und in 3418) [ClassicSimilarity], result of:
          0.024363257 = score(doc=3418,freq=4.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.41556883 = fieldWeight in 3418, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=3418)
        0.024363257 = weight(_text_:und in 3418) [ClassicSimilarity], result of:
          0.024363257 = score(doc=3418,freq=4.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.41556883 = fieldWeight in 3418, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=3418)
      0.16666667 = coord(3/18)
    
    Series
    Zeitschrift für Bibliothekswesen und Bibliographie: Sonderh.63
    Source
    85. Deutscher Bibliothekartag in Göttingen 1995: Die Herausforderung der Bibliotheken durch elektronische Medien und neue Organisationsformen. Hrsg.: S. Wefers
  17. Lepsky, K.; Zimmermann, H.H.: Katalogerweiterung durch Scanning und Automatische Dokumenterschließung : Das DFG-Projekt KASCADE (1998) 0.02
    0.020218952 = product of:
      0.121313706 = sum of:
        0.017227424 = weight(_text_:und in 3938) [ClassicSimilarity], result of:
          0.017227424 = score(doc=3938,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.29385152 = fieldWeight in 3938, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=3938)
        0.017227424 = weight(_text_:und in 3938) [ClassicSimilarity], result of:
          0.017227424 = score(doc=3938,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.29385152 = fieldWeight in 3938, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=3938)
        0.08685885 = weight(_text_:technik in 3938) [ClassicSimilarity], result of:
          0.08685885 = score(doc=3938,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.659819 = fieldWeight in 3938, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.09375 = fieldNorm(doc=3938)
      0.16666667 = coord(3/18)
    
    Source
    ABI-Technik. 18(1998) H.1, S.56-60
  18. Schäuble, P.: Kostengünstige Konversion großer Bibliothekskataloge (1996) 0.02
    0.020218952 = product of:
      0.121313706 = sum of:
        0.017227424 = weight(_text_:und in 4232) [ClassicSimilarity], result of:
          0.017227424 = score(doc=4232,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.29385152 = fieldWeight in 4232, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4232)
        0.017227424 = weight(_text_:und in 4232) [ClassicSimilarity], result of:
          0.017227424 = score(doc=4232,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.29385152 = fieldWeight in 4232, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4232)
        0.08685885 = weight(_text_:technik in 4232) [ClassicSimilarity], result of:
          0.08685885 = score(doc=4232,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.659819 = fieldWeight in 4232, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.09375 = fieldNorm(doc=4232)
      0.16666667 = coord(3/18)
    
    Content
    Kurzbericht über eine Konversion von Katalogkarten mit Automatischer Indexierung und grafischer Abbildung der Katalogkarten im Retrievalsystem
    Source
    ABI-Technik. 16(1996) H.2, S.165-166
  19. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.02
    0.019672971 = product of:
      0.08852837 = sum of:
        0.03014799 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.03014799 = score(doc=5671,freq=18.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.03014799 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.03014799 = score(doc=5671,freq=18.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.015689032 = weight(_text_:des in 5671) [ClassicSimilarity], result of:
          0.015689032 = score(doc=5671,freq=2.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.2141777 = fieldWeight in 5671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.012543357 = product of:
          0.025086714 = sum of:
            0.025086714 = weight(_text_:22 in 5671) [ClassicSimilarity], result of:
              0.025086714 = score(doc=5671,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.2708308 = fieldWeight in 5671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5671)
          0.5 = coord(1/2)
      0.22222222 = coord(4/18)
    
    Abstract
    Methoden der automatischen Inhaltserschließung werden seit mehr als 30 Jahren entwickelt, ohne in luD-Kreisen auf merkliche Akzeptanz zu stoßen. Gegenwärtig führen jedoch die steigende Informationsflut und der Bedarf an effizienten Zugriffsverfahren im Informations- und Wissensmanagement in breiten Anwenderkreisen zu einem wachsenden Interesse an diesen Methoden, zu verstärkten Anstrengungen in Forschung und Entwicklung und zu neuen Produkten. In diesem Beitrag werden verschiedene Ansätze zu intelligentem und inhaltsbasiertem Retrieval und zur automatischen Inhaltserschließung diskutiert sowie kommerziell vertriebene Softwarewerkzeuge und Lösungen präsentiert. Abschließend wird festgestellt, dass in naher Zukunft mit einer zunehmenden Automatisierung von bestimmten Komponenten des Informations- und Wissensmanagements zu rechnen ist, indem Software-Werkzeuge zur automatischen Inhaltserschließung in den Workflow integriert werden
    Date
    22. 3.2001 13:14:48
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.2, S.69-78
  20. Oberhauser, O.; Labner, J.: OPAC-Erweiterung durch automatische Indexierung : Empirische Untersuchung mit Daten aus dem Österreichischen Verbundkatalog (2002) 0.02
    0.019270211 = product of:
      0.08671595 = sum of:
        0.014919387 = weight(_text_:und in 883) [ClassicSimilarity], result of:
          0.014919387 = score(doc=883,freq=6.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.2544829 = fieldWeight in 883, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
        0.014919387 = weight(_text_:und in 883) [ClassicSimilarity], result of:
          0.014919387 = score(doc=883,freq=6.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.2544829 = fieldWeight in 883, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
        0.043429427 = weight(_text_:technik in 883) [ClassicSimilarity], result of:
          0.043429427 = score(doc=883,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.3299095 = fieldWeight in 883, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
        0.013447743 = weight(_text_:des in 883) [ClassicSimilarity], result of:
          0.013447743 = score(doc=883,freq=2.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.18358089 = fieldWeight in 883, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
      0.22222222 = coord(4/18)
    
    Abstract
    In Anlehnung an die in den neunziger Jahren durchgeführten Erschließungsprojekte MILOS I und MILOS II, die die Eignung eines Verfahrens zur automatischen Indexierung für Bibliothekskataloge zum Thema hatten, wurde eine empirische Untersuchung anhand einer repräsentativen Stichprobe von Titelsätzen aus dem Österreichischen Verbundkatalog durchgeführt. Ziel war die Prüfung und Bewertung der Einsatzmöglichkeit dieses Verfahrens in den Online-Katalogen des Verbundes. Der Realsituation der OPAC-Benutzung gemäß wurde ausschließlich die Auswirkung auf den automatisch generierten Begriffen angereicherten Basic Index ("Alle Felder") untersucht. Dazu wurden 100 Suchanfragen zunächst im ursprünglichen Basic Index und sodann im angereicherten Basic Index in einem OPAC unter Aleph 500 durchgeführt. Die Tests erbrachten einen Zuwachs an relevanten Treffern bei nur leichten Verlusten an Precision, eine Reduktion der Nulltreffer-Ergebnisse sowie Aufschlüsse über die Auswirkung einer vorhandenen verbalen Sacherschließung.
    Source
    ABI-Technik. 23(2003) H.4, S.305-314

Years

Languages

  • d 167
  • e 27
  • ru 2
  • a 1
  • f 1
  • m 1
  • nl 1
  • More… Less…

Types

  • a 145
  • x 31
  • el 21
  • m 11
  • s 6
  • p 2
  • d 1
  • h 1
  • r 1
  • More… Less…