Search (202 results, page 2 of 11)

  • × theme_ss:"Automatisches Indexieren"
  1. Schulz, K.U.; Brunner, L.: Vollautomatische thematische Verschlagwortung großer Textkollektionen mittels semantischer Netze (2017) 0.07
    0.071395576 = product of:
      0.24096008 = sum of:
        0.020581704 = weight(_text_:und in 3493) [ClassicSimilarity], result of:
          0.020581704 = score(doc=3493,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.34282678 = fieldWeight in 3493, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3493)
        0.02276779 = weight(_text_:dem in 3493) [ClassicSimilarity], result of:
          0.02276779 = score(doc=3493,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.25496438 = fieldWeight in 3493, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3493)
        0.039111786 = weight(_text_:der in 3493) [ClassicSimilarity], result of:
          0.039111786 = score(doc=3493,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.6464053 = fieldWeight in 3493, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3493)
        0.020581704 = weight(_text_:und in 3493) [ClassicSimilarity], result of:
          0.020581704 = score(doc=3493,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.34282678 = fieldWeight in 3493, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3493)
        0.039111786 = weight(_text_:der in 3493) [ClassicSimilarity], result of:
          0.039111786 = score(doc=3493,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.6464053 = fieldWeight in 3493, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3493)
        0.039111786 = weight(_text_:der in 3493) [ClassicSimilarity], result of:
          0.039111786 = score(doc=3493,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.6464053 = fieldWeight in 3493, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3493)
        0.039111786 = weight(_text_:der in 3493) [ClassicSimilarity], result of:
          0.039111786 = score(doc=3493,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.6464053 = fieldWeight in 3493, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3493)
        0.020581704 = weight(_text_:und in 3493) [ClassicSimilarity], result of:
          0.020581704 = score(doc=3493,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.34282678 = fieldWeight in 3493, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3493)
      0.2962963 = coord(8/27)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.13
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  2. Böhm, A.; Seifert, C.; Schlötterer, J.; Granitzer, M.: Identifying tweets from the economic domain (2017) 0.07
    0.071395576 = product of:
      0.24096008 = sum of:
        0.020581704 = weight(_text_:und in 3495) [ClassicSimilarity], result of:
          0.020581704 = score(doc=3495,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.34282678 = fieldWeight in 3495, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
        0.02276779 = weight(_text_:dem in 3495) [ClassicSimilarity], result of:
          0.02276779 = score(doc=3495,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.25496438 = fieldWeight in 3495, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
        0.039111786 = weight(_text_:der in 3495) [ClassicSimilarity], result of:
          0.039111786 = score(doc=3495,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.6464053 = fieldWeight in 3495, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
        0.020581704 = weight(_text_:und in 3495) [ClassicSimilarity], result of:
          0.020581704 = score(doc=3495,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.34282678 = fieldWeight in 3495, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
        0.039111786 = weight(_text_:der in 3495) [ClassicSimilarity], result of:
          0.039111786 = score(doc=3495,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.6464053 = fieldWeight in 3495, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
        0.039111786 = weight(_text_:der in 3495) [ClassicSimilarity], result of:
          0.039111786 = score(doc=3495,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.6464053 = fieldWeight in 3495, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
        0.039111786 = weight(_text_:der in 3495) [ClassicSimilarity], result of:
          0.039111786 = score(doc=3495,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.6464053 = fieldWeight in 3495, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
        0.020581704 = weight(_text_:und in 3495) [ClassicSimilarity], result of:
          0.020581704 = score(doc=3495,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.34282678 = fieldWeight in 3495, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
      0.2962963 = coord(8/27)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.13
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  3. Lepsky, K.: Automatisches Indexieren (2023) 0.07
    0.07033676 = product of:
      0.21101026 = sum of:
        0.017824277 = weight(_text_:und in 781) [ClassicSimilarity], result of:
          0.017824277 = score(doc=781,freq=6.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.2968967 = fieldWeight in 781, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=781)
        0.034477964 = weight(_text_:aus in 781) [ClassicSimilarity], result of:
          0.034477964 = score(doc=781,freq=4.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.37311903 = fieldWeight in 781, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0546875 = fieldNorm(doc=781)
        0.039434966 = weight(_text_:dem in 781) [ClassicSimilarity], result of:
          0.039434966 = score(doc=781,freq=6.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.44161126 = fieldWeight in 781, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0546875 = fieldNorm(doc=781)
        0.020906128 = weight(_text_:der in 781) [ClassicSimilarity], result of:
          0.020906128 = score(doc=781,freq=8.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.34551817 = fieldWeight in 781, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=781)
        0.017824277 = weight(_text_:und in 781) [ClassicSimilarity], result of:
          0.017824277 = score(doc=781,freq=6.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.2968967 = fieldWeight in 781, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=781)
        0.020906128 = weight(_text_:der in 781) [ClassicSimilarity], result of:
          0.020906128 = score(doc=781,freq=8.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.34551817 = fieldWeight in 781, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=781)
        0.020906128 = weight(_text_:der in 781) [ClassicSimilarity], result of:
          0.020906128 = score(doc=781,freq=8.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.34551817 = fieldWeight in 781, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=781)
        0.020906128 = weight(_text_:der in 781) [ClassicSimilarity], result of:
          0.020906128 = score(doc=781,freq=8.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.34551817 = fieldWeight in 781, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=781)
        0.017824277 = weight(_text_:und in 781) [ClassicSimilarity], result of:
          0.017824277 = score(doc=781,freq=6.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.2968967 = fieldWeight in 781, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=781)
      0.33333334 = coord(9/27)
    
    Abstract
    Unter Indexierung versteht man die Zuordnung von inhaltskennzeichnenden Ausdrücken (Indextermen, Indexaten, Erschließungsmerkmalen) zu Dokumenten. Über die zugeteilten Indexterme soll ein gezieltes Auffinden der Dokumente ermöglicht werden. Indexterme können inhaltsbeschreibende Merkmale wie Notationen, Deskriptoren, kontrollierte oder freie Schlagwörter sein; es kann sich auch um reine Stichwörter handeln, die aus dem Text des Dokuments gewonnen werden. Eine Indexierung kann intellektuell, computerunterstützt oder automatisch erfolgen. Computerunterstützte Indexierungsverfahren kombinieren die intellektuelle Indexierung mit automatischen Vorarbeiten. Bei der automatischen Indexierung werden die Indexterme automatisch aus dem Dokumenttext ermittelt und dem Dokument zugeordnet. Automatische Indexierung bedient sich für die Verarbeitung der Zeichenketten im Dokument linguistischer und statistischer Verfahren.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  4. Lohmann, H.: KASCADE: Dokumentanreicherung und automatische Inhaltserschließung : Projektbericht und Ergebnisse des Retrievaltests (2000) 0.07
    0.07004026 = product of:
      0.21012078 = sum of:
        0.017065449 = weight(_text_:und in 494) [ClassicSimilarity], result of:
          0.017065449 = score(doc=494,freq=22.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.28425696 = fieldWeight in 494, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.0121898 = weight(_text_:aus in 494) [ClassicSimilarity], result of:
          0.0121898 = score(doc=494,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.13191749 = fieldWeight in 494, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.03415168 = weight(_text_:dem in 494) [ClassicSimilarity], result of:
          0.03415168 = score(doc=494,freq=18.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.38244656 = fieldWeight in 494, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.028145738 = weight(_text_:der in 494) [ClassicSimilarity], result of:
          0.028145738 = score(doc=494,freq=58.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4651681 = fieldWeight in 494, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.017065449 = weight(_text_:und in 494) [ClassicSimilarity], result of:
          0.017065449 = score(doc=494,freq=22.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.28425696 = fieldWeight in 494, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.028145738 = weight(_text_:der in 494) [ClassicSimilarity], result of:
          0.028145738 = score(doc=494,freq=58.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4651681 = fieldWeight in 494, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.028145738 = weight(_text_:der in 494) [ClassicSimilarity], result of:
          0.028145738 = score(doc=494,freq=58.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4651681 = fieldWeight in 494, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.028145738 = weight(_text_:der in 494) [ClassicSimilarity], result of:
          0.028145738 = score(doc=494,freq=58.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4651681 = fieldWeight in 494, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.017065449 = weight(_text_:und in 494) [ClassicSimilarity], result of:
          0.017065449 = score(doc=494,freq=22.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.28425696 = fieldWeight in 494, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
      0.33333334 = coord(9/27)
    
    Abstract
    Der Test hat gezeigt, dass die Ergänzung der bibliothekarischen Titelaufnahme um zusätzliche inhaltsrelevante Daten zu einer beeindruckenden Verbesserung der Suchergebnisse führt. Die Dokumentanreicherung sollte daher als Ziel bibliothekarischer Bemühungen um eine Verbesserung des OPAC-Retrievals weiterverfolgt werden. Der im Projekt eingeschlagene Weg, die Inhaltsverzeichnisse zu scannen, erwies sich allerdings als wenig sinnvoll. Zwar erzielte das Scanningverfahren gute Ergebnisse, auch arbeitete die Texterkennungssoftware sehr zuverlässig. Das Scanning bietet darüber hinaus die Möglichkeit, die dabei angefertigte Grafik-Datei mit dem Titelsatz im OPAC zu verknüpfen und so dem Nutzer als Entscheidungshilfe bei der Ergebnismengenbeurteilung an die Hand zu geben. Die Arbeiten am Aufbau der Testdatenbank brachten aber die Erkenntnis, dass die Anreicherung im Wege des Scanning technisch außerordentlich problematisch ist und einen nicht vorauszusehenden und letztlich auch nicht zu rechtfertigenden Aufwand erfordert. Diese Methode der Anreicherung kann daher für einen Praxiseinsatz nicht empfohlen werden.
    Verbesserungen des Gewichtungsverfahrens sollten schließlich unterstützt werden durch Maßnahmen zur Optimierung der Retrievalumgebung, etwa durch - den Einsatz von Hypertextwerkzeugen; - die Integration der THEAS-Komponente, mit der die automatische Mehrwortgruppengewinnung mit Hilfe eines Mehrwortgruppen-Parsers möglich ist; dies könnte im Rahmen der Dialogführung mit dem Nutzer eingesetzt werden, wenn dieser Teilkomponenten solcher Mehrwortgruppen im Retrieval verwendet. Mit THEAS wäre daneben der Einstieg in das Retrieval über das Register mit kanonischen Formen möglich; - die Integration von Wörterbuchfunktionen zur Benutzerunterstützung. Eine Weiterentwicklung des SELIX-Verfahrens könnte daneben in diese Richtungen erfolgen: - Bildung von Dokument-Clustern. Dabei werden Dokumente in einem Dokumenten-Raum einander in dem Maße zugeordnet, in dem ihre selektierten Grundformen übereinstimmen. - Errichtung von statistisch basierten semantischen Netzen, in denen Grundformen einander in einem Begriffs-Raum in dem Maße zugeordnet werden, in dem sie "gemeinsam" in Dokumenten auftreten.
    Abgesehen von diesen Überlegungen müssten für einen praktischen Einsatz der KASCADE-Entwicklungen weitere Voraussetzungen geschaffen werden. Erforderlich wäre zunächst die Optimierung und Rationalisierung der Verfahrensabläufe selbst. Die Teilprogramme unter KasKoll sollten in ein kompaktes Programm integriert werden. Die Sortiervorgänge könnten vereinfacht werden, indem die Deskriptoren in eine relationale Datenbank überführt werden. Letztendlich wirken sich diese Punkte aber vor allem auf die Dauer der Maschinenlaufzeiten aus, die bei der Frage nach den Implementierungskosten letztlich nur eine untergeordnete Rolle spielen. Optimiert werden sollte die Oberfläche zur Steuerung des Verfahrens. Bereits jetzt laufen einige der Programme unter einer menügeführten Windows-Schnittstelle (Kasadew) ab, was für alle Verfahrensteile erreicht werden sollte. Schließlich ist zu klären, unter welchen Bedingungen das Gewichtungsverfahren im Praxisbetrieb ablaufen kann.
    Da sich mit jedem Dokument, das zu dem im Gewichtungsverfahren befindlichen Gesamtbestand hinzukommt, die Werte aller bereits gewichteten Deskriptoren ändern können, müsste die Berechnung der Häufigkeitsverteilung jeder Grundform im Prinzip nach jeder Änderung im Dokumentbestand neu berechnet werden. Eine Online-Aktualisierung des Bestandes erscheint daher wenig sinnvoll. In der Praxis könnte eine Neuberechnung in bestimmten zeitlichen Abständen mit einem Abzug des OPAC-Bestandes unabhängig vom eigentlichen Betrieb des OPAC erfolgen, was auch insofern genügen würde, als die zugrunde liegenden Maße auf relativen Häufigkeiten basieren. Dadurch würde nur ein geringer Verzug in der Bereitstellung der aktuellen Gewichte eintreten. Außerdem würde der Zeitfaktor eine nur untergeordnete Rolle spielen, da ein offline ablaufender Gewichtungslauf erst bis zum nächsten Aktualisierungszeitpunkt abgeschlossen sein müsste. Denkbar wäre zusätzlich, für die Zeit zwischen zwei Aktualisierungen des OPACs für die in den Neuzugängen enthaltenen Begriffe Standardgewichte einzusetzen, soweit diese Begriffe bereits in dem Bestand auftreten. Bei entsprechender Optimierung und Rationalisierung der SELIX-Verfahrensabläufe, Nutzung der Gewichte auf der Retrievalseite für ein Ranking der auszugebenden Dokumente und Integration der THEAS-Komponente kann das Verfahren zu einem wirkungsvollen Instrument zur Verbesserung der Retrievaleffektivität weiterentwickelt werden.
    Footnote
    Zugl.: Köln, Fachhochsch., Fachbereich Bibliotheks- und Informationswesen, Hausarbeit
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 31
  5. Gaus, W.; Kaluscha, R.: Maschinelle inhaltliche Erschließung von Arztbriefen und Auswertung von Reha-Entlassungsberichten (2006) 0.07
    0.0693738 = product of:
      0.20812139 = sum of:
        0.025632447 = weight(_text_:und in 6078) [ClassicSimilarity], result of:
          0.025632447 = score(doc=6078,freq=38.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.42695636 = fieldWeight in 6078, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.019701693 = weight(_text_:aus in 6078) [ClassicSimilarity], result of:
          0.019701693 = score(doc=6078,freq=4.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.21321087 = fieldWeight in 6078, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.013010165 = weight(_text_:dem in 6078) [ClassicSimilarity], result of:
          0.013010165 = score(doc=6078,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.14569393 = fieldWeight in 6078, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.02462805 = weight(_text_:der in 6078) [ClassicSimilarity], result of:
          0.02462805 = score(doc=6078,freq=34.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40703082 = fieldWeight in 6078, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.025632447 = weight(_text_:und in 6078) [ClassicSimilarity], result of:
          0.025632447 = score(doc=6078,freq=38.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.42695636 = fieldWeight in 6078, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.02462805 = weight(_text_:der in 6078) [ClassicSimilarity], result of:
          0.02462805 = score(doc=6078,freq=34.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40703082 = fieldWeight in 6078, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.02462805 = weight(_text_:der in 6078) [ClassicSimilarity], result of:
          0.02462805 = score(doc=6078,freq=34.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40703082 = fieldWeight in 6078, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.02462805 = weight(_text_:der in 6078) [ClassicSimilarity], result of:
          0.02462805 = score(doc=6078,freq=34.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40703082 = fieldWeight in 6078, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.025632447 = weight(_text_:und in 6078) [ClassicSimilarity], result of:
          0.025632447 = score(doc=6078,freq=38.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.42695636 = fieldWeight in 6078, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
      0.33333334 = coord(9/27)
    
    Abstract
    Schon Hippokrates empfahl den Ärzten, Krankenakten zu führen. Heute ist die detaillierte Dokumentation eine Standespflicht der Ärzte [Gaus et al 1999]. Diese Dokumentationen medizinischer Behandlungen bergen einen riesigen und wertvollen Erfahrungsschatz. Informationen zu Therapien und Behandlungsergebnissen, die in Studien erst mühsam erhoben werden müssten, sind bereits in der Routinedokumentation wie Operations- und Entlassungsberichten oder Arztbriefen zahlreich vorhanden. Mit der Einführung der elektronischen Datenverarbeitung in der Medizin liegen diese Informationen seit einigen Jahren auch maschinenlesbar vor, so dass ein Haupthemmnis für die Nutzung dieser Dokumentationen, nämlich die mühsame manuelle Aufbereitung der Papierakten, entfällt. Während die formale Erschließung nach Patientenmerkmalen wie Name und Geburtsdatum von den Krankenhaus- bzw. Praxisinformationssystemen heutzutage gut gelöst ist, bleibt die inhaltliche Erschließung dieser Dokumentationen schwierig, da nur wenige Informationen in strukturierter oder intellektuell indexierter Form vorliegen [Leiner et al. 2003]. Auch wenn nach der Einführung der Fallpauschalen (diagnosis related groups, DRG) in den Krankenhäusern die Diagnosen nach ICD-10 verschlüsselt werden, besteht ein Großteil der Informationen weiterhin aus freiem Text, dessen computerbasierte Erschließung aufgrund der Komplexität menschlicher Sprache nicht trivial ist. Zu diesen medizinischen Texten gehören u.a. Gutachten, verbal beschriebene (Differential-) Diagnosen, vielfältige Untersuchungs- und Befundberichte, Visitenblätter, Operationsberichte und der Arztbrief bzw. Entlassungsbericht. Arztbrief und Entlassbericht dienen der Information des einweisenden oder weiterbehandelnden Arztes (z.B. Hausarzt) über das, was mit dem Patienten geschehen ist, und geben Empfehlungen zur Weiterbehandlung. Sie fassen eine (stationäre) Behandlung epikritisch - also nachdem die Krankheit überwunden ist, im Rückblick - zusammen und geben einen Überblick über Anamnese (Vorgeschichte), Beschwerden und Symptome, die eingesetzten diagnostischen Verfahren, die gestellte(n) Diagnose(n), Therapie, Verlauf, Komplikationen und das erzielte Ergebnis. Sie haben somit eine ähnliche Funktion wie das Abstract in der Literaturdokumentation, oft wird eine Kopie in der Krankenakte obenauf abgelegt. Zumindest in Universitätskliniken möchten wissenschaftlich arbeitende Ärzte auch unter inhaltlichen Gesichtspunkten auf die Krankenakten zugreifen können, z.B. die Krankenakten aller Patienten mit einer bestimmten Diagnose einsehen, exzerpieren und die exzerpierten Daten auswerten. Auch bei der Suche nach ähnlichen Fällen oder im Bereich der Aus- und Fortbildung hilft eine inhaltliche Erschließung weiter. So könnte etwa ein Assistenzarzt, der im Rahmen seiner Weiterbildung demnächst Sonografien des Kniegelenkes durchzuführen hat, sich vorhandene Berichte von solchen Sonografien anschauen und sich so über relevante Untersuchungstechniken und Befunde vorab informieren.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  6. Franke-Maier, M.: Anforderungen an die Qualität der Inhaltserschließung im Spannungsfeld von intellektuell und automatisch erzeugten Metadaten (2018) 0.07
    0.06911612 = product of:
      0.20734836 = sum of:
        0.017824277 = weight(_text_:und in 5344) [ClassicSimilarity], result of:
          0.017824277 = score(doc=5344,freq=6.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.2968967 = fieldWeight in 5344, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.02276779 = weight(_text_:dem in 5344) [ClassicSimilarity], result of:
          0.02276779 = score(doc=5344,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.25496438 = fieldWeight in 5344, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.029565731 = weight(_text_:der in 5344) [ClassicSimilarity], result of:
          0.029565731 = score(doc=5344,freq=16.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4886365 = fieldWeight in 5344, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.017824277 = weight(_text_:und in 5344) [ClassicSimilarity], result of:
          0.017824277 = score(doc=5344,freq=6.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.2968967 = fieldWeight in 5344, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.029565731 = weight(_text_:der in 5344) [ClassicSimilarity], result of:
          0.029565731 = score(doc=5344,freq=16.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4886365 = fieldWeight in 5344, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.029565731 = weight(_text_:der in 5344) [ClassicSimilarity], result of:
          0.029565731 = score(doc=5344,freq=16.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4886365 = fieldWeight in 5344, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.029565731 = weight(_text_:der in 5344) [ClassicSimilarity], result of:
          0.029565731 = score(doc=5344,freq=16.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4886365 = fieldWeight in 5344, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.017824277 = weight(_text_:und in 5344) [ClassicSimilarity], result of:
          0.017824277 = score(doc=5344,freq=6.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.2968967 = fieldWeight in 5344, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.012844819 = product of:
          0.025689637 = sum of:
            0.025689637 = weight(_text_:22 in 5344) [ClassicSimilarity], result of:
              0.025689637 = score(doc=5344,freq=2.0), product of:
                0.09485493 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027087249 = queryNorm
                0.2708308 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.5 = coord(1/2)
      0.33333334 = coord(9/27)
    
    Abstract
    Spätestens seit dem Deutschen Bibliothekartag 2018 hat sich die Diskussion zu den automatischen Verfahren der Inhaltserschließung der Deutschen Nationalbibliothek von einer politisch geführten Diskussion in eine Qualitätsdiskussion verwandelt. Der folgende Beitrag beschäftigt sich mit Fragen der Qualität von Inhaltserschließung in digitalen Zeiten, wo heterogene Erzeugnisse unterschiedlicher Verfahren aufeinandertreffen und versucht, wichtige Anforderungen an Qualität zu definieren. Dieser Tagungsbeitrag fasst die vom Autor als Impulse vorgetragenen Ideen beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV am 29. August 2018 in Kiel zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  7. Schneider, A.: Moderne Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen : Projekte und Perspektiven (2008) 0.07
    0.06658553 = product of:
      0.19975659 = sum of:
        0.024245866 = weight(_text_:und in 4031) [ClassicSimilarity], result of:
          0.024245866 = score(doc=4031,freq=34.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.40386027 = fieldWeight in 4031, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.0278624 = weight(_text_:aus in 4031) [ClassicSimilarity], result of:
          0.0278624 = score(doc=4031,freq=8.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.30152568 = fieldWeight in 4031, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.013010165 = weight(_text_:dem in 4031) [ClassicSimilarity], result of:
          0.013010165 = score(doc=4031,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.14569393 = fieldWeight in 4031, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.021536605 = weight(_text_:der in 4031) [ClassicSimilarity], result of:
          0.021536605 = score(doc=4031,freq=26.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.35593814 = fieldWeight in 4031, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.024245866 = weight(_text_:und in 4031) [ClassicSimilarity], result of:
          0.024245866 = score(doc=4031,freq=34.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.40386027 = fieldWeight in 4031, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.021536605 = weight(_text_:der in 4031) [ClassicSimilarity], result of:
          0.021536605 = score(doc=4031,freq=26.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.35593814 = fieldWeight in 4031, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.021536605 = weight(_text_:der in 4031) [ClassicSimilarity], result of:
          0.021536605 = score(doc=4031,freq=26.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.35593814 = fieldWeight in 4031, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.021536605 = weight(_text_:der in 4031) [ClassicSimilarity], result of:
          0.021536605 = score(doc=4031,freq=26.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.35593814 = fieldWeight in 4031, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.024245866 = weight(_text_:und in 4031) [ClassicSimilarity], result of:
          0.024245866 = score(doc=4031,freq=34.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.40386027 = fieldWeight in 4031, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
      0.33333334 = coord(9/27)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit modernen Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen. Wie die Verbindung der beiden gegensätzlich scheinenden Wortgruppen im Titel zeigt, werden in der Arbeit Aspekte aus der Informatik bzw. Informationswissenschaft mit Aspekten aus der Bibliothekstradition verknüpft. Nach einer kurzen Schilderung der Ausgangslage, der so genannten Informationsflut, im ersten Kapitel stellt das zweite Kapitel eine Einführung in die Theorie des Information Retrieval dar. Im Einzelnen geht es um die Grundlagen von Information Retrieval und Information-Retrieval-Systemen sowie um die verschiedenen Möglichkeiten der Informationserschließung. Hier werden Formal- und Sacherschließung, Indexierung und automatische Indexierung behandelt. Des Weiteren werden im Rahmen der Theorie des Information Retrieval unterschiedliche Information-Retrieval-Modelle und die Evaluation durch Retrievaltests vorgestellt. Nach der Theorie folgt im dritten Kapitel die Praxis des Information Retrieval. Es werden die organisationsinterne Anwendung, die Anwendung im Informations- und Dokumentationsbereich sowie die Anwendung im Bibliotheksbereich unterschieden. Die organisationsinterne Anwendung wird durch das Beispiel der Datenbank KURS zur Aus- und Weiterbildung veranschaulicht. Die Anwendung im Bibliotheksbereich bezieht sich in erster Linie auf den OPAC als Kompromiss zwischen bibliothekarischer Indexierung und Endnutzeranforderungen und auf seine Anreicherung (sog. Catalogue Enrichment), um das Retrieval zu verbessern. Der Bibliotheksbereich wird ausführlicher behandelt, indem ein Rückblick auf abgeschlossene Projekte zu Informations- und Indexierungssystemen aus den Neunziger Jahren (OSIRIS, MILOS I und II, KASCADE) sowie ein Einblick in aktuelle Projekte gegeben werden. In den beiden folgenden Kapiteln wird je ein aktuelles Projekt zur Verbesserung des Retrievals durch Kataloganreicherung, automatische Erschließung und fortschrittliche Retrievalverfahren präsentiert: das Suchportal dandelon.com und das 180T-Projekt des Hochschulbibliothekszentrums des Landes Nordrhein-Westfalen. Hierbei werden jeweils Projektziel, Projektpartner, Projektorganisation, Projektverlauf und die verwendete Technologie vorgestellt. Die Projekte unterscheiden sich insofern, dass in dem einen Fall eine große Verbundzentrale die Projektkoordination übernimmt, im anderen Fall jede einzelne teilnehmende Bibliothek selbst für die Durchführung verantwortlich ist. Im sechsten und letzten Kapitel geht es um das Fazit und die Perspektiven. Es werden sowohl die beiden beschriebenen Projekte bewertet als auch ein Ausblick auf Entwicklungen bezüglich des Bibliothekskatalogs gegeben. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  8. Pollmeier, M.: Verlagsschlagwörter als Grundlage für den Einsatz eines maschinellen Verfahrens zur verbalen Erschließung der Kinder- und Jugendliteratur durch die Deutsche Nationalbibliothek : eine Datenanalyse (2019) 0.07
    0.06572674 = product of:
      0.22182776 = sum of:
        0.029402435 = weight(_text_:und in 1081) [ClassicSimilarity], result of:
          0.029402435 = score(doc=1081,freq=32.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.48975256 = fieldWeight in 1081, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.030161936 = weight(_text_:aus in 1081) [ClassicSimilarity], result of:
          0.030161936 = score(doc=1081,freq=6.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.32641116 = fieldWeight in 1081, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.025864627 = weight(_text_:der in 1081) [ClassicSimilarity], result of:
          0.025864627 = score(doc=1081,freq=24.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.42746788 = fieldWeight in 1081, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.029402435 = weight(_text_:und in 1081) [ClassicSimilarity], result of:
          0.029402435 = score(doc=1081,freq=32.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.48975256 = fieldWeight in 1081, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.025864627 = weight(_text_:der in 1081) [ClassicSimilarity], result of:
          0.025864627 = score(doc=1081,freq=24.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.42746788 = fieldWeight in 1081, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.025864627 = weight(_text_:der in 1081) [ClassicSimilarity], result of:
          0.025864627 = score(doc=1081,freq=24.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.42746788 = fieldWeight in 1081, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.025864627 = weight(_text_:der in 1081) [ClassicSimilarity], result of:
          0.025864627 = score(doc=1081,freq=24.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.42746788 = fieldWeight in 1081, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.029402435 = weight(_text_:und in 1081) [ClassicSimilarity], result of:
          0.029402435 = score(doc=1081,freq=32.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.48975256 = fieldWeight in 1081, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
      0.2962963 = coord(8/27)
    
    Abstract
    Die Inhaltserschließung durch Schlagwörter wird aktuell in vielen Öffentlichen Bibliotheken Deutschlands zurückgefahren. Aufgrund von Personalmangel und den vielfältigen anderen bibliothekarischen Dienstleistungen, die für die Benutzer zu leisten sind, kommt sie oft zu kurz. Die Deutsche Nationalbibliothek unterstützte diese Bibliotheken bisher als wichtigster Datenlieferant, jedoch stellte sie 2017 die intellektuelle Inhaltserschließung der Kinder- und Jugendliteratur und der Belletristik ein. Um diese problematische Situation zu verbessern, wird aktuell in der Deutschen Nationalbibliothek ein Verfahren erprobt, das aus Schlagwörtern von Verlagen maschinell bibliothekarische Schlagwörter aus der Gemeinsamen Normdatei generiert. Auf die Titel der Kinder- und Jugendliteratur aus den Jahren 2018 und 2019 wurde es bereits angewendet. In dieser Arbeit geht es um eine erste Analyse dieser Erschließungsergebnisse, um Aussagen über die Nützlichkeit der Verlagsschlagwörter und des automatischen Verfahrens zu treffen. Im theoretischen Teil werden einerseits die Inhaltserschließung im bibliothekarischen Bereich und deren aktuelle Entwicklungen hinsichtlich der Automatisierung beschrieben. Andererseits wird näher auf die Erschließungspraxis in der Deutschen Nationalbibliothek hinsichtlich der Automatisierung und der Kinder- und Jugendliteratur eingegangen. Im Analyseteil werden sowohl die Verlagsschlagwörter als auch die bibliothekarischen Schlagwörter nach festgelegten Kriterien untersucht und schließlich miteinander verglichen.
    Footnote
    Bachelorarbeit an der Hochschule für Technik, Wirtschaft und Kultur Leipzig Fakultät Informatik und Medien Studiengang Bibliotheks- und Informationswissenschaft.
    Imprint
    Leipzig : Hochschule für Technik, Wirtschaft und Kultur / Fakultät Informatik und Medien
  9. Stock, W.G.: Textwortmethode (2000) 0.07
    0.065545075 = product of:
      0.19663522 = sum of:
        0.020790659 = weight(_text_:und in 3408) [ClassicSimilarity], result of:
          0.020790659 = score(doc=3408,freq=4.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.34630734 = fieldWeight in 3408, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.03252541 = weight(_text_:dem in 3408) [ClassicSimilarity], result of:
          0.03252541 = score(doc=3408,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.3642348 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.014932949 = weight(_text_:der in 3408) [ClassicSimilarity], result of:
          0.014932949 = score(doc=3408,freq=2.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.2467987 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.020790659 = weight(_text_:und in 3408) [ClassicSimilarity], result of:
          0.020790659 = score(doc=3408,freq=4.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.34630734 = fieldWeight in 3408, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.014932949 = weight(_text_:der in 3408) [ClassicSimilarity], result of:
          0.014932949 = score(doc=3408,freq=2.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.2467987 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.014932949 = weight(_text_:der in 3408) [ClassicSimilarity], result of:
          0.014932949 = score(doc=3408,freq=2.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.2467987 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.014932949 = weight(_text_:der in 3408) [ClassicSimilarity], result of:
          0.014932949 = score(doc=3408,freq=2.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.2467987 = fieldWeight in 3408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.020790659 = weight(_text_:und in 3408) [ClassicSimilarity], result of:
          0.020790659 = score(doc=3408,freq=4.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.34630734 = fieldWeight in 3408, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
        0.042006038 = product of:
          0.084012076 = sum of:
            0.084012076 = weight(_text_:philosophie in 3408) [ClassicSimilarity], result of:
              0.084012076 = score(doc=3408,freq=2.0), product of:
                0.14351615 = queryWeight, product of:
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.027087249 = queryNorm
                0.58538413 = fieldWeight in 3408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.298292 = idf(docFreq=600, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3408)
          0.5 = coord(1/2)
      0.33333334 = coord(9/27)
    
    Field
    Philosophie
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
    Source
    Auf dem Weg zur Informationskultur: Wa(h)re Information? Festschrift für Norbert Henrichs zum 65. Geburtstag, Hrsg.: T.A. Schröder
  10. Lepsky, K.: Auf dem Weg zur automatischen Inhaltserschließung? : Das DFG-Projekt MILOS und seine Ergebnisse (1997) 0.06
    0.06497688 = product of:
      0.21929696 = sum of:
        0.028808383 = weight(_text_:und in 11) [ClassicSimilarity], result of:
          0.028808383 = score(doc=11,freq=12.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.47985753 = fieldWeight in 11, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=11)
        0.02602033 = weight(_text_:dem in 11) [ClassicSimilarity], result of:
          0.02602033 = score(doc=11,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.29138786 = fieldWeight in 11, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0625 = fieldNorm(doc=11)
        0.026712872 = weight(_text_:der in 11) [ClassicSimilarity], result of:
          0.026712872 = score(doc=11,freq=10.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.44148692 = fieldWeight in 11, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=11)
        0.028808383 = weight(_text_:und in 11) [ClassicSimilarity], result of:
          0.028808383 = score(doc=11,freq=12.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.47985753 = fieldWeight in 11, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=11)
        0.026712872 = weight(_text_:der in 11) [ClassicSimilarity], result of:
          0.026712872 = score(doc=11,freq=10.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.44148692 = fieldWeight in 11, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=11)
        0.026712872 = weight(_text_:der in 11) [ClassicSimilarity], result of:
          0.026712872 = score(doc=11,freq=10.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.44148692 = fieldWeight in 11, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=11)
        0.026712872 = weight(_text_:der in 11) [ClassicSimilarity], result of:
          0.026712872 = score(doc=11,freq=10.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.44148692 = fieldWeight in 11, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=11)
        0.028808383 = weight(_text_:und in 11) [ClassicSimilarity], result of:
          0.028808383 = score(doc=11,freq=12.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.47985753 = fieldWeight in 11, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=11)
      0.2962963 = coord(8/27)
    
    Abstract
    Der Beitrag beschäftigt sich mit der Anwendung eines Verfahrens zur Automatischen Indexierung von Titeldaten in Bibliotheken. Die Arbeitsweise des Verfahrens und seine Nutzung innerhalb des von der Deutschen Forschungsgemeinschaft geförderten und an der Universitäts- und Landesbibliothek Düsseldorf durchgeführten Projekts MILOS werden geschildert. Die Ergebnisse eines Retrievaltests belegen die Tauglichkeit des Verfahrens für den Einsatz in Bibliotheken. Aufbauend auf diesen Ergebnissen werden Perspektiven für eine sinnvolle Verbindung von konventioneller bibliothekarischer Sacherschließung und automatischen Verfahren entworfen
    Source
    Mitteilungen der Gesellschaft für Bibliothekswesen und Dokumentation des Landbaus. 1997, H.53, S.46-52
  11. Groß, T.; Faden, M.: Automatische Indexierung elektronischer Dokumente an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften : Bericht über die Jahrestagung der Internationalen Buchwissenschaftlichen Gesellschaft (2010) 0.06
    0.06481658 = product of:
      0.19444974 = sum of:
        0.021202397 = weight(_text_:und in 4051) [ClassicSimilarity], result of:
          0.021202397 = score(doc=4051,freq=26.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3531656 = fieldWeight in 4051, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4051)
        0.0139312 = weight(_text_:aus in 4051) [ClassicSimilarity], result of:
          0.0139312 = score(doc=4051,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.15076284 = fieldWeight in 4051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=4051)
        0.018399153 = weight(_text_:dem in 4051) [ClassicSimilarity], result of:
          0.018399153 = score(doc=4051,freq=4.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.20604233 = fieldWeight in 4051, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.03125 = fieldNorm(doc=4051)
        0.02462805 = weight(_text_:der in 4051) [ClassicSimilarity], result of:
          0.02462805 = score(doc=4051,freq=34.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40703082 = fieldWeight in 4051, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4051)
        0.021202397 = weight(_text_:und in 4051) [ClassicSimilarity], result of:
          0.021202397 = score(doc=4051,freq=26.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3531656 = fieldWeight in 4051, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4051)
        0.02462805 = weight(_text_:der in 4051) [ClassicSimilarity], result of:
          0.02462805 = score(doc=4051,freq=34.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40703082 = fieldWeight in 4051, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4051)
        0.02462805 = weight(_text_:der in 4051) [ClassicSimilarity], result of:
          0.02462805 = score(doc=4051,freq=34.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40703082 = fieldWeight in 4051, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4051)
        0.02462805 = weight(_text_:der in 4051) [ClassicSimilarity], result of:
          0.02462805 = score(doc=4051,freq=34.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40703082 = fieldWeight in 4051, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4051)
        0.021202397 = weight(_text_:und in 4051) [ClassicSimilarity], result of:
          0.021202397 = score(doc=4051,freq=26.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3531656 = fieldWeight in 4051, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4051)
      0.33333334 = coord(9/27)
    
    Abstract
    Die zunehmende Verfügbarmachung digitaler Informationen in den letzten Jahren sowie die Aussicht auf ein weiteres Ansteigen der sogenannten Datenflut kumulieren in einem grundlegenden, sich weiter verstärkenden Informationsstrukturierungsproblem. Die stetige Zunahme von digitalen Informationsressourcen im World Wide Web sichert zwar jederzeit und ortsungebunden den Zugriff auf verschiedene Informationen; offen bleibt der strukturierte Zugang, insbesondere zu wissenschaftlichen Ressourcen. Angesichts der steigenden Anzahl elektronischer Inhalte und vor dem Hintergrund stagnierender bzw. knapper werdender personeller Ressourcen in der Sacherschließun schafft keine Bibliothek bzw. kein Bibliotheksverbund es mehr, weder aktuell noch zukünftig, alle digitalen Daten zu erfassen, zu strukturieren und zueinander in Beziehung zu setzen. In der Informationsgesellschaft des 21. Jahrhunderts wird es aber zunehmend wichtiger, die in der Flut verschwundenen wissenschaftlichen Informationen zeitnah, angemessen und vollständig zu strukturieren und somit als Basis für eine Wissensgenerierung wieder nutzbar zu machen. Eine normierte Inhaltserschließung digitaler Informationsressourcen ist deshalb für die Deutsche Zentralbibliothek für Wirtschaftswissenschaften (ZBW) als wichtige Informationsinfrastruktureinrichtung in diesem Bereich ein entscheidender und auch erfolgskritischer Aspekt im Wettbewerb mit anderen Informationsdienstleistern. Weil die traditionelle intellektuelle Sacherschließung aber nicht beliebig skalierbar ist - mit dem Anstieg der Zahl an Online-Dokumenten steigt proportional auch der personelle Ressourcenbedarf an Fachreferenten, wenn ein gewisser Qualitätsstandard gehalten werden soll - bedarf es zukünftig anderer Sacherschließungsverfahren. Automatisierte Verschlagwortungsmethoden werden dabei als einzige Möglichkeit angesehen, die bibliothekarische Sacherschließung auch im digitalen Zeitalter zukunftsfest auszugestalten. Zudem können maschinelle Ansätze dazu beitragen, die Heterogenitäten (Indexierungsinkonsistenzen) zwischen den einzelnen Sacherschließer zu nivellieren, und somit zu einer homogeneren Erschließung des Bibliotheksbestandes beitragen.
    Mit der Anfang 2010 begonnen Implementierung und Ergebnisevaluierung des automatischen Indexierungsverfahrens "Decisiv Categorization" der Firma Recommind soll das hier skizzierte Informationsstrukturierungsproblem in zwei Schritten gelöst werden. Kurz- bis mittelfristig soll die intellektuelle Indexierung durch ein semiautomatisches Verfahren6 unterstützt werden. Mittel- bis langfristig soll das maschinelle Verfahren, aufbauend auf einem entsprechenden Training, in die Lage versetzt werden, sowohl im Hause vorliegende Dokumente vollautomatisch zu indexieren als auch ZBW-fremde digitale Informationsressourcen zu verschlagworten bzw. zu klassifizieren, um sie in einem gemeinsamen Suchraum auffindbar machen zu können. Im Anschluss an diese Einleitung werden die ersten Ansätze maschineller Sacherschließung an der ZBW (2001-2004) und deren Ergebnisse und Problemlagen aufgezeigt. Danach werden die Rahmenbedingungen (Projektauftrag und -ziel) für eine Wiederaufnahme des Vorhabens im Jahre 2009 aufgezeigt, gefolgt von einer Darstellung der Funktionsweise der Recommind-Technologie und deren Einsatz im Rahmen der Sacherschließung von Online-Dokumenten mit einem Thesaurus. Schwerpunkt dieser Abhandlung bilden im Anschluss daran die Evaluierungsmöglichkeiten automatischer Indexierungsansätze sowie die aktuellen Ergebnisse und zentralen Erkenntnisse des Einsatzes im Kontext der ZBW. Das Fazit beschreibt die entsprechenden Schlussfolgerungen aus den erzielten Ergebnissen sowie den Ausblick auf das weitere Vorgehen.
  12. Tzeras, K.: Zur Aufwandsabschätzung bei der Entwicklung eines Indexierungswörterbuches (1991) 0.06
    0.06469531 = product of:
      0.21834667 = sum of:
        0.020581704 = weight(_text_:und in 792) [ClassicSimilarity], result of:
          0.020581704 = score(doc=792,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.34282678 = fieldWeight in 792, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=792)
        0.0243796 = weight(_text_:aus in 792) [ClassicSimilarity], result of:
          0.0243796 = score(doc=792,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.26383498 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0546875 = fieldNorm(doc=792)
        0.03305549 = weight(_text_:der in 792) [ClassicSimilarity], result of:
          0.03305549 = score(doc=792,freq=20.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.5463122 = fieldWeight in 792, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=792)
        0.020581704 = weight(_text_:und in 792) [ClassicSimilarity], result of:
          0.020581704 = score(doc=792,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.34282678 = fieldWeight in 792, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=792)
        0.03305549 = weight(_text_:der in 792) [ClassicSimilarity], result of:
          0.03305549 = score(doc=792,freq=20.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.5463122 = fieldWeight in 792, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=792)
        0.03305549 = weight(_text_:der in 792) [ClassicSimilarity], result of:
          0.03305549 = score(doc=792,freq=20.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.5463122 = fieldWeight in 792, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=792)
        0.03305549 = weight(_text_:der in 792) [ClassicSimilarity], result of:
          0.03305549 = score(doc=792,freq=20.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.5463122 = fieldWeight in 792, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=792)
        0.020581704 = weight(_text_:und in 792) [ClassicSimilarity], result of:
          0.020581704 = score(doc=792,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.34282678 = fieldWeight in 792, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=792)
      0.2962963 = coord(8/27)
    
    Abstract
    Für die automatische Indexierung mit einem vorgegebenen Deskriptorensystem wird ein Wörterbuch benötigt, das möglichst viele Fachausdrücke des Anwendungsgebietes durch Relationen mit Deskriptoren verbindet. Werden die in einem solchen Indexierungswörterbuch erfaßten Relationen aus der Verarbeitung von Texten gewonnen, so ergibt sich eine Beziehung zwischen der Anzahl der Texte und der Größe und Leistungsfähigkeit des Wörterbuches. Die beschreibung derartiger Beziehungen ist besonders vor Beginn der Entwicklung eines automatischen Indexierungssystems von großem Interesse. H. Hüther hat sich in mehreren Arbeiten mit diesem Problem beschäftigt und verschiedene Schätzverfahren theoretische hergeleitet. Für eines der von ihm vorgeschlagenen Schätzverfahren zur Abschätzung der Größe eines Indexierungswörterbuches in Abhängigkeit von der Anzahl der zugrundeliegenden Texte werden im vorliegenden beitrag die Leistungsfähigkeit und die Anwendbarkeit untersucht
  13. Groß, T.: Automatische Indexierung von wirtschaftswissenschaftlichen Dokumenten : Implementierung und Evaluierung am Beispiel der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (2010) 0.06
    0.06411453 = product of:
      0.21638656 = sum of:
        0.026502997 = weight(_text_:und in 2078) [ClassicSimilarity], result of:
          0.026502997 = score(doc=2078,freq=26.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.441457 = fieldWeight in 2078, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2078)
        0.017414 = weight(_text_:aus in 2078) [ClassicSimilarity], result of:
          0.017414 = score(doc=2078,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.18845356 = fieldWeight in 2078, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2078)
        0.029865898 = weight(_text_:der in 2078) [ClassicSimilarity], result of:
          0.029865898 = score(doc=2078,freq=32.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4935974 = fieldWeight in 2078, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2078)
        0.026502997 = weight(_text_:und in 2078) [ClassicSimilarity], result of:
          0.026502997 = score(doc=2078,freq=26.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.441457 = fieldWeight in 2078, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2078)
        0.029865898 = weight(_text_:der in 2078) [ClassicSimilarity], result of:
          0.029865898 = score(doc=2078,freq=32.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4935974 = fieldWeight in 2078, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2078)
        0.029865898 = weight(_text_:der in 2078) [ClassicSimilarity], result of:
          0.029865898 = score(doc=2078,freq=32.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4935974 = fieldWeight in 2078, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2078)
        0.029865898 = weight(_text_:der in 2078) [ClassicSimilarity], result of:
          0.029865898 = score(doc=2078,freq=32.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4935974 = fieldWeight in 2078, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2078)
        0.026502997 = weight(_text_:und in 2078) [ClassicSimilarity], result of:
          0.026502997 = score(doc=2078,freq=26.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.441457 = fieldWeight in 2078, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2078)
      0.2962963 = coord(8/27)
    
    Abstract
    Die Bewertung der Indexierungsqualität bzw. -güte ist ein grundlegendes Problem von manuellen und automatischen Indexierungsverfahren. Letztere werden aber gerade im digitalen Zeitalter als einzige Möglichkeit angesehen, den zunehmenden Schwierigkeiten bibliothekarischer Informationsstrukturierung gerecht zu werden. Diese Arbeit befasst sich mit der Funktionsweise, Implementierung und Evaluierung der Sacherschließungssoftware MindServer Categorizer, der Firma Recommind, an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (ZBW). Grundlage der maschinellen Sacherschließung und anschließenden quantitativen und qualitativen Auswertung bilden rund 39.000 wirtschaftswissenschaftliche Dokumente aus den Datenbanken Econis und EconStor. Unter Zuhilfenahme des rund 6.000 Deskriptoren umfassenden Standard-Thesaurus Wirtschaft (STW) wird der ursprünglich rein statistische Indexierungsansatz des MindServer Categorizer zu einem begriffsorientierten Verfahren weiterentwickelt und zur Inhaltserschließung digitaler Informationsressourcen eingesetzt. Der zentrale Fokus dieser Arbeit liegt vor allem auf der Evaluierung der maschinell beschlagworteten Titel, in Anlehnung und entsprechender Anpassung der von Stock (2008) und Lancaster (2003) hierzu vorgeschlagenen Kriterien: Indexierungskonsistenz, -tiefe, -breite, -spezifität, -effektivität. Zusätzlich wird die Belegungsbilanz des STW evaluiert und es erfolgt ferner eine stichprobenartige, qualitative Bewertung der Ergebnisse seitens der zuständigen Fachreferenten und -referentinnen.
    Content
    Vgl. unter: http://edoc.hu-berlin.de/series/berliner-handreichungen/2010-284/PDF/284.pdf. Auch als: Automatische Indexierung von Dokumenten in einer wissenschaftlichen Bibliothek: Implementierung und Evaluierung am Beispiel der Deutschen Zentralbibliothek für Wirtschaftswissenschaften. Diplomica Verlag, 2011.
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  14. Pielmeier, S.; Voß, V.; Carstensen, H.; Kahl, B.: Online-Workshop "Computerunterstützte Inhaltserschließung" 2020 (2021) 0.06
    0.06393429 = product of:
      0.21577822 = sum of:
        0.024948793 = weight(_text_:und in 4409) [ClassicSimilarity], result of:
          0.024948793 = score(doc=4409,freq=16.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.41556883 = fieldWeight in 4409, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4409)
        0.027598727 = weight(_text_:dem in 4409) [ClassicSimilarity], result of:
          0.027598727 = score(doc=4409,freq=4.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.3090635 = fieldWeight in 4409, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=4409)
        0.02833328 = weight(_text_:der in 4409) [ClassicSimilarity], result of:
          0.02833328 = score(doc=4409,freq=20.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.46826762 = fieldWeight in 4409, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4409)
        0.024948793 = weight(_text_:und in 4409) [ClassicSimilarity], result of:
          0.024948793 = score(doc=4409,freq=16.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.41556883 = fieldWeight in 4409, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4409)
        0.02833328 = weight(_text_:der in 4409) [ClassicSimilarity], result of:
          0.02833328 = score(doc=4409,freq=20.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.46826762 = fieldWeight in 4409, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4409)
        0.02833328 = weight(_text_:der in 4409) [ClassicSimilarity], result of:
          0.02833328 = score(doc=4409,freq=20.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.46826762 = fieldWeight in 4409, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4409)
        0.02833328 = weight(_text_:der in 4409) [ClassicSimilarity], result of:
          0.02833328 = score(doc=4409,freq=20.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.46826762 = fieldWeight in 4409, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4409)
        0.024948793 = weight(_text_:und in 4409) [ClassicSimilarity], result of:
          0.024948793 = score(doc=4409,freq=16.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.41556883 = fieldWeight in 4409, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4409)
      0.2962963 = coord(8/27)
    
    Abstract
    Zum ersten Mal in digitaler Form und mit 230 Teilnehmer*innen fand am 11. und 12. November 2020 der 4. Workshop "Computerunterstützte Inhaltserschließung" statt, organisiert von der Deutschen Nationalbibliothek (DNB), der Firma Eurospider Information Technology, der Staatsbibliothek zu Berlin - Preußischer Kulturbesitz (SBB), der UB Stuttgart und dem Bibliotheksservice-Zentrum Baden-Württemberg (BSZ). Im Mittelpunkt stand der "Digitale Assistent DA-3": In elf Vorträgen wurden Anwendungsszenarien und Erfahrungen mit dem System vorgestellt, das Bibliotheken und andere Wissenschafts- und Kultureinrichtungen bei der Inhaltserschließung unterstützen soll. Die Begrüßung und Einführung in die beiden Workshop-Tage übernahm Frank Scholze (Generaldirektor der DNB). Er sieht den DA-3 als Baustein für die Verzahnung der intellektuellen und der maschinellen Erschließung.
  15. Nohr, H.: Automatische Indexierung : Einführung in betriebliche Verfahren, Systeme und Anwendungen (2001) 0.06
    0.06383614 = product of:
      0.19150841 = sum of:
        0.021202397 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.021202397 = score(doc=2543,freq=26.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3531656 = fieldWeight in 2543, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.0139312 = weight(_text_:aus in 2543) [ClassicSimilarity], result of:
          0.0139312 = score(doc=2543,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.15076284 = fieldWeight in 2543, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.018399153 = weight(_text_:dem in 2543) [ClassicSimilarity], result of:
          0.018399153 = score(doc=2543,freq=4.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.20604233 = fieldWeight in 2543, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.02389272 = weight(_text_:der in 2543) [ClassicSimilarity], result of:
          0.02389272 = score(doc=2543,freq=32.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.3948779 = fieldWeight in 2543, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.021202397 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.021202397 = score(doc=2543,freq=26.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3531656 = fieldWeight in 2543, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.02389272 = weight(_text_:der in 2543) [ClassicSimilarity], result of:
          0.02389272 = score(doc=2543,freq=32.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.3948779 = fieldWeight in 2543, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.02389272 = weight(_text_:der in 2543) [ClassicSimilarity], result of:
          0.02389272 = score(doc=2543,freq=32.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.3948779 = fieldWeight in 2543, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.02389272 = weight(_text_:der in 2543) [ClassicSimilarity], result of:
          0.02389272 = score(doc=2543,freq=32.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.3948779 = fieldWeight in 2543, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.021202397 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.021202397 = score(doc=2543,freq=26.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3531656 = fieldWeight in 2543, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
      0.33333334 = coord(9/27)
    
    Abstract
    Das vorliegende Buch zur automatischen Indexierung trägt dem Umstand Rechnung, dass ein ständig wachsender Berg von Dokumenten in Unternehmen, öffentlichen Verwaltungen, Einrichtungen der Fachinformation oder dem Internet entscheidungsrelevante Informationen enthält, die mit manuellen Mitteln und Methoden kaum mehr beherrschbar und erschließbar sind. Diese unstrukturierten Informationen sind in einer zunehmend von der schnellen Verarbeitung der Ressource Information abhängigen Wirtschaft von größter Bedeutung, ihre Beherrschung ist unabdingbar für den Wettbewerbserfolg. Verfahren der automatischen Indexierung von Dokumenten sind damit eine Basistechnik der betrieblichen Informationswirtschaft geworden. Trotz dieses Urnstandes, liegt bis auf den heutigen Tag keine einführende Darstellung in die Thematik vor. Die Zielsetzung dieses Buches ist es, einführend die Grundlagen sowie die verschiedenen Ansätze und Verfahren der automatischen Indexierung von Dokumenten vorzustellen. Die Darstellung verzichtet dabei bewusst auf die allzu detaillierte Tiefendarstellung einzelner Verfahren und Indexierungssysteme zugunsten einer Übersicht der grundsätzlichen Ansätze mit ihren jeweiligen Voraussetzungen, ihren Möglichkeiten und ihren Beschränkungen. Soweit einzelne Verfahren und Indexierungssysteme behandelt werden, besitzen diese beispielhaften Charakter für den behandelten Ansatz. Bei der Darstellung war ich stets uni eine verständliche Sprache bemüht. Der Text dieses Buches ist entstanden aus Vorlesungen in entsprechenden Lehrveranstaltungen im Studiengang Informationswirtschaft an der Fachhochschule Stuttgart. Die Darstellung richtet sich an Studierende und Lehrende der Informationswirtschaft, des Informationsmanagements, der Dokumentation sowie der Wirtschaftsinformatik, zugleich aber auch an die interessierten und mit der Thernatik konfrontierten Praktiker, die weniger an der technischen Seite der automatischen Indexierung, als vielmehr einen grundsätzlichen Informationsbedarf über die Möglichkeiten und die Schwierigkeiten des Einsatzes entsprechender Verfahren haben
    Classification
    AN 95300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Automatisches Indexing (z.B. KWIC, KWOC)
    RVK
    AN 95300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Automatisches Indexing (z.B. KWIC, KWOC)
    Series
    Materialien zur Information und Dokumentation; Bd.13
  16. Kaiser, A.: Computer-unterstütztes Indexieren in Intelligenten Information Retrieval Systemen : Ein Relevanz-Feedback orientierter Ansatz zur Informationserschließung in unformatierten Datenbanken (1993) 0.06
    0.06307238 = product of:
      0.18921715 = sum of:
        0.019723753 = weight(_text_:und in 4284) [ClassicSimilarity], result of:
          0.019723753 = score(doc=4284,freq=40.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.328536 = fieldWeight in 4284, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4284)
        0.018097162 = weight(_text_:aus in 4284) [ClassicSimilarity], result of:
          0.018097162 = score(doc=4284,freq=6.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.1958467 = fieldWeight in 4284, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4284)
        0.013799364 = weight(_text_:dem in 4284) [ClassicSimilarity], result of:
          0.013799364 = score(doc=4284,freq=4.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.15453175 = fieldWeight in 4284, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4284)
        0.02453734 = weight(_text_:der in 4284) [ClassicSimilarity], result of:
          0.02453734 = score(doc=4284,freq=60.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40553164 = fieldWeight in 4284, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4284)
        0.019723753 = weight(_text_:und in 4284) [ClassicSimilarity], result of:
          0.019723753 = score(doc=4284,freq=40.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.328536 = fieldWeight in 4284, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4284)
        0.02453734 = weight(_text_:der in 4284) [ClassicSimilarity], result of:
          0.02453734 = score(doc=4284,freq=60.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40553164 = fieldWeight in 4284, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4284)
        0.02453734 = weight(_text_:der in 4284) [ClassicSimilarity], result of:
          0.02453734 = score(doc=4284,freq=60.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40553164 = fieldWeight in 4284, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4284)
        0.02453734 = weight(_text_:der in 4284) [ClassicSimilarity], result of:
          0.02453734 = score(doc=4284,freq=60.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40553164 = fieldWeight in 4284, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4284)
        0.019723753 = weight(_text_:und in 4284) [ClassicSimilarity], result of:
          0.019723753 = score(doc=4284,freq=40.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.328536 = fieldWeight in 4284, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4284)
      0.33333334 = coord(9/27)
    
    Abstract
    Information ist in unserer Zeit zu einem sehr wichtigen Gut geworden. Sie ist Grundlage jeglicher seriösen Entscheidungsfindung. Die Informationsflut ist in den letzten Jahren stark angestiegen und auch in absehbarer Zeit wird die Menge der Informationen weiter anwachsen. Daher wird es immer wichtiger, sich ''Information über Information'' zu organisieren. Es ist nicht möglich, über alle Bereiche, mit denen man konfrontiert wird, im letzten Detail informiert zu sein. Notwendig und wichtig ist es aber zu wissen, wo man sich informieren kann. Relevante Informationen müssen möglichst rasch gefunden werden können. Im praktischen, EDV-unterstützten Einsatz findet man zu diesem Zweck Informationssysteme verschiedenster Art. Das Spektrum reicht dabei von Management-Informationssystemen, über Expertensysteme bis zu Datenbanksystemen und Information Retrieval Systemen (IR-Systemen). Obwohl die einzelnen Typen dieser informationsverarbeitenden Systeme für unterschiedliche Anwendergruppen und unterschiedliche Aufgabenarten konzipiert sind, ergeben sich beim Entwurf der Systeme doch sehr ähnlich gelagerte Problemkreise und Fragestellungen. * Die Darstellung und die Organisation von bestehendem Wissen und bekannten Fakten im Informationssystem (Informationserschließung). * Das (Wieder)finden relevanter Informationen aus dem Informationssystem und das Führen des Benutzers durch das Informationssystem. Ein Information Retrieval System beinhaltet unstrukturierte bibliographische oder textuelle Dokumente und unterscheidet sich dadurch wesentlich von Datenbanksystemen, die für gewöhnlich strukturierte Daten enthalten.
    Konventionelle, formatierte Datenbanken sind heute in der Praxis bereits weit verbreitet. Dies nicht zuletzt auch deshalb, weil unter anderem die standardisierte Abfragesprache SQL existiert und insbesondere bei relationalen Datenbanksystemen die Forschung intensiv an Verbesserungen in Aufbau und Performance der Systeme arbeitet. Die Verbreitung und Akzeptanz von unformatierten Datenbanken, Information Retrieval Systemen, ist hingegen bei weitem nicht so weit gediehen. Ein Grund dafür ist in der mangelnden Benutzerfreundlichkeit der IR-Systeme und in unzulänglichen Methoden der Informationserschließung zu suchen. Mit der vorliegenden Arbeit soll eine Methode zur Informationserschliessung in Information Retrieval Systemen entwickelt werden, die die Bedürfnisse des Benutzers in den Mittelpunkt stellt und so einen Beitrag dazu leistet, die Akzeptanz und Verbreitung von Information Retrieval Systemen, insbesondere für den Bürobereich, zu erhöhen. Die Fragestellung lautet somit: Ist es möglich, den Benutzer bereits im Stadium der Indexierung von Dokumenten in verstärktem Maße miteinzubeziehen, ohne dabei aber auf die maschinelle Unterstützung völlig zu verzichten, wie dies bei der manuellen Indexierung der Fall ist. Jedes Retrievalsystem kann als ein System beschrieben werden, das aus einer Menge von Dokumenten und einer Menge von Suchfragen besteht und das einen Mechanismus enthält, der die für eine Suchanfrage relevanten Dokumente bestimmt.
    Dazu sind folgende Teile eines IR-Systems notwendig: * Informationserschließung Eine Komponente zur Erschließung und Darstellung der gespeicherten Informationen. Dieser Teil dient dazu, den Inhalt der Dokumente zu beschreiben und so darzustellen, daß aufgrund dieser Merkmale ein Dokument gefunden werden kann. Eine Möglichkeit dazu besteht darin, den Dokumenten inhaltsbeschreibende Deskriptoren zuzuordnen. Durch den Prozeß der Indexierung werden die Dokumente in eine Indexierungssprache übersetzt. * Query-Language (Abfragesprache) Eine Komponente zur Formulierung der Suchanfragen des Benutzers. Dieser Teil dient dazu, die Suchanfrage des Benutzers so zu verarbeiten, daß mit der aus der Frage gewonnenen Information über die Bedürfnisse des Benutzers die passenden Dokumente gefunden werden können. * Informationsausgabe - Informationsaufbereitung Eine Komponente zur Ausgabe der auf Grund der Suchanfrage gefundenen Informationen. Dieser Teil stellt das Ergebnis der Suchanfrage dem Benutzer zur Verfügung.
    Es würde den Rahmen der Arbeit sprengen, alle Komponenten eines Information Retrieval Systems zu untersuchen. Daher wird ein Schwerpunkt auf die Informationserschließung gelegt. Dabei wird die (semi)automatische Indexierung von Dokumenten zum Zwecke des Information Retrievals, also der Vorgang der Übersetzung der Dokumente in eine Indexierungssprache genauer behandelt. Dieser Schwerpunkt wurde unter anderem deshalb gewählt, weil meiner Ansicht nach die festzustellende mangelnde Akzeptanz von Information Retrieval Systemen auch damit zu begründen ist, daß die in der Praxis eingesetzten Indexierungskomponenten der Systeme zur Zeit noch nicht den Leistungsumfang erbringen, den der Benutzer von einem ''Intelligenten Information Retrieval System'' erwartet. Ziel der Arbeit ist es, ein Modell zur automatischen Indexierung schrittweise zu entwickeln, das den Benutzer in stärkerem Maße in die Indexierung mit einbezieht, als dies bei den in Literatur und Praxis beschriebenen Verfahren der Fall ist.
  17. Beckmann, R.; Hinrichs, I.; Janßen, M.; Milmeister, G.; Schäuble, P.: ¬Der Digitale Assistent DA-3 : Eine Plattform für die Inhaltserschließung (2019) 0.06
    0.06250199 = product of:
      0.21094422 = sum of:
        0.02333746 = weight(_text_:und in 5408) [ClassicSimilarity], result of:
          0.02333746 = score(doc=5408,freq=14.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.38872904 = fieldWeight in 5408, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5408)
        0.027598727 = weight(_text_:dem in 5408) [ClassicSimilarity], result of:
          0.027598727 = score(doc=5408,freq=4.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.3090635 = fieldWeight in 5408, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=5408)
        0.02833328 = weight(_text_:der in 5408) [ClassicSimilarity], result of:
          0.02833328 = score(doc=5408,freq=20.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.46826762 = fieldWeight in 5408, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5408)
        0.02333746 = weight(_text_:und in 5408) [ClassicSimilarity], result of:
          0.02333746 = score(doc=5408,freq=14.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.38872904 = fieldWeight in 5408, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5408)
        0.02833328 = weight(_text_:der in 5408) [ClassicSimilarity], result of:
          0.02833328 = score(doc=5408,freq=20.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.46826762 = fieldWeight in 5408, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5408)
        0.02833328 = weight(_text_:der in 5408) [ClassicSimilarity], result of:
          0.02833328 = score(doc=5408,freq=20.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.46826762 = fieldWeight in 5408, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5408)
        0.02833328 = weight(_text_:der in 5408) [ClassicSimilarity], result of:
          0.02833328 = score(doc=5408,freq=20.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.46826762 = fieldWeight in 5408, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5408)
        0.02333746 = weight(_text_:und in 5408) [ClassicSimilarity], result of:
          0.02333746 = score(doc=5408,freq=14.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.38872904 = fieldWeight in 5408, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5408)
      0.2962963 = coord(8/27)
    
    Abstract
    Der "Digitale Assistent" DA-3 ist ein webbasiertes Tool zur maschinellen Unterstützung der intellektuellen verbalen und klassifikatorischen Inhaltserschließung. Im Frühjahr 2016 wurde einer breiteren Fachöffentlichkeit die zunächst für den Einsatz im IBS|BW-Konsortium konzipierte Vorgängerversion DA-2 vorgestellt. Die Community nahm die Entwicklung vor dem Hintergrund der strategischen Diskussionen um zukunftsfähige Verfahren der Inhaltserschließung mit großem Interesse auf. Inzwischen wird das Tool in einem auf drei Jahre angelegten Kooperationsprojekt zwischen der Firma Eurospider Information Technology, dem IBS|BW-Konsortium, der Staatsbibliothek zu Berlin und den beiden Verbundzentralen VZG und BSZ zu einem zentralen und leistungsstarken Service weiterentwickelt. Die ersten Anwenderbibliotheken in SWB und GBV setzen den DA-3 während dieser Projektphase bereits erfolgreich ein, am Ende ist die Überführung in den Routinebetrieb vorgesehen. Der Beitrag beschreibt den derzeitigen Stand und Nutzen des Projekts im Kontext der aktuellen Rahmenbedingungen, stellt ausführlich die Funktionalitäten des DA-3 vor, gibt einen kleinen Einblick hinter die Kulissen der Projektpartner und einen Ausblick auf kommende Entwicklungsschritte.
  18. Qualität in der Inhaltserschließung (2021) 0.06
    0.062187143 = product of:
      0.2098816 = sum of:
        0.030555906 = weight(_text_:und in 753) [ClassicSimilarity], result of:
          0.030555906 = score(doc=753,freq=54.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.5089658 = fieldWeight in 753, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.019701693 = weight(_text_:aus in 753) [ClassicSimilarity], result of:
          0.019701693 = score(doc=753,freq=4.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.21321087 = fieldWeight in 753, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.02462805 = weight(_text_:der in 753) [ClassicSimilarity], result of:
          0.02462805 = score(doc=753,freq=34.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40703082 = fieldWeight in 753, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.030555906 = weight(_text_:und in 753) [ClassicSimilarity], result of:
          0.030555906 = score(doc=753,freq=54.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.5089658 = fieldWeight in 753, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.02462805 = weight(_text_:der in 753) [ClassicSimilarity], result of:
          0.02462805 = score(doc=753,freq=34.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40703082 = fieldWeight in 753, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.02462805 = weight(_text_:der in 753) [ClassicSimilarity], result of:
          0.02462805 = score(doc=753,freq=34.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40703082 = fieldWeight in 753, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.02462805 = weight(_text_:der in 753) [ClassicSimilarity], result of:
          0.02462805 = score(doc=753,freq=34.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40703082 = fieldWeight in 753, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.030555906 = weight(_text_:und in 753) [ClassicSimilarity], result of:
          0.030555906 = score(doc=753,freq=54.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.5089658 = fieldWeight in 753, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
      0.2962963 = coord(8/27)
    
    Abstract
    Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Footnote
    Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
    Series
    Bibliotheks- und Informationspraxis; 70
  19. Halip, I.: Automatische Extrahierung von Schlagworten aus unstrukturierten Texten (2005) 0.06
    0.061712366 = product of:
      0.1851371 = sum of:
        0.018595733 = weight(_text_:und in 861) [ClassicSimilarity], result of:
          0.018595733 = score(doc=861,freq=20.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3097467 = fieldWeight in 861, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.0139312 = weight(_text_:aus in 861) [ClassicSimilarity], result of:
          0.0139312 = score(doc=861,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.15076284 = fieldWeight in 861, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.02602033 = weight(_text_:dem in 861) [ClassicSimilarity], result of:
          0.02602033 = score(doc=861,freq=8.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.29138786 = fieldWeight in 861, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.02234959 = weight(_text_:der in 861) [ClassicSimilarity], result of:
          0.02234959 = score(doc=861,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.36937445 = fieldWeight in 861, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.018595733 = weight(_text_:und in 861) [ClassicSimilarity], result of:
          0.018595733 = score(doc=861,freq=20.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3097467 = fieldWeight in 861, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.02234959 = weight(_text_:der in 861) [ClassicSimilarity], result of:
          0.02234959 = score(doc=861,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.36937445 = fieldWeight in 861, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.02234959 = weight(_text_:der in 861) [ClassicSimilarity], result of:
          0.02234959 = score(doc=861,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.36937445 = fieldWeight in 861, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.02234959 = weight(_text_:der in 861) [ClassicSimilarity], result of:
          0.02234959 = score(doc=861,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.36937445 = fieldWeight in 861, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.018595733 = weight(_text_:und in 861) [ClassicSimilarity], result of:
          0.018595733 = score(doc=861,freq=20.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3097467 = fieldWeight in 861, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
      0.33333334 = coord(9/27)
    
    Abstract
    Durch die zunehmende Mediatisierung und Digitalisierung wird die moderne Gesellschaft immer mehr mit dem Thema der Informationsüberflutung konfrontiert. Erstaunlicherweise führt der Zuwachs an Informationen gleichzeitig zu einem Mangel an Wissen. Die Erklärung kann darin gefunden werden, dass ein großer Teil der existierenden Informationen nicht aufgefunden werden kann. Es handelt sich meistens um Informationen die auf semi- und nichtstrukturierte Daten beruhen. Schätzungen zufolge sind heute rund 80% der entscheidungsrelevanten Informationen in Unternehmen in unstrukturierter, d. h. meist textueller Form vorhanden. Die Unfähigkeit der Maschinen den Inhalt unstrukturierter Texte zu verstehen führt dazu, dass dokumentiertes Wissen schwer auffindbar ist und oft unentdeckt bleibt. Wegen des Informationsvolumens, das meistens zu groß ist, um gelesen, verstanden oder sogar benutzt zu werden, ergibt sich folgendes Problem, mit dem man konfrontiert wird: Informationen die nicht in Wissen umgewandelt werden können, bleiben als papiergebundene oder digitale Dokumente in Data-Repositories verschlossen. Angesichts der heute anfallenden Menge an Dokumenten erscheint eine manuelle Vergabe von Schlagworten nicht mehr realistisch. Deshalb entwickelt Wissensmanagement unterstützende Verfahren, die Informationen rechtzeitig, in der richtigen Qualität und den richtigen Personen verfügbar machen. Einige Schwerpunkte an denen zur Zeit geforscht wird, sind Modelle zur Repräsentation von Dokumenten, Methoden zur Ähnlichkeitsbestimmung von Anfragen zu Dokumenten und zur Indexierung von Dokumentenmengen, sowie die automatische Klassifikation. Vor diesem Hintergrund konzentriert sich diese Arbeit auf die unterschiedlichen Verfahren der automatischen Indexierung, hebt die algorithmischen Vor- und Nachteile hervor, mit dem Ziel die Funktionsweise im Bereich der unstrukturierten Texte zu analysieren. Hierfür erfolgt im 3. Kapitel eine genauere Untersuchung und Darstellung automatischer Indexierungsverfahren. Zuvor werden in Kapitel 2 grundlegende Begrifflichkeiten erklärt, eingeordnet und abgegrenzt. Abschließend werden anhand der theoretischen Darlegung Implementierungen der vorgestellten Verfahren kurz beschrieben. Die Ausarbeitung endet mit der Schlussfolgerung und dem Ausblick.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster
    Imprint
    Münster : Institut für Wirtschaftsinformatik der Westfälische Wilhelms-Universität Münster
  20. Biebricher, P.; Fuhr, N.; Knorz, G.; Lustig, G.; Schwandtner, M.: Entwicklung und Anwendung des automatischen Indexierungssystems AIR/PHYS (1988) 0.06
    0.06104419 = product of:
      0.20602414 = sum of:
        0.020370604 = weight(_text_:und in 2320) [ClassicSimilarity], result of:
          0.020370604 = score(doc=2320,freq=6.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.33931053 = fieldWeight in 2320, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2320)
        0.0278624 = weight(_text_:aus in 2320) [ClassicSimilarity], result of:
          0.0278624 = score(doc=2320,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.30152568 = fieldWeight in 2320, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0625 = fieldNorm(doc=2320)
        0.029262485 = weight(_text_:der in 2320) [ClassicSimilarity], result of:
          0.029262485 = score(doc=2320,freq=12.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4836247 = fieldWeight in 2320, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2320)
        0.020370604 = weight(_text_:und in 2320) [ClassicSimilarity], result of:
          0.020370604 = score(doc=2320,freq=6.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.33931053 = fieldWeight in 2320, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2320)
        0.029262485 = weight(_text_:der in 2320) [ClassicSimilarity], result of:
          0.029262485 = score(doc=2320,freq=12.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4836247 = fieldWeight in 2320, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2320)
        0.029262485 = weight(_text_:der in 2320) [ClassicSimilarity], result of:
          0.029262485 = score(doc=2320,freq=12.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4836247 = fieldWeight in 2320, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2320)
        0.029262485 = weight(_text_:der in 2320) [ClassicSimilarity], result of:
          0.029262485 = score(doc=2320,freq=12.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.4836247 = fieldWeight in 2320, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2320)
        0.020370604 = weight(_text_:und in 2320) [ClassicSimilarity], result of:
          0.020370604 = score(doc=2320,freq=6.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.33931053 = fieldWeight in 2320, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2320)
      0.2962963 = coord(8/27)
    
    Abstract
    Seit 1985 wird das automatische Indexierungssystem AIR/PHYS in der Inputproduktion der Physik-Datenbank PHYS des Fachinformationszentrums Karlsruhe angewandt. Das AIR/PHYS-System teilt englischsprachigen Referatetexten Deskriptoren aus einem vorgeschriebenen Vokabular zu. In der vorliegenden Arbeit werden der zugrundeliegende fehlertolerierende Ansatz, der Aufbau des Systems und die wichtigsten Verfahren zur Entwicklung eines großen Indexierungswörterbuches beschrieben. Ferner werden Probleme der Anwendung und Weiterentwicklung des Systems behandelt

Years

Languages

  • d 169
  • e 30
  • a 1
  • m 1
  • nl 1
  • ru 1
  • More… Less…

Types

  • a 147
  • x 31
  • el 21
  • m 12
  • s 5
  • d 2
  • p 2
  • h 1
  • r 1
  • More… Less…