Search (213 results, page 1 of 11)

  • × theme_ss:"Automatisches Indexieren"
  1. Thönssen, B.: Automatische Indexierung und Schnittstellen zu Thesauri (1988) 0.21
    0.20798638 = product of:
      0.31197956 = sum of:
        0.06975118 = weight(_text_:und in 30) [ClassicSimilarity], result of:
          0.06975118 = score(doc=30,freq=12.0), product of:
            0.11628648 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05246716 = queryNorm
            0.5998219 = fieldWeight in 30, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=30)
        0.1358778 = weight(_text_:anwendung in 30) [ClassicSimilarity], result of:
          0.1358778 = score(doc=30,freq=2.0), product of:
            0.2540186 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.05246716 = queryNorm
            0.5349128 = fieldWeight in 30, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.078125 = fieldNorm(doc=30)
        0.04445647 = weight(_text_:des in 30) [ClassicSimilarity], result of:
          0.04445647 = score(doc=30,freq=2.0), product of:
            0.1452977 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.05246716 = queryNorm
            0.30596817 = fieldWeight in 30, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=30)
        0.0618941 = product of:
          0.1237882 = sum of:
            0.1237882 = weight(_text_:thesaurus in 30) [ClassicSimilarity], result of:
              0.1237882 = score(doc=30,freq=2.0), product of:
                0.24245487 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.05246716 = queryNorm
                0.5105618 = fieldWeight in 30, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.078125 = fieldNorm(doc=30)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Über eine Schnittstelle zwischen Programmen zur automatischen Indexierung (PRIMUS-IDX) und zur maschinellen Thesaurusverwaltung (INDEX) sollen große Textmengen schnell, kostengünstig und konsistent erschlossen und verbesserte Recherchemöglichkeiten geschaffen werden. Zielvorstellung ist ein Verfahren, das auf PCs ablauffähig ist und speziell deutschsprachige Texte bearbeiten kann
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  2. Zimmermann, H.H.: Automatische Indexierung und elektronische Thesauri (1996) 0.19
    0.18685797 = product of:
      0.28028694 = sum of:
        0.05093906 = weight(_text_:und in 2062) [ClassicSimilarity], result of:
          0.05093906 = score(doc=2062,freq=10.0), product of:
            0.11628648 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05246716 = queryNorm
            0.438048 = fieldWeight in 2062, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2062)
        0.10870225 = weight(_text_:anwendung in 2062) [ClassicSimilarity], result of:
          0.10870225 = score(doc=2062,freq=2.0), product of:
            0.2540186 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.05246716 = queryNorm
            0.42793027 = fieldWeight in 2062, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0625 = fieldNorm(doc=2062)
        0.07113035 = weight(_text_:des in 2062) [ClassicSimilarity], result of:
          0.07113035 = score(doc=2062,freq=8.0), product of:
            0.1452977 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.05246716 = queryNorm
            0.48954904 = fieldWeight in 2062, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=2062)
        0.04951528 = product of:
          0.09903056 = sum of:
            0.09903056 = weight(_text_:thesaurus in 2062) [ClassicSimilarity], result of:
              0.09903056 = score(doc=2062,freq=2.0), product of:
                0.24245487 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.05246716 = queryNorm
                0.40844947 = fieldWeight in 2062, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2062)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Überblick über die Möglichkeiten des Einsatzes automatischer Indexierung für die Erschließung von Textdokumenten mit einer Kurzvorstellung der Verfahren PASSAT, CTX und IDX sowie einer Skizze des Nutzens der Einbindung von Thesauri in den Prozess der automatischen Indexierung.
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; Bd.25
    Source
    Zukunft der Sacherschließung im OPAC: Vorträge des 2. Düsseldorfer OPAC-Kolloquiums am 21. Juni 1995. Hrsg.: E. Niggemann u. K. Lepsky
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  3. Siebenkäs, A.; Markscheffel, B.: Conception of a workflow for the semi-automatic construction of a thesaurus for the German printing industry (2015) 0.17
    0.16819558 = product of:
      0.25229335 = sum of:
        0.01993306 = weight(_text_:und in 2091) [ClassicSimilarity], result of:
          0.01993306 = score(doc=2091,freq=2.0), product of:
            0.11628648 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05246716 = queryNorm
            0.17141339 = fieldWeight in 2091, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2091)
        0.09511446 = weight(_text_:anwendung in 2091) [ClassicSimilarity], result of:
          0.09511446 = score(doc=2091,freq=2.0), product of:
            0.2540186 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.05246716 = queryNorm
            0.37443897 = fieldWeight in 2091, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2091)
        0.031119527 = weight(_text_:des in 2091) [ClassicSimilarity], result of:
          0.031119527 = score(doc=2091,freq=2.0), product of:
            0.1452977 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.05246716 = queryNorm
            0.2141777 = fieldWeight in 2091, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2091)
        0.10612628 = product of:
          0.21225256 = sum of:
            0.21225256 = weight(_text_:thesaurus in 2091) [ClassicSimilarity], result of:
              0.21225256 = score(doc=2091,freq=12.0), product of:
                0.24245487 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.05246716 = queryNorm
                0.8754312 = fieldWeight in 2091, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2091)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    During the BMWI granted project "Print-IT", the need of a thesaurus based uniform and consistent language for the German printing industry became evident. In this paper we introduce a semi-automatic construction approach for such a thesaurus and present a workflow which supports users to generate thesaurus typical information structures from relevant digitalized resources with the help of common IT-tools.
    Object
    MIDOS Thesaurus
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  4. Liedloff, V.: Anwendung eines existenten Klassifikationssystems im Bereich der computerunterstützten Inhaltsanalyse (1985) 0.15
    0.15297748 = product of:
      0.22946621 = sum of:
        0.028189603 = weight(_text_:und in 2921) [ClassicSimilarity], result of:
          0.028189603 = score(doc=2921,freq=4.0), product of:
            0.11628648 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05246716 = queryNorm
            0.24241515 = fieldWeight in 2921, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2921)
        0.09511446 = weight(_text_:anwendung in 2921) [ClassicSimilarity], result of:
          0.09511446 = score(doc=2921,freq=2.0), product of:
            0.2540186 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.05246716 = queryNorm
            0.37443897 = fieldWeight in 2921, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2921)
        0.031119527 = weight(_text_:des in 2921) [ClassicSimilarity], result of:
          0.031119527 = score(doc=2921,freq=2.0), product of:
            0.1452977 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.05246716 = queryNorm
            0.2141777 = fieldWeight in 2921, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2921)
        0.07504262 = product of:
          0.15008524 = sum of:
            0.15008524 = weight(_text_:thesaurus in 2921) [ClassicSimilarity], result of:
              0.15008524 = score(doc=2921,freq=6.0), product of:
                0.24245487 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.05246716 = queryNorm
                0.6190234 = fieldWeight in 2921, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2921)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    In universitärer Grundlagenforschung wurde das Computergestützte TeXterschließungssystem (CTX) entwickelt. Es ist ein wörterbuchorientiertes Verfahren, das aufbauend auf einer wort- und satzorientierten Verarbeitung von Texten zu einem deutschsprachigen Text/ Dokument formal-inhaltliche Stichwörter (Grundformen, systemintern "Deskriptoren" genannt) erstellt. Diese dienen als Input für die Computer-Unterstützte Inhaltsanalyse (CUI). Mit Hilfe eines Thesaurus werden die Deskriptoren zu Oberbegriffen zusammengefaßt und die durch CTX erstellte Deskriptorliste über eine Vergleichsliste auf die Kategorien (=Oberbegriffe) des Thesaurus abgebildet. Das Ergebnis wird über mathematisch-statistische Auswertungsverfahren weiterverarbeitet. Weitere Vorteile der Einbringung eines Thesaurus werden genannt
  5. Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003) 0.15
    0.14566875 = product of:
      0.21850312 = sum of:
        0.047221772 = weight(_text_:und in 4283) [ClassicSimilarity], result of:
          0.047221772 = score(doc=4283,freq=22.0), product of:
            0.11628648 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05246716 = queryNorm
            0.40608138 = fieldWeight in 4283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.096080124 = weight(_text_:anwendung in 4283) [ClassicSimilarity], result of:
          0.096080124 = score(doc=4283,freq=4.0), product of:
            0.2540186 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.05246716 = queryNorm
            0.3782405 = fieldWeight in 4283, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.031435475 = weight(_text_:des in 4283) [ClassicSimilarity], result of:
          0.031435475 = score(doc=4283,freq=4.0), product of:
            0.1452977 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.05246716 = queryNorm
            0.21635216 = fieldWeight in 4283, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.043765742 = product of:
          0.087531485 = sum of:
            0.087531485 = weight(_text_:thesaurus in 4283) [ClassicSimilarity], result of:
              0.087531485 = score(doc=4283,freq=4.0), product of:
                0.24245487 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.05246716 = queryNorm
                0.36102176 = fieldWeight in 4283, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4283)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Automatische Indexierung verzeichnet schon seit einigen Jahren aufgrund steigender Informationsflut ein wachsendes Interesse. Allerdings gibt es immer noch Vorbehalte gegenüber der intellektuellen Indexierung in Bezug auf Qualität und größerem Aufwand der Systemimplementierung bzw. -pflege. Neuere Entwicklungen aus dem Bereich des Wissensmanagements, wie beispielsweise Verfahren aus der Künstlichen Intelligenz, der Informationsextraktion, dem Text Mining bzw. der automatischen Klassifikation sollen die automatische Indexierung aufwerten und verbessern. Damit soll eine intelligentere und mehr inhaltsbasierte Erschließung geleistet werden. In dieser Masterarbeit wird außerhalb der Darstellung von Grundlagen und Verfahren der automatischen Indexierung sowie neueren Entwicklungen auch Möglichkeiten der Evaluation dargestellt. Die mögliche Anwendung der automatischen Indexierung im DFG-ProjektGemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" bilden den Schwerpunkt der Arbeit. Im Portal steht die bibliothekarische Erschließung von Texten im Vordergrund. In einem umfangreichen Test werden drei deutsche, linguistische Systeme mit statistischen Verfahren kombiniert (die aber teilweise im System bereits integriert ist) und evaluiert, allerdings nur auf der Basis der ausgegebenen Indexate. Abschließend kann festgestellt werden, dass die Ergebnisse und damit die Qualität (bezogen auf die Indexate) von intellektueller und automatischer Indexierung noch signifikant unterschiedlich sind. Die Gründe liegen in noch zu lösenden semantischen Problemen bzw, in der Obereinstimmung mit Worten aus einem Thesaurus, die von einem automatischen Indexierungssystem nicht immer nachvollzogen werden kann. Eine Inhaltsanreicherung mit den Indexaten zum Vorteil beim Retrieval kann, je nach System oder auch über die Einbindung durch einen Thesaurus, erreicht werden.
    Footnote
    Masterarbeit im Studiengang Information Engineering zur Erlagung des Grades eines Master of Science in Information science,
    Imprint
    Konstanz : Universität / Fachbereich Informatik und Informationswissenschaft
  6. Milstead, J.L.: Thesauri in a full-text world (1998) 0.13
    0.13456134 = product of:
      0.20184201 = sum of:
        0.0142379 = weight(_text_:und in 2337) [ClassicSimilarity], result of:
          0.0142379 = score(doc=2337,freq=2.0), product of:
            0.11628648 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05246716 = queryNorm
            0.12243814 = fieldWeight in 2337, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2337)
        0.0679389 = weight(_text_:anwendung in 2337) [ClassicSimilarity], result of:
          0.0679389 = score(doc=2337,freq=2.0), product of:
            0.2540186 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.05246716 = queryNorm
            0.2674564 = fieldWeight in 2337, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2337)
        0.022228235 = weight(_text_:des in 2337) [ClassicSimilarity], result of:
          0.022228235 = score(doc=2337,freq=2.0), product of:
            0.1452977 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.05246716 = queryNorm
            0.15298408 = fieldWeight in 2337, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2337)
        0.09743698 = sum of:
          0.0618941 = weight(_text_:thesaurus in 2337) [ClassicSimilarity], result of:
            0.0618941 = score(doc=2337,freq=2.0), product of:
              0.24245487 = queryWeight, product of:
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.05246716 = queryNorm
              0.2552809 = fieldWeight in 2337, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2337)
          0.03554288 = weight(_text_:22 in 2337) [ClassicSimilarity], result of:
            0.03554288 = score(doc=2337,freq=2.0), product of:
              0.18373105 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05246716 = queryNorm
              0.19345059 = fieldWeight in 2337, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2337)
      0.6666667 = coord(4/6)
    
    Date
    22. 9.1997 19:16:05
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  7. Biebricher, P.; Fuhr, N.; Knorz, G.; Lustig, G.; Schwandtner, M.: Entwicklung und Anwendung des automatischen Indexierungssystems AIR/PHYS (1988) 0.13
    0.13215789 = product of:
      0.26431578 = sum of:
        0.039457228 = weight(_text_:und in 2320) [ClassicSimilarity], result of:
          0.039457228 = score(doc=2320,freq=6.0), product of:
            0.11628648 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05246716 = queryNorm
            0.33931053 = fieldWeight in 2320, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2320)
        0.1537282 = weight(_text_:anwendung in 2320) [ClassicSimilarity], result of:
          0.1537282 = score(doc=2320,freq=4.0), product of:
            0.2540186 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.05246716 = queryNorm
            0.6051848 = fieldWeight in 2320, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0625 = fieldNorm(doc=2320)
        0.07113035 = weight(_text_:des in 2320) [ClassicSimilarity], result of:
          0.07113035 = score(doc=2320,freq=8.0), product of:
            0.1452977 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.05246716 = queryNorm
            0.48954904 = fieldWeight in 2320, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=2320)
      0.5 = coord(3/6)
    
    Abstract
    Seit 1985 wird das automatische Indexierungssystem AIR/PHYS in der Inputproduktion der Physik-Datenbank PHYS des Fachinformationszentrums Karlsruhe angewandt. Das AIR/PHYS-System teilt englischsprachigen Referatetexten Deskriptoren aus einem vorgeschriebenen Vokabular zu. In der vorliegenden Arbeit werden der zugrundeliegende fehlertolerierende Ansatz, der Aufbau des Systems und die wichtigsten Verfahren zur Entwicklung eines großen Indexierungswörterbuches beschrieben. Ferner werden Probleme der Anwendung und Weiterentwicklung des Systems behandelt
  8. Tavakolizadeh-Ravari, M.: Analysis of the long term dynamics in thesaurus developments and its consequences (2017) 0.12
    0.121209614 = product of:
      0.18181442 = sum of:
        0.036019355 = weight(_text_:und in 3081) [ClassicSimilarity], result of:
          0.036019355 = score(doc=3081,freq=20.0), product of:
            0.11628648 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05246716 = queryNorm
            0.3097467 = fieldWeight in 3081, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3081)
        0.054351125 = weight(_text_:anwendung in 3081) [ClassicSimilarity], result of:
          0.054351125 = score(doc=3081,freq=2.0), product of:
            0.2540186 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.05246716 = queryNorm
            0.21396513 = fieldWeight in 3081, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.03125 = fieldNorm(doc=3081)
        0.030800348 = weight(_text_:des in 3081) [ClassicSimilarity], result of:
          0.030800348 = score(doc=3081,freq=6.0), product of:
            0.1452977 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.05246716 = queryNorm
            0.21198097 = fieldWeight in 3081, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=3081)
        0.060643587 = product of:
          0.121287175 = sum of:
            0.121287175 = weight(_text_:thesaurus in 3081) [ClassicSimilarity], result of:
              0.121287175 = score(doc=3081,freq=12.0), product of:
                0.24245487 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.05246716 = queryNorm
                0.5002464 = fieldWeight in 3081, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3081)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Die Arbeit analysiert die dynamische Entwicklung und den Gebrauch von Thesaurusbegriffen. Zusätzlich konzentriert sie sich auf die Faktoren, die die Zahl von Indexbegriffen pro Dokument oder Zeitschrift beeinflussen. Als Untersuchungsobjekt dienten der MeSH und die entsprechende Datenbank "MEDLINE". Die wichtigsten Konsequenzen sind: 1. Der MeSH-Thesaurus hat sich durch drei unterschiedliche Phasen jeweils logarithmisch entwickelt. Solch einen Thesaurus sollte folgenden Gleichung folgen: "T = 3.076,6 Ln (d) - 22.695 + 0,0039d" (T = Begriffe, Ln = natürlicher Logarithmus und d = Dokumente). Um solch einen Thesaurus zu konstruieren, muss man demnach etwa 1.600 Dokumente von unterschiedlichen Themen des Bereiches des Thesaurus haben. Die dynamische Entwicklung von Thesauri wie MeSH erfordert die Einführung eines neuen Begriffs pro Indexierung von 256 neuen Dokumenten. 2. Die Verteilung der Thesaurusbegriffe erbrachte drei Kategorien: starke, normale und selten verwendete Headings. Die letzte Gruppe ist in einer Testphase, während in der ersten und zweiten Kategorie die neu hinzukommenden Deskriptoren zu einem Thesauruswachstum führen. 3. Es gibt ein logarithmisches Verhältnis zwischen der Zahl von Index-Begriffen pro Aufsatz und dessen Seitenzahl für die Artikeln zwischen einer und einundzwanzig Seiten. 4. Zeitschriftenaufsätze, die in MEDLINE mit Abstracts erscheinen erhalten fast zwei Deskriptoren mehr. 5. Die Findablity der nicht-englisch sprachigen Dokumente in MEDLINE ist geringer als die englische Dokumente. 6. Aufsätze der Zeitschriften mit einem Impact Factor 0 bis fünfzehn erhalten nicht mehr Indexbegriffe als die der anderen von MEDINE erfassten Zeitschriften. 7. In einem Indexierungssystem haben unterschiedliche Zeitschriften mehr oder weniger Gewicht in ihrem Findability. Die Verteilung der Indexbegriffe pro Seite hat gezeigt, dass es bei MEDLINE drei Kategorien der Publikationen gibt. Außerdem gibt es wenige stark bevorzugten Zeitschriften."
    Footnote
    Dissertation, Humboldt-Universität zu Berlin - Institut für Bibliotheks- und Informationswissenschaft.
    Imprint
    Berlin : Humboldt-Universität zu Berlin / Institut für Bibliotheks- und Informationswissenschaft
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  9. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.12
    0.1199379 = product of:
      0.2398758 = sum of:
        0.03417096 = weight(_text_:und in 2051) [ClassicSimilarity], result of:
          0.03417096 = score(doc=2051,freq=2.0), product of:
            0.11628648 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05246716 = queryNorm
            0.29385152 = fieldWeight in 2051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.16305338 = weight(_text_:anwendung in 2051) [ClassicSimilarity], result of:
          0.16305338 = score(doc=2051,freq=2.0), product of:
            0.2540186 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.05246716 = queryNorm
            0.6418954 = fieldWeight in 2051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.042651452 = product of:
          0.085302904 = sum of:
            0.085302904 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.085302904 = score(doc=2051,freq=2.0), product of:
                0.18373105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05246716 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Date
    14. 6.2015 22:12:56
    Source
    Automatische Indexierung zwischen Forschung und Anwendung, Hrsg.: G. Lustig
  10. Lepsky, K.: Auf dem Weg zur automatischen Inhaltserschließung? : Das DFG-Projekt MILOS und seine Ergebnisse (1997) 0.12
    0.11781677 = product of:
      0.23563354 = sum of:
        0.055800945 = weight(_text_:und in 11) [ClassicSimilarity], result of:
          0.055800945 = score(doc=11,freq=12.0), product of:
            0.11628648 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05246716 = queryNorm
            0.47985753 = fieldWeight in 11, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=11)
        0.10870225 = weight(_text_:anwendung in 11) [ClassicSimilarity], result of:
          0.10870225 = score(doc=11,freq=2.0), product of:
            0.2540186 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.05246716 = queryNorm
            0.42793027 = fieldWeight in 11, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0625 = fieldNorm(doc=11)
        0.07113035 = weight(_text_:des in 11) [ClassicSimilarity], result of:
          0.07113035 = score(doc=11,freq=8.0), product of:
            0.1452977 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.05246716 = queryNorm
            0.48954904 = fieldWeight in 11, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=11)
      0.5 = coord(3/6)
    
    Abstract
    Der Beitrag beschäftigt sich mit der Anwendung eines Verfahrens zur Automatischen Indexierung von Titeldaten in Bibliotheken. Die Arbeitsweise des Verfahrens und seine Nutzung innerhalb des von der Deutschen Forschungsgemeinschaft geförderten und an der Universitäts- und Landesbibliothek Düsseldorf durchgeführten Projekts MILOS werden geschildert. Die Ergebnisse eines Retrievaltests belegen die Tauglichkeit des Verfahrens für den Einsatz in Bibliotheken. Aufbauend auf diesen Ergebnissen werden Perspektiven für eine sinnvolle Verbindung von konventioneller bibliothekarischer Sacherschließung und automatischen Verfahren entworfen
    Source
    Mitteilungen der Gesellschaft für Bibliothekswesen und Dokumentation des Landbaus. 1997, H.53, S.46-52
  11. Biebricher, P.; Fuhr, N.; Niewelt, B.: ¬Der AIR-Retrievaltest (1986) 0.11
    0.1148279 = product of:
      0.2296558 = sum of:
        0.049321532 = weight(_text_:und in 4040) [ClassicSimilarity], result of:
          0.049321532 = score(doc=4040,freq=6.0), product of:
            0.11628648 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05246716 = queryNorm
            0.42413816 = fieldWeight in 4040, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4040)
        0.1358778 = weight(_text_:anwendung in 4040) [ClassicSimilarity], result of:
          0.1358778 = score(doc=4040,freq=2.0), product of:
            0.2540186 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.05246716 = queryNorm
            0.5349128 = fieldWeight in 4040, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.078125 = fieldNorm(doc=4040)
        0.04445647 = weight(_text_:des in 4040) [ClassicSimilarity], result of:
          0.04445647 = score(doc=4040,freq=2.0), product of:
            0.1452977 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.05246716 = queryNorm
            0.30596817 = fieldWeight in 4040, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=4040)
      0.5 = coord(3/6)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Durchführung und zu den Ergebnissen des Retrievaltests zum AIR/PHYS-Projekt. Er zählt mit seinen 309 Fragen und 15.000 Dokumenten zu den größten Retrievaltests, die bisher zur Evaluierung automatisierter Indexierungs- oder Retrievalverfahren vorgenommen wurden.
    Source
    Automatische Indexierung zwischen Forschung und Anwendung, Hrsg.: G. Lustig
  12. Schneider, A.: Moderne Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen : Projekte und Perspektiven (2008) 0.11
    0.10939653 = product of:
      0.21879306 = sum of:
        0.04696349 = weight(_text_:und in 4031) [ClassicSimilarity], result of:
          0.04696349 = score(doc=4031,freq=34.0), product of:
            0.11628648 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05246716 = queryNorm
            0.40386027 = fieldWeight in 4031, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.12153281 = weight(_text_:anwendung in 4031) [ClassicSimilarity], result of:
          0.12153281 = score(doc=4031,freq=10.0), product of:
            0.2540186 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.05246716 = queryNorm
            0.47844058 = fieldWeight in 4031, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.050296754 = weight(_text_:des in 4031) [ClassicSimilarity], result of:
          0.050296754 = score(doc=4031,freq=16.0), product of:
            0.1452977 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.05246716 = queryNorm
            0.34616345 = fieldWeight in 4031, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
      0.5 = coord(3/6)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit modernen Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen. Wie die Verbindung der beiden gegensätzlich scheinenden Wortgruppen im Titel zeigt, werden in der Arbeit Aspekte aus der Informatik bzw. Informationswissenschaft mit Aspekten aus der Bibliothekstradition verknüpft. Nach einer kurzen Schilderung der Ausgangslage, der so genannten Informationsflut, im ersten Kapitel stellt das zweite Kapitel eine Einführung in die Theorie des Information Retrieval dar. Im Einzelnen geht es um die Grundlagen von Information Retrieval und Information-Retrieval-Systemen sowie um die verschiedenen Möglichkeiten der Informationserschließung. Hier werden Formal- und Sacherschließung, Indexierung und automatische Indexierung behandelt. Des Weiteren werden im Rahmen der Theorie des Information Retrieval unterschiedliche Information-Retrieval-Modelle und die Evaluation durch Retrievaltests vorgestellt. Nach der Theorie folgt im dritten Kapitel die Praxis des Information Retrieval. Es werden die organisationsinterne Anwendung, die Anwendung im Informations- und Dokumentationsbereich sowie die Anwendung im Bibliotheksbereich unterschieden. Die organisationsinterne Anwendung wird durch das Beispiel der Datenbank KURS zur Aus- und Weiterbildung veranschaulicht. Die Anwendung im Bibliotheksbereich bezieht sich in erster Linie auf den OPAC als Kompromiss zwischen bibliothekarischer Indexierung und Endnutzeranforderungen und auf seine Anreicherung (sog. Catalogue Enrichment), um das Retrieval zu verbessern. Der Bibliotheksbereich wird ausführlicher behandelt, indem ein Rückblick auf abgeschlossene Projekte zu Informations- und Indexierungssystemen aus den Neunziger Jahren (OSIRIS, MILOS I und II, KASCADE) sowie ein Einblick in aktuelle Projekte gegeben werden. In den beiden folgenden Kapiteln wird je ein aktuelles Projekt zur Verbesserung des Retrievals durch Kataloganreicherung, automatische Erschließung und fortschrittliche Retrievalverfahren präsentiert: das Suchportal dandelon.com und das 180T-Projekt des Hochschulbibliothekszentrums des Landes Nordrhein-Westfalen. Hierbei werden jeweils Projektziel, Projektpartner, Projektorganisation, Projektverlauf und die verwendete Technologie vorgestellt. Die Projekte unterscheiden sich insofern, dass in dem einen Fall eine große Verbundzentrale die Projektkoordination übernimmt, im anderen Fall jede einzelne teilnehmende Bibliothek selbst für die Durchführung verantwortlich ist. Im sechsten und letzten Kapitel geht es um das Fazit und die Perspektiven. Es werden sowohl die beiden beschriebenen Projekte bewertet als auch ein Ausblick auf Entwicklungen bezüglich des Bibliothekskatalogs gegeben. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  13. Lepsky, K.: Automatische Indexierung zur Erschließung deutschsprachiger Dokumente (1999) 0.11
    0.10793211 = product of:
      0.21586423 = sum of:
        0.04556128 = weight(_text_:und in 4656) [ClassicSimilarity], result of:
          0.04556128 = score(doc=4656,freq=8.0), product of:
            0.11628648 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05246716 = queryNorm
            0.39180204 = fieldWeight in 4656, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4656)
        0.10870225 = weight(_text_:anwendung in 4656) [ClassicSimilarity], result of:
          0.10870225 = score(doc=4656,freq=2.0), product of:
            0.2540186 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.05246716 = queryNorm
            0.42793027 = fieldWeight in 4656, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0625 = fieldNorm(doc=4656)
        0.061600696 = weight(_text_:des in 4656) [ClassicSimilarity], result of:
          0.061600696 = score(doc=4656,freq=6.0), product of:
            0.1452977 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.05246716 = queryNorm
            0.42396194 = fieldWeight in 4656, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=4656)
      0.5 = coord(3/6)
    
    Abstract
    Der Beitrag beschäftigt sich mit der Anwendung eines Verfahrens zur automatischen Indexierung deutschsprachiger Texte in Bibliotheken. Die Arbeitsweise des Verfahrens und seine Entwicklung innerhalb der von der Deutschen Forschungsgemeinschaft geförderte und an der ULB Düsseldorf gemeinsam mit der Fachrichtung Informationswissenschaft der Universität des Saarlandes durchgeführten Projekte MILOS I, MILOS II und KASCADE werden geschildert. Die Ergebnisse von Retrievaltests belegen die Tauglichkeit des Verfahrens für den Einsatz in Bibliotheken. Aufsetzend auf diesen Ergebnissen werden Perspektiven für die bibliothekarische Sacherschließung im Hinblick auf den Einsatz von automatischen Verfahren entworfen
    Source
    nfd Information - Wissenschaft und Praxis. 50(1999) H.6, S.325-330
  14. Automatische Indexierung zwischen Forschung und Anwendung (1986) 0.10
    0.102748916 = product of:
      0.20549783 = sum of:
        0.03986612 = weight(_text_:und in 953) [ClassicSimilarity], result of:
          0.03986612 = score(doc=953,freq=8.0), product of:
            0.11628648 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05246716 = queryNorm
            0.34282678 = fieldWeight in 953, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=953)
        0.13451219 = weight(_text_:anwendung in 953) [ClassicSimilarity], result of:
          0.13451219 = score(doc=953,freq=4.0), product of:
            0.2540186 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.05246716 = queryNorm
            0.5295367 = fieldWeight in 953, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=953)
        0.031119527 = weight(_text_:des in 953) [ClassicSimilarity], result of:
          0.031119527 = score(doc=953,freq=2.0), product of:
            0.1452977 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.05246716 = queryNorm
            0.2141777 = fieldWeight in 953, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=953)
      0.5 = coord(3/6)
    
    Abstract
    Die automatische Indexierung von Dokumenten für das Information Retrieval, d. h. die automatische Charakterisierung von Dokumentinhalten mittels Deskriptoren (Schlagwörtern) ist bereits seit über 25 Jahren ein Gebiet theoretischer und experimenteller Forschung. Dagegen wurde erst im Oktober 1985 mit der Anwendung der automatischen Indexierung in der Inputproduktion für ein großes Retrievalsystem begonnen. Es handelt sich um die Indexierung englischer Referatetexte für die Physik-Datenbasis des Informationszentrums Energie, Physik, Mathematik GmbH in Karlsruhe. In dem vorliegenden Buch beschreiben Mitarbeiter der Technischen Hochschule Darmstadt ihre Forschungs- und Entwicklungsarbeiten, die zu dieser Pilotanwendung geführt haben.
    Footnote
    Rez. in: Zeitschrift für Bibliothekswesen und Bibliographie 35(1988) S.508-510 (W. Gödert)
  15. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.10
    0.09979649 = product of:
      0.14969473 = sum of:
        0.04556128 = weight(_text_:und in 1767) [ClassicSimilarity], result of:
          0.04556128 = score(doc=1767,freq=32.0), product of:
            0.11628648 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05246716 = queryNorm
            0.39180204 = fieldWeight in 1767, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.054351125 = weight(_text_:anwendung in 1767) [ClassicSimilarity], result of:
          0.054351125 = score(doc=1767,freq=2.0), product of:
            0.2540186 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.05246716 = queryNorm
            0.21396513 = fieldWeight in 1767, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.035565175 = weight(_text_:des in 1767) [ClassicSimilarity], result of:
          0.035565175 = score(doc=1767,freq=8.0), product of:
            0.1452977 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.05246716 = queryNorm
            0.24477452 = fieldWeight in 1767, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.014217151 = product of:
          0.028434303 = sum of:
            0.028434303 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
              0.028434303 = score(doc=1767,freq=2.0), product of:
                0.18373105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05246716 = queryNorm
                0.15476047 = fieldWeight in 1767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Rez. in: nfd 54(2003) H.5, S.314 (W. Ratzek): "Um entscheidungsrelevante Daten aus der ständig wachsenden Flut von mehr oder weniger relevanten Dokumenten zu extrahieren, müssen Unternehmen, öffentliche Verwaltung oder Einrichtungen der Fachinformation effektive und effiziente Filtersysteme entwickeln, einsetzen und pflegen. Das vorliegende Lehrbuch von Holger Nohr bietet erstmalig eine grundlegende Einführung in das Thema "automatische Indexierung". Denn: "Wie man Information sammelt, verwaltet und verwendet, wird darüber entscheiden, ob man zu den Gewinnern oder Verlierern gehört" (Bill Gates), heißt es einleitend. Im ersten Kapitel "Einleitung" stehen die Grundlagen im Mittelpunkt. Die Zusammenhänge zwischen Dokumenten-Management-Systeme, Information Retrieval und Indexierung für Planungs-, Entscheidungs- oder Innovationsprozesse, sowohl in Profit- als auch Non-Profit-Organisationen werden beschrieben. Am Ende des einleitenden Kapitels geht Nohr auf die Diskussion um die intellektuelle und automatische Indexierung ein und leitet damit über zum zweiten Kapitel "automatisches Indexieren. Hier geht der Autor überblickartig unter anderem ein auf - Probleme der automatischen Sprachverarbeitung und Indexierung - verschiedene Verfahren der automatischen Indexierung z.B. einfache Stichwortextraktion / Volltextinvertierung, - statistische Verfahren, Pattern-Matching-Verfahren. Die "Verfahren der automatischen Indexierung" behandelt Nohr dann vertiefend und mit vielen Beispielen versehen im umfangreichsten dritten Kapitel. Das vierte Kapitel "Keyphrase Extraction" nimmt eine Passpartout-Status ein: "Eine Zwischenstufe auf dem Weg von der automatischen Indexierung hin zur automatischen Generierung textueller Zusammenfassungen (Automatic Text Summarization) stellen Ansätze dar, die Schlüsselphrasen aus Dokumenten extrahieren (Keyphrase Extraction). Die Grenzen zwischen den automatischen Verfahren der Indexierung und denen des Text Summarization sind fließend." (S. 91). Am Beispiel NCR"s Extractor/Copernic Summarizer beschreibt Nohr die Funktionsweise.
    Im fünften Kapitel "Information Extraction" geht Nohr auf eine Problemstellung ein, die in der Fachwelt eine noch stärkere Betonung verdiente: "Die stetig ansteigende Zahl elektronischer Dokumente macht neben einer automatischen Erschließung auch eine automatische Gewinnung der relevanten Informationen aus diesen Dokumenten wünschenswert, um diese z.B. für weitere Bearbeitungen oder Auswertungen in betriebliche Informationssysteme übernehmen zu können." (S. 103) "Indexierung und Retrievalverfahren" als voneinander abhängige Verfahren werden im sechsten Kapitel behandelt. Hier stehen Relevance Ranking und Relevance Feedback sowie die Anwendung informationslinguistischer Verfahren in der Recherche im Mittelpunkt. Die "Evaluation automatischer Indexierung" setzt den thematischen Schlusspunkt. Hier geht es vor allem um die Oualität einer Indexierung, um gängige Retrievalmaße in Retrievaltest und deren Einssatz. Weiterhin ist hervorzuheben, dass jedes Kapitel durch die Vorgabe von Lernzielen eingeleitet wird und zu den jeweiligen Kapiteln (im hinteren Teil des Buches) einige Kontrollfragen gestellt werden. Die sehr zahlreichen Beispiele aus der Praxis, ein Abkürzungsverzeichnis und ein Sachregister erhöhen den Nutzwert des Buches. Die Lektüre förderte beim Rezensenten das Verständnis für die Zusammenhänge von BID-Handwerkzeug, Wirtschaftsinformatik (insbesondere Data Warehousing) und Künstlicher Intelligenz. Die "Grundlagen der automatischen Indexierung" sollte auch in den bibliothekarischen Studiengängen zur Pflichtlektüre gehören. Holger Nohrs Lehrbuch ist auch für den BID-Profi geeignet, um die mehr oder weniger fundierten Kenntnisse auf dem Gebiet "automatisches Indexieren" schnell, leicht verständlich und informativ aufzufrischen."
  16. Willis, C.; Losee, R.M.: ¬A random walk on an ontology : using thesaurus structure for automatic subject indexing (2013) 0.10
    0.09935107 = product of:
      0.1490266 = sum of:
        0.01139032 = weight(_text_:und in 1016) [ClassicSimilarity], result of:
          0.01139032 = score(doc=1016,freq=2.0), product of:
            0.11628648 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05246716 = queryNorm
            0.09795051 = fieldWeight in 1016, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1016)
        0.054351125 = weight(_text_:anwendung in 1016) [ClassicSimilarity], result of:
          0.054351125 = score(doc=1016,freq=2.0), product of:
            0.2540186 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.05246716 = queryNorm
            0.21396513 = fieldWeight in 1016, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.03125 = fieldNorm(doc=1016)
        0.017782588 = weight(_text_:des in 1016) [ClassicSimilarity], result of:
          0.017782588 = score(doc=1016,freq=2.0), product of:
            0.1452977 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.05246716 = queryNorm
            0.12238726 = fieldWeight in 1016, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1016)
        0.06550257 = product of:
          0.13100514 = sum of:
            0.13100514 = weight(_text_:thesaurus in 1016) [ClassicSimilarity], result of:
              0.13100514 = score(doc=1016,freq=14.0), product of:
                0.24245487 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.05246716 = queryNorm
                0.5403279 = fieldWeight in 1016, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1016)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Relationships between terms and features are an essential component of thesauri, ontologies, and a range of controlled vocabularies. In this article, we describe ways to identify important concepts in documents using the relationships in a thesaurus or other vocabulary structures. We introduce a methodology for the analysis and modeling of the indexing process based on a weighted random walk algorithm. The primary goal of this research is the analysis of the contribution of thesaurus structure to the indexing process. The resulting models are evaluated in the context of automatic subject indexing using four collections of documents pre-indexed with 4 different thesauri (AGROVOC [UN Food and Agriculture Organization], high-energy physics taxonomy [HEP], National Agricultural Library Thesaurus [NALT], and medical subject headings [MeSH]). We also introduce a thesaurus-centric matching algorithm intended to improve the quality of candidate concepts. In all cases, the weighted random walk improves automatic indexing performance over matching alone with an increase in average precision (AP) of 9% for HEP, 11% for MeSH, 35% for NALT, and 37% for AGROVOC. The results of the analysis support our hypothesis that subject indexing is in part a browsing process, and that using the vocabulary and its structure in a thesaurus contributes to the indexing process. The amount that the vocabulary structure contributes was found to differ among the 4 thesauri, possibly due to the vocabulary used in the corresponding thesauri and the structural relationships between the terms. Each of the thesauri and the manual indexing associated with it is characterized using the methods developed here.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  17. Lohmann, H.: KASCADE: Dokumentanreicherung und automatische Inhaltserschließung : Projektbericht und Ergebnisse des Retrievaltests (2000) 0.09
    0.08536123 = product of:
      0.17072245 = sum of:
        0.033055242 = weight(_text_:und in 494) [ClassicSimilarity], result of:
          0.033055242 = score(doc=494,freq=22.0), product of:
            0.11628648 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05246716 = queryNorm
            0.28425696 = fieldWeight in 494, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.0492043 = weight(_text_:des in 494) [ClassicSimilarity], result of:
          0.0492043 = score(doc=494,freq=20.0), product of:
            0.1452977 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.05246716 = queryNorm
            0.3386447 = fieldWeight in 494, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.08846292 = weight(_text_:prinzip in 494) [ClassicSimilarity], result of:
          0.08846292 = score(doc=494,freq=2.0), product of:
            0.34644786 = queryWeight, product of:
              6.603137 = idf(docFreq=162, maxDocs=44218)
              0.05246716 = queryNorm
            0.25534266 = fieldWeight in 494, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.603137 = idf(docFreq=162, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
      0.5 = coord(3/6)
    
    Abstract
    Der Test hat gezeigt, dass die Ergänzung der bibliothekarischen Titelaufnahme um zusätzliche inhaltsrelevante Daten zu einer beeindruckenden Verbesserung der Suchergebnisse führt. Die Dokumentanreicherung sollte daher als Ziel bibliothekarischer Bemühungen um eine Verbesserung des OPAC-Retrievals weiterverfolgt werden. Der im Projekt eingeschlagene Weg, die Inhaltsverzeichnisse zu scannen, erwies sich allerdings als wenig sinnvoll. Zwar erzielte das Scanningverfahren gute Ergebnisse, auch arbeitete die Texterkennungssoftware sehr zuverlässig. Das Scanning bietet darüber hinaus die Möglichkeit, die dabei angefertigte Grafik-Datei mit dem Titelsatz im OPAC zu verknüpfen und so dem Nutzer als Entscheidungshilfe bei der Ergebnismengenbeurteilung an die Hand zu geben. Die Arbeiten am Aufbau der Testdatenbank brachten aber die Erkenntnis, dass die Anreicherung im Wege des Scanning technisch außerordentlich problematisch ist und einen nicht vorauszusehenden und letztlich auch nicht zu rechtfertigenden Aufwand erfordert. Diese Methode der Anreicherung kann daher für einen Praxiseinsatz nicht empfohlen werden.
    Verbesserungen des Gewichtungsverfahrens sollten schließlich unterstützt werden durch Maßnahmen zur Optimierung der Retrievalumgebung, etwa durch - den Einsatz von Hypertextwerkzeugen; - die Integration der THEAS-Komponente, mit der die automatische Mehrwortgruppengewinnung mit Hilfe eines Mehrwortgruppen-Parsers möglich ist; dies könnte im Rahmen der Dialogführung mit dem Nutzer eingesetzt werden, wenn dieser Teilkomponenten solcher Mehrwortgruppen im Retrieval verwendet. Mit THEAS wäre daneben der Einstieg in das Retrieval über das Register mit kanonischen Formen möglich; - die Integration von Wörterbuchfunktionen zur Benutzerunterstützung. Eine Weiterentwicklung des SELIX-Verfahrens könnte daneben in diese Richtungen erfolgen: - Bildung von Dokument-Clustern. Dabei werden Dokumente in einem Dokumenten-Raum einander in dem Maße zugeordnet, in dem ihre selektierten Grundformen übereinstimmen. - Errichtung von statistisch basierten semantischen Netzen, in denen Grundformen einander in einem Begriffs-Raum in dem Maße zugeordnet werden, in dem sie "gemeinsam" in Dokumenten auftreten.
    Abgesehen von diesen Überlegungen müssten für einen praktischen Einsatz der KASCADE-Entwicklungen weitere Voraussetzungen geschaffen werden. Erforderlich wäre zunächst die Optimierung und Rationalisierung der Verfahrensabläufe selbst. Die Teilprogramme unter KasKoll sollten in ein kompaktes Programm integriert werden. Die Sortiervorgänge könnten vereinfacht werden, indem die Deskriptoren in eine relationale Datenbank überführt werden. Letztendlich wirken sich diese Punkte aber vor allem auf die Dauer der Maschinenlaufzeiten aus, die bei der Frage nach den Implementierungskosten letztlich nur eine untergeordnete Rolle spielen. Optimiert werden sollte die Oberfläche zur Steuerung des Verfahrens. Bereits jetzt laufen einige der Programme unter einer menügeführten Windows-Schnittstelle (Kasadew) ab, was für alle Verfahrensteile erreicht werden sollte. Schließlich ist zu klären, unter welchen Bedingungen das Gewichtungsverfahren im Praxisbetrieb ablaufen kann.
    Da sich mit jedem Dokument, das zu dem im Gewichtungsverfahren befindlichen Gesamtbestand hinzukommt, die Werte aller bereits gewichteten Deskriptoren ändern können, müsste die Berechnung der Häufigkeitsverteilung jeder Grundform im Prinzip nach jeder Änderung im Dokumentbestand neu berechnet werden. Eine Online-Aktualisierung des Bestandes erscheint daher wenig sinnvoll. In der Praxis könnte eine Neuberechnung in bestimmten zeitlichen Abständen mit einem Abzug des OPAC-Bestandes unabhängig vom eigentlichen Betrieb des OPAC erfolgen, was auch insofern genügen würde, als die zugrunde liegenden Maße auf relativen Häufigkeiten basieren. Dadurch würde nur ein geringer Verzug in der Bereitstellung der aktuellen Gewichte eintreten. Außerdem würde der Zeitfaktor eine nur untergeordnete Rolle spielen, da ein offline ablaufender Gewichtungslauf erst bis zum nächsten Aktualisierungszeitpunkt abgeschlossen sein müsste. Denkbar wäre zusätzlich, für die Zeit zwischen zwei Aktualisierungen des OPACs für die in den Neuzugängen enthaltenen Begriffe Standardgewichte einzusetzen, soweit diese Begriffe bereits in dem Bestand auftreten. Bei entsprechender Optimierung und Rationalisierung der SELIX-Verfahrensabläufe, Nutzung der Gewichte auf der Retrievalseite für ein Ranking der auszugebenden Dokumente und Integration der THEAS-Komponente kann das Verfahren zu einem wirkungsvollen Instrument zur Verbesserung der Retrievaleffektivität weiterentwickelt werden.
    Footnote
    Zugl.: Köln, Fachhochsch., Fachbereich Bibliotheks- und Informationswesen, Hausarbeit
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 31
  18. Kutschekmanesch, S.; Lutes, B.; Moelle, K.; Thiel, U.; Tzeras, K.: Automated multilingual indexing : a synthesis of rule-based and thesaurus-based methods (1998) 0.07
    0.07444993 = product of:
      0.22334976 = sum of:
        0.0284758 = weight(_text_:und in 4157) [ClassicSimilarity], result of:
          0.0284758 = score(doc=4157,freq=2.0), product of:
            0.11628648 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05246716 = queryNorm
            0.24487628 = fieldWeight in 4157, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4157)
        0.19487396 = sum of:
          0.1237882 = weight(_text_:thesaurus in 4157) [ClassicSimilarity], result of:
            0.1237882 = score(doc=4157,freq=2.0), product of:
              0.24245487 = queryWeight, product of:
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.05246716 = queryNorm
              0.5105618 = fieldWeight in 4157, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.6210785 = idf(docFreq=1182, maxDocs=44218)
                0.078125 = fieldNorm(doc=4157)
          0.07108576 = weight(_text_:22 in 4157) [ClassicSimilarity], result of:
            0.07108576 = score(doc=4157,freq=2.0), product of:
              0.18373105 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05246716 = queryNorm
              0.38690117 = fieldWeight in 4157, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=4157)
      0.33333334 = coord(2/6)
    
    Source
    Information und Märkte: 50. Deutscher Dokumentartag 1998, Kongreß der Deutschen Gesellschaft für Dokumentation e.V. (DGD), Rheinische Friedrich-Wilhelms-Universität Bonn, 22.-24. September 1998. Hrsg. von Marlies Ockenfeld u. Gerhard J. Mantwill
  19. Larroche-Boutet, V.; Pöhl, K.: ¬Das Nominalsyntagna : über die Nutzbarmachung eines logico-semantischen Konzeptes für dokumentarische Fragestellungen (1993) 0.07
    0.07065746 = product of:
      0.14131492 = sum of:
        0.03487559 = weight(_text_:und in 5282) [ClassicSimilarity], result of:
          0.03487559 = score(doc=5282,freq=12.0), product of:
            0.11628648 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05246716 = queryNorm
            0.29991096 = fieldWeight in 5282, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5282)
        0.0679389 = weight(_text_:anwendung in 5282) [ClassicSimilarity], result of:
          0.0679389 = score(doc=5282,freq=2.0), product of:
            0.2540186 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.05246716 = queryNorm
            0.2674564 = fieldWeight in 5282, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5282)
        0.038500436 = weight(_text_:des in 5282) [ClassicSimilarity], result of:
          0.038500436 = score(doc=5282,freq=6.0), product of:
            0.1452977 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.05246716 = queryNorm
            0.2649762 = fieldWeight in 5282, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5282)
      0.5 = coord(3/6)
    
    Abstract
    Am Anfang nachfolgender Ausführungen werden die für die Indexierung großer textmengen notwendigen strategischen Entscheidungen aufgezeigt: es müssen sowohl das Indexierungsverfahren (menschliche oder automatische Indexierung) als auch die Indexierungssparche (freie, kontrollierte oder natürliche Sprache) ausgewählt werden. Hierbei hat sich die Forschungsgruppe SYDO-LYON für natürlichsprachige automatische Vollindexierung entschieden. Auf der Grundlage der Unterscheidung zwischen prädikativen und referentiellen Textteilen wird d as Nominalsyntagma als kleinste referentielle Texteinheit definiert, dann das für die Konstituierung eines Nominalsyntagmas entscheidende Phänomen der Aktualisierung erläutert und schließlich auf die morphologischen Mittel zur Erkennung des Nominalsyntagmas hingewiesen. Alle Nominalsyntagma eines Textes werden als dessen potentielle Deskriptoren extrahiert, und Hilfsmittel für die Benutzer einer mit diesem Indexierungsverfahren arbeitenden Datenbank werden vorgestellt. Außerdem wird der begriff der Anapher (d.h. die Wiederaufnahme von Nominalsyntagmen durch Pronomen) kurz definiert, ihre Anwendung als Mittel zur Gewichtung des Deskriptorterme (durch Zählung ihrer Häufigkeit im text) aufgezeigt und morphologische uns syntaktische Regeln zur automatischen Bestimmung des von einem anaphorischen Pronomen aufgenommenen Nominalsyntagmas aufgestellt. Bevor abschließend Ziele und Grenzen der Arbeit diskutiert werden, wird noch auf einen Unterschied zwischen Nominalsyntagma und Deskriptorterm hingewiesen: das Nonimalsyntagma verweist auf ein Objekt, das ein Einzelobjekt oder eine Klasse sein kann, der Deskriptorterm verweist immer auf eine Klasse
  20. Nohr, H.: Theorie des Information Retrieval II : Automatische Indexierung (2004) 0.07
    0.069138125 = product of:
      0.13827625 = sum of:
        0.031836912 = weight(_text_:und in 8) [ClassicSimilarity], result of:
          0.031836912 = score(doc=8,freq=10.0), product of:
            0.11628648 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05246716 = queryNorm
            0.27378 = fieldWeight in 8, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
        0.0679389 = weight(_text_:anwendung in 8) [ClassicSimilarity], result of:
          0.0679389 = score(doc=8,freq=2.0), product of:
            0.2540186 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.05246716 = queryNorm
            0.2674564 = fieldWeight in 8, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
        0.038500436 = weight(_text_:des in 8) [ClassicSimilarity], result of:
          0.038500436 = score(doc=8,freq=6.0), product of:
            0.1452977 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.05246716 = queryNorm
            0.2649762 = fieldWeight in 8, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
      0.5 = coord(3/6)
    
    Abstract
    Ein großer Teil der Informationen - Schätzungen zufolge bis zu 80% - liegt in Organisationen in unstrukturierten Dokumenten vor. In der Vergangenheit wurden Lösungen für das Management strukturierter Informationen entwickelt, die es nun auch zu erreichen gilt für unstrukturierte Informationen. Neben Verfahren des Data Mining für die Datenanalyse treten Versuche, Text Mining (Lit. 06) auf die Textanalyse anzuwenden. Um gezielt Dokumente im Repository suchen zu können, ist eine effektive Inhaltserkennung und -kennzeichnung erforderlich, d.h. eine Zuordnung der Dokumente zu Themengebieten bzw die Speicherung geeigneter Indexterme als Metadaten. Zu diesem Zweck müssen die Dokumenteninhalte repräsentiert, d.h. indexiert oder klassifiziert, werden. Dokumentanalyse dient auch der Steuerung des Informations- und Dokumentenflusses. Ziel ist die Einleitung eines "Workflow nach Posteingang". Eine Dokumentanalyse kann anhand erkannter Merkmale Eingangspost automatisch an den Sachbearbeiter oder die zuständige Organisationseinheit (Rechnungen in die Buchhaltung, Aufträge in den Vertrieb) im Unternehmen leiten. Dokumentanalysen werden auch benötigt, wenn Mitarbeiter über einen persönlichen Informationsfilter relevante Dokumente automatisch zugestellt bekommen sollen. Aufgrund der Systemintegration werden Indexierungslösungen in den Funktionsumfang von DMS- bzw. Workflow-Produkten integriert. Eine Architektur solcher Systeme zeigt Abb. 1. Die Architektur zeigt die Indexierungs- bzw. Klassifizierungsfunktion im Zentrum der Anwendung. Dabei erfüllt sie Aufgaben für die Repräsentation von Dokumenten (Metadaten) und das spätere Retrieval.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis

Years

Languages

  • d 167
  • e 39
  • f 2
  • nl 2
  • ru 2
  • a 1
  • m 1
  • More… Less…

Types

  • a 158
  • x 31
  • el 21
  • m 11
  • s 7
  • p 2
  • d 1
  • h 1
  • r 1
  • More… Less…